44 likes

Linkrisikoanalysen: Mögliche Vorgehensweisen

Um direkt mit der richtigen Erwartungshaltung einzusteigen: Linkrisikoanalysen sind aufwändig, benötigen demnach eine Menge Zeit, extrem viele Daten und einiges an Erfahrung im Umgang mit Links im Allgemeinen. Eine voll automatisierte, 100% akkurate Lösung zur Linkrisikoanalyse existiert nicht! Selbstverständlich gibt es Tools, die die Arbeit signifikant vereinfachten können, aber es geht nicht ohne gesunden Menschenverstand und – schlussendlich – manuelles Überprüfen! Im Folgenden wird das Vorgehen exemplarisch mit dem aktuellen de-facto Standardtool, den LinkResearchTools.com (kurz LRT), skizziert. Die LRT enthalten, speziell zur Bewertung von potenziellen Linkrisiken, das so genannte Tool Link Detox, welches eine Regelwerk-basierte Betrachtung und Bewertung für jeden einzelnen Link des jeweiligen Linkprofiles vornimmt. Diese einzelnen Werte ergeben schlussendlich, vereinfacht formuliert, eine Gesamtbewertung und weiterhin erfolgt die Klassifizierung in entsprechende Risikokategorien. Wie bereits zu Beginn erwähnt, ist jedes Tool nur so gut, wie die vorhandene Datenbasis. Aus diesem Grunde sollten mindestens die Links aus den Google Webmaster Tools exportiert und als CSV Datei dem Link Detox Modul zur Verfügung gestellt werden, da diese Daten kostenlos zur Verfügung stehen. Grundsätzlich gilt aber ganz klar, desto mehr Daten, desto genauer die Betrachtung bzw. Bewertung des Profils. Sofern möglich und verfügbar, sollten Sie darüber hinaus folgende (größtenteils kostenpflichtigen) Datenquellen ebenfalls in Betracht ziehen:

  • Majestic.com (via API oder die Export-Option "Advanced Report")
  • ahrefs.com (ebenfalls via API oder die Export-Option "Raw Data Export")
  • Searchmetrics Suite – Backlink Research (100.000 via Export; ansonsten per API)
  • Sistrix Toolbox – Linkmodul (via API)

Und selbstverständlich sind etwaige Listen aus vergangenen Linkaufbau-Aktivitäten "pures Gold" – analysieren Sie diese unbedingt zu aller erst! Nicht selten lassen sich hier bereits erste (hausgemachte) Probleme feststellen.

Weitere Gründe, die für den Einsatz der LRT sprechen, sind die automatische De-Duplizierung der Linkdaten (denn nicht selten gibt es teilweise Überschneidungen der Tool- bzw. Datenanbieter) sowie die darauf folgende Live-Validierung. Es wird, vor dem Erstellen des Reports, für jeden Link überprüft, ob dieser tatsächlich auch noch vorhanden ist. Sie können dann bei Ihrer Arbeit getrost alle toten Links herausfiltern und den Arbeitsaufwand so signifikant minimieren. 

LRTs Link Detox in der Praxis

Das Verwenden des Link Detox Tools ist denkbar einfach: Sie definieren die zu analysierende Domain (und wählen unbedingt die Analysefunktion "mit und ohne www", denn häufig werden ansonsten Links übersehen) und wählen das Themenumfeld der Domaininhalte aus. Weiterhin sollten Sie angeben, ob die Domain manuelle Maßnahmen aufweist und, sofern bereits verwendet, das aktuelle Disavow-File hochladen (beides ist selbstverständlich nur dann möglich, wenn Sie eine eigene Domain analysieren; für fremde Domains können Sie diese beiden Punkte einfach ignorieren). Zu guter Letzt ergänzen Sie den Report um die eingangs genannten, externen Linkdaten (sofern vorhanden) und starten dann einen DTOX Report im "klassischen Modus". Danach dauert es, je nach Menge der zu analysierenden Links (und Systemauslastung) von mehreren Minuten bis hin zu einigen Stunden, bevor der fertige Report entsprechend zur Verfügung steht.

In der Praxis hat es sich bewährt, entweder mit der hier gezeigten Risikoverteilung zu arbeiten und mit den "kritischsten" Links zu beginnen (Sie sollten in jedem Fall die Links der Kategorie "Hoch" überprüfen)  oder alternativ in den Tab "Regel Verteilung" wechseln, um dort die für Sie relevanten Regeln zu identifizieren und diese entsprechend abzuarbeiten. Selbstverständlich lassen sich diese Vorgehensweisen auch entsprechend kombinieren oder um einen Filter ergänzen, der diese Regeln nur auf kommerzielle Anchortexte anwendet.

Egal für welche Vorkategorisierung Sie sich auch entscheiden mögen, es folgt der wohl am wenigsten spannende Teil der Analysearbeiten: Das manuelle Review der einzelnen Links. Im Klartext bedeutet das nichts anderes, als dass Sie, je nach Umfang des Linkprofils, die kommenden Stunden (oder Tage bzw. Wochen) damit verbringen werden, viele schöne und weniger schöne Webseiten zu besuchen, um Linkintegrationen anzuschauen und zu bewerten. Achten Sie in dem Zusammenhang übrigens auch unbedingt darauf, einen aktuellen Virenscanner auf Ihrem System installiert zu haben.

Selbstverständlich könnten Sie sich jetzt die gefilterten Daten aus dem Link Detox Report als Excel Spreadsheet exportieren und von dort jeden Link öffnen und entsprechend mit Kommentaren versehen, es geht aber auch deutlich effizienter: Mit dem Link Detox Screener, die Funktionsweise ist hier detailliert erklärt.  

Ich hab "schlechte" Links – was nun?

Grundsätzlich stehen beim Linkmanagement drei mögliche Vorgehensweisen zur Verfügung:

1. Gezielter Abbau von (möglicherweise) schlechten Linkquellen

2. Verwenden des Disavow Tools für einzelne Links oder ganze Domains

3. Warten und hoffen, dass Google zukünftig in der Lage ist, schlechte Links 100%ig zu erkennen (sowie automatisch zu entwerten). Und natürlich darauf zu vertrauen, dass diese Links bis dahin keinen Schaden anrichten.

Die Praxis zeigt, dass die dritte Variante – zum aktuellen Zeitpunkt – nicht funktioniert. Das Auswerten von mehreren hundert Beispiellinks, die Google für verschiedenste Domains zur Verfügung gestellt hat, zeigt ganz klar, dass ein signifikanter Anteil manueller Maßnahmen für Linkaufbau-Aktivitäten aus den Jahren 2009 bis 2011 verhängt wurde. Das erscheint insofern auch wenig überraschend, als dass in den vorgenannten Jahren der Linkaufbau über Artikelverzeichnisse, Foren, Web-Directories und andere, kaum relevante Linkquellen, den Markt extrem dominiert hat.

Geht man allerdings davon aus, dass Google die Betrachtung der einzelnen Signale weiter verbessern und verschärfen wird, scheint es durchaus angebracht, sich zeitnah von etwaigen Altlasten zu befreien, auch wenn sich zum aktuellen Zeitpunkt noch keine Performance-Einbußen (im Sinne von Traffic und / oder Rankings) feststellen lassen. Das größte Problem beim Linkabbau / Disavow ist, dass Google keine klaren Informationen darüber preisgibt, welche Links tatsächlich schlecht oder gar schädlich sind – dies hat häufig zur Folge, dass deutlich mehr Links entwertet werden, als eigentlich notwendig. Dies führt nicht selten zu unnötigen Performanceeinbußen der betroffenen Domains.

Grundsätzlich ist Linkabbau der Verwendung des Disavow-Tools vorzuziehen – zumindest dann, wenn es eine echte Chance auf Entfernung der jeweiligen Linkquelle gibt. Das Web befindet sich in konstanter Veränderung. Glaubt man Googles Zahlen, so verändern sich bis zu 15% des gesamten Internets (bzw. URL-Bestandes) täglich. In diesem Zusammenhang erscheint es vollkommen normal, dass einige URLs entsprechend nicht mehr verfügbar sind und mit einem HTTP 404 oder 410 Statuscode antworten. Somit gilt im Linkabbau: Im besten Fall – und zur Vermeidung potenzieller Muster – gehen minderwertige Linkquellen offline und liefern einen der vorgenannten Statuscodes aus. Google entfernt die betroffene Linkquelle nach mehrmaligem Aufrufen ebenfalls. Nicht immer ist es allerdings möglich, Linkquellen offline nehmen zu lassen – bei Scraper oder anderen, nahezu "verwahrlosten" Sites ist die Chance auf eine Antwort und entsprechende Entfernung gering bis nicht vorhanden – hier kann das Disavow Tool helfen. Eine detaillierte Anleitung zur Verwendung des Tools inkl. Checklist zu einem Reconsideration Request gibt’s hier im Peak Ace Blog.

Eine kleine Warnung zum Schluss

Das Thema Link Audits ist keineswegs trivial und Googles Kommunikation mit Seitenbetreibern, wenn überhaupt vorhanden, nur selten wirklich hilfreich. Bevor Sie vermeintlich schlechte Links abbauen oder gar mittels des Disavow Link Tools melden, konsultieren Sie unbedingt einen Berater bzw. eine Agentur für eine zweite Meinung um etwaige Kollateralschaden zu vermeiden.

Und bitte denken Sie auch daran, dieses Prozedere regelmäßig zu wiederholen, denn nicht nur reaktives Linkmanagement, sondern der pro aktive Umgang mit Ihrem Linkprofil hilft schlussendlich, Ihre Seite vor möglichen, Performance-Einbußen oder gar Abstrafungen zu schützen.

Zum Autor:

Bastian Grimm, blickt auf mehr als zehn Jahren Erfahrung im Online Marketing zurück. Bei der international tätigen Performance-Marketing Agentur Peak Ace mit Sitz in Berlin ist er für die Bereiche Suchmaschinenoptimierung (SEO) sowie Content & Online PR verantwortlich. Grimm ist zudem häufiger Speaker auf verschiedensten Konferenzen und Veranstaltungen im In- und Ausland (u.a. SMX, ISS, SES, SEOkomm, etc.). Bevor er sich ganz seinen eigenen Projekten widmete, war Bastian für den Aufbau verschiedener Marketing-Teams verantwortlich, z.B. bei der Fox Mobile Group und verantwortete dort die SEO Aktivitäten in 25+ Ländern und für 100+ Portale.

II. Onpage Analyse-Tools

II. Onpage Analyse-Tools

Onpage Tools sind eine nützliche Unterstützung, um die eigene Website auf wichtige SEO-Faktoren hin zu überprüfen. Sie decken mögliche Fehlerquellen auf und erkennen mit Hilfe von sog. Crawlern, die die Seite gründlich untersuchen, an welcher Stelle es Verbesserungsbedarf gibt. Die folgenden drei Tools halten wir für essentiell.

Xenu’s Link Sleuth: Das ist ein kostenloses Tool, welches defekte Verlinkungen auf Ihrer Webpräsenz aufspürt. Nach Eingabe der URL startet die Analyse der Seite, und der User erhält im Anschluss einen umfassenden Report, aus dem beispielsweise Statuscode-Fehler hervorgehen. Dank genauer Angabe der Fehlerquellen kann das Problem direkt behoben werden.

Screaming Frog SEO Spider: Hierbei handelt es sich um ein einfach händelbares Desktop-Programm, welches ebenfalls kostenlos erhältlich ist. Es liefert recht umfangreiche Informationen über Onpage-Elemente der jeweiligen Website. Dazu gehört eine Auswertung aller Verlinkungen sowie deren Status, aber auch wichtiger Elemente wie die Meta Description, Meta Keywords und Anchor Text. Eine Export-Funktion ermöglicht das Übertragen in Excel.

Strucr.com: Ein Online-Dienst, der besonders für größere Webseiten eine gute Hilfestellung ist. Auch hier wird die gewünschte Seite mit einem Crawler durchsucht. Dabei überprüft das Tool die Seitenstruktur und liefert im Anschluss mehrere „Hints“, die SEO-relevant sein können. Dies können zu lange Seitentitel oder Fehler in den URLs sein. Es lohnt sich stets, diese Hinweise  zu kontrollieren, auch wenn es sich nicht immer um Fehlerquellen handeln muss, die sich aus SEO-Sicht negativ auswirken.

SEO-Tools erleichtern den SEO-Alltag ungemein,
da sie alle Optimierungsmaßnahmen abbilden.

III. Offpage Analyse-Tools

Dank zahlreicher Offpage Analyse-Tools ist es möglich, wichtige ergänzende Daten für die Backlinks zu erhalten und zu verwalten. In kürzester Zeit können sich User einen umfassenden Überblick über vorhandene Backlinkstrukturen verschaffen und diese entsprechend dokumentieren.

Open Site Explorer: Open Site Explorer wurde von SEOmoz entwickelt und eignet sich als gute Ergänzung zu den allgemeinen Tools wie Sistrix und Co. Es erleichtert die Erfassung und schafft mehr Transparenz im Bereich der Backlinkdaten. Mit dem zur Verfügung gestellten Webindex können Linkstrukturen analysiert und abgebildet werden.
Majestic SEO: Majestic SEO ist ein weiteres nützliches Backlinktool, welches Zugang zum eigens entwickelten Index bietet. Sämtliche Daten aus dem sogenannten „Fresh Index“ sind wie der Name schon sagt immer aktuell. Zusätzlich können die Backlinks rückblickend über einen längeren Zeitraum analysiert werden, dazu dient der „Historic Index“. Majestics greift dabei zur Zeit auf weit über 3 Billionen URLs im Historic Index und 140 Milliarden URLs im Fresh Index zurück.
Raven Tools: Der Vorteil von Raven Tools ist hauptsächlich die hohe Datenqualität. In übersichtlicher Form lassen sich Keywords und Backlinks sowohl recherchieren als auch dokumentieren.  Sämtliche Backlinks können in den vorhandenen Link-Manager importiert und ausgewertet werden. Außerdem ist mit Hilfe dieser Daten eine Wettbewerbsanalyse möglich.

Mehr Erfolg durch mehr Einblendungen?

Mehr Erfolg durch mehr Einblendungen?

Es kann durchaus sinnvoll sein, mit einem kleinen Häkchen in den Einstellungen zu entscheiden, dass Ihre Werbung auch in der Google-Produktsuche, in den Groups, bei amazon.de und bei aol.com erscheint. Oder bei Partner-Websites im Display-Netzwerk, also auf Seiten wie meinestadt.de oder ciao.com. Sie sollten allerdings bedenken, dass die Einblendung Ihrer Anzeigen sich zum Teil nicht nur an den eingegebenen Suchbegriffen orientiert, sondern auch an rein inhaltlichen Themen Ihrer ausgewählten Keywords oder dem Namen Ihrer URL. Ob diese Option empfehlenswert ist, lässt sich nicht pauschal sagen. Der einzig sinnvolle Vorschlag für den Einzelfall: Ausprobieren!

Lassen Sie zu Beginn etwas Vorsicht walten, wagen Sie den Test also zunächst mit einer Kampagne und einem für Sie entbehrlichen maximalen Tagesbudget. Dabei bietet es sich an, bei dieser Aktion keine „weitgehend passenden“ Keywords auszuwählen, um die Streuverluste bestmöglich in Grenzen zu halten. Dann lehnen Sie sich entspannt zurück oder widmen sich dem Tagesgeschäft und warten ab.

Wenn Sie nach einigen Stunden oder Tagen feststellen, dass zwar Tausende von offensichtlich irrelevanten Einblendungen erfolgt sind, aber wohl nur Interessenten auf Ihrer Seite waren, die Sie nicht wirklich ansprechen wollten, dann steht es Ihnen immer noch frei, einige Einstellungen zu ändern (Keywords, Region, Zeiten). Sie können auch durch das Einrichten von sogenannten Placements ausschließlich be­stimmte Websites im Display-Netzwerk auswählen, auf denen Sie Ihre Anzeigen sehen möchten. Sind die Ergebnisse auch dann nicht zufriedenstellend, beschränken Sie sich vorerst einmal auf die „Google-Suche“.

Tipps zur Auswahl der Keywords

Für den Anfang Ihrer Kampagne gilt:

  • Besser viele günstige, als wenige teure Keywords.
  • Zu Beginn lieber etwas mehr bieten. Dann blendet das System die Anzeigen auch entsprechend eher ein und Sie können so erfahren, wie populär Ihre Anzeigen sind. Wenn der Qualitätsfaktor stimmt und Ihre Anzeige oft angeklickt wird, wird dies wiederum mit besseren Plätzen belohnt werden. Später können Sie dann durchschnittliche Positionen prüfen und einzelne Gebote senken, falls dies sinnvoll scheint.
  • Für jedes Suchwort individuell entscheiden, ob Sie unbedingt ganz oben erscheinen müssen – ansonsten Gebot reduzieren. Position 14 ist nicht ratsam, die ersten beiden Plätze sind aber auch nicht immer ein Muss. Beobachten Sie Ihr Wettbewerbsumfeld im Netz und entscheiden Sie individuell, wann Sie ganz vorne mit dabei sein möchten und wann es sich für Sie nicht lohnt.

Was darf Ihr Erfolg kosten?

Das AdWords-System basiert auf dem simplen Prinzip: Angebot und Nachfrage regeln den Preis. Sie nennen für jedes gebuchte Suchwort den Höchstpreis, den Sie zu zahlen bereit sind, falls ein Interessent auf Ihre Anzeige klickt. Außerdem geben Sie für jede Kampagne ein Tagesbudget an, also den Höchstbetrag ein, den Sie bereit sind, täglich auszugeben. Je nach Branche, Produkt oder Dienstleistung können Sie bereits mit ein bis zehn Euro pro Tag dabei sein. Auf Ihrem Konto können Sie jederzeit und für jeden beliebigen Zeitraum einsehen, welche Kosten sich bei welcher Kampagne schon summiert haben – und bei Bedarf gleich korrigierend eingreifen. Die Preisfrage, im wahrsten Sinne des Wortes, ist natürlich: Welches Budget ist verfügbar oder ist sinnvoll? Was aber ganz sicher keinen Sinn ergibt: Ohne Erfahrung im ersten Monat das ge­samte Jahresbudget zu verspielen. Die erste Überlegung könnte also lauten: Mit kleinem Budget beginnen, und wenn alles gut läuft, schrittweise erhöhen.

Hier einige Zahlen, mit denen Sie als Gründer arbeiten könnten: Für die ersten zwei Monate je 200 Euro zum Experimentieren einsetzen oder, für die ersten Tage, 10 Euro Tagesbudget. Wenn die Anzeigen regelmäßig eingeblendet werden, alles noch optimiert werden konnte und etwas Routine eingekehrt ist, schrauben Sie das Monatsbudget auf 25 oder 50 Euro zurück – insgesamt oder pro Kampagne. Je nach Branche oder Werbeziel ist dies mit etwas Disziplin durchaus machbar. Denn warum sollten Sie für Ihren Werbeerfolg mehr bezahlen, als unbedingt notwendig?

Wenn Sie AdWords beispielsweise für einen Online-Shop im großen Stil einsetzen wollen, sollten Sie natürlich entsprechenden Aufwand in die Kalkulation stecken: Sie könnten sich ausrechnen, wie viel Sie am Verkauf eines Artikels verdient, wie viele Interessenten auf Ihre Anzeige geklickt haben und wie viel Sie folglich maximal pro Klick bieten können. Dies setzt wiederum voraus, dass Sie beispielsweise über ein Zählpixel bei der Bestellung nachvollziehen können, über welches Suchwort der Kauf zustande kam.