44 likes

Linkrisikoanalysen: Mögliche Vorgehensweisen

Um direkt mit der richtigen Erwartungshaltung einzusteigen: Linkrisikoanalysen sind aufwändig, benötigen demnach eine Menge Zeit, extrem viele Daten und einiges an Erfahrung im Umgang mit Links im Allgemeinen. Eine voll automatisierte, 100% akkurate Lösung zur Linkrisikoanalyse existiert nicht! Selbstverständlich gibt es Tools, die die Arbeit signifikant vereinfachten können, aber es geht nicht ohne gesunden Menschenverstand und – schlussendlich – manuelles Überprüfen! Im Folgenden wird das Vorgehen exemplarisch mit dem aktuellen de-facto Standardtool, den LinkResearchTools.com (kurz LRT), skizziert. Die LRT enthalten, speziell zur Bewertung von potenziellen Linkrisiken, das so genannte Tool Link Detox, welches eine Regelwerk-basierte Betrachtung und Bewertung für jeden einzelnen Link des jeweiligen Linkprofiles vornimmt. Diese einzelnen Werte ergeben schlussendlich, vereinfacht formuliert, eine Gesamtbewertung und weiterhin erfolgt die Klassifizierung in entsprechende Risikokategorien. Wie bereits zu Beginn erwähnt, ist jedes Tool nur so gut, wie die vorhandene Datenbasis. Aus diesem Grunde sollten mindestens die Links aus den Google Webmaster Tools exportiert und als CSV Datei dem Link Detox Modul zur Verfügung gestellt werden, da diese Daten kostenlos zur Verfügung stehen. Grundsätzlich gilt aber ganz klar, desto mehr Daten, desto genauer die Betrachtung bzw. Bewertung des Profils. Sofern möglich und verfügbar, sollten Sie darüber hinaus folgende (größtenteils kostenpflichtigen) Datenquellen ebenfalls in Betracht ziehen:

  • Majestic.com (via API oder die Export-Option "Advanced Report")
  • ahrefs.com (ebenfalls via API oder die Export-Option "Raw Data Export")
  • Searchmetrics Suite – Backlink Research (100.000 via Export; ansonsten per API)
  • Sistrix Toolbox – Linkmodul (via API)

Und selbstverständlich sind etwaige Listen aus vergangenen Linkaufbau-Aktivitäten "pures Gold" – analysieren Sie diese unbedingt zu aller erst! Nicht selten lassen sich hier bereits erste (hausgemachte) Probleme feststellen.

Weitere Gründe, die für den Einsatz der LRT sprechen, sind die automatische De-Duplizierung der Linkdaten (denn nicht selten gibt es teilweise Überschneidungen der Tool- bzw. Datenanbieter) sowie die darauf folgende Live-Validierung. Es wird, vor dem Erstellen des Reports, für jeden Link überprüft, ob dieser tatsächlich auch noch vorhanden ist. Sie können dann bei Ihrer Arbeit getrost alle toten Links herausfiltern und den Arbeitsaufwand so signifikant minimieren. 

LRTs Link Detox in der Praxis

Das Verwenden des Link Detox Tools ist denkbar einfach: Sie definieren die zu analysierende Domain (und wählen unbedingt die Analysefunktion "mit und ohne www", denn häufig werden ansonsten Links übersehen) und wählen das Themenumfeld der Domaininhalte aus. Weiterhin sollten Sie angeben, ob die Domain manuelle Maßnahmen aufweist und, sofern bereits verwendet, das aktuelle Disavow-File hochladen (beides ist selbstverständlich nur dann möglich, wenn Sie eine eigene Domain analysieren; für fremde Domains können Sie diese beiden Punkte einfach ignorieren). Zu guter Letzt ergänzen Sie den Report um die eingangs genannten, externen Linkdaten (sofern vorhanden) und starten dann einen DTOX Report im "klassischen Modus". Danach dauert es, je nach Menge der zu analysierenden Links (und Systemauslastung) von mehreren Minuten bis hin zu einigen Stunden, bevor der fertige Report entsprechend zur Verfügung steht.

In der Praxis hat es sich bewährt, entweder mit der hier gezeigten Risikoverteilung zu arbeiten und mit den "kritischsten" Links zu beginnen (Sie sollten in jedem Fall die Links der Kategorie "Hoch" überprüfen)  oder alternativ in den Tab "Regel Verteilung" wechseln, um dort die für Sie relevanten Regeln zu identifizieren und diese entsprechend abzuarbeiten. Selbstverständlich lassen sich diese Vorgehensweisen auch entsprechend kombinieren oder um einen Filter ergänzen, der diese Regeln nur auf kommerzielle Anchortexte anwendet.

Egal für welche Vorkategorisierung Sie sich auch entscheiden mögen, es folgt der wohl am wenigsten spannende Teil der Analysearbeiten: Das manuelle Review der einzelnen Links. Im Klartext bedeutet das nichts anderes, als dass Sie, je nach Umfang des Linkprofils, die kommenden Stunden (oder Tage bzw. Wochen) damit verbringen werden, viele schöne und weniger schöne Webseiten zu besuchen, um Linkintegrationen anzuschauen und zu bewerten. Achten Sie in dem Zusammenhang übrigens auch unbedingt darauf, einen aktuellen Virenscanner auf Ihrem System installiert zu haben.

Selbstverständlich könnten Sie sich jetzt die gefilterten Daten aus dem Link Detox Report als Excel Spreadsheet exportieren und von dort jeden Link öffnen und entsprechend mit Kommentaren versehen, es geht aber auch deutlich effizienter: Mit dem Link Detox Screener, die Funktionsweise ist hier detailliert erklärt.  

Ich hab "schlechte" Links – was nun?

Grundsätzlich stehen beim Linkmanagement drei mögliche Vorgehensweisen zur Verfügung:

1. Gezielter Abbau von (möglicherweise) schlechten Linkquellen

2. Verwenden des Disavow Tools für einzelne Links oder ganze Domains

3. Warten und hoffen, dass Google zukünftig in der Lage ist, schlechte Links 100%ig zu erkennen (sowie automatisch zu entwerten). Und natürlich darauf zu vertrauen, dass diese Links bis dahin keinen Schaden anrichten.

Die Praxis zeigt, dass die dritte Variante – zum aktuellen Zeitpunkt – nicht funktioniert. Das Auswerten von mehreren hundert Beispiellinks, die Google für verschiedenste Domains zur Verfügung gestellt hat, zeigt ganz klar, dass ein signifikanter Anteil manueller Maßnahmen für Linkaufbau-Aktivitäten aus den Jahren 2009 bis 2011 verhängt wurde. Das erscheint insofern auch wenig überraschend, als dass in den vorgenannten Jahren der Linkaufbau über Artikelverzeichnisse, Foren, Web-Directories und andere, kaum relevante Linkquellen, den Markt extrem dominiert hat.

Geht man allerdings davon aus, dass Google die Betrachtung der einzelnen Signale weiter verbessern und verschärfen wird, scheint es durchaus angebracht, sich zeitnah von etwaigen Altlasten zu befreien, auch wenn sich zum aktuellen Zeitpunkt noch keine Performance-Einbußen (im Sinne von Traffic und / oder Rankings) feststellen lassen. Das größte Problem beim Linkabbau / Disavow ist, dass Google keine klaren Informationen darüber preisgibt, welche Links tatsächlich schlecht oder gar schädlich sind – dies hat häufig zur Folge, dass deutlich mehr Links entwertet werden, als eigentlich notwendig. Dies führt nicht selten zu unnötigen Performanceeinbußen der betroffenen Domains.

Grundsätzlich ist Linkabbau der Verwendung des Disavow-Tools vorzuziehen – zumindest dann, wenn es eine echte Chance auf Entfernung der jeweiligen Linkquelle gibt. Das Web befindet sich in konstanter Veränderung. Glaubt man Googles Zahlen, so verändern sich bis zu 15% des gesamten Internets (bzw. URL-Bestandes) täglich. In diesem Zusammenhang erscheint es vollkommen normal, dass einige URLs entsprechend nicht mehr verfügbar sind und mit einem HTTP 404 oder 410 Statuscode antworten. Somit gilt im Linkabbau: Im besten Fall – und zur Vermeidung potenzieller Muster – gehen minderwertige Linkquellen offline und liefern einen der vorgenannten Statuscodes aus. Google entfernt die betroffene Linkquelle nach mehrmaligem Aufrufen ebenfalls. Nicht immer ist es allerdings möglich, Linkquellen offline nehmen zu lassen – bei Scraper oder anderen, nahezu "verwahrlosten" Sites ist die Chance auf eine Antwort und entsprechende Entfernung gering bis nicht vorhanden – hier kann das Disavow Tool helfen. Eine detaillierte Anleitung zur Verwendung des Tools inkl. Checklist zu einem Reconsideration Request gibt’s hier im Peak Ace Blog.

Eine kleine Warnung zum Schluss

Das Thema Link Audits ist keineswegs trivial und Googles Kommunikation mit Seitenbetreibern, wenn überhaupt vorhanden, nur selten wirklich hilfreich. Bevor Sie vermeintlich schlechte Links abbauen oder gar mittels des Disavow Link Tools melden, konsultieren Sie unbedingt einen Berater bzw. eine Agentur für eine zweite Meinung um etwaige Kollateralschaden zu vermeiden.

Und bitte denken Sie auch daran, dieses Prozedere regelmäßig zu wiederholen, denn nicht nur reaktives Linkmanagement, sondern der pro aktive Umgang mit Ihrem Linkprofil hilft schlussendlich, Ihre Seite vor möglichen, Performance-Einbußen oder gar Abstrafungen zu schützen.

Zum Autor:

Bastian Grimm, blickt auf mehr als zehn Jahren Erfahrung im Online Marketing zurück. Bei der international tätigen Performance-Marketing Agentur Peak Ace mit Sitz in Berlin ist er für die Bereiche Suchmaschinenoptimierung (SEO) sowie Content & Online PR verantwortlich. Grimm ist zudem häufiger Speaker auf verschiedensten Konferenzen und Veranstaltungen im In- und Ausland (u.a. SMX, ISS, SES, SEOkomm, etc.). Bevor er sich ganz seinen eigenen Projekten widmete, war Bastian für den Aufbau verschiedener Marketing-Teams verantwortlich, z.B. bei der Fox Mobile Group und verantwortete dort die SEO Aktivitäten in 25+ Ländern und für 100+ Portale.


Diese Artikel könnten Sie auch interessieren:

Wie umkämpft sind Ihre Keywords?

Wie umkämpft sind Ihre Keywords?

Außerdem müssen Keywords dahingehend bewertet werden, wie umkämpft/gefragt sie sind. Selbstverständlich ist die Annahme schön, auf einem Keyword mit mehreren tausend Suchanfragen am Tag gut zu ranken. Die Realität sieht jedoch leider meist anders aus – insbesondere bei neuen Webseiten wird man sich zunächst mit Rankings auf weniger stark umkämpften Keywords zufrieden geben müssen, da Suchmaschinen ältere, natürlich gewachsene Do­mains bevorzugen und diese – normalerweise – deutlich mehr eingehende Verlinkungen aufweisen als neue Projekte.

Stark um­kämpfte Keywords erkennen Sie unter anderem daran, dass starke Konkurrenten die Top-Ten der Suchergebnisse mit starken Rankings blockieren. Um in diesem Fall Top-Rankings zu erzielen und die Konkurrenz zu verdrängen, können Monate oder gar Jahre ins Land ziehen. Konzentrieren Sie sich also auf solche Keywords, bei denen Sie Ergebnisse in einem für Sie angemessenen Zeitraum erwarten können.

Durch eine ausführliche Keyword-Recherche lernen Sie auch Ihre potenziellen Kunden besser kennen.

II. Technische und inhaltliche Optimierung der Webseite

Im besten Fall haben wir nach der Keyword-Recherche eine Übersicht über alle Unterseiten sowie je Seite zwei bis drei Keywords, auf denen die entsprechende Seite ranken soll. Außerdem  wissen wir, welche sog. Longtail-Suchanfragen durch die Optimierung der Webseite abgedeckt werden sollen. Am Beispiel des Computerzubehörs könnte man beispielsweise erwarten, dass auch Suchanfragen wie „tastaturen on­line“, „tastaturen shop“, „tastaturen online shop“ etc. durch die Onpage-Optimierung abgebildet werden. Der Longtail zeichnet sich dadurch aus, dass die einzelnen Suchanfragen relativ wenig Traffic aufweisen, in der Masse zu­sammen genommen jedoch meist deutlich mehr Traffic als einzelne Top-Keywords erzeugen.

Von dieser Liste ausgehend muss nun jede Unterseite auf die Optimierung der Keywords ausgerichtet werden. Im Folgenden werden wir einige relevante Rankingfaktoren vorstellen, ohne dabei Wert auf Vollständigkeit zu legen. Dies würde den Rahmen des Artikels bzw. unserer kleinen Serie sprengen. Wir un­terteilen die Maßnahmen in technische und inhaltliche Suchmaschinenoptimierung.

Die Kombilösung

Zusammenspiel von externer und interner Lösung

Die Fokussierung ausschließlich auf einen Inhouse SEO bzw. eine Agentur hat viele Vor- und Nachteile. Für Unternehmen, die ihren Fokus auf das Online-Geschäft gelegt haben, für die also SEO ein wichtiger Bestandteil des Marketing-Mixes ist, und die über die notwendigen finanziellen Mittel verfügen, ist es also ratsam, über eine Mischung aus interner und externer Lösung nachzudenken. Sofern man SEO als weniger relevant ansieht oder nicht über die finanziellen Mittel einer optimalen Lösung verfügt, sollte man die oben vorgestellten Argumente "pro Inhouse-SEO" bzw. "pro SEO-Agentur" ausgiebig abwägen, um die für das Unternehmen optimale Entscheidung treffen zu können.

Neben der Frage, welche Rolle SEO allgemein im Unternehmen spielt, sei auch darauf hingewiesen, dass Agenturen bzw. Inhouse SEOs aus Erfahrung verschiedene Disziplinen im SEO-Prozess unterschiedlich gut abbilden können. Wie bereits aus den Argumenten, die für die interne Lösung sprechen, deutlich wird, ist der Inhouse SEO mehr im Unternehmen integriert als der Mitarbeiter einer Agentur und kann daher SEO-Prozesse deutlich leichter priorisieren. Daher ist der Inhouse SEO bei Fragen der technischen SEO meist von Vorteil - schließlich kann er Vorschläge direkt mit den richtigen Ansprechpartnern ausdiskutieren und somit zu einer schnelleren Lösung beitragen, als dies die Agentur könnte.

Offpage-Maßnahmen wie etwa das Linkmarketing lassen sich häufig aufgrund der jahrelangen Expertise in den unterschiedlichsten Branchen besser von Agenturen abbilden. Die Mitarbeiter einer Agentur verfügen gebündelt über ein enormes Kontaktnetzwerk. Die Synergieeffekte zwischen Inhouse SEO und Agentur führen unserer Erfahrung nach für (Online-)Unternehmen zu den optimalen Ergebnissen. Allerdings kann man nicht allgemein festhalten, ob es sinnvoll ist, mit einer Agentur, einem Inhouse SEO oder einer Kombination aus beidem zusammen zu arbeiten. Diese Entscheidung muss jeder auf Basis der oben genannten Argumente und Kenntnis der eigenen Prozesse und des Lebenszyklus des Unternehmens eigenständig entscheiden.

Vorschau: Im letzten Teil der Serie behandeln wir die Messfaktoren und die Tools, mit denen Sie Ihre SEO-Aktivitäten prüfen und überwachen können.

Die Autoren dieser Serie:

Andre Alpar ist Partner bei der AKM3.de (spezialisiert auf internationales SEO & Linkmarketing und CMO beim Zigarren Versender Noblego.de. Zuvor war er als Marketing Director bei Rocket Internet im Führungsteam tätig.

Markus Koczy ist Geschäftsführer der SEO-Agentur AKM3 GmbH. Er berät Unternehmen in den Bereichen SEO, SEM, SMM und Reputation Management und ist auf internationales Linkmarketing spezialisiert, www.akm3.de