Linkrisiko-Analysen im SEO: Wie geht es richtig?

SEO-Experte Bastian Grimm gewährt Einblicke

Autor: Bastian Grimm
44 likes

Nie zuvor hat sich der Suchmaschinenprimus Google dem Thema Linkqualität in einer solchen Intensität angenommen, wie in den Jahren 2013 und 2014. Wir sind mittlerweile beim Google Penguin Update Version 3.0 angelangt (letzte "offizielle" Aktualisierung war im Oktober 2014) und konnten eine Vielzahl manueller Maßnahmen – auch gegen populäre Marken der deutschen bzw. internationalen Online-Branche – beobachten. Und nicht zuletzt sind diverse Werkzeuge, wie das "Manual Actions-" sowie "Disavow Links-Tab" in den Google Webmaster Tools klare Indikatoren dafür, dass Google den minderwertigen Links nun endgültig den Garaus machen wird. Zeit, das eigene Linkprofil noch besser kennen zu lernen, um möglichen Problemen vorzubeugen.

Erstmalig in der Geschichte des Marktführers Google wurde im Jahr 2012 eine dedizierte Komponente im Algorithmus verankert, die sich exklusiv mit der (verbesserten) Bewertung von Links und deren Qualität beschäftigt. Mit dem initialen Rollout des so genannten Google Penguin Updates im April 2012 erschütterte Google die SEO-Branche. Viele, nicht selten lang etablierte und bekannte Domains, verloren nach dieser Algorithmus-Anpassung massiv an organischen Rankings und hatten bzw. haben demzufolge mit signifikanten Trafficverlusten zu kämpfen. Googles ausgesprochenes Ziel mit der Algorithmus-Veränderung "[…] to reduce webspam and promote high quality content." – ist in gewohnter Google Manier relativ abstrakt und erst einmal nicht unbedingt hilfreich. Sicherlich, die Zielsetzung ist klar: bessere Ergebnisse. Aber für den geneigten SEO steht doch klar das "wie" im Fokus bzw. die Frage: Was hat sich in der Bewertung von Links konkret geändert und wo scheint es nunmehr erforderlich, zukünftig genauer hinzuschauen bzw. möglicherweise auch anders zu arbeiten?

Starten wir aber zu Beginn mit einem Blick auf das komplette Arsenal von Möglichkeiten bzw. Maßnahmen, mit denen Google derzeit arbeitet. Denn es ist bei Weitem nicht immer nur der veränderte Algorithmus, welcher als mögliche Ursache für eine schlechtere Performance der Domain in Frage kommt.

Algorithmische Filter

Um manipulativen Linkaufbau erkennen zu können, benötigt man grundsätzlich nichts weiter als ein (oder gar mehrere) Muster ("Patterns") sowie Vergleichs- bzw. Schwellwerte ("Thresholds") gegen die die jeweiligen Daten ausgewertet werden können. Ein relativ häufig verwendeter Filter reagiert beispielsweise auf (kombinierte) Werte in Bezug auf das Linkwachstum einer Domain. Hier könnten unter anderem die folgenden Dimensionen betrachtet werden:

  • Die Anzahl neuer Links über einen gewissen Zeitraum gemessen (beispielsweise innerhalb der letzten X Wochen)
  • Die Art der verwendeten Linktexte (beispielsweise die Ratio von kommerziellen, so genannten Money-Keywords vs. Brand-Links im Vergleich)
  • Das Wachstum eingehender Links für bzw. auf bestimmte URLs und / oder Verzeichnisse
  • Linkwachstumstrends im historischen Vergleich (welche Links (Kommerziell vs. Brand) von welchen Quellen (Blogs, Foren, etc.) in welcher Anzahl (pro Tag, Woche, etc.) wurden zuvor akquiriert)

Es ist davon auszugehen, dass Google diese Werte ebenfalls im Vergleich zu potenziellen Wettbewerben der gleichen Branche betrachtet und so in der Lage ist zu erkennen, welche Wachstumswerte "normal" sind und welche eben möglicherweise nicht mehr. Dies erscheint zwingend notwendig, da sich die verschiedenen Branchen und das jeweils zugehörige Linkprofil zum Teil signifikant voneinander unterscheiden. Die Folgen eines aktiven Filters sind dann, wie zu erwarten, vielschichtig: In den allermeisten Fällen verlieren entweder das betroffene Verzeichnis oder aber die betroffenen Keywords signifikant an Performance. Eine Mitteilung in den Webmaster Tools gibt es nicht, da es sich hier um einen Automatismus handelt. 

Das Google Search Quality Team

Neben den komplexen Automatismen wacht Google selbstverständlich auch mit manuellen Maßnahmen über die Qualität der Suchergebnisse. Hauptverantwortlich zeigen sich hierfür die Search Quality Teams in Mountain View bzw. Dublin; ergänzt um eine ganze Armada von extern tätigen Quality Ratern, die – nach vordefinierten Kriterien – verschiedenste, manuelle Review- und Bewertungsaufgaben ausführen und diese Ergebnisse entweder an Tools oder eben an Search Quality Teams zurückspielen.

In der Vergangenheit war es nicht immer leicht, manuelle Eingriffe von maschinellen Reaktionen zu unterscheiden – und häufig wurde dann vermutet, eine Seite sei manuell abgestraft worden – wenn gleich das aber gar nicht der Fall war, sondern hier bereits (vorher) ein Filter seine Arbeit verrichtet hatte. In der Folge wurde dann nicht selten ein Reconsideration Request mit dem Antrag auf Wiederaufnahme gestellt. Selbstredend konnte dieser nicht bearbeitet werden, da eben gar kein manueller Eingriff vorlag; für Google wurde dies zu einem immensen Problem: Die schiere Masse an Reconsideration Requests konnte nicht mehr sinnvoll bearbeitet werden. Unter anderem aus diesem Grund entschied man sich für die Einführung eines neuen Menüpunktes in den Webmaster Tools, welcher den verheißungsvollen Namen "Manuelle Maßnahmen" (Original: "Manual Actions Tab") trägt.

Manuelle Maßnahmen in den Google Webmaster Tools

Google wird ja nicht selten für mangelnde Transparenz kritisiert und so scheint diese Ergänzung in den GWT überaus sinnvoll – gibt doch die Darstellung zumindest ein erstes Gefühl von "…aha, deshalb liegt möglicherweise ein Problem vor". Aber Google wäre nicht Google, wenn nicht bereits kurzfristig mindestens ein signifikanter Vorteil für die eigenen Prozesse bzw. Arbeitsweisen entstünde. Das Ergebnis dieser Umstellung: Das Einreichen eines Reconsideration Requests ist, seit der Einführung des Tabs, nur noch möglich, wenn dort auch entsprechend manuelle Maßnahmen ausgewiesen werden. Google muss sich auf einen Schlag nur noch mit "begründeten" Reviews beschäftigen…!

Kritiker des Tabs bemängeln nunmehr, dass die aufgezeigten Probleme sowie die damit verbundenen Erklärungen zu ungenau seien. Häufig hört man zudem, dass die Meldungen keine klaren Rückschlüsse auf das eigentliche Problem zuließen. Eine der größten Herausforderungen für Google ist sicherlich, zum einen überhaupt Informationen preis zu geben, zum anderen aber eben gleichermaßen abstrakt zu bleiben und damit zu verhindern, dass die Details im Zweifelsfall wieder "gegen" den Algorithmus verwendet werden könnten – ein durchaus schmaler Grat.

Eine Übersicht über die verschiedenen Benachrichtigungen im Manual Actions Tab der GWT finden sich in der offiziellen Google Hilfe. 

 

 

Benachrichtigung über "Manuelle Maßnahmen" in den GWT; Quelle: Google Webmaster Tools

Die nahezu tägliche Arbeit mit den GWT-Daten, dem Disavow-Tool (mehr dazu im weiteren Verlauf des Artikels) sowie den Informationen aus dem Manual Actions Tab haben zudem zu einigen, durchaus interessanten Beobachtungen geführt, die hoffentlich bei Ihrer täglichen Arbeit helfen:

  • Beispiele sind nur Beispiele: Es soll hier noch einmal explizit darauf hingewiesen werden, dass - insofern überhaupt vorhanden - die Beispiele, die Google bereitstellt, tatsächlich auch nur Beispiele sind. Es ist in mehr als 99% aller Fälle also nicht damit getan, diese genannten Links zu entwerten (Abbau / Disavow) und danach einen Reconsideration Request zu stellen. Daher die eindringliche Bitte: Das Verständnis für die genannten Beispiele ist ein wichtiger Faktor im Prozess von möglichen Aufräumarbeiten. Nur wer etwaige Muster der Linkquellen (Inhaberschaften, Netzwerke, Anchortexte, Art der Links, etc.) und / oder Linkziele (gleiche Unterseiten, etc.) versteht, hat im weiteren Verlauf die Chance, auch alle anderen, von Google als unnatürlich klassifizierten (aber Ihnen nicht aufgezeigten) Links zu finden und entsprechende Maßnahmen durchzuführen.
  • Der Webmaster Tools Links Export: Das Interface in den Google Webmaster Tools erlaubt die Anzeige von bis zu 1.000 Links. Wählt man die Exportfunktion (z.B. im CSV Format), stellt Google  dann bis zu 100.000 Links zur Verfügung - nach eigener Aussage, sind dies die wichtigsten Links zu einer Domain. Ganz wichtig ist hierbei, dass es sich eben nicht um alle Links handelt, die auf eine Domain zeigen. Beachten Sie daher unbedingt im Verlauf des Artikels auch den Hinweis zum Thema Datenvielfalt bzw. Datenquellen. Weiterhin gilt zu beachten, dass sich die hier zur Verfügung gestellten Daten regelmäßig ändern. Ein regelmäßiger Datenexport erscheint extrem sinnvoll.
  • Disavow Files werden (zum Teil) automatisch verarbeitet: Google verarbeitet Anweisungen aus dem Disavow File teilautomatisiert, dies fällt beispielweise immer dann auf, wenn sich die gezeigten Beispiele im Manual Actions Tab verändern oder gar ganz wegfallen, es aber noch keine Antwort (egal ob positiv oder negativ) auf den zuvor gestellten Reconsideration Request gegeben hat. Es ist davon auszugehen, dass Google hier versucht, den manuellen Aufwand so gering wie nur möglich zu halten und mit dem Prozessieren der Anweisungen möglicherweise(!) auch den Quality Ratern Arbeit abzunehmen. Es lässt sich in diesem Zusammenhang generell feststellen, dass die GWT-Daten nicht immer synchron erscheinen - daher empfiehlt es sich, bevor ein Reconsideration Request gestellt wird, eine Wartezeit von ~48 Stunden einzuplanen, nachdem das Disavow-File das letzte Mal aktualisiert wurde. Damit vermeiden Sie schlicht, dass seitens Google mit dem noch nicht aktuellsten Datenbestand gearbeitet wird.
  • Mehrere, manuelle Maßnahmen auf einmal: Es ist absolut nicht ausgeschlossen, dass eine Domain, zur gleichen Zeit, von mehreren, manuellen Maßnahmen betroffen ist. Sollten Sie also in Ihrem GWT-Tab multiple Meldungen vorfinden, gehen Sie getrost davon aus, dass Sie evtl. mehr als nur ein Problem zu lösen haben. In der Praxis hat es sich bewährt, zu aller erst die Meldungen zu bearbeiten, die irgendeine Art von konkreter Information beinhalten (ein betroffenes Verzeichnis, externe Linkquelle oder Ähnliches).

Wenn Filter und manuelle Maßnahmen nicht ausreichen: Penguin als Algorithmus Komponente

Wie eingangs erwähnt, hat Google offenbar hinreichend erkannt, dass das "primitive Filtern" von Ergebnissen nicht ausreichend ist und bei der ständig wachsenden Anzahl von Domains sind auch (mehr) manuelle Maßnahmen keine ausreichend skalierbare Lösung. Eine Anpassung des Kerns war also notwendig - der Algorithmus muss(te) auf mehr Linkqualität hin getrimmt werden, was mit der Einführung von Google Penguin bereits 2012 entsprechend geschah. Erstmalig in der Geschichte des Marktführers wurde signifikant an den Bewertungskriterien für Links geschraubt. Über Details hüllt man sich hier, nachvollziehbarerweise, in Schweigen. Vorstellbar wären beispielweise:

1. Die veränderte Gewichtung einzelner Kriterien: Denkbar ist, dass einzelne Kriterien (beispielsweise die Herkunft eines Links aus Forum, Blog, etc.) nunmehr stärker (oder eben weniger stark) als Bewertungskriterium herangezogen wird, um festzustellen, welche Qualität ein einzelner Link aufweist.

2. Das Hinzufügen / Entfernen von Kriterien: Darüber hinaus ist denkbar, dass Google im Laufe der Zeit feststellen musste, dass einzelne Kriterien eine nur unscharfe Betrachtung zulassen - ggf. wurden diese entfernt. Oder das Gegenteil ist der Fall: Möglicherweise ist man seitens Google deutlich weiter, als gemeinhin bekannt: Denkbar wäre, dass beispielsweise mittels des Traffic Sampling Verfahrens bereits Traffic als (vorerst noch schwaches) Signal einen Einfluss auf die "neue" Linkqualität hat.

3. Das Verändern von Eigenschaften einzelner Kriterien: Es erscheint nur logisch, dass einzelne Filter auch Verwendung innerhalb von Penguin finden bzw. entsprechende Muster und Schwellwerte analog der oben beschriebenen Arbeitsweise auch (angepasst) Einzug in Penguin erhalten haben. 

Da die Unterscheidung zu Filtern und manuellen Maßnahmen für das ungeübte Auge nicht immer leicht fällt, werden im Folgenden die wichtigsten Penguin-Eigenschaften zusammengefasst:

  • Penguin ist eine Linkprofil-Neubewertung: Unter Berücksichtigung der oben genannten, veränderten Faktoren, wird dem gesamten Linkprofil eine veränderte Wertigkeit zugewiesen. In diesem Zusammenhang ebenfalls wichtig: Es gibt kein "Whitelisting" – die geänderten Faktoren sind für jede Domain, egal ob groß oder klein, gleich.
  • Es gibt keinen Timeout: Im Gegensatz zu manuellen Maßnahmen, die mit einem Ablaufdatum versehen sind (primär, weil nicht selten vergessen wird, im Anschluss an durchgeführte Aufräumarbeiten einen Reconsideration Request zu stellen), gibt es keinen Penguin Timeout. Es gilt: Werden Sie nicht aktiv, wird sich auch nichts an der (schlechteren) Performance Ihrer Domain ändern.
  • Es gibt keine Benachrichtigung in den Google Webmaster Tools. KEINE! Das heißt im Umkehrschluss aber nicht, dass eine Domain nicht (zeitglich) von manuellen Maßnahmen und einem Penguin Rollout betroffen sein kann. Und demnach können Sie auch keinen Reconsideration Request stellen.

Analysen betroffener Seiten lassen dabei eine Vielzahl verschiedener Rückschlüsse zu; aber es lassen sich auch durchaus konkrete Gemeinsamkeiten feststellen (hier exemplarisch die Top-3):

1. Überoptimierte Anchortexte (bspw. zu viele kommerzielle Begriffe)

2. Links aus offensichtlichen / öffentlich bekannten Linknetzwerken

3. Unnatürliche Verteilungen einzelner Metriken; bspw. Start-/Unterseitenlinks oder Linkstärke

Die oben genannten Beobachtungen lassen alle einen durchaus konkreten Schluss zu: Nahezu alles, was im Linkbuilding auf offensichtliche Manipulation zurückschließen lässt (und in der Regel sind dies nun einmal in der Vergangenheit erzeugte Muster) steht auf der "Penguin Watch-List" ganz oben. Und das wiederrum deckt sich auch mit der Ankündigung aus dem Google Search Quality Team: "[…] führen wir eine Algorithmus Änderung ("Penguin") durch, die SEO-Methoden ins Visier nehmen, die die Grenze zum Spamming überschreiten. Die Änderung wird das Ranking von Websites herabsetzen, die nicht konform mit unseren Richtlinien für Webmaster sind. Dieser Algorithmus ist eine weitere Maßnahme im Rahmen unserer Bemühungen, Webspam zu reduzieren und hochwertige Inhalte zu fördern."