44 likes

Der optimale Linkmix

Bei den oben beschriebenen Links handelt es sich natürlich um Best Practices. Schauen Sie sich Backlinkprofile starker Webseiten an, so werden Sie schnell erkennen, dass keine dieser Seiten ausschließlich Links von Webseiten mit einer hohen Autorität und Themenrelevanz mit keyword-optimiertem Anchortext hat. Vielmehr sind diese Links die Spitze des Eisbergs – darunter befinden sich zahllose weniger starke Links, die aber ebenfalls ihre Daseinsberechtigung haben. Links aus Webkatalogen, Foren, nicht themenrelevanten Seiten, ja auch Links, die durch das „nofollow“-Attribut als aus SEO-Sicht unwirksam markiert wurden, runden das natürliche Linkprofil ab.

Nur ein Bruchteil der Links werden bei einem natürlich gewachsenen Linkprofil das Keyword in seiner Reinform beinhalten – eigentlich auch logisch, wissen ja die verlinkenden Internetnutzer nicht, welches Keyword denn nun „richtig“ oder „falsch“ ist. Schaut man sich in Foren oder Blogs um, so findet man sehr häufig Linktexte wie „Zum Angebot“, „Hier weiter lesen“ etc. Internetnutzer verlinken Ihr Angebot schließlich, weil sie es weiter empfehlen möchten, nicht jedoch, um Ihrer Webseite zu besseren Suchmaschinenpositionen zu verhelfen.

Um die Stärke einer Verlinkung noch besser beurteilen zu können, sollten Sie den bereits erwähnten Anchortext sowie das Ziel des Links nicht außer Acht lassen. Links von Nachrichtenmagazinen, die, wie zuvor beschrieben, eine hohe Autorität aufweisen, zielen häufig auf die Startseite des Anbieters. So wird zwar der Brand und die Reputation der Seite gestärkt, doch um auf umkämpfte Keywords ranken zu können, benötigen Sie Verlinkungen, deren Anchortext das entsprechende Keyword enthält.

Denken Sie aber nicht daran, viele Links mit dem gleichen Anchortext, der ausschließlich das Top-Keyword enthält, aufzubauen! Das wirkt für Suchmaschinen sehr unnatürlich, denn diese haben eine sehr breite Datenbasis und wissen, wie ein natürliches Linkprofil auszusehen hat. Allerdings sollten Sie Keyword-Kombinationen immer dann in Anchortexten verwenden, wenn es sinnvoll ist. Stellt etwa ein Blogger eines Ihrer Produkte vor, bitten Sie ihn, nicht auf die Startseite, sondern auf das Produkt in Ihrem Shop zu verweisen. Dies hat für Suchmaschinen und für die Leser des Blogs einen höheren Mehrwert.

Quick-Tipps zur Linkbildung:

  • Entscheiden Sie sich, in Eigenregie oder mit Unterstützung einer SEO-Agentur den Linkaufbau voran zu treiben.
  • 
Achten Sie stets darauf, einen sog. natürlichen Linkmix beizubehalten.
  • Schneller Linkaufbau kann zu schnellen Erfolgen führen, doch werden diese nicht von langer Dauer sein – im schlimmsten Fall führt zu schnelles Linkmarketing nämlich zu einer Abstrafung Ihrer Seite.
  • Daher sollten Sie einen langsamen Linkaufbau gegenüber unüberlegten Schnellschüssen vorziehen.

Der vierte Teil unserer SEO-Serie behandelt das Thema Outsourcing. Unter anderem wird die Frage geklärt, ob und wann es sinnvoll ist, mit einer Agentur zusammenzuarbeiten.


Diese Artikel könnten Sie auch interessieren:

IV. Browser-Plugins

IV. Browser-Plugins

Wer sich schnell mit einem Klick über SEO-relevante Daten in Bezug auf eine Website informieren möchte, der ist mit Browser-Plugins gut bedient. Vier Extensions, die wir jetzt vorstellen, sind in kürzester Zeit in-stalliert und liefern direkt im Anschluss alle nötigen Werte.

SeeRobots: Das Tool wurde entwickelt, um alle nötigen Informationen über die Meta-Robots und die X-Robots einer Seite zu liefern. Nach kurzer Analyse stellt es mit den entsprechenden Farben dar, wie die Seite konfiguriert wurde, also ob eine Website auf follow oder nofollow bzw. index oder noindex eingestellt ist. Der eventuell im HTTP-Header vorhandene X-Robots-Tag kann bei Bedarf abgefragt werden. SeeRobots ist für Firefox und Google Chrome erhältlich.

SEO for Firefox: Dieses Plugin zeigt bei Gebrauch sehr viele nützliche Daten einer Website an und gehört mittlerweile zur Standardausstattung eines jeden SEOs. Dazu gehören PageRank, Alter einer Domain und die Anzahl der eingehenden und ausgehenden Links. SEO for Firefox ergänzt damit die Suchergebnisse von Google und Yahoo um wichtige SEO-relevante Informationen. Im Vorfeld kann genau eingestellt werden, welche Angaben ausgegeben werden sollen.

LinkParser: Eine praktische Unterstützung für die Analyse aller sich auf einer Website befindenden Links. Es kann neun Arten von Links erkennen und hervorheben. Dazu gehören interne Links, interne nofollow Links, interne follow Links, Subdomain Links usw. LinkParser ist individualisierbar und hebt die jeweiligen Links bei Bedarf andersfarbig hervor.

SearchStatus: Das Tool ist dem Plugin SEO for Firefox recht ähnlich, bietet dem User aber den Vorteil, PageRank und Alexa Traffic Rank auf einen Blick zu haben. Mit einem Klick sind weitere Werte wie die Keyworddichte, nofollow Links, Metatags und Backlinks einsehbar.

FAZIT

Es gibt viele SEO-Tools, die im Zuge einer umfassenden Optimierung mittlerweile essentiell sind. Einige eignen sich eher für Profis, da sie recht anspruchsvoll im Handling sind, andere sind für jeden Website-Inhaber unerlässlich, um die wichtigsten Infos stets parat zu haben. In welchem Umfang sie eingesetzt werden, hängt immer von den Möglichkeiten ab. Eines haben aber alle Tools gemeinsam: sie erleichtern den SEO-Alltag ungemein, denn alle Optimierungsmaßnahmen lassen sich einschätzen und abbilden.

Seiten-Optimierung

Seiten-Optimierung

Nachdem wir die Struktur Ihres Internetauftritts betrachtet haben, gehen wir im Folgenden auf die Optimierung einer einzelnen Seite ein – also bspw. der Kategorie „Netzwerkkabel“: Im Head Ihrer Seite, also in dem Quellcode zwischen den Tags <head> und </head>, geben Sie Suchmaschinen wertvolle Hinweise auf den Inhalt der Seite sowie auf die Frage, ob Suchmaschinen die Unterseite überhaupt indexieren sollen. Diese Informationen werden als Meta-Informationen bezeichnet.

Innerhalb des Title-Tags (<title>

Der Title-Tag</title>) hinterlegen Sie den Namen der Seite, der sowohl in den Suchergebnissen als auch in der oberen Browserzeile angezeigt wird. Die optimale Länge des Title-Tags liegt bei etwa 65 Zeichen. Fassen Sie sich also kurz, da ansonsten der Title in den Suchergebnissen automatisch gekürzt wird und die einzelnen Begriffe, die Sie im Titel der Seite nutzen, einen geringeren Wert bei der Errechnung des Rankings erhalten. Nutzen Sie das Keyword, mit dem die Seite ranken soll. Im Beispiel „Netzwerkkabel“ sollten Sie also selbstverständlich „Netzwerkkabel“ im Titel erwähnen. Da Sie 65 Zeichen nutzen können, empfehlen wir in diesem Zusammenhang den Longtail zu optimieren und eine aussagekräftige Überschrift zu wählen – bspw. „Netzwerkkabel online kaufen bei Shopname“ – somit weiß der Nutzer, der Ihre Seite besucht, direkt, dass er Netzwerk­kabel kaufen kann und nicht nur eine Informationsseite besucht.

Ein wichtiger technischer Baustein von SEO ist
der Auf- und Ausbau der Informations-Architektur.

Description- und Robots-Tag

Das Description-Tag (<meta name =“description“ content=“Beschreibung des Inhalts“>) hat aus Ranking-Gesichtspunkten keine Be­deutung. Allerdings wird die Description auf Suchergebnisseiten ausgegeben und vermittelt somit dem potenziellen Besucher einen ersten Eindruck über den Inhalt der Seite. Die Beschreibung sollte in etwa 160 Zeichen umfassen. Um die Clickrate zu optimieren, sollten Sie also in der Beschreibung kurz formulieren, was Ihren Besucher erwartet. Nutzen Sie auch hier die Keywords, auf denen Sie ranken möchten, da diese bei der entsprechenden Suchanfrage in den Suchergebnissen fett markiert werden und somit dem Suchenden die Relevanz Ihrer Seite nochmals verdeutlichen.

Mit dem Robots-Tag (<meta name =“robots“ content=“no-/index,no-/ follow“>) lässt sich bestimmen, ob eine Seite von Suchmaschinen indexiert werden soll oder nicht. Standardmäßig werden Seiten indexiert. Allerdings kann dies durch die Ausprägung „noindex“ vermieden werden – dies bietet sich insbesondere für solche Seiten an, die über keinen unique Content verfügen bzw. kein Rankingziel haben (z.B. Impressum, Datenschutzerklärung). Durch die Angabe „nofollow“ werden Suchmaschinen angewiesen, den Links auf einer Seite grundsätzlich nicht zu folgen und die Stärke der Seite somit nicht zu  vererben. Insbesondere bei internen Links hat das „Nofollow“-Attribut also eine eher schädliche Wirkung.

Vorteile der Agentur-Lösung

Welche Vorteile hat es, SEO an eine Agentur auszulagern?

Nachdem wir die Vorteile einer internen Lösung herausgestellt haben, möchten wir selbstverständlich auch auf die Vorteile eingehen, die die Zusammenarbeit mit einer Agentur mit sich bringen. Zunächst klingt es sicherlich verlockend, einen SEO-Mitarbeiter einzustellen, der sich Vollzeit um die Suchmaschinenoptimierung kümmert. Doch sollte man sich im Vorhinein fragen, ob man diesen Mitarbeiter überhaupt auslasten kann. SEO ist, wie bereits in den vergangenen Teilen der Serie beschrieben, kein Kanal, den man neben der eigentlichen Arbeit betreuen kann.

Es ist also nicht zu empfehlen, den SEM-Manager oder einen Techniker kurzerhand mit dem Thema SEO zu betrauen und davon auszugehen, dass er das kurzfristig neben seiner „normalen“ Arbeit umsetzen kann. Hier sollte man lieber auf Experten setzen, statt eine suboptimale Lösung zu wählen, die dem Unternehmen nachhaltig schaden könnte. Außerdem sollte in Betracht gezogen werden, dass der Arbeitsmarkt für SEOs von einem starken Überhang der Nachfrage gekennzeichnet ist. Somit fällt es nicht einfach, einen wirklich starken Inhouse SEO einzustellen. Und häufig haben Unternehmen, in denen noch kein SEO-Know-how vorliegt, das Problem zu entscheiden, ob ein potenzieller Mitarbeiter wirklich qualifiziert ist, den SEO-Bereich des Unternehmens zu leiten.

Einen SEO-Spezialisten als Angestellten zu finden, ist schwierig, da es zu wenige auf dem Markt gibt.

Neben den personenbezogenen Gründen, die evtl. für eine Zusammenarbeit mit einer SEO-Agentur sprechen, sind auch noch einige andere Gründe denkbar, bei denen die Agentur effizienter arbeiten kann als ein Mitarbeiter des Unternehmens. So besteht bei einer internen Lösung die Gefahr, dass der Inhouse SEO sich ausschließlich mit der eigenen Webseite sowie den Webseiten der direkten Konkurrenten befasst. Ein Blick über den Tellerrand ist dann meist ausgeschlossen. Neue Chancen und Risiken werden häufig vom Inhouse SEO übersehen, da dieser in seiner Routine verhaftet ist und den „Blick auf das Ganze“ verliert bzw. bei Berufseinsteigern noch nicht gewonnen hat. Dadurch, dass ein Mitarbeiter einer SEO-Agentur Einblick in die verschiedensten Branchen und Webseiten hat, kann Expertise eingebracht und Betriebsblindheit vermieden werden.

Außerdem ist insbesondere Start-ups zu empfehlen, sich auf das Kerngeschäft zu konzentrieren, also auf das, was man wirklich kann. Baut man ein internes SEO-Team auf und liegt das Kerngeschäft weniger darin, durch organischen Traffic möglichst viele Besucher auf die Seite zu ziehen. So kann man schnell sein Kerngeschäft vernachlässigen. Daher ist es ratsam, Themen wie die SEO an dafür spezialisierte Agenturen auszulagern. Wie bereits oben erwähnt, birgt die Inhouse Lösung den Vorteil des Aufbaus von Know-how. Dieses ist jedoch stark bei dem SEO-Mitarbeiter gebündelt. Ein Unternehmenswechsel des Kollegen würde das Unternehmen also nachhaltig treffen. Bei einer auf Suchmaschinenoptimierung fokussierten Agentur wird dieses Risiko deutlich minimiert.

Ebenfalls sollte sowohl die Flexibilität als auch die Skalierungsmöglichkeiten einer Agentur nicht unerwähnt bleiben, zwei für Start-ups wichtige Gesichtspunkte. Durch das große Kontaktnetzwerk einer Agentur mit gesunder Größe fällt es dieser zumeist leichter, höhere Budgets sinnreich für den Kunden zu investieren als das ein Inhouse SEO könnte. Auch kann das Budget bei der Zusammenarbeit mit einer Agentur für mehrere Monate gesenkt werden, ohne direkt einen Mitarbeiter verlieren zu müssen.

Linkrisikoanalysen: Mögliche Vorgehensweisen

Linkrisikoanalysen: Mögliche Vorgehensweisen

Um direkt mit der richtigen Erwartungshaltung einzusteigen: Linkrisikoanalysen sind aufwändig, benötigen demnach eine Menge Zeit, extrem viele Daten und einiges an Erfahrung im Umgang mit Links im Allgemeinen. Eine voll automatisierte, 100% akkurate Lösung zur Linkrisikoanalyse existiert nicht! Selbstverständlich gibt es Tools, die die Arbeit signifikant vereinfachten können, aber es geht nicht ohne gesunden Menschenverstand und – schlussendlich – manuelles Überprüfen! Im Folgenden wird das Vorgehen exemplarisch mit dem aktuellen de-facto Standardtool, den LinkResearchTools.com (kurz LRT), skizziert. Die LRT enthalten, speziell zur Bewertung von potenziellen Linkrisiken, das so genannte Tool Link Detox, welches eine Regelwerk-basierte Betrachtung und Bewertung für jeden einzelnen Link des jeweiligen Linkprofiles vornimmt. Diese einzelnen Werte ergeben schlussendlich, vereinfacht formuliert, eine Gesamtbewertung und weiterhin erfolgt die Klassifizierung in entsprechende Risikokategorien. Wie bereits zu Beginn erwähnt, ist jedes Tool nur so gut, wie die vorhandene Datenbasis. Aus diesem Grunde sollten mindestens die Links aus den Google Webmaster Tools exportiert und als CSV Datei dem Link Detox Modul zur Verfügung gestellt werden, da diese Daten kostenlos zur Verfügung stehen. Grundsätzlich gilt aber ganz klar, desto mehr Daten, desto genauer die Betrachtung bzw. Bewertung des Profils. Sofern möglich und verfügbar, sollten Sie darüber hinaus folgende (größtenteils kostenpflichtigen) Datenquellen ebenfalls in Betracht ziehen:

  • Majestic.com (via API oder die Export-Option "Advanced Report")
  • ahrefs.com (ebenfalls via API oder die Export-Option "Raw Data Export")
  • Searchmetrics Suite – Backlink Research (100.000 via Export; ansonsten per API)
  • Sistrix Toolbox – Linkmodul (via API)

Und selbstverständlich sind etwaige Listen aus vergangenen Linkaufbau-Aktivitäten "pures Gold" – analysieren Sie diese unbedingt zu aller erst! Nicht selten lassen sich hier bereits erste (hausgemachte) Probleme feststellen.

Weitere Gründe, die für den Einsatz der LRT sprechen, sind die automatische De-Duplizierung der Linkdaten (denn nicht selten gibt es teilweise Überschneidungen der Tool- bzw. Datenanbieter) sowie die darauf folgende Live-Validierung. Es wird, vor dem Erstellen des Reports, für jeden Link überprüft, ob dieser tatsächlich auch noch vorhanden ist. Sie können dann bei Ihrer Arbeit getrost alle toten Links herausfiltern und den Arbeitsaufwand so signifikant minimieren. 

LRTs Link Detox in der Praxis

Das Verwenden des Link Detox Tools ist denkbar einfach: Sie definieren die zu analysierende Domain (und wählen unbedingt die Analysefunktion "mit und ohne www", denn häufig werden ansonsten Links übersehen) und wählen das Themenumfeld der Domaininhalte aus. Weiterhin sollten Sie angeben, ob die Domain manuelle Maßnahmen aufweist und, sofern bereits verwendet, das aktuelle Disavow-File hochladen (beides ist selbstverständlich nur dann möglich, wenn Sie eine eigene Domain analysieren; für fremde Domains können Sie diese beiden Punkte einfach ignorieren). Zu guter Letzt ergänzen Sie den Report um die eingangs genannten, externen Linkdaten (sofern vorhanden) und starten dann einen DTOX Report im "klassischen Modus". Danach dauert es, je nach Menge der zu analysierenden Links (und Systemauslastung) von mehreren Minuten bis hin zu einigen Stunden, bevor der fertige Report entsprechend zur Verfügung steht.