Aktuelle Events
Zusammenspiel von externer und interner Lösung
Die Fokussierung ausschließlich auf einen Inhouse SEO bzw. eine Agentur hat viele Vor- und Nachteile. Für Unternehmen, die ihren Fokus auf das Online-Geschäft gelegt haben, für die also SEO ein wichtiger Bestandteil des Marketing-Mixes ist, und die über die notwendigen finanziellen Mittel verfügen, ist es also ratsam, über eine Mischung aus interner und externer Lösung nachzudenken. Sofern man SEO als weniger relevant ansieht oder nicht über die finanziellen Mittel einer optimalen Lösung verfügt, sollte man die oben vorgestellten Argumente "pro Inhouse-SEO" bzw. "pro SEO-Agentur" ausgiebig abwägen, um die für das Unternehmen optimale Entscheidung treffen zu können.
Neben der Frage, welche Rolle SEO allgemein im Unternehmen spielt, sei auch darauf hingewiesen, dass Agenturen bzw. Inhouse SEOs aus Erfahrung verschiedene Disziplinen im SEO-Prozess unterschiedlich gut abbilden können. Wie bereits aus den Argumenten, die für die interne Lösung sprechen, deutlich wird, ist der Inhouse SEO mehr im Unternehmen integriert als der Mitarbeiter einer Agentur und kann daher SEO-Prozesse deutlich leichter priorisieren. Daher ist der Inhouse SEO bei Fragen der technischen SEO meist von Vorteil - schließlich kann er Vorschläge direkt mit den richtigen Ansprechpartnern ausdiskutieren und somit zu einer schnelleren Lösung beitragen, als dies die Agentur könnte.
Offpage-Maßnahmen wie etwa das Linkmarketing lassen sich häufig aufgrund der jahrelangen Expertise in den unterschiedlichsten Branchen besser von Agenturen abbilden. Die Mitarbeiter einer Agentur verfügen gebündelt über ein enormes Kontaktnetzwerk. Die Synergieeffekte zwischen Inhouse SEO und Agentur führen unserer Erfahrung nach für (Online-)Unternehmen zu den optimalen Ergebnissen. Allerdings kann man nicht allgemein festhalten, ob es sinnvoll ist, mit einer Agentur, einem Inhouse SEO oder einer Kombination aus beidem zusammen zu arbeiten. Diese Entscheidung muss jeder auf Basis der oben genannten Argumente und Kenntnis der eigenen Prozesse und des Lebenszyklus des Unternehmens eigenständig entscheiden.
Vorschau: Im letzten Teil der Serie behandeln wir die Messfaktoren und die Tools, mit denen Sie Ihre SEO-Aktivitäten prüfen und überwachen können.
Die Autoren dieser Serie:
Andre Alpar ist Partner bei der AKM3.de (spezialisiert auf internationales SEO & Linkmarketing und CMO beim Zigarren Versender Noblego.de. Zuvor war er als Marketing Director bei Rocket Internet im Führungsteam tätig.
Markus Koczy ist Geschäftsführer der SEO-Agentur AKM3 GmbH. Er berät Unternehmen in den Bereichen SEO, SEM, SMM und Reputation Management und ist auf internationales Linkmarketing spezialisiert, www.akm3.de
Diese Artikel könnten Sie auch interessieren:
II. Onpage Analyse-Tools
II. Onpage Analyse-Tools
Onpage Tools sind eine nützliche Unterstützung, um die eigene Website auf wichtige SEO-Faktoren hin zu überprüfen. Sie decken mögliche Fehlerquellen auf und erkennen mit Hilfe von sog. Crawlern, die die Seite gründlich untersuchen, an welcher Stelle es Verbesserungsbedarf gibt. Die folgenden drei Tools halten wir für essentiell.
Xenu’s Link Sleuth: Das ist ein kostenloses Tool, welches defekte Verlinkungen auf Ihrer Webpräsenz aufspürt. Nach Eingabe der URL startet die Analyse der Seite, und der User erhält im Anschluss einen umfassenden Report, aus dem beispielsweise Statuscode-Fehler hervorgehen. Dank genauer Angabe der Fehlerquellen kann das Problem direkt behoben werden.
Screaming Frog SEO Spider: Hierbei handelt es sich um ein einfach händelbares Desktop-Programm, welches ebenfalls kostenlos erhältlich ist. Es liefert recht umfangreiche Informationen über Onpage-Elemente der jeweiligen Website. Dazu gehört eine Auswertung aller Verlinkungen sowie deren Status, aber auch wichtiger Elemente wie die Meta Description, Meta Keywords und Anchor Text. Eine Export-Funktion ermöglicht das Übertragen in Excel.
Strucr.com: Ein Online-Dienst, der besonders für größere Webseiten eine gute Hilfestellung ist. Auch hier wird die gewünschte Seite mit einem Crawler durchsucht. Dabei überprüft das Tool die Seitenstruktur und liefert im Anschluss mehrere „Hints“, die SEO-relevant sein können. Dies können zu lange Seitentitel oder Fehler in den URLs sein. Es lohnt sich stets, diese Hinweise zu kontrollieren, auch wenn es sich nicht immer um Fehlerquellen handeln muss, die sich aus SEO-Sicht negativ auswirken.
SEO-Tools erleichtern den SEO-Alltag ungemein,
da sie alle Optimierungsmaßnahmen abbilden.
III. Offpage Analyse-Tools
Dank zahlreicher Offpage Analyse-Tools ist es möglich, wichtige ergänzende Daten für die Backlinks zu erhalten und zu verwalten. In kürzester Zeit können sich User einen umfassenden Überblick über vorhandene Backlinkstrukturen verschaffen und diese entsprechend dokumentieren.
Open Site Explorer: Open Site Explorer wurde von SEOmoz entwickelt und eignet sich als gute Ergänzung zu den allgemeinen Tools wie Sistrix und Co. Es erleichtert die Erfassung und schafft mehr Transparenz im Bereich der Backlinkdaten. Mit dem zur Verfügung gestellten Webindex können Linkstrukturen analysiert und abgebildet werden.
Majestic SEO: Majestic SEO ist ein weiteres nützliches Backlinktool, welches Zugang zum eigens entwickelten Index bietet. Sämtliche Daten aus dem sogenannten „Fresh Index“ sind wie der Name schon sagt immer aktuell. Zusätzlich können die Backlinks rückblickend über einen längeren Zeitraum analysiert werden, dazu dient der „Historic Index“. Majestics greift dabei zur Zeit auf weit über 3 Billionen URLs im Historic Index und 140 Milliarden URLs im Fresh Index zurück.
Raven Tools: Der Vorteil von Raven Tools ist hauptsächlich die hohe Datenqualität. In übersichtlicher Form lassen sich Keywords und Backlinks sowohl recherchieren als auch dokumentieren. Sämtliche Backlinks können in den vorhandenen Link-Manager importiert und ausgewertet werden. Außerdem ist mit Hilfe dieser Daten eine Wettbewerbsanalyse möglich.
Seiten-Optimierung
Seiten-Optimierung
Nachdem wir die Struktur Ihres Internetauftritts betrachtet haben, gehen wir im Folgenden auf die Optimierung einer einzelnen Seite ein – also bspw. der Kategorie „Netzwerkkabel“: Im Head Ihrer Seite, also in dem Quellcode zwischen den Tags <head> und </head>, geben Sie Suchmaschinen wertvolle Hinweise auf den Inhalt der Seite sowie auf die Frage, ob Suchmaschinen die Unterseite überhaupt indexieren sollen. Diese Informationen werden als Meta-Informationen bezeichnet.
Innerhalb des Title-Tags (<title>
Der Title-Tag</title>) hinterlegen Sie den Namen der Seite, der sowohl in den Suchergebnissen als auch in der oberen Browserzeile angezeigt wird. Die optimale Länge des Title-Tags liegt bei etwa 65 Zeichen. Fassen Sie sich also kurz, da ansonsten der Title in den Suchergebnissen automatisch gekürzt wird und die einzelnen Begriffe, die Sie im Titel der Seite nutzen, einen geringeren Wert bei der Errechnung des Rankings erhalten. Nutzen Sie das Keyword, mit dem die Seite ranken soll. Im Beispiel „Netzwerkkabel“ sollten Sie also selbstverständlich „Netzwerkkabel“ im Titel erwähnen. Da Sie 65 Zeichen nutzen können, empfehlen wir in diesem Zusammenhang den Longtail zu optimieren und eine aussagekräftige Überschrift zu wählen – bspw. „Netzwerkkabel online kaufen bei Shopname“ – somit weiß der Nutzer, der Ihre Seite besucht, direkt, dass er Netzwerkkabel kaufen kann und nicht nur eine Informationsseite besucht.
Ein wichtiger technischer Baustein von SEO ist
der Auf- und Ausbau der Informations-Architektur.
Description- und Robots-Tag
Das Description-Tag (<meta name =“description“ content=“Beschreibung des Inhalts“>) hat aus Ranking-Gesichtspunkten keine Bedeutung. Allerdings wird die Description auf Suchergebnisseiten ausgegeben und vermittelt somit dem potenziellen Besucher einen ersten Eindruck über den Inhalt der Seite. Die Beschreibung sollte in etwa 160 Zeichen umfassen. Um die Clickrate zu optimieren, sollten Sie also in der Beschreibung kurz formulieren, was Ihren Besucher erwartet. Nutzen Sie auch hier die Keywords, auf denen Sie ranken möchten, da diese bei der entsprechenden Suchanfrage in den Suchergebnissen fett markiert werden und somit dem Suchenden die Relevanz Ihrer Seite nochmals verdeutlichen.
Mit dem Robots-Tag (<meta name =“robots“ content=“no-/index,no-/ follow“>) lässt sich bestimmen, ob eine Seite von Suchmaschinen indexiert werden soll oder nicht. Standardmäßig werden Seiten indexiert. Allerdings kann dies durch die Ausprägung „noindex“ vermieden werden – dies bietet sich insbesondere für solche Seiten an, die über keinen unique Content verfügen bzw. kein Rankingziel haben (z.B. Impressum, Datenschutzerklärung). Durch die Angabe „nofollow“ werden Suchmaschinen angewiesen, den Links auf einer Seite grundsätzlich nicht zu folgen und die Stärke der Seite somit nicht zu vererben. Insbesondere bei internen Links hat das „Nofollow“-Attribut also eine eher schädliche Wirkung.
Anchortexte beachten
Der optimale Linkmix
Bei den oben beschriebenen Links handelt es sich natürlich um Best Practices. Schauen Sie sich Backlinkprofile starker Webseiten an, so werden Sie schnell erkennen, dass keine dieser Seiten ausschließlich Links von Webseiten mit einer hohen Autorität und Themenrelevanz mit keyword-optimiertem Anchortext hat. Vielmehr sind diese Links die Spitze des Eisbergs – darunter befinden sich zahllose weniger starke Links, die aber ebenfalls ihre Daseinsberechtigung haben. Links aus Webkatalogen, Foren, nicht themenrelevanten Seiten, ja auch Links, die durch das „nofollow“-Attribut als aus SEO-Sicht unwirksam markiert wurden, runden das natürliche Linkprofil ab.
Nur ein Bruchteil der Links werden bei einem natürlich gewachsenen Linkprofil das Keyword in seiner Reinform beinhalten – eigentlich auch logisch, wissen ja die verlinkenden Internetnutzer nicht, welches Keyword denn nun „richtig“ oder „falsch“ ist. Schaut man sich in Foren oder Blogs um, so findet man sehr häufig Linktexte wie „Zum Angebot“, „Hier weiter lesen“ etc. Internetnutzer verlinken Ihr Angebot schließlich, weil sie es weiter empfehlen möchten, nicht jedoch, um Ihrer Webseite zu besseren Suchmaschinenpositionen zu verhelfen.
Um die Stärke einer Verlinkung noch besser beurteilen zu können, sollten Sie den bereits erwähnten Anchortext sowie das Ziel des Links nicht außer Acht lassen. Links von Nachrichtenmagazinen, die, wie zuvor beschrieben, eine hohe Autorität aufweisen, zielen häufig auf die Startseite des Anbieters. So wird zwar der Brand und die Reputation der Seite gestärkt, doch um auf umkämpfte Keywords ranken zu können, benötigen Sie Verlinkungen, deren Anchortext das entsprechende Keyword enthält.
Denken Sie aber nicht daran, viele Links mit dem gleichen Anchortext, der ausschließlich das Top-Keyword enthält, aufzubauen! Das wirkt für Suchmaschinen sehr unnatürlich, denn diese haben eine sehr breite Datenbasis und wissen, wie ein natürliches Linkprofil auszusehen hat. Allerdings sollten Sie Keyword-Kombinationen immer dann in Anchortexten verwenden, wenn es sinnvoll ist. Stellt etwa ein Blogger eines Ihrer Produkte vor, bitten Sie ihn, nicht auf die Startseite, sondern auf das Produkt in Ihrem Shop zu verweisen. Dies hat für Suchmaschinen und für die Leser des Blogs einen höheren Mehrwert.
Quick-Tipps zur Linkbildung:
- Entscheiden Sie sich, in Eigenregie oder mit Unterstützung einer SEO-Agentur den Linkaufbau voran zu treiben.
- Achten Sie stets darauf, einen sog. natürlichen Linkmix beizubehalten.
- Schneller Linkaufbau kann zu schnellen Erfolgen führen, doch werden diese nicht von langer Dauer sein – im schlimmsten Fall führt zu schnelles Linkmarketing nämlich zu einer Abstrafung Ihrer Seite.
- Daher sollten Sie einen langsamen Linkaufbau gegenüber unüberlegten Schnellschüssen vorziehen.
Linkrisikoanalysen: Mögliche Vorgehensweisen
Linkrisikoanalysen: Mögliche Vorgehensweisen
Um direkt mit der richtigen Erwartungshaltung einzusteigen: Linkrisikoanalysen sind aufwändig, benötigen demnach eine Menge Zeit, extrem viele Daten und einiges an Erfahrung im Umgang mit Links im Allgemeinen. Eine voll automatisierte, 100% akkurate Lösung zur Linkrisikoanalyse existiert nicht! Selbstverständlich gibt es Tools, die die Arbeit signifikant vereinfachten können, aber es geht nicht ohne gesunden Menschenverstand und – schlussendlich – manuelles Überprüfen! Im Folgenden wird das Vorgehen exemplarisch mit dem aktuellen de-facto Standardtool, den LinkResearchTools.com (kurz LRT), skizziert. Die LRT enthalten, speziell zur Bewertung von potenziellen Linkrisiken, das so genannte Tool Link Detox, welches eine Regelwerk-basierte Betrachtung und Bewertung für jeden einzelnen Link des jeweiligen Linkprofiles vornimmt. Diese einzelnen Werte ergeben schlussendlich, vereinfacht formuliert, eine Gesamtbewertung und weiterhin erfolgt die Klassifizierung in entsprechende Risikokategorien. Wie bereits zu Beginn erwähnt, ist jedes Tool nur so gut, wie die vorhandene Datenbasis. Aus diesem Grunde sollten mindestens die Links aus den Google Webmaster Tools exportiert und als CSV Datei dem Link Detox Modul zur Verfügung gestellt werden, da diese Daten kostenlos zur Verfügung stehen. Grundsätzlich gilt aber ganz klar, desto mehr Daten, desto genauer die Betrachtung bzw. Bewertung des Profils. Sofern möglich und verfügbar, sollten Sie darüber hinaus folgende (größtenteils kostenpflichtigen) Datenquellen ebenfalls in Betracht ziehen:
- Majestic.com (via API oder die Export-Option "Advanced Report")
- ahrefs.com (ebenfalls via API oder die Export-Option "Raw Data Export")
- Searchmetrics Suite – Backlink Research (100.000 via Export; ansonsten per API)
- Sistrix Toolbox – Linkmodul (via API)
Und selbstverständlich sind etwaige Listen aus vergangenen Linkaufbau-Aktivitäten "pures Gold" – analysieren Sie diese unbedingt zu aller erst! Nicht selten lassen sich hier bereits erste (hausgemachte) Probleme feststellen.
Weitere Gründe, die für den Einsatz der LRT sprechen, sind die automatische De-Duplizierung der Linkdaten (denn nicht selten gibt es teilweise Überschneidungen der Tool- bzw. Datenanbieter) sowie die darauf folgende Live-Validierung. Es wird, vor dem Erstellen des Reports, für jeden Link überprüft, ob dieser tatsächlich auch noch vorhanden ist. Sie können dann bei Ihrer Arbeit getrost alle toten Links herausfiltern und den Arbeitsaufwand so signifikant minimieren.
LRTs Link Detox in der Praxis
Das Verwenden des Link Detox Tools ist denkbar einfach: Sie definieren die zu analysierende Domain (und wählen unbedingt die Analysefunktion "mit und ohne www", denn häufig werden ansonsten Links übersehen) und wählen das Themenumfeld der Domaininhalte aus. Weiterhin sollten Sie angeben, ob die Domain manuelle Maßnahmen aufweist und, sofern bereits verwendet, das aktuelle Disavow-File hochladen (beides ist selbstverständlich nur dann möglich, wenn Sie eine eigene Domain analysieren; für fremde Domains können Sie diese beiden Punkte einfach ignorieren). Zu guter Letzt ergänzen Sie den Report um die eingangs genannten, externen Linkdaten (sofern vorhanden) und starten dann einen DTOX Report im "klassischen Modus". Danach dauert es, je nach Menge der zu analysierenden Links (und Systemauslastung) von mehreren Minuten bis hin zu einigen Stunden, bevor der fertige Report entsprechend zur Verfügung steht.
