Marketing-Börse PLUS - Fachbeiträge zu Marketing und Digitalisierung
print logo

Suchmaschinen-Optimierung – Analyse einer Website

Die Betrachtung der eigenen Seite, von Wettbewerberseiten, aber auch branchenfremder Seiten, gehört zum Instrumentarium aller Suchmaschinenoptimierer
Alexander Holl | 20.10.2011
Dieser Fachartikel erschien im Leitfaden Online-Marketing Band 2:
http://TopOnlineExperten.de


Die Betrachtung der eigenen Seite, von Wettbewerberseiten, aber auch branchenfremder Seiten, gehört zum regelmäßigen Instrumentarium eines jeden Suchmaschinen-Optimierers (SEO). Im Fokus einer SEO-Analyse steht die Optimierung für Google, das in Deutschland mit einem Marktanteil von über neunzig Prozent aller Suchen bei weitem der Marktführer ist [1].

Die wichtigsten Aspekte einer SEO-Analyse

Im Folgenden wollen wir einen ersten Ansatz liefern, unter welchen Gesichtspunkten, mit welchen Tools und mit welchen Indikatoren eine zielgerichtete Analyse der eigenen Präsenz aber auch fremder Websites angegangen werden kann. Im ersten Schritt macht es Sinn, die Analyse in einige elementare Kategorien zu untergliedern:

• Erster Eindruck
• Indexanalyse
• Keyword-Analyse
• Ranking-Analyse
• OnPage & OnSite Analyse (Technische Analyse, Textanalyse, Interne Verlinkung & Informationsarchitektur)
• Analyse externer Faktoren (Externe Verlinkung sowie Social Signals (Bewertungen, Facebook, Twitter))

Da die Analyse externer Faktoren ein eigenständiges Kapitel von beträchtlichem Umfang darstellt, verzichten wir in diesem Artikel auf die wesentlichen Elemente einer Analyse externer Faktoren. Hier konzentrieren wir uns zunächst auf die Betrachtung der „internen” und direkt beeinflussbaren Faktoren und Analyseschritten.

Hinweis: Ein systematisches Vorgehen macht zur Orientierung Sinn. Allerdings ist zu bedenken, dass man bei einer fundierten Analyse immer wieder einen Schritt zurückgeht und einige Aspekte noch einmal genauer untersucht.


Ziel einer SEO-Analyse

Ziel der Analyse ist es, auf Basis von Indikatoren oder Kennzahlen Ursachen von guten oder schlechten oder keinen Rankings (Positionen) einzugrenzen. Gegebenenfalls aber auch die Analyse von Wettbewerbern zur Ableitung interessanter SEO-Strategien. Im nächsten Schritt sollte man aus der Analyse konkrete Optimierungsmaßnahmen ableiten können.

Fragen, die eine solche Analyse beantworten sollten, sind zum Beispiel:

Sind alle für uns wichtigen Seiten mit aktuellen Inhalten bei Google und vertikalen Googlesuchen (Bildersuche, Videosuche, Produktsuche et cetera) im Index?

Hat Google Seiten indexiert, die eigentlich nicht indexiert werden sollten?

Wo (Position) und mit welchen Suchbegriffen (Keywords) stehen wir mit unserer eigenen Website auf den Suchergebnisseiten (SERPs = Search Engine Result Pages)?

Wo stehen wir mit unserer Website bei vertikalen Suchen von Google (Bildersuche, Videosuche, Produktsuche et cetera)?

Zeigt Google unter für uns wichtigen Suchbegriffen genau die Seiten, die wir auch gerne unseren Nutzern für diesen Suchbegriff zeigen wollen?

Motiviert der Textschnippsel (Snippet siehe Abb. 1), den Google von unserer Seite seinen Nutzer zeigt, zum Klicken?

Haben sich durch eigene Optimierungsanstrengungen wesentliche Kennzahlen oder Indikatoren verändert (zum Beispiel bessere Positionen bei wichtigen Suchbegriffen)?

Wo und unter welchen Suchbegriffen steht unser Wettbewerb?

Gibt es interessante branchenfremde Seiten, die für bestimmte Optimierungsansätze gerade ein Benchmark sind?


SEO-Analyse – ersten Eindruck überprüfen

In diesem ersten Schritt geht es darum, einen ersten Eindruck der Website zu bekommen. Wo bin ich, worum geht es auf der Website und was erwartet mich als Nutzer, sind die zentralen Fragen. Im Fokus stehen dabei die wichtigsten Seiten einer Internetpräsenz, wie die Startseite und wichtige Kategorie- und oder Produktseiten, auf denen die Mehrheit der Nutzer landet. Zur Bestimmung der wichtigsten Seiten kann man Daten aus einem Webanalyse-Tool heranziehen, wie zum Beispiel den Bericht „Beliebteste Webseiten” in „Google Analytics”. Folgende Fragen sollte in diesem ersten Analyseschritt beantwortet werden:

Kann man eine klare Zielstellung der Website erkennen?

Wirkt die Seite, wie der Auftritt einer bekannten Marke, mit „ansprechendem” Layout?

Ist der Nutzen (USP) oder der Inhalt der Website klar ersichtlich?

Ist die Website klar gegliedert? Welche Produkte und Dienstleistungen stehen im Vordergrund und werden diese Angebote direkt von der Startseite verlinkt?

Gibt es auf der Startseite sogenannte Trustindikatoren, wie zum Beispiel Gütesiegel, Prüfplaketten, Nutzerbewertungen oder Kundenreferenzen? Diese führen zu einem höheren Vertrauen und somit höheren Konversionsraten und geringeren Absprungraten.

Tipp: Durch das Kombinieren von Google-Suchoperatoren zeigt Google zwar nicht unbedingt die besucherstärksten Seiten, aber die aus Google Perspektive (wahrscheinlich) stärksten Seiten. Das funktioniert sowohl für die eigenen als auch für fremde Domains. Nach „The Art of SEO” (O’Reilly, 2010) eignen sich zur Analyse der stärksten Seiten einer Domain folgende Kombinationen:

[www site:domain.tld] Beispiel einer Suchabfrage: [ www site:121watt.de] oder

[inurl:domain site:domain.tld] Beispiel einer Suchabfrage [inurl:wikipedia site: de.wikipedia.org]

[domain.tld site:domain.tld] Beispiel einer Suchabfrage [121watt.de site: 121watt.de]

Hinweis: Die Nutzung dieser Suchoperatoren, insbesondere des [site:] Suchoperators ist nicht immer zuverlässig, gibt aber trotzdem interessante Hinweise für die Analyse.


SEO-Analyse – Indexanalyse

Ziel der Indexanalyse ist eine Überprüfung, welche Seiten einer Domain Google in seinen Index übernommen hat.

Wie sehen in einer Übersicht die Snippets (siehe Abb. 1) aus?

Welche Verzeichnisse und Subdomains finden sich, wenn man die eigene Domain überprüft?

Besonders hilfreich ist dabei die Verwendung des [site:domain.de] Befehls bei Google, der einem übersichtlich zeigt, wie viele Seiten (grober Näherungswert) Google im Index hat.

Auf der Suche nach Subdomains kann man den Site-Befehl erweitern (Siehe Abb. 5) und erhält direkt von Google eine Liste der Subdomains, die bei Google auffindbar sind. In diesem Beispiel erfolgt eine Kombination aus diesem Site-Befehl [site: domain.de – inurl:www.domain.de]. Für Interessierte: Eine sehr umfangreiche Liste der Google-Site-Operatoren findet sich unter folgendem Link 121watt.de/3cb.

Zusammenfassung Indexanalyse: Eine regelmäßige Überprüfung der eigenen Seite bei Google ist immer sinnvoll. Zu überprüfen ist, ob alle wichtigen Seiten von Google indexiert wurden. Finden sich Seiten bei Google, die gar nicht für Nutzer auffindbar sein sollten, sind viele Seiten im Index, die nur einen geringen Wert für Nutzer haben. Oder es finden sich doppelte Inhalte (Duplicate Content) bei Google – dazu mehr in der technischen Analyse.


Keywordanalyse & Rankinganalyse


Die Bestimmung der richtigen Suchbegriffe (Keywords) ist bei der Entwicklung einer umfassenden SEO-Strategie immer das Fundament für alle weiteren SEOMaßnahmen. Zur quantitativen und qualitativen Analyse gibt es eine Reihe von Tools, die diesen Prozess unterstützen. Viele direkt von Google, wie das:

• Google Keyword-Tool,
• Google Insights for Search,
• Google Trends,
• Google Suggest,
• oder das Kontext Targeting Tool(steht seit Ende 2010 Google AdWords-Kunden zur Verfügung),
• aber auch externe Tools wie Übersuggest, das eine systematische Auswertung von Google Suggest-Daten erlaubt.

Für die SEO-Analyse geht es aber in der Hauptsache darum, zu verstehen, für welche und für wie viele Suchbegriffe wird meine Website gefunden. Sind das die Suchbegriffe, die für mein Unternehmen sinnvoll sind? Gibt es synonyme Suchbegriffe mit höherem Potential, auf die man seine Optimierungsbemühungen konzentrieren sollte. Wie sieht die Verteilung der Positionen aus?

Das Ergebnis einer Keyword- und Rankinganalyse könnte dann so aussehen [2]:

6.490 Suchbegriffe wurden in den Top 100 Positionen bei Google gefunden. Im Vergleich zum gleichen Zeitraum des letzten Jahres mit 5.765 Suchbegriffen ist dies ein Plus von zwölf Prozent.

Davon 51 auf Position eins.

137 in den Premiumpositionen zwischen eins bis drei.

676 Treffer in interessanten Positionen zwischen 11 - 20.

64 Prozent des Suchvolumens aus der organischen Suche kommt durch Markenbegriffe zustande (aus Google Analytics).

Im Vergleich zur Konkurrenz hat die eigene Domain weniger Suchbegriffe auf der interessanten ersten und zweiten Ergebnisseite (siehe Abb. 6).

Die Sichtbarkeit der 100 wichtigsten Suchbegriffe hat sich um 15 Prozent erhöht.

Der Suchbegriff „xyz” hat im Vergleichszeitraum 7 Positionen von 2 auf 9 verloren.

Die Entwicklung der Impressions (also wie oft die Website in den Suchergebnislisten einem Nutzer gezeigt wurde) und die Entwicklung der Klicks (siehe Abb. 7 – Google Webmaster-Tools)

Hinweis: Neben den hervorragenden Möglichkeiten, die Google mit seinen Webmaster-Tools [3] bietet, helfen für solche Analysen oft nur noch kostenpflichtige Tools weiter. Diese lassen aber dafür sehr detaillierte Analysen zu.

Beispiele Analyse-Tools:

• Sistrix SEO-Tool-Box
• Searchmetrics-Tools
• SEOlytics-Tools
• Advanced Web Ranking
• Seomoz Tools


SEO-Analyse – OnPage & OnSite

Die OnPage- und OnSite-Analyse umfasst sowohl die Überprüfung von technischen Problemen, wie die generelle Crawlbarkeit, doppelte Inhalte (Duplicate Content), Ladezeit der Seite, die korrekte Verwendung von Meta-Angaben oder auch Fehlerseiten (404 oder 410). Aber auch, ob die beabsichtigten Suchbegriffe verwendet werden, gibt es Inhalte in ausreichendem Umfang, werden diese Inhalte auch richtig ausgezeichnet und wie ist die interne Verlinkung organsiert.


Technische Analyse


Zugang zur Seite


Der einfache Zugang zu Ihrer Website für die Suchmaschinenspider ist Grundvoraussetzung der Suchmaschinen-Optimierung. Ziel ist es, Google & Co. einen schnellen Zugang zu allen relevanten Seiten der Webpräsenz zu geben. Dabei sind die Spider auf der Suche nach lesbarem Text. Bilder, Flash-Anwendungen, Java oder Java Script sind für die Spider gar nicht oder nur schwer lesbar. Überprüfen Sie Ihre eigene Seite in den Google Webmaster-Tools über die Funktion „Abruf wie durch Google Bot”. Installieren Sie die Webdeveloper Toolbar (siehe Hinweis) und surfen Sie auf allen Ihren wichtigen Seiten, während Sie Java Script und Cookies deaktiviert haben.

Hinweis: Abseits der Google Webmaster-Tools ist die Webdeveloper Toolbar, als Firefox Plug-in, zur Überprüfung der eigenen und vor allem fremder Website ein mächtiges und sehr umfangreiches Tool.

Link zur Developer Toolbar www.121watt.de/md5.

Alle Informationen zu den Google Webmastertools gibt es unter http://www.google.com/webmasters/.

Robots.txt

Diese Textdatei teilt den Crawlern mit, welche Verzeichnisse auf Ihrer Webpräsenz durchsucht werden dürfen und welche für die Suchmaschinenbots (beabsichtigt) gesperrt sind.

Überprüfen Sie, ob

die Datei “robots.txt” vorhanden ist. Das können Sie einfach, in dem Sie in die Statuszeile Ihres Browsers Folgendes eingeben http://www.domain.de/robots.txt, also beispielsweise http://www.121watt.de/robots.txt,

die Crawler freien Zugang zu allen wichtigen Webseiten haben, umgekehrt, bestimmte Bereiche für die Crawler gesperrt sind oder gesperrt werden sollten.


Meta-Tags überprüfen


Neben der Meta-Description gibt es noch weitere Anweisungen, wie sich Google und andere Suchmaschinen auf Ihrer Seite verhalten sollen. Als Beispiel sei der folgende Meta-Tag genannt:



Damit verbieten Sie dem Suchprogramm, Links auf Ihrer Seite weiter zu folgen und Ihre Seite im Index zu führen. Bei einer SEO-Analyse wird geprüft, ob durch den Webmaster unbeabsichtigt wichtige Seiten aus dem Index ausgeschlossen wurden.

Hinweis: Ein weiteres hilfreiches Tool ist das Firefox Plug-in seerobots, das über diesen Link verfügbar ist – http://www.121watt.de/my.


404 Fehler und Weiterleitungen überprüfen

Ziel einer Weiterleitung ist es, den Nutzer beim Aufruf eines Links, der zum Beispiel nicht mehr gültig ist, auf die richtige Seite zu lenken. Aus Sichtweise der Suchmaschinen-Optimierung ist die richtige Anwendung der folgenden zwei Umleitungen von Bedeutung:


Umleitung – HTTP Statuscode 302

Dieser Statuscode leitet den Nutzer auf die gewünschte Seite um. Aus Sichtweise der Suchmaschine bedeutet dieser Statuscode, dass die Webseite unter der angeforderten URL nicht existiert, aber in Zukunft wieder existieren wird. Dies kann zu Problemen führen, da zum einen Google diese Adresse erst einmal im Index behält und alle Verlinkungen, also die Linkkraft, auf die alte Seite angerechnet werden.


Umleitung – HTTP Statuscode 301


Dieser Statuscode leitet den Nutzer auf die gewünschte Seite um. Aus Sichtweise der Suchmaschine bedeutet dieser Statuscode, dass die Webseite unter der angeforderten URL nicht existiert und auch in Zukunft nicht wieder existieren wird. Die alte Webseite wird nicht mehr in den Index übernommen und die Linkkraft wird aus Sichtweise von Google auf die neue Seite umgeleitet.


Fehlerseite – HTTP Statuscode 404


Dieser Statuscode bedeutet, dass die angeforderte URL nicht mehr existiert. Das kann zum Beispiel dann eintreten, wenn ein Verweis auf eine nicht existierende Adresse auf dem Server führt.

Oft finden sich zahlreiche falsche Weiterleitungen (HTTP Statuscode 302) und Verlinkungen, die auf eine nicht mehr existente Seite verlinken (404). Überprüfen Sie Folgendes:

Falls Sie verschiedene Domains reserviert haben, ob diese richtig weitergeleitet sind (301 Weiterleitung).

Ob Ihre Startseite unter verschiedenen Versionen verfügbar ist, zum Beispiel unter http://www.domain.de und unter domain.de. Entscheiden Sie sich für eine Version und leiten die andere Version per 301 weiter.

Über die Google Webmaster-Tools Rubrik „Crawlingfehler” (siehe Abb. 8) lassen sich sehr gut 404 Fehler analysieren. Ziel ist es, diese Fehler zu beheben und wie in diesem Beispiel, die Verlinkung von denen durch Google monierten 45 Seiten richtig zu setzen. Scheinbar ist hier die Verlinkung auf das Element mit der „id=1410” nicht richtig.

Hinweis: Ein sehr gutes Tool zur Überprüfung der richtigen Weiterleitungen ist das Firefox Plug-in Live HTTP Headers, zu finden unter www.121watt.de/i6b und die Google Webmaster Tools.


Duplicate Content

Duplicate Content oder doppelte Inhalte sind ein Problem für Suchmaschinen. So sagt Google in seinen Webmasterrichtlinien: „Erstellen Sie keine doppelten Seiten, Subdomains oder Domains, die im Grunde denselben Content haben”. Das Problem für die Suchmaschinen ist zu bestimmen, welches die richtige Seite ist und welche in den Index aufgenommen werden soll (PDF, Druckansicht, et cetera). Die doppelten Inhalte können zu einer unnötigen Verteilung der Linkkraft auf verschiedene Darstellungsformen des gleichen Inhalts führen. Überprüfen Sie doppelte Inhalte, in dem Sie zum Beispiel eine längere Textpassage (circa 5 – 15 Wörter) auf Ihrer Website kopieren und in Anführungsstrichen bei Google eingeben (siehe Abb. 9 – in diesem Beispiel findet sich 6 Mal der identische Text auf dem host www.bundesregierung.de).


Ladezeiten überprüfen

Überprüfen Sie die Ladezeit Ihrer wichtigen Webseiten. Dazu gib es eine Reihe von Tools, wie zum Beispiel YSlow oder in den Google Webmaster-Tools (Abb. 10) in der Rubrik „Website-Leistung”. Google empfiehlt allen Webmastern: „dringend”, die Website-Leistung in regelmäßigen Abständen mithilfe von Page Speed, YSlow, WebPagetest oder anderen Tools zu überprüfen”.


Inhaltliche Analyse

Prüfen Sie im Zug Ihrer Analyse, ob Sie Ihre wichtigen Webseiten mit ausreichendem Text versehen haben. Dieses ist wichtig, damit der Nutzer den Inhalt und Zweck der einzelnen Webseiten besser verstehen kann.

Kommen die wichtigen Suchbegriffe in genügender und sinnvoller Menge vor?

Überprüfen Sie zum Beispiel mit dem Firefox Addon „Search Status” die Anzahl der Wörter und die Häufigkeit Ihrer wichtigen Suchbegriffe.

Sind Ihre Suchbegriffe in wichtigen Auszeichnungselementen (H1 & H2) vorhanden?


Title-Tag & Meta-Description


Der Title-Tag definiert den Titel eines Webdokuments und ist für Google nach wie vor das wichtigste OnPage-Kriterium zur Relevanzbeurteilung. Der Meta-Description beschreibt den Inhalt des Dokuments und wird in der Regel als Teil des Snippets (siehe Abb. 1) dargestellt.

Der Meta-Description ist zwar kein wichtiger Faktor für die Relevanzbeurteilung, bestimmt aber als Teil des Snippets die Klickrate in den SERPs. Überprüfen Sie bei allen relevanten Seiten, ob die für Sie relevanten Suchbegriffe in der Meta-Description vorkommen.

Der Title-Tag sollte für jede Seite einzigartig und den Inhalt der Webseite möglichst genau beschreiben. Überprüfen Sie dabei, ob die für Sie wichtigen Suchbegriffe in den Title-Tags prominent vorkommen. Vermeiden Sie Title-Tags mit mehr als 70 Zeichen. Überprüfen Sie in den Google Webmaster-Tools, in der Rubrik HTML-Vorschläge alle Fehlermeldungen, die Ihnen Google anzeigt, insbesondere:

• Fehlende Title-Tags & Meta-Descriptions.
• Doppelte Title-Tags & Meta-Descriptions.
• Zu kurze oder zu lange Title-Tags & Meta-Descriptions.

Hinweis: Ein sehr gutes Tool zur Überprüfung der OnPage-Optimierung ist die Desktop-Anwendung Screaming Frog (siehe Abb. 11). Screaming Frog bietet einen schnellen Überblick über die Gestaltung und Länge der Title-Tags, Meta-Descriptions, H1 und H2 und weiteren Elementen.


Sprechende URLs

Sprechende URLs wie zum Beispiel www.domain.de/seo-analyse/ helfen Suchmaschinen und Nutzern zu verstehen, welche Inhalte sich hinter der URL verbergen können. Zusätzlich werden bei der Verlinkung von Inhalten durch Nutzer wichtige Suchbegriffe im Link-Text übergeben. Bei URLs mit umfangreichen Parametern ist man immer in der Gefahr, dass diese URLs von den Suchmaschinen nur teilweise oder auch gar nicht indexiert werden.


Image-Alt-Tags

Das Alt-Attribut soll einen alternativen Text für ein Bild enthalten, um den Inhalt des Bildes auch dann zugänglich zu machen, falls der Nutzer den Inhalt der Bilder nicht interpretieren kann. Überprüfen Sie Ihre Bilder auf fehlende oder nicht optimierte Alt-Tags. Alle Bilder sollten mit einer aussagekräftigen alternativen Beschreibung versehen sein (Suchbegriffe verwenden). Zur Überprüfung der Alt-Tags auf einer Seite eignen sich die bereits vorgestellten Tools „Webdeveloper Toolbar” (Abb. 12) und das Desktop-Tool „Screaming Frog SEO-Spider”.

Hinweis: Wer mehr zum Thema Bilder und der Erkennung von Bilder wissen möchte, dem sei folgende Anwendung von Google empfohlen. Google macht immer mehr Anstrengungen, um den Inhalt von Bildern zu erkennen – siehe http://www.google.com/mobile/goggles/.


Interne Verlinkung & Informationsarchitektur

Die Prüfung der internen Verlinkung ist ein entscheidender Teil einer SEO-Analyse. Genauso, wie die externe Verlinkung ist auch die interne Verlinkung ein (starker) Hinweis für Google, welche Dokumente (URLs) innerhalb des Webauftritts für den Webmaster von großer Bedeutung sind. Desto mehr und stärkere Links eine einzelne Webseite hat, desto wichtiger erscheint sie in den Augen von Google. Google selber schreibt in seinen Richtlinien dazu: „Erstellen Sie eine Website mit klar strukturiertem Aufbau und Textlinks. Jede Seite sollte über mindestens einen statischen Textlink erreichbar sein.”

Überprüfen Sie, ob:

Ihre Navigationsstruktur möglichst flach ist und barrierfreie Links (Text-Links) hat.

Ihre wichtigen Landing-Pages mit passenden Anchor-Texten verlinkt wurden.

Ihre Seiten ohne eine hohe Relevanz für Suchmaschinen (zum Beispiel Impressum oder AGBs) weitgehend aus der internen Verlinkung ausgeschlossen wurden.

Sie von wichtigen Seiten zu viele ausgehende Links haben. Dazu sagt Google: „Beschränken Sie die Anzahl der auf einer Seite vorhandenen Links auf ein vernünftiges Maß.” Ein vernünftiges Maß ist immer schwer zu sagen, aber früher galt als Daumenregel, das eine Seite nicht mehr als 100 ausgehende Links besitzen sollte. Zur Überprüfung eignet sich hier zum Beispiel das Firefox Plugin „Search Status” – zu finden unter www.121watt.de/gmp (Abb. 13).

Ihre wichtigsten Webseiten auch die meisten und stärksten interne Links haben – zur Überprüfung dienen hier wieder die Webmaster-Tools von Google in der Rubrik „Interne Links”.

aus Sicht der Informationsarchitektur der Nutzer immer weiß, wo er ist (Place of Information), zum Beispiel gibt es eine Brotkrumennavigation?

aus Sicht der Informationsarchitektur der Nutzer auf allen (wichtigen) Seiten weiß, wo es noch mehr relevante Inhalte gibt (Information Scent) – zum Beispiel durch Deep- und Cross-Linking.


Zusammenfassung:

Die Analyse der eigenen Website aber auch anderer Websites ist kein einmaliges Projekt, sondern als kontinuierlicher Prozess zu sehen. Auf Basis der eigenen Firmenziele und der daraus resultierenden Online-Marketing- und SEO-Ziele, ist es sinnvoll, eine umfangreiche Analyse in regelmäßigem Abstand vorzunehmen. Beispielsweise im halb- oder vierteljährlichem Rhythmus gegebenenfalls auch unter Hinzuziehung von externer Expertise.

Neben der Aufdeckung von Fehlerquellen ist es immer ein Ziel, auch mittels spezifischer SEO-KPIs, den Fortschritt der eigenen Aktivitäten nachzuvollziehen. Ursachen von Veränderungen können so auch schneller eingegrenzt werden. Wichtige SEO-KPIs können zum Beispiel sein:

Anzahl Visits aus organischer Suche (Analytics Tools, wie zum Beispiel Google Analytics oder eTracker, AT Internet),

Anzahl und Prozent-Veränderung-Impressions in den SERPs (Google Webmaster-Tools),

Anzahl und Prozent-Veränderung an Klicks (Google Webmaster-Tools), Anzahl Keywords mit Top 1, Top 1 - 3 , Top 10, Top 100 Positionen (zum Beispiel Sistrix-Tools),

Sichtbarkeitsindex (zum Beispiel Sistrix-Tools, Searchmetrics, SEOlytics),

Rankingveränderungen für zum Beispiel Top 50 Suchbegriffe.

Kleinere Analysen von geringerem Umfang sollten je nach Ressourcensitutation als fester Bestandteil der täglichen/wöchentlichen SEO-Arbeit eingeplant werden. Zum Beispiel bei Veränderungen relevanter KPIs oder Fehlermeldungen in den Google Webmaster-Tools.


Literatur

[1] Comscore, Deutschland 2008, mehr Informationen gibt es auch hier www.121watt.de/kf
[2] Quelle für die erhobenen Daten sind in diesem Fall Sistrix SEO-Tools und Google Analytics
[3] zu finden unter http://www.google.com/webmasters/
Img of Alexander Holl
Über Alexander Holl

Alexander Holl ist Gründer der 121WATT GmbH und seit mehr als 20 Jahren in der Branche tätig.