suchmaschinenoptimierung - 121watt€¦ · für die seo analyse geht es aber in der hauptsache...
TRANSCRIPT
Suchmaschinenoptimierung Strategien, Taktiken und Tools zur Analyse einer Website auf Auffindbarkeit im Netz Autor: Alexander Holl
121WATT – „“SEO Analyse“ [September2014, 121WATT]
SEO Analyse
Die Analyse der eigenen Seite, von Konkurrenzseiten, sowie branchenfremden Webseiten ist eines der wichtigsten Instrumente eines Suchmaschinenoptimierers. Dies ist einer der besten Wege, um herauszufinden, was für die Suchmaschinenoptimierung sinnvoll ist und was nicht.
Wenn von einer SEO-Analyse gesprochen wird, so ist damit (zumindest in Deutschland) eine Analyse in Hinsicht auf die Optimierung in Google gemeint, da Google in Deutschland mit Abstand Marktführer ist. (siehe http://blog.121watt.de/blog/aktuelle-marktforschung-zu-suche-und-suchmaschinenmarketing).
Im interntaionalen Kontext ist natürlich auch die Betrachtung alternativer Suchmaschinen, wie Bing, Baidu (China) oder auch Yandex (Russland) von Relevanz.
DIE WICHTIGSTEN ASPEKTE EINER SEO ANALYSE
Im Folgenden wollen wir einen ersten Ansatz liefern unter welchen Gesichtspunkten mit welchen Tools und mit welchen Indikatoren eine zielgerichtete Analyse der eigenen Präsenz aber auch fremder Websites angegangen werden kann.
Im ersten Schritt macht es Sinn die Analyse in einige elementare Kategorien zu untergliedern:
• Erster Eindruck • Indexanalyse • Keywordanalyse • Rankinganalyse • OnPage & OnSite Analyse • Technische Analyse • Textanalyse • Interne Verlinkung & Informationsarchitektur • Analyse externer Faktoren • Externe Verlinkung • Social Signals (Bewertungen, Facebook, Twitter)
Da die Analyse externer Faktoren ein eigenständiges Kapitel von beträchtlichem Umfang darstellt, verzichten wir in diesem Artikel auf die wesentlichen Elemente
einer Analyse externer Faktoren und konzentrieren uns auf die Betrachtung der „internen“ und direkt beeinflussbaren Faktoren und Analyseschritte.
Hinweis: Auch wenn zur Orientierung ein systematisches Vorgehen Sinn macht, ist zu bedenken, dass man bei einer fundierten Analyse immer wieder einen Schritt zurückgeht und einige Aspekte noch einmal genauer untersucht.
Ziele einer SEO Analyse
Ziel der Analyse ist es, auf Basis von Indikatoren oder Kennzahlen, Ursachen von guten oder schlechten oder keinen Rankings (Positionen) einzugrenzen. Gegebenenfalls aber auch die Analyse von Wettbewerbern zur Ableitung interessanter SEO- Strategien. Im nächsten Schritt sollte man aus der Analyse konkrete Optimierungsmaßnahmen ableiten können.
Fragen, die eine solche Analyse beantworten sollte, sind:
Ist-‐Analyse eigene Domain
• Haben sich durch eigene Optimierungsanstrengungen wesentliche Kennzahlen oder Indikatoren verändert (z.B. bessere Positionen bei wichtigen Suchbegriffen) -> Sichtbarkeitsanalyse über Tools, wie sistrix oder Searchmetrics.
• Für wie viele Suchbegriffe stehen wir in Top 1- 3 Positionen, Top 10 Postionen, Top 100 Positionen?
• Sind alle für uns wichtigen Seiten mit aktuellen Inhalten bei Google und vertikalen Google suchen (Bildersuche, Videosuche, Produktsuche etc.) im Index
• Hat Google Seiten indexiert, die eigentlich nicht indexiert werden sollten?
• Wo (Position) und mit welchen Suchbegriffen (Keywords) stehen wir mit unserer eigenen Website auf den Suchergebnisseiten (SERPs = Search Engine Result Pages)? (Ist Keyword Analyse)
• Wo stehen wir mit unserer Website bei vertikalen Suchen von Google (Bildersuche, Videosuche, Produktsuche etc.)
• Zeigt Google unter für uns wichtigen Suchbegriffen genau die Seiten, die wir auch gerne unseren Nutzern für diesen Suchbegriff zeigen wollen?
• Motiviert der Textschnippsel (Snippet siehe Abbildung 1), den Google von unserer Seite seinen Nutzer zeigt, zum Klicken ein?
Ist-‐Analyse Wettbewerb
• Wer sind direkte Wettbewerber? Wer sind Wettbewerber für die gleichen Suchbegriffe. Beispiel: Oft steht wikipedia.org für Suchbegriffe auf für uns relevanten Top Positionen und ist somit auch Wettbewerb.
• Wie hat sich die Sichtbarkeit bei relevanten Wettbewerbern entwickelt?
• Welche Keywordstrategie hat der Wettbewerb? Für welche Suchbegriffe steht der Wettbewerb in guten Positionen, für die wir keine oder keine guten Positionen haben.
• Gibt es eine Snippetstrategie beim Wettbewerb? Gibt es Ansätze zur Optimierung / Abgrenzung
• Hat der Wettbewerb eine Content Marketing Strategie?
• Gibt es interessante branchenfremde Seiten, die für bestimmte Optimierungsansätze ein Benchmark sind?
Abbildung 1: Google Snippet
SEO Analyse - Ersten Eindruck überprüfen
In diesem ersten Schritt geht es darum, einen ersten Eindruck der Website zu bekommen. Wo bin ich, worum geht es auf der Website und was erwartet mich als Nutzer, sind die zentralen Fragen. Im Fokus stehen dabei die wichtigsten Seiten (Pareto Regel) einer Internetpräsenz, wie die Startseite und wichtige Kategorie- und oder Produktseiten, auf denen die Mehrheit der Nutzer landet.
Zur Bestimmung der wichtigsten Seiten kann man Daten aus einem Web Analyse Tool heranziehen wie zum Beispiel den Bericht „Zielseiten“ in „Google Analytics“. Ein guter Indikator sind die Bouncerates also die Absprungraten der wichtigsten Seiten.
Folgende Fragen sollte in diesem ersten Analyseschritt beantwortet werden.
• Kann man eine klare Zielstellung der Website erkennen?
• Wirkt die Seite, wie der Auftritt einer bekannten Marke mit „ansprechendem“ Layout?
• Ist der Nutzen (USP) oder der Inhalt der Website klar ersichtlich?
• Ist die Website klar gegliedert? Welche Produkte und Dienstleistungen stehen im Vordergrund und werden diese Angebote direkt von der Startseite verlinkt.
• Gibt es auf der Startseite sogenannte Trustindikatoren, wie zum Beispiel Gütesiegel, Prüfplaketten, Nutzerbewertungen oder Kundenreferenzen, die zu einem höheren Vertrauen und somit höheren Conversionsraten und geringeren Absprungraten führen.
Tipp: Bei diesem Bericht macht es aber Sinn in Google Analytics das erweiterte Segmente „Organische Suchzugriffe“zu verwenden. Verhalten-‐> Zielseiten
Abbildung 2: Darstellung der Top Ten Seiten nach Seitenaufrufen in Google Analytics. In diesem Beispiel haben die zehn wichtigsten Seiten dieser Domain 93,6% Anteil an alle Seitenaufrufen (nicht bezahlte Suchzugriffe)
Tipp: Um zwar nicht unbedingt die Besucherstärksten Seiten, aber die aus Google Perspektive (wahrscheinlich) stärksten Seiten der eigenen und fremden Domains zu finden, kann man einige Suchoperatoren von Google miteinander kombinieren. Nach „ The Art of SEO“ , O’Reilly, 2013 eignen sich zur Analyse der stärksten Seiten einer Domain folgende Kombinationen: § [www site:domain.tld] Beispiel einer Suchabfrage: [ www site:121watt.de] oder § [inurl:domain site:domain.tld] Beispiel einer Suchabfrage
[inurl:wikipediasite:de.wikipedia.org] § [domain.tld site:domain.tld] Beispiel einer Suchabfrage [121watt.de site:121watt.de]
Die Nutzung dieser Suchoperatoren, insbesondere des [site:] Suchoperators ist nicht immer zuverlässig, gibt aber trotzdem interessante Hinweise für die Analyse
Abbildung 3: Verwendung von Google Suchoperatoren zur Identifizierung starker Seiten
SEO Analyse - Indexanalyse
Ziel der Indexanalyse ist eine Überprüfung,
• welche Seiten einer Domain Google in seinen Index übernommen hat?
• Wie sehen in einer Übersicht die Snippets (siehe Abbildung 1) aus?
• Welche Verzeichnisse und subdomains finden sich, wenn man die eigene Domain überprüft?
• Gibt Google Sitelinks aus?
Site Links Zuerst gilt es mal zu überprüfen, ob bei der Eingabe von navigatorischen Suchbegriffen (Eigenen Marke) Google auch Sitelinks zurückgibt. Im Regelfall weisen stärkere Seiten immer sitelinks auf.
In einem zweiten Schritt überprüfen Sie ob Sie mit der Auswahl der sitelinks zufrieden sind. Änderungen können in den Google Webmaster Tools vorgenommen werden. Dazu gehen Sie in die Google Webmaster Tools -> Darstellung der Suche -> Sitelinks und werten weniger interessante Sitelinks, wie zum Beispiel „Impressum“ oder „AGBs“ ab
Hinweis: Falls aber keine Sitelinks vorhanden sind, ist dies ein Hinweis auf mangelndes Vertrauen (zu wenig gute und relevante Verlinkung) von Google in die Domain.
Abbildung 4: Sitelinks bei Eingabe von navigatorischen Suchbegriffen
Indexierung – Anzahl Seiten Besonders hilfreich ist dabei die Verwendung des [site:domain.de] Befehls bei Google, der einen übersichtlich zeigt, wie viele Seiten (grober Näherungswert) Google im Index hat – Abbildung 4.
Abbildung 5: Site Abfrage bei Google
Subdomains identifzieren Auf der Suche nach subdomains kann man den site Befehl erweitern (Siehe Abbildung 6) und erhält direkt von Google eine Liste der Subdomains, die bei Google auffindbar sind. In diesem Beispiel erfolgt eine Kombination aus dem [site:domain.de –inurl:www.domain.de]. Für Interessierte eine sehr umfangreiche Liste der Google Site Operatoren findet sich unter folgenden Link: http://121w.at/3
Abbildung 6: Suche nach subdomains über Google
Hinweis Indexanalyse: Eine regelmäßige Überprüfung der eigenen Seite bei Google ist immer sinnvoll, um zu überprüfen, ob
• Ob Google Sitelinks für die eigene Domain ausgibt • alle wichtigen Seiten von Google indexiert wurden • sich Seiten bei Google finden, die gar nicht für Nutzer auffindbar sein
sollten • viele Seiten im Index sind, die keinen Nutzen für den User haben • sich doppelte Inhalte (Duplicate Content) bei Google finden – dazu
mehr in der technischen Analyse
Keywords, Rankings & Verteilung
Die Bestimmung der richtigen Suchbegriffe (Keywords) ist bei der Entwicklung einer umfassenden SEO Strategie immer das Fundament für alle weiteren SEO Maßnahmen. Zur quantitativen und qualitativen Analyse gibt es eine Reihe von Tools, die diesen Prozess unterstützen. Viele dieser Tools stammen direkt von Google:
• Das Basis Keyword Tool: Der Google Keyword Planner
• Suchbegriffsentwicklungen erkennen: Google Trends
• Aktuelle Nutzerintentionen erkennen: Google Suggest
• Semantischer verwandte Suchbegriffe entdecken: semager.de
• Wettberber Suchbegriffe recherchieren: semrush.com
Für die SEO Analyse geht es aber in der Hauptsache darum, zu verstehen, für welche und für wie viele Suchbegriffe wird meine Website gefunden. Sind das die Suchbegriffe, die für mein Unternehmen sinnvoll sind? Gibt es synonyme Suchbegriffe mit höherem Potential, auf die man seine Optimierungsbemühungen konzentrieren sollte. Wie sieht die Verteilung der Positionen aus –siehe Abbildung 7.
Abbildung 7: Rankingverteilung zweier Domains. Quelle: Sistrix SEO Tools
Das Ergebnis einer Keyword- und Rankinganalyse könnte dann wie folgt aussehen: (Quelle: searchmetrics & Sistrix SEO Tools)
• Top 100 Positionen: 6.490 Suchbegriffe wurden in den Top 100 Positionen bei Google gefunden. Im Vergleich zum gleichen Zeitraum des letzten Jahres mit 5.765 Suchbegriffen ist dies ein Plus von 12%
• Top 1 Positionen: Davon 51 auf Position 1
• Premiumpositionen:137 in den Premiumpositionen zwischen 1-3
• Schwellenpositionen: 676 Treffer in interessanten Positionen zwischen 11-20
• Im Vergleich zur Konkurrenz hat die eigene Domain weniger Suchbegriffe auf der interessanten ersten und zweiten Ergebnisseite.
• Die Sichtbarkeit der Top100 Suchbegriffe hat sich um 15% erhöht.
• Der Suchbegriff „xyz“ hat im Vergleichszeitraum 7 Positionen von 2 auf 9 verloren
• Die Entwicklung der Impressions (also wie oft die Website in den Suchergebnislisten einem Nutzer gezeigt wurde) und die Entwicklung der Klicks ( siehe Abbildung 7 – Google Webmaster Tools)
Abbildung 8: Suchabfragenübersicht aus den GWMT bzw. Google Analytics
Hinweis: Neben den hervorragenden Möglichkeiten die Google mit seinen Webmaster Tools (zu finden unter http://www.google.com/webmasters/) bietet, helfen für solche Analyse oft nur noch kostenpflichtige Tools weiter, die aber dafür sehr detaillierte Analysen zulassen.
Beispiele Analyse Tools:
• Sistrix SEO Tool Box
• Searchmetrics Tools
• SEOlytics Tools
• Seomoz Tools
• Screaming Frog
• Onpage.org
• Weitere Online Marketing Tools haben wir hier mal zusammengestellt: http://www.121watt.de/online-marketing-tools-informationen/
OnPage & OnSite Analyse
Die Onpage- und Onsite-Analyse umfasst sowohl die Überprüfung von technischen Problemen, wie die generelle Crawlbarkeit, Doppelte Inhalte (Duplicate Content), Ladezeit der Seite, die korrekte Verwendung von Meta-Angaben oder auch Fehlerseiten (404 oder 410) als auch, ob die beabsichtigten Suchbegriffe verwendet werden. Weiterhin gibt es Inhalte in ausreichendem und sinnvollem Umfang, werden diese Inhalte auch richtig ausgezeichnet und wie ist die interne Verlinkung organisiert.
Technische Analyse
Zugang zur Seite
Der einfache Zugang zu Ihrer Website für die Crawler (googlebot) ist Grundvoraussetzung der Suchmaschinenoptimierung. Ziel ist es, Google & Co. einen schnellen Zugang zu allen relevanten Seiten der Webpräsenz zu geben. Dabei sind die Spider auf der Suche nach lesbarem Text. Bilder, Flash Anwendungen, Java oder Java Script sind für die Spider gar nicht oder nur schwer lesbar.
Überprüfen Sie Ihre eigenen Seiten in den Google Webmaster Tools über die Funktion „ Abruf wie durch Google Bot“. Installieren Sie die Webdeveloper Toolbar (siehe Hinweis) und surfen Sie auf allen Ihren wichtigen Seiten, während Sie Java Script und Cookies deaktiviert haben.
Hinweis: Abseits der Google Webmaster Tools ist die Webdeveloper Toolbar, als Firefox Plugin oder Chrome Erweiterung, zur Überprüfung der eigenen und vor allem fremder Websites ein mächtiges und sehr umfangreiches Tool. Alle Informationen zu den Google Webmastertools gibt es unter http://www.google.com/webmasters/
Hinweis: Ein weiteres sehr gutes Tool zur Onpage Analyse ist das online Tool www.onpage.org Es gibt hierzu einen kurzen Testbericht auf dem 121WATT Blog: http://blog.121watt.de/seo-‐suchmaschinenoptimierung/onpage-‐org-‐testbericht-‐review
Robots.txt
Diese Textdatei teilt den Crawlern mit, welche Verzeichnisse auf Ihrer Webpräsenz durchsucht werden dürfen und welche für die Suchmaschinenbots (beabsichtigt) gesperrt sind.
Überprüfen Sie, ob
• die Datei "robots.txt" vorhanden ist. Das können Sie einfach, in dem Sie in die Statuszeile Ihres Browsers folgendes eingeben www.domain.de/robots.txt also beispielsweise http://www.121watt.de/robots.txt
• die Crawler freien Zugang zu allen wichtigen Webseiten haben • umgekehrt, bestimmte Bereiche für die Crawler gesperrt sind oder
gesperrt werden sollten
Weitere Informationen und Best Practices zur robots.txt-Datei finden Sie unter: http://www.seo-trainee.de/robots-txt-so-wirds-gemacht/
Hinweis: Wollen Sie bestimmte Seiten aus dem Index nehmen ist die robots.xt ein ungeeignets Mittel. Wählen Sie dazu wie im nächsten Absatz beschrieben die Metangaben. In diesem Beispiel wäre die Metangabe noindex.
Meta Tags Überprüfen
Neben der Meta description gibt es noch weitere Anweisungen, wie sich Google und andere Suchmaschinen auf Ihrer Seite verhalten sollen, als Beispiel sei der folgende Meta Tag genannt:
<meta name="robots" content="noindex, nofollow">
Damit verbieten Sie dem Suchprogramm, Links auf Ihrer Seite weiter zu folgen und Ihre Seite im Index zu führen. Bei einer SEO Analyse wird geprüft, ob durch den Webmaster unbeabsichtigt wichtige Seiten aus dem Index ausgeschlossen wurden.
Hinweis: Ein weiteres hilfreiches Tool ist das Firefox Plugin seerobots, das über diesen Link verfügbar ist - http://andre.fm/seo/presenting-seerobots/
404 Fehler und Weiterleitungen überprüfen
Grundsätzlich bedeutet der Statuscode 404, das eine Ressource bzw. URL, die ein der Nutzer vom Server anfragt nicht vorhanden ist. Üblicherweise wird hier dann eine (hoffentlich)optimierte 404 Fehlerseite zurückgegeben. Fehler enstehen auf allen Seiten. Zu viele Fehler auf einer Website sind aber für Nutzer und Google ein Hinweis, das die Website nicht gut gepflegt ist. Deswegen sollten Sie folgende Dinge überprüfen:
• Ist eine 404 Fehlerseite vorhanden? Prüfen Sie, indem Sie versuchen eine garantiert nicht vorhandene Seite auf Ihrer Website aufzurufen: zum Beispiel www.domain.de/hhfjkdf
• Wie gut ist die 404 Fehlerseite, hilft Sie den Nutzern schnell auf auf relevante Angebote Ihrer Website zuzugreifen?
• Haben Sie auf Ihrer 404 Seite eine Web Analytics Trackingcode implementiert, damit Sie später überprüfen können, wie viele Besuche Sie auf Fehlerseiten bekommen.
• Wie hoch ist die Absprungrate? Voraussetzung ist wie eräwhnt, das wie auf allen anderen Seiten auch auf Ihrer 404 Fehler Seite ein Trackingpixel von Google, oder anderen Web Analyse Systemen, integriert ist.
• Über die Google Webmaster Tools Rubrik „Crawlingfehler“ (siehe Abbildung 9) lassen sich sehr gut 404 Fehler analysieren. Ziel ist es, diese Fehler zu beheben und wie in diesem Beispiel die Verlinkung, von denen durch Google monierten Seiten, richtig zu setzen.
• Leiten Sie die Nutzer im besten Falle immer auf eine relevante Seite um, und das möglichst 1:1. Das bedeutet, das Sie auf eine Seite weiterleiten, die der nicht mehr vorhandenen Seite möglichst ähnelt
301 & 302: Weiterleitungen
Ziel einer Weiterleitung ist es, den Nutzer beim Aufruf eines Links, der zum Beispiel nicht mehr gültig ist, auf die richtige Seite zu lenken. Aus Sichtweise der Suchmaschinenoptimierung ist die richtige Anwendung der folgenden zwei Umleitungen von Bedeutung:
Umleitung -‐ HTTP Status Code 302
Dieser Status Code leitet den Nutzer auf die gewünschte Seite um. Aus Sichtweise der Suchmaschine bedeutet dieser Status Code, dass die Webseite unter der angeforderten URL nicht existiert, aber in Zukunft wieder existieren wird. Dies kann zu Problemen führen, da zum einen Google diese Adresse erst einmal im Index behält und alle Verlinkungen, also die Linkkraft, auf die alte Seite angerechnet werden.
Umleitung -‐ HTTP Status Code 301
Dieser Status Code leitet den Nutzer auf die gewünschte Seite um. Aus Sichtweise der Suchmaschine bedeutet dieser Status Code, dass die Webseite unter der angeforderten URL nicht existiert und auch in Zukunft nicht wieder existieren wird. Die alte Webseite wird nicht mehr in den Index übernommen und die Linkkraft wird aus Sichtweise von Google auf die neue Seite umgeleitet.
Fehlerseite -‐ HTTP Status Code 404
Dieser Statuscode bedeutet, dass der angeforderte URL nicht mehr existiert. Das kann zum Beispiel dann eintreten, wenn ein Verweis auf eine nicht existierende Adresse auf dem Server führt.
Oft finden sich zahlreiche falsche Weiteleitungen (HTTP Status Code 302) und Verlinkungen, die auf eine nicht mehr existente Seite verlinken (404). Überprüfen Sie Folgendes:
• Falls Sie verschiedene Domains reserviert haben, ob diese richtig weitergeleitet sind (301 Weiterleitung)
• Ob Ihre Startseite unter verschiedenen Versionen verfügbar ist, zum Beispiel unter www.domain.de und unter domain.de. Entscheiden Sie sich für eine Version und leiten die andere Version per 301 weiter.
Abbildung 9: Google Webmaster Tools – 404 Fehler (nicht gefunden)
Hinweis: Ein sehr gutes Tool zur Überprüfung der richtigen Weiterleitungen ist das Firefox Plugin Live http Headers oder im Google Chrome die Entwicklertools
Duplicate Content.
Duplicate Content oder doppelte Inhalte sind ein Problem für Suchmaschinen. So sagt Google in seinen Webmasterrichtlinien:“Erstellen Sie keine doppelten Seiten, Sub-Domains oder Domains, die im Grunde denselben Content haben“. Das Problem für die Suchmaschinen ist zu bestimmen, welches die richtige Seite ist und welche in den Index aufgenommen werden soll (PDF, Druckansicht, etc). Die doppelten Inhalte können zu einer unnötigen Verteilung der Linkkraft auf verschiedene Darstellungsformen des gleichen Inhalts führen.
Es gibt mehrere Methoden, um Duplicate Content zu finden:
1. Überprüfen Sie doppelte Inhalte, in dem Sie zum Beispiel eine längere Textpassage ( ca 5 -15 Wörter) auf Ihrer Website kopieren und in Anführungsstrichen bei Google eingeben (siehe Abbildung10 : –in diesem Beispiel findet sich 2 mal der identische Text auf dem host www.bundesregierung.de
Abbildung 10: Überprüfung von doppelten Inhalten mit der „Phrasensuche bei Google“
2. Druck- und andere doppelte Versionen Ihrer Seiten finden Sie, indem [site:domain.de inurl:id] oder [site:domain.de inurl:type] bei Google eingeben. Dadurch finden Sie alle Seiten einer Domain, die „id“ bzw. „type“ in der URL haben, welche Indikatoren für Duplicate Content sein können.
3. In den Google Webmaster Tools kann unter dem Punkt „Optimierung“->“HTML-Verbesserungen“ eingesehen werden, welche Seiten dieselben Titles bzw. Meta-Descriptions haben.
4. Das Tool „Screaming Frog“ ermöglicht Ihnen ebenfalls zu sehen, ob Ihre Seite Duplicate Content enthält. Für jede gecrawlte Seite erzeugt Screaming Frog einen Hashwert. Sollten zwei Seiten denselben Hash haben, handelt es sich um eine duplizierte Seite.
Abbildung 11: Hashwerte bei Screaming Frog zur Feststellung von Duplicate Content
Ladezeiten überprüfen
Überprüfen Sie die Ladezeit Ihrer wichtigen Webseiten – Dazu gib es eine Reihe von Tools, wie zum Beispiel Page Speed Insights von Google oder YSlow das über die Google Webmaster Tools unter dem Menupunkt „andere Ressourcen“ erreichbar ist oder direkt über diese URL: https://developers.google.com/speed/pagespeed/insights/. Google empfiehlt allen Webmastern: “dringend, die Website-Leistung in regelmäßigen Abständen mithilfe von Page Speed Insights, YSlow, WebPagetest oder anderen Tools zu überprüfen“. Interessant ist hier auch die getrennte Analysemöglichkeit Mobile oder Desktop – siehe in Abbildung 12
Abbildung 12: Überprüfung der Ladezeiten über Pages Speed Insights
Site Speed überprüfen: Pingdom Tools
Ein weiteres gutes Tool zur Überprüfung von Ladezeiten ist Pingdom (http://tools.pingdom.com/fpt/) und in Google Analytics werden auch die Ladezeiten der User angezeigt, besonders interessant in Kombination mit der geographischen Herkunft.
Optimierungsansätze Sitespeed
Oft lassen sich die Ladezeiten schon ohne einen Server Wechsel stark verbessern. Bilder können optimiert werden, die kleinen Bilder als Sprites geladen werden und eine Zusammenfassung der CSS und Javascript Dateien kann schon eine Verbesserung bringen. Der größte Hebel liegt sicherlich aber im Client-side und Server-side Caching. Um noch mehr Speed rauszuholen lohnt der Einsatz von CDNs wie Amazons AWS3 oder Cloudfront.
Mehr zum Thema Ladezeitoptimierung finden Sie hier: http://blog.121watt.de/seo-suchmaschinenoptimierung/mit-mehr-pagespeed-die-eigene-website-optimieren
Inhaltliche Analyse
Ausreichende Texte & sinnvolle Texte Prüfen Sie im Zug Ihrer Analyse, ob Sie Ihre wichtigen Webseiten mit ausreichendem Text versehen haben, die dem Nutzer dazu dienen sollte, den Inhalt und Zweck der einzelnen Webseiten besser zu verstehen.
• Kommen die wichtigen Suchbegriffe in genügender und sinnvoller Menge vor?
• Ist der Text klar und logisch strukturiert • Überprüfen Sie zum Beispiel mit dem Firefox Addon „Search Status“
oder“Screaming Frog“ die Anzahl der Wörter und die Häufigkeit Ihrer wichtigen Suchbegriffe.
• Sind Ihre Suchbegriffe in wichtigen Auszeichnungselementen (H1 & H2) vorhanden?
• Ist mein Text für Besucher problemlösend und hilft ihnen weiter? • Wie verhalten sich Web Analyse Kennzahlen, wie Absprungrate oder
durchschnittliche Besuchsdauer?
Tipp: Überprüfen Sie Ihren Text in einem Analysetool – hier mql ein vorkonfigurierter Google Analytics Report den Sie direkt abspeichern können -‐ http://121w.at/4 - Bericht: Seiteneffizienz - SEO – inspieriert von Avinash Kaushik
Title Tag & Meta Description
Der Title Tag definiert den Titel eines Webdokuments und ist für Google nach wie vor eines der wichtigsten OnPage Kriterium zur Relevanzbeurteilung. Der Meta Description beschreibt den Inhalt des Dokuments und wird i.d.R als Teil des Snippets (siehe Abbildung 1) dargestellt.
Description: Der Meta Description ist zwar kein wichtiger Faktor für die Relevanzbeurteilung, bestimmt aber als Teil des Snippets die Klickrate in den SERPs. Überprüfen sie bei allen relevanten Seiten, ob die für Sie relevanten Suchbegriffe in der Meta Description vorkommen. Ist die Description relevant und enthält Sie für den Nutzer eine Motivation zu klicken? Eine gute Länge für die Description sind ca. 130 Zeichen.
Title: Der Title Tag sollte für jede Seite einzigartig und den Inhalt der Webseite möglichst genau beschreiben. Überprüfen Sie dabei, ob die für Sie wichtigen Suchbegriffe in den Title Tags prominent vorkommen. Im April 2014 hat Google noch einmal die Darstellung des Titles in den Suchergebnislisten verändert. Der Title selber hat inzwischen keinen Unterstrich mehr, weiterhin ist die Schhriftgröße von 16px auf 18px gestiegen. Die dritte Veränderung war das für den Title nur och ca. 50
– 60 Zeichen zur Verfügung stehen. Vermeiden Sie somit Title Tags mit mehr als 60 Zeichen. Überprüfen sie in den Google Webmaster Tools, in der Rubrik HTML Vorschläge alle Fehlermeldungen, die Ihnen Google anzeigt, insbesondere:
• Fehlende Title Tags & Meta-Descriptions • Doppelte Title Tags & Meta-Descriptions • Zu kurze oder zu lange Title Tags & Meta-Descriptions
Hinweis: Ein sehr gutes Tool zur Überprüfung der OnPage Optimierung ist die Desktop Anwendung Screaming Frog (siehe Abbildung 11), die einen schnellen Überblick über die Gestaltung und Länge der Title Tags, Meta Descriptions, H1 und H2 und weiteren Elementen bietet.
Abbildung 13: Überprüfung der Title Tags mit Screaming Frog SEO Spider - http://www.screamingfrog.co.uk/seo-spider/
Sprechende URLs
Sprechende URLs wie zum Beispiel www.domain.de/seo-analyse/ helfen Suchmaschinen und Nutzern zu verstehen, welche Inhalte sich hinter der URL verbergen können. Zusätzlich werden bei der Verlinkung von Inhalten durch Nutzer wichtige Suchbegriffe im Link-Text übergeben. Bei URLs mit umfangreichen Paramatern läuft man immer Gefahr, dass diese URLs von den Suchmaschinen nur teilweise oder auch gar nicht indexiert werden.
Image Alt Tags
Das ALT Attribut soll einen alternativen Text für ein Bild <img> enthalten, um den Inhalt des Bildes auch dann zugänglich zu machen, falls der Nutzer den Inhalt der Bilder nicht interpretieren kann. Überprüfen Sie Ihre Bilder auf fehlende oder nicht optimierte ALT Tags. Alle Bilder sollten mit einer aussagekräftigen alternativen Beschreibung versehen sein (Suchbegriffe verwenden). Zur Überprüfung der Alt Tags auf einer Seite eignen sich die bereits vorgestellten Tools „Webdeveloper Toolbar“ – Abbildung 12 und das Desktop Tool „ Screaming Frog SEO Spider“
Meta Angaben für Social Media Mit der zunehmenden Verbreitung der sozialen Medien gilt es auch hier die Darstellung der eigenen Inhalte zum Beispiel in Facebook zu überprüfen. Sollten Nutzer Ihre Inhalte auf Facebook oder Twitter beispielsweise teilen, sollte es Ihr Ziel sein, Titel, Beschreibung und vor allem auch die Darstellung des Bildes zu beeinflußen.
Meta Angaben für Facebook
Ziel der Optimierung der Metangaben für Facebook ist das die Darstellung des Ergebnisses für den Newsfeed der Nutzer optimiert ist. Deswegen ist es bei Facebook wichtig gerade neben dem Title und der Description, vor allem die Darstellung des Bildes zu optimieren
Die wichtigsten Open Graph Protocol Metadaten
• og:title – entspricht dem Title , e.g., "SEO Seminare in München und Hamburg“.
• og:description – Eine Beschreibung des Inhaltes in eine oder zwei Sätzen.
• og:image – Der URL des Bildes optimiert für die Darstellung in Facebook
Die korrekte Implementierung der Meta Daten können Sie in diesem Facenbook Tool direkt überprüfen: https://developers.facebook.com/tools/debug. Weitere Informationen dazu gibt es auch hier. OG Facebook: https://developers.facebook.com/docs/opengraph/howtos/maximizing-distribution-media-content/
Alle Facebook Metadaten im Überblick
Alle verfügbaren Metadaten für das Open Graph Protocol (Facebook) gibt es auch unter diesem Link: http://ogp.me/
Sollte Twitter für Sie wichtig sein überprüfen Sie zusätzlich noch die Implementierung von Twitter Cards, die den „og Metadaten“ von Facebook ähneln.: https://dev.twitter.com/docs/cards/markup-reference
Abbildung 14: Darstellung der ALT Tags mit der Webdeveloper Toolbar
Hinweis: Wer mehr zum Thema Bilder und der Erkennung von Bildern wissen möchte, sei folgende Anwendung von Google empfohlen. Google macht immer mehr Anstrengungen, um den Inhalt von Bildern zu erkennen – siehe http://www.google.com/mobile/goggles/
Interne Verlinkung & Informationsarchitektur
Die Prüfung der internen Verlinkung ist ein entscheidender Teil einer SEO-Analyse, denn genauso, wie die externe Verlinkung ist auch die interne Verlinkung ein (starker) Hinweis für Google, welche Dokumente(URLs) innerhalb des Webauftritts für den Webmaster von großer Bedeutung sind. Desto mehr und stärkere Links eine einzelne Webseite hat, desto wichtiger erscheint Sie in den Augen von Google. Google selber schreibt in seinen Richtlinien dazu: „Erstellen Sie eine Website mit klar strukturiertem Aufbau und Textlinks. Jede Seite sollte über mindestens einen statischen Textlink erreichbar sein.“
Überprüfen Sie, ob:
• Ihre interne Verlinkung möglichst flach ist und barrierefreie Links (Text-Links) hat.
• Ihre wichtigen Landingpages mit relevanten Anchor-Texten verlinkt wurden.
• Verschiedene Seiten unter gleichen Anchortexten intern verlinkt wurden.
• Ihre Seiten ohne eine hohe Relevanz für Suchmaschinen (zum Beispiel Impressum oder AGBs) weitgehend aus der internen Verlinkung ausgeschlossen wurden bzw. auf noindex gesetzt wurden.
• Sie von wichtigen Seiten zu viele ausgehende Links haben. Dazu sagt Google:“ Beschränken Sie die Anzahl der auf einer Seite vorhandenen Links auf ein vernünftiges Maß.“ Ein vernünftiges Maß ist immer schwer zu sagen, aber früher galt als Daumenregel, das eine Seite nicht mehr als 100 ausgehende Links besitzen sollte. Zur Überprüfung eignet sich hier zum Beispiel das Firefox Plugin „Search Status“ – zu finden unter https://addons.mozilla.org/de/firefox/addon/searchstatus/ – Abbildung 13
• Ihre wichtigsten Webseiten auch die meisten und stärksten internen Links haben – zur Überprüfung dienen hier wieder die Webmaster Tools von Google in der Rubrik Suchanfragen -> interne Links
• Aus Sicht der Informationsarchitektur der Nutzer immer weiß, wo er ist (Place of Information), z.B. gibt es eine Brotkrumennavigation?
• Aus Sicht der Informationsarchitektur der Nutzer auf allen (wichtigen) Seiten weiß, wo es noch mehr relevante Inhalte gibt (Information Scent) - z.B. durch Deep und Cross-Linking
•
Abbildung 14: Link Report mit dem Firefox Plugin „Search Status“
Ausgehende Verlinkung & nofollow Links von der eigenen Website auf externe Seiten sollten nie auf fragwürdige Webseiten verweisen, andernfalls könnte sich dies negativ auf die Reputation der Webseite bei Google auswirken. Insbesondere Seiten, die pornographische Inhalte oder Viren enthalten. Bei allen Links, die auf fragwürdige Inhalte verweisen, die Werbelinks oder wenn Sie Google zu verstehen geben wollen, das Sie nicht weiter crawlen sollten setzen Sie die entsprechenden Links auf „nofollow“. Google empfiehlt insbesondere Links auf „nofollow“ zu setzen
• Werbelinks (Affiliatelinks) & Links aus Advertorials
• Links aus Pressemeldungen auf Ihre Website
• Links aus Artikeln mit nicht passendem thematischen Zusammenhang
• bezahlte Links auf Ihre Website
• Links von Ihrer Website auf nicht vertrauenswürdige Inhalte
• Widegtlinks
• Links auf Ihrer Website zu reinen Formularseiten (“Anmelden” oder “Registrieren, „Einloggen”…)
Mehr dazu auch hier: https://support.google.com/webmasters/answer/96569?hl=de
Analyse ausgehender Links
Grundsätzlich gilt die Faustregel: Ist die verlinkte Webseite für meine Nutzer interessant und hilfreich, dann ist es auch ein guter Link. Wie aber kann ich analysieren, welche Links auf Ihrer Website auf andere Seiten verweisen? Es gibt mehrere Wege, die ausgehenden Links einer Webseite zu überprüfen:
1. Nach einem Crawlvorgang mit Screaming Frog erhalten Sie auch eine Liste mit ausgehenden Links.
2. Bing.com bietet mit dem Suchoperator „linkfromdomain:[example.com] eine Möglichkeit ausgehenden Verlinkungen zu sehen.
Abbildung 15: Ausgehende Links auf bundesregierung.de
Zusammenfassung:
Die Analyse der eigenen Website aber auch anderer Websites ist kein einmaliges Projekt, sondern als kontinuierlicher Prozess zu sehen. Auf Basis der eigenen Firmenziele und der daraus resultierenden Online Marketing und SEO Ziele, ist es sinnvoll, eine umfangreiche Analyse in regelmäßigem Abstand, zum Beispiel ½ oder ¼ jährlich vorzunehmen, ggf. auch unter Hinzuziehung von externer Expertise.
Neben der Aufdeckung von Fehlerquellen ist es immer ein Ziel auch mittels spezifischer SEO-KPIs den Fortschritt der eigenen Aktivitäten nachzuvollziehen und Ursachen von Veränderungen schneller eingrenzen zu können. Wichtige SEO KPIs können zum Beispiel sein:
• Anzahl Visits aus organischer Suche ( Analytics Tools, wie Google Analytics oder etracker, AT Internet etc.)
• Anzahl und % Veränderung Impressions in den SERPs (Google Webmaster Tools)
• Anzahl und % Veränderung an Klicks (Google Webmaster Tools) • Anzahl Keywords mit Top1 , Top 1-3 , Top 10, Top 100 Positionen (z.B.
Sistrix Tools) • Sichtbarkeitsindex ( Sistrix Tools, Searchmetrics, Seolytics etc.) • Rankingveränderungen für zum Beispiel Top 50 Suchbegriffe
Kleinere Analyse von geringerem Umfang, zum Beispiel bei Veränderungen relevanter KPIs oder Fehlermeldungen in den Google Webmaster Tools, sollten hier je nach Ressourcensitutation als fester Bestandteil der täglichen/wöchentlichen SEO Arbeit eingeplant werden.
Weitere Ressourcen der 121WATT:
• Online Marketing, Social Media und SEO Tools - http://www.121watt.de/online-marketing-tools-informationen/
• Was ist SEO? - http://blog.121watt.de/seo • 121WATT Blog - http://blog.121watt.de/