Onpage SEO – Maßnahmen und Erfolgsbetrachtungen

Beschreibung zum kostenlosen Online Marketing Webinar

Onpage SEO ist ein großes Feld. Viele Maßnahmen sind im Vorfeld kostenintensiv. So fallen Kosten für technische Entwicklungen oder redaktionelle Leistungen an, die die Kosten für die Erstellung des SEO-Konzepts oft bei weitem übersteigen. Sicher will man dann wissen, was die Maßnahmen gebracht haben. Nicht nur um sich zu rechtfertigen sondern um zu lernen und die eigene Strategie anzupassen.
Um dieses zu können sind Messgrößen notwendig, die zu den jeweiligen Maßnahmen passen. Jens wird im Webinar zeigen wie man von der Hypothese zur Maßnahme und zur Erfolgskontrolle kommt.

Video zum Webinar

Webinar Termin:

21.02.2017

12:00 Uhr - 13:00 Uhr

Das wirst Du nach dem Webinar gelernt haben:

SEO sollte nicht dem Selbstzweck dienen. Dennoch fällt es oft schwer Erfolge der eigenen SEO-Maßnahmen zu beziffern. Wie man dieses Problem lösen kann wird an diversen Beispielen gezeigt.

Onpage SEO – Maßnahmen und Erfolgsbetrachtungen

Jens Fauldrath war von 2006 bis 2012 mit dem Aufbau eines SEO-Teams für die Deutsche Telekom AG beschäftigt. Außerdem arbeitet er seit 2006 als Dozent für Suchmaschinenmarketing an der Hochschule Darmstadt. Er ist verheiratet und hat eine Tochter.

Onpage SEO und das Geld

SEO wird von vielen Leuten oft falsch verstanden. Es handelt sich um keinen Performance-Kanal. Die Kosten können nur sehr schwer variiert werden. Das liegt daran, dass es beim SEO kaum veränderliche Kostengrößen gibt. Der Großteil des Budgets fließt in diesem Bereich in Fixkosten. Eine wichtige Komponente sind dabei besonders die Personalkosten. Auch die IT-Kosten und die Mitarbeit anderer Abteilungen beruhen auf fixen Ausgaben. Gleiches gilt für den Content-Einkauf, das Partnering und die Internet Popularity. Das bedeutet, dass der Wert der Suchmaschinenoptimierung größtenteils von der Qualität der Umsetzung abhängt. Es ist nicht wie beim SEA oder beim Affiliate-Marketing möglich, die Kosten pro Nutzer abzurechnen. Bei der Onpage SEO muss man unabhängig vom Erfolg erst einmal relativ viel Geld ausgeben. Das heißt, Onpage SEO lohnt sich nur, wenn sie auch äußerst gekonnt umgesetzt wird. Daraus lässt sich wiederum schlussfolgern, dass es von entscheidender Bedeutung ist, dass die Kunden, die zum Beispiel gerne ihre Website überarbeiten lassen möchten, auch wirklich verstehen, warum sie so viel Geld ausgeben müssen und außerdem auch noch daran glauben, dass der SEO, der ihnen seine Dienste gerne verkaufen möchte, auch wirklich weiß, wovon er spricht und was er tut. Um einen solchen Eindruck zu erzeugen sollte man darauf achten, sich nicht zu sehr in Fachsprache des Onpage SEO auszudrücken und dem Kunden die eigenen Methoden in für ihn halbwegs verständlicher Form zu präsentieren.

Onpage SEO: Verschiedene Themen und Ziele

Die Suchmaschinenoptimierung kann sehr viele unterschiedlich Ziele und Themen zum Gegenstand haben. Einer IT-Seite wird es zum Beispiel im Normalfall wahrscheinlich eher nicht darum gehen, mehr Traffic bzw. mehr Besucher auf die eigene Seite zu ziehen. Betreiber solcher Seiten muss man durch andere Themen, wie zum Beispiel die Indexbereinigung, HTML und geringere Ladezeiten für die eigene Arbeit interessieren. Wichtig können für solche Seiten auch geringere Wartungskosten und eine höhere Auffindbarkeit sein.

Bei der Informationsarchitektur geht es hingegen eher um die User Experience und um das Produktmanagement. Wichtige Themen sind hierbei die Verlinkung, die Navigation und die Nutzerführung.

Ist das Hauptthema der Content, dann muss man sich hauptsächlich mit der Redaktion und wiederum mit dem Produktmanagement auseinandersetzen. Diese interessieren sich insbesondere für die Themenplanung, den Contentausbau und den Redaktionskalender.

Ein weiteres häufig als wichtig betrachtetes Thema ist die Outreach, also die Reichweite. Um diese zu vergrößern muss man besonders mit der PR-Abteilung, der Marke, dem Sponsoring, dem Produktmanagement und dem Marketing zusammenarbeiten. Wichtige Punkte sind dabei der Content, das Seeding, die Influencer und die Qualität der Inhalte.

Bei allen diesen verschiedenen Kundengruppen muss man wissen, wie eigentlich wirklich ihre Ziele und Prioritäten aussehen, um dann auf diese eingehen zu können und die eigenen Angebote entsprechend anzupassen.

Cockpit und Alignment

Um dazu in der Lage zu sein, braucht man ein gutes Cockpit, das heißt ein Zentrum, in dem wichtige Informationen zu dem eigenen Unternehmen und den Projekten visualisiert werden und so der gesamte Management-Prozess erleichtert wird. Nur so behält man die Kontrolle über die eigenen Daten und kann gleichzeitig feststellen, was bei der Kommunikation überhaupt funktionieren kann und was nicht.
Falls man nicht Chef des ganzen Unternehmens ist, wird es weiterhin notwendig sein, ein Alignment der ganzen anderen Abteilungen sicherzustellen, da man im SEO niemals alleine arbeiten kann.

Das heißt man sollte als erstes in der Lage sein, eine Hypothese aufzustellen. Diese würde in etwa die Form: „Mit der Maßnahme A sollte sich das Ziel B erreichen lassen“ aufweisen. Diese Ziele muss man dann auf die Ziele der Stakeholder übersetzen. Danach ist es wichtig, sicherzustellen, dass man das Erreichen dieser Ziele messen kann und außerdem festzulegen, wie man diese Messung durchführen möchte. Als nächstes kann man beginnen, die Maßnahmen aus der Hypothese umzusetzen. Dabei sollte man auf keinen Fall vergessen, das Erreichen der Ergebnisse zu überprüfen. Gerade in der heutigen Zeit ist es sehr schwierig, vorauszusagen, wie Google auf bestimmte Veränderungen reagiert und ob die Maßnahmen wirklich Erfolg haben. Eine gut geplante Überprüfung sorgt hier für Klarheit. Die Ergebnisse dieser Überprüfung sollte man dann auch an die Stakeholder weiterkommunizieren, wobei es unvermeidlich sein wird, auch hin und wieder eigene Fehleinschätzungen zuzugeben. Nur wenn man zugibt, dass die eine oder andere eigene Hypothese auch mal nicht funktioniert hat, dann schafft man eine Vertrauensbasis. Diese ist für eine gelungene Zusammenarbeit sehr wichtig. Man sollte also auch die Verantwortung für eigene Fehler übernehmen. Wichtig hierbei ist natürlich, dass man nicht nur Fehler macht, sondern dass die meisten Maßnahmen auch in irgendeiner Form Erfolg haben. Man sollte nie vergessen, dass man nur mit dem eigenen Team zusammen etwas erreichen kann, weshalb es auch wichtig ist, Erfolge immer als Gemeinschaftsleistung zu betrachten.

Indexbereinigung

Bei der Indexbereinigung geht es darum, Seiten, die schlecht performen, zu entfernen, um so die wichtigen Seiten auf der eigenen Website besser sichtbar zu machen.

Messungen

Schaut man sich hierzu ein Diagramm von SISTRIX an, dann scheint die Maßnahme ein Erfolg zu sein. Die Seitenzahlen der betrachteten Website sinken, während der Sichtbarkeitsindex einen sichtbaren Schwenk nach oben aufweist. Auch bei einem zusätzlich eingefügten Graphen für den Page Efficiency Index, kann man einen deutlichen Anstieg verzeichnen. Dieser berechnet sich, indem man den Sichtbarkeitsindex durch die Anzahl der indexierten URLs teilt und dann mit einem Faktor zur Lesbarkeit multipliziert. Dieser Faktor dient dazu, sehr geringe Werte, deren Handhabung einfach unpraktisch wäre, zu vermeiden. Besonders interessant können solche Diagramme auch noch sein, wenn man mit ihnen bestimmte Hosts oder Verzeichnisse auf einer Domain betrachtet, da sich so genau feststellen lässt, wo aufgeräumt wurde.

 

Indexbereinigung_Seitenzahl_zu_Sichtbarkeit

Diese Darstellung zeigt uns die Sichtbarkeit einer Website, nach bzw. während einer Indexbereinigung.

 

Schaut man sich nun allerdings die Klickzahlen mit Hilfe der Google Search Console an, dann wird man vielleicht feststellen, dass diese relativ konstant geblieben sind. Da stellt sich dann natürlich die Frage, ob die Indexbereinigung überhaupt wirklich ein Erfolg war. Ein Blick auf ein weiteres Diagramm zeigt hierbei, dass die Page Impression Efficiency und die Page Click Efficiency beide gestiegen sind. Allerdings befinden sich die Werte trotzdem noch längst nicht in einem Bereich, der als wünschenswert zu bezeichnen wäre. In dem Beispiel kommen ungefähr 0,12 Klicks auf eine URL pro Monat. Da aber die meisten URLs unter mehr als einem Begriff ranken, sollte man Werte von über 1 anstreben.

Lässt man sich jetzt noch einen Index für die Effizienz im Top 10 Ranking und im Top 100 Ranking anzeigen, dann stellt man die Ursache für alle diese Dinge fest. Eine Indexbereinigung hat kaum Auswirkungen auf die Top 10 Rankings, da diese viel härter umkämpft sind. Stattdessen wird die Effizienz in den Top 100 Rankings verbessert. Das erklärt warum die Sichtbarkeit zwar deutlich gestiegen ist, aber trotzdem die Nutzeraktionen nicht wirklich ähnliche Erfolge versprechen. Trotzdem schafft man sich durch die Indexbereinigung natürlich eine viel bessere Ausgangsposition, da man in den Top 100 nach oben steigt und durch weitere Maßnahmen dann auch schneller zu Erfolgen kommt.

Zusammenfassung zur Indexbereinigung – Was bleibt?

Eine Indexbereinigung wirkt sich prinzipiell sehr viel intensiver auf die hinteren als auf die vorderen Rankingplätze aus. Ab einem gewissen Grad – wenn die Effizienz einen Wert von über 1 erreicht – sind allerdings auch deutliche Unterschiede in Bezug auf die vorderen Rankingplätze auszumachen.
Sehr nützlich ist der Page Efficiency Index als Kennzahl, da er mit Hilfe der API relativ einfach zu erheben ist und außerdem gut geeignet ist, um schnell Potenziale einzuschätzen und Wettbewerbsvergleiche durchzuführen.
Schaut man sich die indexierten Seiten mal bei Onlineshops für Mode an, dann stellt man fest, dass insbesondere Zalando von 2015 bis 2016 unter den Seiten kräftig aufgeräumt hat. Die Anzahl der Seiten sank von 240 auf 20. Außerdem fällt auf, dass es den kleineren Unternehmen hier leichter fällt, ihre Seiten zu kontrollieren.

Durchführung Indexbereinigung

Eine solche Bereinigung lässt sich relativ schnell über Meta-Robots und Canonical-Tags durchführen. Dabei kann es aber schnell zu einer schlechten Crawling-Optimierung kommen, weshalb man immer in den Logfiles nachschauen sollte, wie das Verhältnis Menschen zu Bots in den Aufrufen aussieht. Wichtige Komponenten für eine gute Crawling-Optimierung sind die Nutzung von PRG-Patterns, das Vermeiden von nicht benötigten URLs und die Benutzung von noindex-Bezeichnungen in der robots.txt Datei.

Komplexitätsreduktion

Eine Komplexitätsreduktion bietet insbesondere für einen SEO verschiedene, große Vorteile.
Als erstes hat man keinen oder sehr viel weniger Datenmüll, der dauernd gefiltert werden muss. Weiterhin gibt es keine Restrisiken mehr, die bewirken, dass eine No-Index-Regel vergessen wird und die Seitenzahl wieder explosiv steigt. Außerdem ist man in der Lage, sich mehr auf das Wesentliche zu konzentrieren, weil das Unwesentliche einfach nicht mehr vorhanden ist. Es kommt zu einer Zeitersparnis bei allen Themen, die in irgendeiner Form mit der Maintenance also der Wartung zu tun haben. Und man hat eine bessere Kontrolle und kann somit auch viel planvoller vorgehen.
Die Komplexitätsreduktion lässt sich also mit Aufräumen vergleichen. Sie ist am Anfang unangenehm, aber macht einem das Leben dann am Ende deutlich leichter.

Informationsarchitektur

Bei der Informationsarchitektur geht es darum, die eigenen Seite in einer Weise gut auffindbar zu machen, die sowohl der Nutzer, als auch der Bot gut versteht.
Dabei gibt es zwei wichtige Bereiche, mit denen man sich beschäftigen muss: den Place of Information und den Information Scent. Beim ersteren geht es darum, wo man sich gerade befindet, während der zweite sich mehr mit der Frage beschäftigt, wohin man gehen kann.
Bedeutsam für die Informationsarchitektur sind besonders der Aufbau der Templates und die Navigationsstruktur.
Ein weiteres Ziel ist es, den Longtail der Suche durch eine klare Dokumentenstruktur und optimierte Meta-Informationen möglichst optimal zu bedienen. Dabei handelt es sich um für die Suchmaschinen lohnende Mehrwortphrasen, mit denen sich möglichst viel Traffic auf der eigenen Website generieren lässt.
Um in Bezug auf diese Phrasen Messungen vorzunehmen, ist es oftmals sinnvoll, eine Segmentierung der GSC-Daten vorzunehmen. So kann man sie zum Beispiel auf Basis der Suchanfragen sortieren, wobei man allerdings beachten sollte, dass die Summe der einzelnen Segmente in diesem Fall höher als 100 Prozent liegen wird, weil manche Mehrwortanfragen in mehrere Segmente hineinpassen.
Segmentiert man hingegen auf Basis der URLs, dann wird die Summe bei 100 Prozent liegen, sonst hat man einen Fehler bei der Implementierung gemacht.
Man sollte auch noch beachten, dass auf Grund der Datenschutz-Richtlinien von Google die Daten aus der Search Console unvollständig sein können Deshalb sollte man nie in absoluten Zahlen denken, sondern sich nur auf die Anteile der einzelnen Segmente konzentrieren.
Für Probleme können auch die Aggregationstypen bei Abfragen in Google verantwortlich sein. Ob nach Property oder „by page“ aggregiert wird, macht meistens große Unterschiede in Bezug auf die Messdaten aus.
Wenn man bestimmte Seitentypen stärken möchte, kann es sinnvoll sein, eine Segmentierung der seitentypen auf Basis der URLs vorzunehmen. Auf diese Weise kann man sehr einfach feststellen, ob die entsprechenden Bereiche auch wirklich gestärkt wurden und ob diese Maßnahme die gesamte Seite nach vorne gebracht hat.

Theory into Practice

Um alle diese Tipps in die Praxis umzusetzen, ist es sinnvoll, ein Beispiel heranzuziehen.

Man hat eine Produktseite, die auf das Keyword „Preiswert“ optimiert ist. Nun kommt aber der Verdacht auf, dass das Suchvolumen für „günstig + Produkt“ größer sein könnte als dasjenige für die Variante mit „Preiswert“. Dabei hofft man, dass die Suchintention in beiden Fällen ungefähr dieselbe ist. Bei diesen Annahmen handelt es sich sozusagen um die Hypothese.
Will man hierfür Messungen vornehmen, dann stößt man auf ein Problem. Der Pfad des Nutzers besteht aus verschiedenen Segmenten. Das Ranking und die verschiedenen, diese betreffenden Messgrößen lassen sich noch ohne große Probleme mit der Google Search Console anzeigen. Selbiges gilt für Klicks, Impressions und CTRs. Um allerdings die Nutzerreaktionen auf Seiteninhalte sichtbar zu machen, indem man zum Beispiel Verweildauern und Bounce Rates anzeigen lässt oder um die Conversion Rate betrachten zu können benötigt man Google Analytics. Die beiden Tools lassen sich leider nicht optimal miteinander kombinieren.
Schaut man sich nun die Diagramme zu dem Beispiel an, dann stellt man fest, dass die Suchanfragen zu „Preiswert“ sehr stark sinken, während „Günstig“-Anfragen einen großen Anstieg zu verzeichnen haben. Insgesamt ist die Zahl der Anfragen nun größer, was die Schlussfolgerung zulässt, dass die Hypothese zum Suchvolumen korrekt war.
Nun stellt sich natürlich auch noch die Frage, ob die Qualität des neuen Traffics mit der des alten mithalten kann. Hierzu betrachtet man am besten die Absprungrate und die Conversions. Da diese beide ansteigen, kann man davon ausgehen, dass die Qualität des Traffics insgesamt besser geworden ist. Der Umsatz lässt Ähnliches vermuten. Die gesamte Maßnahme war also ein Erfolg.

Ein weiteres Beispiel bezieht sich auf die Texte auf den Kategorieseiten. Diese sind anfangs einfach nicht vorhanden. Die Hypothese, die man nun aufstellen kann, lautet, dass mehr sinnvolle und nicht lexikalische Texte auf den Kategorieseiten zu mehr Rankings derselben führen.
Hierfür schaut man sich als erstes an, auf welcher Position die URLs durchschnittlich ranken. Hier wird man feststellen, dass die durchschnittliche Position abgesunken ist. Das liegt daran, dass die zusätzlichen Phrasen, unter denen die URLs nun ranken, den Durchschnitt negativ beeinflussen. Man muss also nicht nur den Durchschnitt, sondern auch die Anzahl der Rankings betrachten. So stellt man dann fest, dass auch die Maßnahme mit den zusätzlichen Inhalten Erfolge für sich verbuchen kann. Man sollte bei diesen Maßnahmen immer darauf achten, dass man die Auswirkungen immer einzeln misst, da sich erfolge und Probleme sonst nicht mehr einer bestimmten Maßnahme eindeutig zuordnen lassen.

Ein Shop ohne weitere Inhalte ist ebenfalls eine interessante Ausgangslage. Hier könnte man versuchen, durch das Erstellen eines Ratgebers neue Rankings und somit auch neue Besucher zu gewinnen.
Um das zu überprüfen, kann man sich anzeigen lassen, wie viele Klicks und Impressions durch neue Suchanfragen erzeugt worden sind und welche auf alten Phrasen beruhen. Dabei ist ein Kannibalisierungseffekt von unter 20 Prozent akzeptabel. Da der Ratgeber natürlich auch teilweise Doppelrankings erzeugt. Da hier über 80 Prozent der Suchanfragen neu sind, kann man auch dieser Maßnahme einen Erfolg bescheinigen.

Fazit

Im Allgemeinen sollte man also in der Praxis erst einmal eine Hypothese aufstellen. Die Ziele, die mit dieser einhergehen, sollte man auf die Ziele der Stakeholder übertragen. Als nächstes ist es notwendig, eine Messung sicherzustellen, um den Erfolg der entsprechenden Maßnahmen zu verifizieren. Danach kommt es zur Umsetzung der Maßnahme und mit ihr zu der Überprüfung der in der Hypothese aufgestellten Annahmen. Diese Ergebnisse sollte man schließlich den Stakeholdern direkt und unverfälscht mitteilen.

Um diese Schritte alle durchführen zu können, benötigt man ein relativ flexibles Framework für das Reporting und die Analysen. Google Analytics, die Google Search Console und SISTRIX sind hier eine gute Wahl.
Bei der Aggregationslogik der Google Search Console ist es wichtig, für Suchanfragen immer die passenden Aggregationstypen auszuwählen.
Zur Visualisierung der gewonnenen Daten kann zum Beispiel Microsoft Excel sehr hilfreich sein.

Wer noch Fragen an Jens Fauldrath hat, kann ihn über Facebook und Twitter ohne Probleme kontaktieren.

Onpage SEO – Maßnahmen und Erfolgsbetrachtungen

Jens Fauldrath war von 2006 bis 2012 mit dem Aufbau eines SEO-Teams für die Deutsche Telekom AG beschäftigt. Außerdem arbeitet er seit 2006 als Dozent für Suchmaschinenmarketing an der Hochschule Darmstadt. Er ist verheiratet und hat eine Tochter.

Onpage SEO und das Geld

SEO wird von vielen Leuten oft falsch verstanden. Es handelt sich um keinen Performance-Kanal. Die Kosten können nur sehr schwer variiert werden. Das liegt daran, dass es beim SEO kaum veränderliche Kostengrößen gibt. Der Großteil des Budgets fließt in diesem Bereich in Fixkosten. Eine wichtige Komponente sind dabei besonders die Personalkosten. Auch die IT-Kosten und die Mitarbeit anderer Abteilungen beruhen auf fixen Ausgaben. Gleiches gilt für den Content-Einkauf, das Partnering und die Internet Popularity. Das bedeutet, dass der Wert der Suchmaschinenoptimierung größtenteils von der Qualität der Umsetzung abhängt. Es ist nicht wie beim SEA oder beim Affiliate-Marketing möglich, die Kosten pro Nutzer abzurechnen. Bei der Onpage SEO muss man unabhängig vom Erfolg erst einmal relativ viel Geld ausgeben. Das heißt, Onpage SEO lohnt sich nur, wenn sie auch äußerst gekonnt umgesetzt wird. Daraus lässt sich wiederum schlussfolgern, dass es von entscheidender Bedeutung ist, dass die Kunden, die zum Beispiel gerne ihre Website überarbeiten lassen möchten, auch wirklich verstehen, warum sie so viel Geld ausgeben müssen und außerdem auch noch daran glauben, dass der SEO, der ihnen seine Dienste gerne verkaufen möchte, auch wirklich weiß, wovon er spricht und was er tut. Um einen solchen Eindruck zu erzeugen sollte man darauf achten, sich nicht zu sehr in Fachsprache des Onpage SEO auszudrücken und dem Kunden die eigenen Methoden in für ihn halbwegs verständlicher Form zu präsentieren.

Onpage SEO: Verschiedene Themen und Ziele

Die Suchmaschinenoptimierung kann sehr viele unterschiedlich Ziele und Themen zum Gegenstand haben. Einer IT-Seite wird es zum Beispiel im Normalfall wahrscheinlich eher nicht darum gehen, mehr Traffic bzw. mehr Besucher auf die eigene Seite zu ziehen. Betreiber solcher Seiten muss man durch andere Themen, wie zum Beispiel die Indexbereinigung, HTML und geringere Ladezeiten für die eigene Arbeit interessieren. Wichtig können für solche Seiten auch geringere Wartungskosten und eine höhere Auffindbarkeit sein.

Bei der Informationsarchitektur geht es hingegen eher um die User Experience und um das Produktmanagement. Wichtige Themen sind hierbei die Verlinkung, die Navigation und die Nutzerführung.

Ist das Hauptthema der Content, dann muss man sich hauptsächlich mit der Redaktion und wiederum mit dem Produktmanagement auseinandersetzen. Diese interessieren sich insbesondere für die Themenplanung, den Contentausbau und den Redaktionskalender.

Ein weiteres häufig als wichtig betrachtetes Thema ist die Outreach, also die Reichweite. Um diese zu vergrößern muss man besonders mit der PR-Abteilung, der Marke, dem Sponsoring, dem Produktmanagement und dem Marketing zusammenarbeiten. Wichtige Punkte sind dabei der Content, das Seeding, die Influencer und die Qualität der Inhalte.

Bei allen diesen verschiedenen Kundengruppen muss man wissen, wie eigentlich wirklich ihre Ziele und Prioritäten aussehen, um dann auf diese eingehen zu können und die eigenen Angebote entsprechend anzupassen.

Cockpit und Alignment

Um dazu in der Lage zu sein, braucht man ein gutes Cockpit, das heißt ein Zentrum, in dem wichtige Informationen zu dem eigenen Unternehmen und den Projekten visualisiert werden und so der gesamte Management-Prozess erleichtert wird. Nur so behält man die Kontrolle über die eigenen Daten und kann gleichzeitig feststellen, was bei der Kommunikation überhaupt funktionieren kann und was nicht.
Falls man nicht Chef des ganzen Unternehmens ist, wird es weiterhin notwendig sein, ein Alignment der ganzen anderen Abteilungen sicherzustellen, da man im SEO niemals alleine arbeiten kann.

Das heißt man sollte als erstes in der Lage sein, eine Hypothese aufzustellen. Diese würde in etwa die Form: „Mit der Maßnahme A sollte sich das Ziel B erreichen lassen“ aufweisen. Diese Ziele muss man dann auf die Ziele der Stakeholder übersetzen. Danach ist es wichtig, sicherzustellen, dass man das Erreichen dieser Ziele messen kann und außerdem festzulegen, wie man diese Messung durchführen möchte. Als nächstes kann man beginnen, die Maßnahmen aus der Hypothese umzusetzen. Dabei sollte man auf keinen Fall vergessen, das Erreichen der Ergebnisse zu überprüfen. Gerade in der heutigen Zeit ist es sehr schwierig, vorauszusagen, wie Google auf bestimmte Veränderungen reagiert und ob die Maßnahmen wirklich Erfolg haben. Eine gut geplante Überprüfung sorgt hier für Klarheit. Die Ergebnisse dieser Überprüfung sollte man dann auch an die Stakeholder weiterkommunizieren, wobei es unvermeidlich sein wird, auch hin und wieder eigene Fehleinschätzungen zuzugeben. Nur wenn man zugibt, dass die eine oder andere eigene Hypothese auch mal nicht funktioniert hat, dann schafft man eine Vertrauensbasis. Diese ist für eine gelungene Zusammenarbeit sehr wichtig. Man sollte also auch die Verantwortung für eigene Fehler übernehmen. Wichtig hierbei ist natürlich, dass man nicht nur Fehler macht, sondern dass die meisten Maßnahmen auch in irgendeiner Form Erfolg haben. Man sollte nie vergessen, dass man nur mit dem eigenen Team zusammen etwas erreichen kann, weshalb es auch wichtig ist, Erfolge immer als Gemeinschaftsleistung zu betrachten.

Indexbereinigung

Bei der Indexbereinigung geht es darum, Seiten, die schlecht performen, zu entfernen, um so die wichtigen Seiten auf der eigenen Website besser sichtbar zu machen.

Messungen

Schaut man sich hierzu ein Diagramm von SISTRIX an, dann scheint die Maßnahme ein Erfolg zu sein. Die Seitenzahlen der betrachteten Website sinken, während der Sichtbarkeitsindex einen sichtbaren Schwenk nach oben aufweist. Auch bei einem zusätzlich eingefügten Graphen für den Page Efficiency Index, kann man einen deutlichen Anstieg verzeichnen. Dieser berechnet sich, indem man den Sichtbarkeitsindex durch die Anzahl der indexierten URLs teilt und dann mit einem Faktor zur Lesbarkeit multipliziert. Dieser Faktor dient dazu, sehr geringe Werte, deren Handhabung einfach unpraktisch wäre, zu vermeiden. Besonders interessant können solche Diagramme auch noch sein, wenn man mit ihnen bestimmte Hosts oder Verzeichnisse auf einer Domain betrachtet, da sich so genau feststellen lässt, wo aufgeräumt wurde.

 

Indexbereinigung_Seitenzahl_zu_Sichtbarkeit

Diese Darstellung zeigt uns die Sichtbarkeit einer Website, nach bzw. während einer Indexbereinigung.

 

Schaut man sich nun allerdings die Klickzahlen mit Hilfe der Google Search Console an, dann wird man vielleicht feststellen, dass diese relativ konstant geblieben sind. Da stellt sich dann natürlich die Frage, ob die Indexbereinigung überhaupt wirklich ein Erfolg war. Ein Blick auf ein weiteres Diagramm zeigt hierbei, dass die Page Impression Efficiency und die Page Click Efficiency beide gestiegen sind. Allerdings befinden sich die Werte trotzdem noch längst nicht in einem Bereich, der als wünschenswert zu bezeichnen wäre. In dem Beispiel kommen ungefähr 0,12 Klicks auf eine URL pro Monat. Da aber die meisten URLs unter mehr als einem Begriff ranken, sollte man Werte von über 1 anstreben.

Lässt man sich jetzt noch einen Index für die Effizienz im Top 10 Ranking und im Top 100 Ranking anzeigen, dann stellt man die Ursache für alle diese Dinge fest. Eine Indexbereinigung hat kaum Auswirkungen auf die Top 10 Rankings, da diese viel härter umkämpft sind. Stattdessen wird die Effizienz in den Top 100 Rankings verbessert. Das erklärt warum die Sichtbarkeit zwar deutlich gestiegen ist, aber trotzdem die Nutzeraktionen nicht wirklich ähnliche Erfolge versprechen. Trotzdem schafft man sich durch die Indexbereinigung natürlich eine viel bessere Ausgangsposition, da man in den Top 100 nach oben steigt und durch weitere Maßnahmen dann auch schneller zu Erfolgen kommt.

Zusammenfassung zur Indexbereinigung – Was bleibt?

Eine Indexbereinigung wirkt sich prinzipiell sehr viel intensiver auf die hinteren als auf die vorderen Rankingplätze aus. Ab einem gewissen Grad – wenn die Effizienz einen Wert von über 1 erreicht – sind allerdings auch deutliche Unterschiede in Bezug auf die vorderen Rankingplätze auszumachen.
Sehr nützlich ist der Page Efficiency Index als Kennzahl, da er mit Hilfe der API relativ einfach zu erheben ist und außerdem gut geeignet ist, um schnell Potenziale einzuschätzen und Wettbewerbsvergleiche durchzuführen.
Schaut man sich die indexierten Seiten mal bei Onlineshops für Mode an, dann stellt man fest, dass insbesondere Zalando von 2015 bis 2016 unter den Seiten kräftig aufgeräumt hat. Die Anzahl der Seiten sank von 240 auf 20. Außerdem fällt auf, dass es den kleineren Unternehmen hier leichter fällt, ihre Seiten zu kontrollieren.

Durchführung Indexbereinigung

Eine solche Bereinigung lässt sich relativ schnell über Meta-Robots und Canonical-Tags durchführen. Dabei kann es aber schnell zu einer schlechten Crawling-Optimierung kommen, weshalb man immer in den Logfiles nachschauen sollte, wie das Verhältnis Menschen zu Bots in den Aufrufen aussieht. Wichtige Komponenten für eine gute Crawling-Optimierung sind die Nutzung von PRG-Patterns, das Vermeiden von nicht benötigten URLs und die Benutzung von noindex-Bezeichnungen in der robots.txt Datei.

Komplexitätsreduktion

Eine Komplexitätsreduktion bietet insbesondere für einen SEO verschiedene, große Vorteile.
Als erstes hat man keinen oder sehr viel weniger Datenmüll, der dauernd gefiltert werden muss. Weiterhin gibt es keine Restrisiken mehr, die bewirken, dass eine No-Index-Regel vergessen wird und die Seitenzahl wieder explosiv steigt. Außerdem ist man in der Lage, sich mehr auf das Wesentliche zu konzentrieren, weil das Unwesentliche einfach nicht mehr vorhanden ist. Es kommt zu einer Zeitersparnis bei allen Themen, die in irgendeiner Form mit der Maintenance also der Wartung zu tun haben. Und man hat eine bessere Kontrolle und kann somit auch viel planvoller vorgehen.
Die Komplexitätsreduktion lässt sich also mit Aufräumen vergleichen. Sie ist am Anfang unangenehm, aber macht einem das Leben dann am Ende deutlich leichter.

Informationsarchitektur

Bei der Informationsarchitektur geht es darum, die eigenen Seite in einer Weise gut auffindbar zu machen, die sowohl der Nutzer, als auch der Bot gut versteht.
Dabei gibt es zwei wichtige Bereiche, mit denen man sich beschäftigen muss: den Place of Information und den Information Scent. Beim ersteren geht es darum, wo man sich gerade befindet, während der zweite sich mehr mit der Frage beschäftigt, wohin man gehen kann.
Bedeutsam für die Informationsarchitektur sind besonders der Aufbau der Templates und die Navigationsstruktur.
Ein weiteres Ziel ist es, den Longtail der Suche durch eine klare Dokumentenstruktur und optimierte Meta-Informationen möglichst optimal zu bedienen. Dabei handelt es sich um für die Suchmaschinen lohnende Mehrwortphrasen, mit denen sich möglichst viel Traffic auf der eigenen Website generieren lässt.
Um in Bezug auf diese Phrasen Messungen vorzunehmen, ist es oftmals sinnvoll, eine Segmentierung der GSC-Daten vorzunehmen. So kann man sie zum Beispiel auf Basis der Suchanfragen sortieren, wobei man allerdings beachten sollte, dass die Summe der einzelnen Segmente in diesem Fall höher als 100 Prozent liegen wird, weil manche Mehrwortanfragen in mehrere Segmente hineinpassen.
Segmentiert man hingegen auf Basis der URLs, dann wird die Summe bei 100 Prozent liegen, sonst hat man einen Fehler bei der Implementierung gemacht.
Man sollte auch noch beachten, dass auf Grund der Datenschutz-Richtlinien von Google die Daten aus der Search Console unvollständig sein können Deshalb sollte man nie in absoluten Zahlen denken, sondern sich nur auf die Anteile der einzelnen Segmente konzentrieren.
Für Probleme können auch die Aggregationstypen bei Abfragen in Google verantwortlich sein. Ob nach Property oder „by page“ aggregiert wird, macht meistens große Unterschiede in Bezug auf die Messdaten aus.
Wenn man bestimmte Seitentypen stärken möchte, kann es sinnvoll sein, eine Segmentierung der seitentypen auf Basis der URLs vorzunehmen. Auf diese Weise kann man sehr einfach feststellen, ob die entsprechenden Bereiche auch wirklich gestärkt wurden und ob diese Maßnahme die gesamte Seite nach vorne gebracht hat.

Theory into Practice

Um alle diese Tipps in die Praxis umzusetzen, ist es sinnvoll, ein Beispiel heranzuziehen.

Man hat eine Produktseite, die auf das Keyword „Preiswert“ optimiert ist. Nun kommt aber der Verdacht auf, dass das Suchvolumen für „günstig + Produkt“ größer sein könnte als dasjenige für die Variante mit „Preiswert“. Dabei hofft man, dass die Suchintention in beiden Fällen ungefähr dieselbe ist. Bei diesen Annahmen handelt es sich sozusagen um die Hypothese.
Will man hierfür Messungen vornehmen, dann stößt man auf ein Problem. Der Pfad des Nutzers besteht aus verschiedenen Segmenten. Das Ranking und die verschiedenen, diese betreffenden Messgrößen lassen sich noch ohne große Probleme mit der Google Search Console anzeigen. Selbiges gilt für Klicks, Impressions und CTRs. Um allerdings die Nutzerreaktionen auf Seiteninhalte sichtbar zu machen, indem man zum Beispiel Verweildauern und Bounce Rates anzeigen lässt oder um die Conversion Rate betrachten zu können benötigt man Google Analytics. Die beiden Tools lassen sich leider nicht optimal miteinander kombinieren.
Schaut man sich nun die Diagramme zu dem Beispiel an, dann stellt man fest, dass die Suchanfragen zu „Preiswert“ sehr stark sinken, während „Günstig“-Anfragen einen großen Anstieg zu verzeichnen haben. Insgesamt ist die Zahl der Anfragen nun größer, was die Schlussfolgerung zulässt, dass die Hypothese zum Suchvolumen korrekt war.
Nun stellt sich natürlich auch noch die Frage, ob die Qualität des neuen Traffics mit der des alten mithalten kann. Hierzu betrachtet man am besten die Absprungrate und die Conversions. Da diese beide ansteigen, kann man davon ausgehen, dass die Qualität des Traffics insgesamt besser geworden ist. Der Umsatz lässt Ähnliches vermuten. Die gesamte Maßnahme war also ein Erfolg.

Ein weiteres Beispiel bezieht sich auf die Texte auf den Kategorieseiten. Diese sind anfangs einfach nicht vorhanden. Die Hypothese, die man nun aufstellen kann, lautet, dass mehr sinnvolle und nicht lexikalische Texte auf den Kategorieseiten zu mehr Rankings derselben führen.
Hierfür schaut man sich als erstes an, auf welcher Position die URLs durchschnittlich ranken. Hier wird man feststellen, dass die durchschnittliche Position abgesunken ist. Das liegt daran, dass die zusätzlichen Phrasen, unter denen die URLs nun ranken, den Durchschnitt negativ beeinflussen. Man muss also nicht nur den Durchschnitt, sondern auch die Anzahl der Rankings betrachten. So stellt man dann fest, dass auch die Maßnahme mit den zusätzlichen Inhalten Erfolge für sich verbuchen kann. Man sollte bei diesen Maßnahmen immer darauf achten, dass man die Auswirkungen immer einzeln misst, da sich erfolge und Probleme sonst nicht mehr einer bestimmten Maßnahme eindeutig zuordnen lassen.

Ein Shop ohne weitere Inhalte ist ebenfalls eine interessante Ausgangslage. Hier könnte man versuchen, durch das Erstellen eines Ratgebers neue Rankings und somit auch neue Besucher zu gewinnen.
Um das zu überprüfen, kann man sich anzeigen lassen, wie viele Klicks und Impressions durch neue Suchanfragen erzeugt worden sind und welche auf alten Phrasen beruhen. Dabei ist ein Kannibalisierungseffekt von unter 20 Prozent akzeptabel. Da der Ratgeber natürlich auch teilweise Doppelrankings erzeugt. Da hier über 80 Prozent der Suchanfragen neu sind, kann man auch dieser Maßnahme einen Erfolg bescheinigen.

Fazit

Im Allgemeinen sollte man also in der Praxis erst einmal eine Hypothese aufstellen. Die Ziele, die mit dieser einhergehen, sollte man auf die Ziele der Stakeholder übertragen. Als nächstes ist es notwendig, eine Messung sicherzustellen, um den Erfolg der entsprechenden Maßnahmen zu verifizieren. Danach kommt es zur Umsetzung der Maßnahme und mit ihr zu der Überprüfung der in der Hypothese aufgestellten Annahmen. Diese Ergebnisse sollte man schließlich den Stakeholdern direkt und unverfälscht mitteilen.

Um diese Schritte alle durchführen zu können, benötigt man ein relativ flexibles Framework für das Reporting und die Analysen. Google Analytics, die Google Search Console und SISTRIX sind hier eine gute Wahl.
Bei der Aggregationslogik der Google Search Console ist es wichtig, für Suchanfragen immer die passenden Aggregationstypen auszuwählen.
Zur Visualisierung der gewonnenen Daten kann zum Beispiel Microsoft Excel sehr hilfreich sein.

Wer noch Fragen an Jens Fauldrath hat, kann ihn über Facebook und Twitter ohne Probleme kontaktieren.