Suchmaschinenoptimierung (SEO)

Expertentipps, kostenfreie Webinare, Buchempfehlungen

Suchmaschinenoptimierung (SEO) als Königsdisziplin im Online Marketing

Wird Deine Website in der Vielzahl an Suchmaschinen überhaupt gefunden? Verschlafe nicht Dein Potenzial, mit Suchmaschinenoptimierung mehr Interessenten auf Dich aufmerksam zu machen. Bilde Dich auf dieser Seite im Bereich SEO fort:

  • Wertvolle Tipps und Fallbeispiele von erfahrenen SEO-Experten
  • Jede Menge kostenfreier Content in Form von Webinaren, Blogtexten und mehr
  • Inspiration für Deine tagägliche Arbeit

Entdecke mit Suchmaschinenoptimierung den langfristig günstigsten Online Marketing Kanal. Los geht’s – starte jetzt Deine erste oder nächste Weiterbildungsdosis SEO!

Unsere Webinare zum Thema Suchmaschinenoptimierung (SEO)

Onpage SEO im Griff: Alerting und Monitoring für SEOs

Stefan Keil

Video anzeigen

Onsite Optimierung LIVE

Evgeni Sereda

Video anzeigen

Search Driven Content: So erfüllst du die Suchintention

Artur Kosch

Video anzeigen

Republishing: Die vielleicht beste SEO-Strategie

Eric Kubitz

Video anzeigen

Was kostet SEO & Content Marketing wirklich

Marco Janck

Video anzeigen

Onpage SEO – Maßnahmen und Erfolgsbetrachtungen

Jens Fauldrath

Video anzeigen

Ranking Faktoren in Zeiten von Deep Learning

Malte Landwehr

Video anzeigen

So mache ich einen Website Relaunch richtig

Stefan Vorwerk

Video anzeigen

Optimierung mit Searchmetrics

André Krüger

Video anzeigen

User Happiness - der entscheidende SEO-Faktor

Christian Tembrink

Video anzeigen

Tipps für die interne Verlinkung

Justus Blümer

Video anzeigen

RankBrain die Zukunft von SEO

Kai Spriestersbach

Video anzeigen

10 SEO-Tipps für nachhaltige Erfolge

Alexander Geißenberger

Video anzeigen

AMP - die neue Google-Strategie

Justus Blümer

Video anzeigen

Buchempfehlung zum Thema Suchmaschinenoptimierung (SEO)

Suchmaschinen-Optimierung: Das umfassende Handbuch. Das SEO-Standardwerk im deutschsprachigen Raum. On- und Offpage-Optimierung für Google und Co.

Suchmaschinen-Optimierung: Das umfassende Handbuch. Das SEO-Standardwerk im deutschsprachigen Raum. On- und Offpage-Optimierung für Google und Co.

Das Handbuch zur Suchmaschinen-Optimierung von Sebastian Erlhofer gilt in Fachkreisen zu Recht als das deutschsprachige Standardwerk. Es bietet Einsteigern und Fortgeschrittenen fundierte Informationen zu allen wichtigen Bereichen der Suchmaschinen-Optimierung. Tauchen Sie ein in die Welt des Online-Marketings. Verständlich werden alle relevanten Begriffe und Konzepte ausführlich erklärt und erläutert. Neben ausführlichen Details zur Planung und Erfolgsmessung einer strategischen Suchmaschinen-Optimierung reicht das Spektrum von der Keyword-Recherche, der wichtigen Onpage-Optimierung Ihrer Website über erfolgreiche Methoden des Linkbuildings bis hin zu Ranktracking, Monitoring und Controlling. Auch ergänzende Bereiche wie Google AdWords, die Konversionsraten-Optimierung und Google Analytics kommen nicht zu kurz. Die aufgabenorientierte Struktur und die anschaulichen Beispiele ermöglichen Ihnen die direkte und schnelle Umsetzung in der Praxis.

Aus dem Inhalt:

  • Überblick über SEO erhalten
  • Suchmaschinen verstehen
  • Funktionsweisen von Google
  • Keyword Recherche
  • Website-Struktur optimieren
  • Planung und Durchführung
  • Google-Ranking erhöhen
  • Ziele und KPIs
  • Gewichtung und Relevanz
  • Zentrale Onpage-Faktoren
  • Linkbuilding
  • Duplicate Content
  • Spam-Vermeidung
  • CMS, Weblogs und
  • Online-Shops
  • Tracking
  • Web Analytics und
  • Controlling
  • Usability und SEO
  • Content Marketing
Auf Amazon kaufen
SEO mit Google Search Console: Webseiten mit kostenlosen Tools optimieren

SEO mit Google Search Console: Webseiten mit kostenlosen Tools optimieren

Eine Top-Position in Googles Trefferliste ist entscheidend, damit Ihre Website überhaupt gefunden und besucht wird. Hier setzt modernes SEO an, das viele Aspekte analysiert: von der Relevanz der Inhalte (Stichwort User Signale) über Usability und Performance Ihrer Website (auch auf mobilen Geräten) bis hin zu technischen Problemen, die Googles Crawler haben.
Google selbst stellt leistungsfähige und sogar kostenlose SEO-Tools zur Verfügung: die Google Search Console (vorher Google Webmaster Tools). Mithilfe dieser Tools bringen Sie beispielsweise in Erfahrung, über welche Suchbegriffe Ihre Website gefunden wird und wo es noch Potenzial gibt, wie Sie Ihre Seitentitel optimieren können, wo Usability- und Sicherheitsprobleme vorliegen, wie Sie Ihre Daten besser aufbereiten (Strukturierte Daten & Daten Highlighter) und Googles Crawler beim Erfassen der Inhalte unterstützen können.

Auf Amazon kaufen

Zusammenfassung unserer SEO-Webinare

Onpage SEO im Griff: Alerting und Monitoring für SEOs

Onpage-Optimierung kann dich faszinieren, aber auch extrem zeitaufwändig sein. Warum das ganze Unterfangen als anstrengend und nervenaufreibend gilt, erfährst du in diesem Beitrag. Wenn du die drei Grundpfeiler im Onpage SEO (Alerting, Monitoring und Reporting) erst einmal im Griff hast und das Setup steht, dann können dir einige interessante Tools immens weiterhelfen und dir viel Arbeit ersparen.

Onpage-Alerting und -Monitoring

Im Onpage SEO gilt es, Tools und Reports optimal einzusetzen, damit du schnell und effizient auf Fehler aufmerksam gemacht wirst. Die zwei wichtigsten Grundpfeiler im Onpage SEO liegen beim Onpage-Alerting und -Monitoring.

Alerts, Monitoring und Reports in der Suchmaschinenoptimierung

Diese Darstellung zeigt den Verlauf von Alerts, Monitoring und Reporting im Verhältnis zu Impact und Berichtszeitpunkt.

Alerting: Das Frühwarnsystem

Beim Alerting handelt es sich um das Frühwarnsystem. Sobald Dinge unmittelbar geschehen, solltest du mithilfe eines Alerts umgehend darauf aufmerksam gemacht werden. Du musst sofort Bescheid wissen, was auf deiner Website passiert. Setzt ein Redakteur zum Beispiel eine wichtige Seite auf noindex, sollte der SEO diese Änderung noch vor Google und anderen Suchmaschinen erfahren.

Unterteilung der Alerts

Für Alerts gibt es verschiedene Datenquellen, die du zur Hand nehmen kannst. Dabei stehen die IT-Maintenance (Crawls) und Daten zum Nutzerverhalten zur Verfügung.

IT-Maintenance (Crawls)

Die IT-Maintenance-Daten stammen von Crawls, aber auch von der Google Search Console. Hier geht es um Fehlerseitenaufrufe sowie Indexierungs- und Crawlinganweisungen. Ein Thema ist auch die Optimierung der Informationsarchitektur. Beispiel: Wenn du als Suchmschinenoptimierer die Title, Descriptions oder Überschriftenstrukturen änderst, sollen diese nach Möglichkeit erhalten bleiben. Die Suchmaschine hat sich diese Struktur sowie die Titles und Descriptions in der Regel bereits gemerkt und soll diese auch behalten. Eine Verwirrung des Bots sollte möglichst vermieden werden.

Traffic-Beobachtung über Webanalyse

Bei der Traffic-Beobachtung wird in der Regel auch das Nutzerverhalten beobachtet. Das heißt, bleibt das vorgesehene Verhalten aus? Kommen die Leute auch weiterhin auf meine Seite oder erhalten gegebenenfalls 404-Fehler? Diese solltest du nach Möglichkeit vermeiden. Ist das Ziel deiner Seite zum Beispiel das Verkaufen von Produkten, sollten deine Leser auch deine Produkte kaufen. Bleibt der Kauf aus, stimmt etwas an dem Nutzerverhalten nicht. Das bedeutet, du erleidest mit deiner Website einen Umsatzausfall. Aus diesem Grund solltest du einen Alert bei Google Analytics anlegen, um über solche Probleme in Kenntnis gesetzt zu werden.

Einige Themen unter dem Punkt “Traffic-Beobachtung über Webanalyse” lassen sich auch der IT zuordnen. Das heißt, Umsatzausfälle können auch IT-seitig sein und nicht ausschließlich mit dem Nutzerverhalten zusammenhängen. Dasselbe gilt natürlich auch für 404-Fehlerseiten. Auch diese Fehlerseiten lassen sich mittels Google Analytics Alerts auslesen beziehungsweise anzeigen.

Dienste wie die von zedwoo.de und gandke.de lassen sich gezielt zur Optimierung von Google Analytics und AdWords einsetzen. Außerdem gibt es einen exzellenten Podcast auf termfrequenz.de, der sich dem Thema Online Marketing widmet. Auf diesem findest zusätzliche Informationen zu den Google Analytics Alerts sowie weitere hilfreiche Themen zum Online Marketing.

Wie sollten Alerts aussehen?

Alerts sollten einen hohen Impact haben und granular sowie qualitativ sein. Das ist wichtig, um so schnell wie möglich bei Fehlern oder Veränderungen handeln zu können. Hier gilt es die positiven von den negativen Veränderungen herauszufiltern. Auch scheinbar positive Veränderungen zu analysieren, kann von großer Bedeutung sein. Beispiel: Die von Google indexierten Seiten haben in letzter Zeit um 20% zugenommen. Vorher gab es allerdings einen Absturz bei den indexierten Seiten. Aufgrund der starken Zunahme ist eine Untersuchung des Falls und Analyse des Absturzes essentiell. Da es hier keinen Drilldown in der Google Search Console (GSC) gibt, ist eine Untersuchung schwierig.

Oftmals dauert es Stunden, bis der Fehler entdeckt wird. Das ist besonders ärgerlich, wenn es sich dabei nur um eine Lappalie handelt und die Lösung des Problems nur wenig Zeit in Anspruch nimmt.

Grundoptimierung und Segmentierung

Um Fehler vorab zu vermeiden, sollte eine gewisse Grundoptimierung des Systems vorhanden sein. Das heißt, du benötigst eine gewisse Basis, auf die du aufbauen kannst. Wenn du weißt, dass gewisse Faktoren stabil sind, dann kannst du dafür sorgen, dass sie auch weiterhin stabil und im optimierten Zustand erhalten bleiben.

Die Seite sollte komplett segmentiert werden. Das gilt für Alerts, die Traffic-Betrachtung und organische Seitenbetrachtung. Folglich sollte die komplette Seite vorab definiert sein. Durch die vorige Segmentierung hast du einen idealen Überblick, um deine Performance und mögliche Performance-Rückgänge besser analysieren zu können. Wirklich effizient analysieren lässt sich das Ganze nämlich nur, wenn die Seite vorab segmentiert ist.

Granulares Setup – Segmente nach Seitentypen

Segmentierung ist der Kern einer erfolgreichen Beobachtung. Stark aggregierte Daten lassen dabei allerdings keine Analyse zu.

Beispiel: Der SEO-Traffic deiner Website hat sich verändert. In einem Monat ist der Traffic angestiegen, dann wieder rapide gefallen. Du weißt allerdings nicht, wie es zu diesen Schwankungen kommt.

Wenn du einen Online-Shop betreibst und die Seite in Segmente unterteilst, sieht du relativ schnell, wo sich der Traffic entwickelt hat. So kann es Teil deiner Strategie sein, den Startseiten-Traffic zu minimieren und den Traffic auf Kategorie-Ebene anzuheben. Das heißt, die Nutzer sollen auf der richtigen Seite einsteigen und letzten Endes gezielter einkaufen können. Möglicherweise erhält man dadurch weniger Traffic. Allerdings ist gezielter Traffic wesentlich wertvoller und konversionsnaher. Um solche Daten herauszufinden, ist eine Segmentierung nach Template und Seitentypen (Startseite und Produktdetails) essentiell.

Segmentierung einer Website: Beispiel Publisher

Eine Website eines Publishers hat eine gewisse Basisstruktur. Dazu gehört unter anderem die Startseite. Weitere Seitentypen können sein: Ressort, Subressort, Artikel, Premiumartikel, Themenseite, Video, Video-Ressorts, Autorenseite und Suche u.v.m. Das sind allesamt verschiedene Seitentypen, die aus SEO-Sicht unterschiedliche Anforderungen haben. Möglicherweise sollen Seiten gar nicht in den Index geraten oder nur ein Teil der Seiten. Das solltest du dir für jeden Seitentyp vor Augen führen und wissen, welche Optimierungen vorgenommen wurden. Zudem solltest du dafür Sorge tragen, diese Optimierungen auch zu behalten.

Von diesen Seitentypen gibt es auch Abwandlungen. Die einfachste Abwandlung ist die Paginierung. Die Paginierung trifft Ressortseiten sowie viele weitere Seitentypen. Auf den ersten Blick wirken diese Paginierungen wie die erste Seite des jeweiligen Seitentyps. Aus SEO-Sicht ist jede Seite anders. Möglicherweise sollten diese erst gar nicht in den Index gelangen. Eine Möglichkeit, Google und andere Suchmaschinen auf diese Paginierung aufmerksam zu machen, ist das tag rel=”next” oder rel=”prev”. Durch das Hinzufügen dieser Beziehungstypen weiß Google, dass es sich um eine Paginierung handelt. Der Leser wird dadurch an die richtige Stelle des Seitentyps verwiesen.

Bei dem Seitentyp “Suche” gibt es vermutlich sehr viele Filtervarianten – vor allem im E-Commerce. Bei einem E-Commerce Shop kommen durchaus hunderte Filtermöglichkeiten zum Einsatz. Ein paar Filter sollen indexiert werden, während andere Filtertypen nicht im Google-Index und im Index anderer Suchmaschinen auftauchen sollen.

SEO-spezifische Dokumente

Darüber hinaus gibt es einige SEO-spezifische Seitentypen, die nicht jedem sofort präsent sind. Dabei sollte es auf jeder Seite eine Datei vom Typen robots.txt geben. Über diese lassen sich beispielsweise Browser ansprechen. Ein häufiger Befehl ist “disallow”. Damit schließt du beispielsweise Bots von deiner Seite aus oder sagst einem Bot, dass bestimmte Seiten nicht indexiert werden sollen.

Auch mindestens eine Sitemap sollte den Weg auf deine Seite finden. In der Regel sind das Sitemaps im XML-Format. Sitemaps lassen sich in verschiedene Kategorien einordnen. Es gibt Index-Sitemaps, Sitemaps in denen alle Links, Beiträge und Kategorien stehen sowie News-Sitemaps, die speziell für Google News ausgelegt sind und die URLs beinhalten, die von Google News in den Index aufgenommen werden sollen. Diese Dateien lassen sich auch mit einem herkömmlichen Browser aufrufen. Sie sind aber vor allem für SEO-spezifische Zwecke von Nutzen und bieten dem Nutzer direkt keinen Mehrwert.

Wenn der SEO nichts von Änderungen bei den Sitemaps und der robots.txt weiß, dann ist das immer ein schlechtes Zeichen.

Seitenweite Parameter

Neben den SEO-spezifischen Dokumenten gibt es noch die seitenweiten Parameter. Über URL-Parameter werden häufig Klicks erfasst, die von Usern durchgeführt werden. So lassen sich beispielsweise Klicks messen, die über den Footer ausgeführt werden. Unterteilt werden diese seitenweiten Parameter in Usertracking und Aktionstracking.

Partner

Bei Stellen- und Anzeigenmärkten verhält es sich ähnlich. Hier sollte vor allem auf Wiederholungen der Seitentypen geachtet werden. Für dieses spezifische Angebot ist es wichtig, das Ganze noch einmal durchzuspielen.

Bugs, Redirects und Canonicals

Bei Bugs handelt es sich nicht um Seitentypen, interessant sind sie dennoch. In der Regel wird mittlerweile auf sprechende URLs geachtet. Das heißt, der Inhalt des Beitrags oder der Seite ist über die URLs zu erkennen. Häufig sieht man allerdings auch noch URLs, die mit IDs bestückt sind. Das ist in Ordnung. Allerdings solltest du vermeiden, dass der Inhalt unter einer anderen URL noch einmal erreichbar ist. Dadurch entsteht für Google und andere Suchmaschinen Duplicate Content.

Dasselbe gilt für Weiterleitungen. Änderst du eine URL, solltest du mithilfe von 302- oder 301-Redirects zur neuen URL weiterleiten. Dadurch vermeidest du 404-Fehler. Bei 302-Redirects handelt es sich um temporäre Weiterleitungen, während 301-Redirects dauerhaft sind. Über die .htaccess-Datei lassen sich Redirects steuern. Die Weiterleitungen solltest du im Blick haben und regelmäßig kontrollieren.

Ein ebenfalls wichtiges Thema sind sogenannte Canonicals oder Canonical-URLs. Canonicals “verlinken” auf den Hauptinhalt und weisen Suchmaschinen wie Google an, nur den Hauptinhalt zu indexieren. Ohne Verweis auf den Hauptinhalt könnte Google von Duplicate Content ausgehen.

Was sind relevante Merkmale beim Onpage SEO?

Es gibt viele Merkmale, die beim Onpage SEO berücksichtigt werden sollten. Zum Onpage SEO gehören die Themen, auf die du mit deiner Website Einfluss nehmen kannst und die nicht durch Dritte beeinflusst werden.

SEO-relevante Merkmale sind zum Beispiel Statuscodes (beispielsweise 404-Fehlerseiten), robots-meta und Canonicals. Über die robots-meta lässt sich die Indexierung steuern. Soll der Beitrag indexiert werden (index) oder steht dieser auf noindex? Wichtig ist, dass die Indexierung und das Crawling reibungslos vonstattengehen.

Relevante Merkmale beim Onpage SEO

  • Statuscode
  • robots-meta
  • Canonical
  • alternate-tag
  • Linkboxen (div)

Ebenfalls wichtig ist die Informationsstruktur. Google und andere Suchmaschinen erkennen an dieser Struktur relevante und weniger relevante Inhalte. Diese Informationsstruktur lässt sich steuern über:

  • Titel
  • Description
  • Breadcrumbs
  • h1
  • h2
  • schema.org
    • WebPage
    • relatedLinks
    • breadcrumb
    • mainEntityOfPage (NewsArticle)
    • headline
    • date

Weitere Optimierungsmöglichkeiten

Tracking ist essentiell, um Erfolge oder Misserfolge nachzuweisen. Den Social Media Kanälen sollte ebenfalls größere Aufmerksam gewidmet werden. Hier stellt sich die Frage, ob noch alle Metadaten für Facebook oder Twitter vorhanden sind.

Alerting: Wie überführe ich das Ganze in Alerts?

In der Regel nimmt man zwei bis drei der traffic- oder konversionsstärksten URLs oder die URLs, die eine gewisse SEO-Relevanz haben. Das Ziel des Alertings ist es, die templatebasierten Fehler frühzeitig zu erkennen. Dabei gibt es auch Fehler, die Auswirkungen auf alle Seiten haben und denen dadurch eine besonders hohe Aufmerksam zukommen sollte. Grundsätzlich sind Stichproben ausreichend.

Beispiel: Du hast 11 Seitentypen, 8 Paginierungen und 2 Filter. Dadurch kommst du auf 21 Seiten. Davon misst du zwei. Insgesamt hast du nun 41 Seiten, um die du dich kümmern solltest. Von diesen Seiten gibt es wiederum verschiedene Varianten. Zwei davon könnten mobile Varianten darstellen. Das heißt, neben einer mobilen Website verfügt deine Seite möglicherweise noch über AMP-Seiten. Das können News, aber auch Produkte sein. Neben der AMP- und Mobile-Site gibt es noch die Desktop-Variante. Das Unterfangen wird dadurch wesentlich anspruchsvoller, da das Ganze nun für 120 Seiten durchgespielt werden muss.

In diesem speziellen Fall muss die mobile Seite eine Canonical-URL auf die Desktop-Variante haben. Die Desktop-Variante verweist möglicherweise noch mit einem Alternate-Tag auf die mobile Seite. Das entfällt, wenn deine Website responsive ist und keine spezielle mobile Website existiert.

Alerting via URL-Monitor

Um das Ganze zu überprüfen, eignet sich der URL-Monitor unter url-monitor.com. Hier lassen sich zuvor ausgewählte URLs prüfen und Canonical-URLs, der Titel sowie weitere Daten hinzufügen. Bei Änderungen kannst du dich per E-Mail darüber informieren lassen. Die Alerts erfolgen demnach zeitnahe und ermöglichen dir ein rasches Handeln. Außerdem lassen sich über den URL-Monitor Sitemaps und die robots.txt auf Fehlercodes prüfen.

Alerting über testomato

Alerts lassen sich auch über die Plattform von testomato.com einrichten. Bei testomato können auch Gruppen mit Regeln für dein CMS (wie WordPress) oder deine Templates erstellt werden. Inhalte lassen sich zudem fixieren und auf Fehler überprüfen.

Mithilfe von testomato kannst du verschiedene Regeln definieren und zum Beispiel nachsehen, ob im Header deiner Seite alle relevanten Inhalte vorhanden sind. Falls Änderungen vorkommen, gibt es einen Hinweis.

Monitoring: Entwicklungen frühzeitig erkennen

Beim Monitoring geht es um das frühzeitige Erkennen von Entwicklungen. Erfolgreiches Monitoring lässt sich auch mithilfe von kostenlosen Tools bewerkstelligen.

Google Search Console als Datenquelle

Die Google Search Console eignet sich zum Monitoring deiner Website hervorragend. Allerdings gilt es hier, Datensätze täglich abzuholen und diese zu speichern, da die Daten von Google nicht immer verfügbar sind.

Bevor die Google Search Console (GSC) als informative Datenquelle herangezogen werden kann, sollte jede Protokollversion deiner Website hinterlegt sein. Das heißt, du solltest deine Website mit und ohne http/https sowie mit/ohne Hosts (www) hinterlegen. Auch verschiedene, stark frequentierte Verzeichnisse lassen sich hier hinterlegen. Ein bis zwei Ebenen, je nach Anzahl der Seiten, sind hier sinnvoll.

Unterteilen lassen sich die Daten aus der Google Search Console in “HTML Verbesserungen”, den “Indexierungs Status”, “Links zu Ihrer Website”, “Mobile Nutzerfreundlichkeit”, “Strukturierte Daten”, “Sitemaps” und “Crawlerrors”.

Relevante Merkmale für SEO

Die Darstellung zeigt SEO-Relevante Merkmale, aufgeteilt in Indexierung und Crawling, Informationsarchitektur und Sonstige.

GSC: Relevante Daten für Onpage SEO

  • HTML-Verbesserungen
    • Doppelte Descriptions
    • Doppelte Titles
    • Fehlende Titles
    • Irrelevante Titles
    • Kurze Descriptions
    • Kurze Titles
    • Lange Titles
    • Lange Descriptions
  • Indexierungsstatus
    • Insgesamt indexiert
    • Von robots.txt blockiert
  • Links zu Ihrer Website
    • Links insgesamt
  • Mobile Nutzerfreundlichkeit
    • Seite mit Problemen
  • Strukturierte Daten
    • Elemente
    • Elemente mit Fehlern
  • Sitemaps
    • Bilder eingereicht
    • … indexiert
    • News eingereicht
    • … indexiert
    • usw.
  • Crawlerrors
    • Web/Smartphone
      • notFound
      • notFollowed
      • soft404
      • flashContent
      • usw.

Crawling-Fehler lassen sich in der Regel schnell beheben, da Google explizite Daten zu den Crawling-Ergebnissen zur Verfügung stellt.

Die Crawling-Auswertung beim Onpage SEO lässt sich auch mit externen Helfern realisieren. Hier eignet sich beispielsweise der Screaming Frog. Mithilfe vom Screaming Frog lassen sich die Daten exportieren und später zum Reporting verwenden.

Reporting

Das Reporting oder die Berichterstattung erfolgt beim Alerting umgehend, da Fehler unbedingt vermieden werden sollten, um Lesern / Kunden und Suchmaschinen wie Google nicht die Möglichkeit zu geben, Fehler zu finden.

Regelmäßige Reportings, auch ohne gravierende Probleme, finden in der Regel etwas später statt und können täglich oder wöchentlich stattfinden. In vielen Situationen und Betrieben wird auf ein wöchentliches Reporting zurückgegriffen. Dabei stellt man sich Fragen wie: “Was sind die aktuellen Phrasen der Woche? Wie sind meine IT-Hygienefaktoren? Wie entwickelt sich das Ganze?”

Reportings lassen sich auch auf einer Ebene zu Alerts und dem Monitoring setzen. In diesem Fall findet das Reporting nach dem Monitoring statt und steht nicht vollkommen im Fokus. In diesem Bereich geht es eher um Management-Entscheidungen sowie strategische Entscheidungen. Wie entwickelt sich die Plattform? Wo möchte ich eigentlich hin und wie erfülle ich meine mir gesteckten Ziele? Später sind Monats- und Quartals-Reportings interessant. Allerdings sind Quartals-Reportings häufig zu weit gefasst. Geht etwas gegen Mitte des Monats schief, bringt es dir nichts, das Reporting erst nächsten Monat zu veranlassen. Das Reporting sollte in diesem Fall umgehend oder zeitnah erfolgen.

Zusammenfassung

Empfohlen wird die Qualitätssicherung im Onpage SEO als 3-stufiges System, das sich aus AlertingMonitoring und Reporting zusammensetzt. Das Alerting sollte täglich oder stündlich greifen, um den SEO direkt über mögliche Probleme in Kenntnis zu setzen. Genauso wie das Monitoring zählt das Alerting zum Bereich SEO-Maintenance. Das Monitoring findet wöchentlich statt. Die SEO-Erfolgsmessung umfasst das Reporting, das im monatlichem Rhythmus stattfindet und Acquisitions-, Engagement- und Transactioninformationen inklusive ausführlicher Kommentierung beinhaltet.

Die Kontrolle des Onpage SEO lässt sich mithilfe von Tools wie URL-Monitor, Testomato, der Google Search Console, Google Analytics und Analytics Edge sowie OnPage.org und Screaming Frog beobachten. Zur Datenverarbeitung eignen sich dann Excel oder Anbieter wie R/RStudio und KNIME.

 

Onsite-Optimierung — auf die Details kommt es an

Die Website ist heute meist die erste Schnittstelle zwischen einem Unternehmen, und seinen Angeboten, Lösungen und Leistungen und dem Kunden. Von daher ist es immer extrem wichtig, dass diese Schnittstelle auch funktioniert. Der Kunde soll das finden, was er sucht, und das am besten so schnell wie möglich, ohne dabei über Hürden zu klettern oder Stolpersteine zu stolpern. Man spricht hier von der User Experience (UX), also dem Erlebnis, das der Benutzer auf der Website hat. Um dieses Erlebnis so optimal wie möglich zu gestalten, setzt man auf eine sogenannte Onsite-Optimierung. Doch diese Form der Optimierung geht nicht nur in Richtung Kunden, sondern hat auch erhebliche Auswirkungen auf die Indizierung der Website durch eine Suchmaschine und am Ende auch auf das entsprechende Ranking. Somit hat jede Onsite-Optimierung ihre Relevanz für den Betreiber, den Besucher der Website und am Ende auch für Suchmaschinen.

Dabei haben die Seitenbesucher und die Suchmaschinenanbieter teilweise unterschiedliche Anforderungen an die Website. In den nachfolgenden Beispielen werden verschiedene Lösungen für die Onsite-Optimierung vorgestellt.

Beispiel 1: www.Parkplatzcheck.com

Betrachtet man das Service- und Vergleichsportal Parkplatzcheck.com, dann fällt einem zuerst auf, dass hier die erste große Überschrift die darunterliegenden Informationen praktisch erschlägt. Hier sollte zum Beispiel geprüft werden, ob die Beispielinformationen nicht besser in einer Liste aufgeführt oder in einem größeren Abstand zur Hauptüberschrift positioniert werden.

In der ursprünglichen Version dieser Website gab es noch eine zusätzliche Menüführung, die allerdings so verschachtelt war, dass diese kaum noch vernünftig dargestellt werden konnte. In der aktuellen Version der Website wurde dieser Stolperstein offensichtlich schon behoben.

Ein weiterer Punkt wurde vom Betreiber mittlerweile auch schon behoben: Im Formular für den Parkplatzcheck ist die Reihenfolge jetzt logischer, und die Texte passen sehr viel besser zur Suchintention des Benutzers. Außerdem wurde die Button-Farbe in Grün geändert, denn das ursprüngliche Rot erschien auf den ersten Blick als etwas ungünstig gewählt. Somit ist die aktuelle Form des Formulars sehr viel gelungener, als die ursprüngliche Fassung.

Ein weiterer optischer Stolperstein sind aktuell noch drei einzelne Informationsblöcke. Die Informationen zu drei Themenbereichen wurden in Textblöcken verarbeitet und haben ein Piktogramm als Titel. Dabei fallen zwei Punkte auf:

1. Die Piktogramme scheinen noch nicht perfekt zu den Textinhalten zu passen. Hier werden im schlimmsten Fall unterschiedliche Botschaften und Informationen vermittelt.

2.Die Texte sind zentriert angeordnet. Das ist gegen die Lesegewohnheiten und macht es dem Besucher der Website nur unnötig schwer, den Inhalt zu erfassen. Es gibt einen guten Grund, warum Texte am linken Rand bündig sind, denn dadurch kann das Auge problemfrei an den Zeilenanfang der nächsten Zeile springen. Bei einem zentrierten Text ist das problematisch, denn hier findet das Auge keinen Fixpunkt, und springt so schlimmstenfalls eine Zeile weiter. Am Ende braucht der Leser so länger zum Lesen des Textes und hat Probleme, auch kurze Inhalte zu erfassen. All das vermindert die positive User Experience.

Ein weiterer Punkt ist eine Verlosung, die schon seit längerem abgelaufen sein muss. Vollmundig wird eine Verlosung von einem Trolley im Wert von 129 Euro gesprochen. Doch im Counter, links neben dem Text, ist aktuell nur noch zu sehen, dass dieser abgelaufen ist.

Hier sendet man dem Betrachter zwei Botschaften:

1. Du bist zu spät dran und
2. es ist uns vollkommen egal.

Allerdings gibt es an dieser Stelle noch eine weitere Meta-Botschaft, nämlich: Das Angebot auf unserer Website ist uns nicht wichtig — Sie als Kunde sind uns nicht wichtig. Potenzielle Kunden reagieren extrem sensibel auf solche Botschaften. Meist sind solche kleinen Stolpersteine dann auch dafür verantwortlich, dass der Kunde hier die Seite wieder verlässt, weil er das Angebot ggf. nicht mehr als wertvoll und seriös betrachtet.

Gehen wir auf der aktuellen Website einen Schritt weiter, dann sehen wir, dass die nächste Überschrift komplett in Großbuchstaben gesetzt ist. Gerne nehmen wir für Inhalte und Aussagen, deren Wichtigkeit unterstrichen werden soll, Großbuchstaben.  Allerdings bringen Überschriften in Großbuchstaben auch wieder zwei Probleme mit sich:

1. Großbuchstaben in der schriftlichen Kommunikation bedeuten meist, dass wir laut sprechen oder sogar schreien. Ist das okay, seine Kunden anzuschreien? Vielleicht ist das etwas überspitzt, doch auf manche Website-Nutzer mag es genau so wirken.

2. Texte in Großbuchstaben sind schlechter zu lesen. Unser Auge ist an Groß- und Kleinschreibung gewohnt, so dass Texte und Überschriften, die ausschließlich in Großbuchstaben gesetzt werden, nur schwer zu lesen sind. Auch das ist Kontraproduktiv im Sinne der User Experience.

Unter der Überschrift stehen dann noch verschiedene Städte. Allerdings wird nicht sofort klar, was es damit auf sich hat. Denn wenn man auf eine Stadt klickt, hat man zuerst den Eindruck, dass man einfach nur wieder in der Seite nach oben springt. Erst beim zweiten Hinschauen ist zu erkennen, dass die Stadt als Suchoption im Formular eingesetzt wurde. Das ist vielleicht nur eine Kleinigkeit, doch am Ende zählt jedes Detail.

Beim ersten Onsite-Check des Webangebots wurden noch verschiedene weitere Punkte angemerkt. So gibt es offenbar einige Seiten, die doppelt vorhanden sind, einige interne Verlinkungen waren fehlerhaft und auch ein Link zu einem YouTube-Video ist noch immer korrupt. All das sind Kleinigkeiten, die vom User nicht nur als störend, sondern sogar als extrem negativ wahrgenommen werden.

Außerdem sind manche Seiten mit wertvollen und wichtigen Inhalten fast so versteckt, dass man diese kaum findet. Wichtiges und Nützliches sollte im Top-Menü leicht zu finden sein.

Allerdings sollte man mit zusätzlichen Inhalten vorsichtig sein. Weichen diese Inhalte zu sehr vom eigentlichen Angebot ab, dann kann das ggf. für ein etwas schlechteres Ranking bei Google sorgen, denn abweichende Inhalte verwässern das Angebot und irritieren Google.

Im aktuellen Beispiel sind es Informationen zum Gepäckverlust. Sicher, wenn das Gepäck weg ist, dann sind diese Informationen wertvoll, wichtig und richtig. Allerdings ist eine Website für die Parkplatzsuche nicht die erste Adresse, die jemand in diesem Falle ansteuern würde. Somit stellt sich die Frage, ob dieser Inhalt im Gesamtkontext wirklich nützlich ist. Letztlich betrachtet Google hier auch die Suchintention. Wird nun festgestellt, dass der Inhalt von der eigentlichen Intention eher wegführt, dann wird die Website als weniger relevant eingestuft als ein vergleichbares Angebot, dass sich ausschließlich auf das Kernangebot konzentriert.

Was bei der Onsite-Optimierung meist noch auffällt:

• Oftmals fehlen wichtige Inhalte bzw. der User wird auf leere Seiten weitergeleitet.
• Irritierende Menüführungen und eine mangelhafte Struktur einer Website vermindern die User Experience.
• Inhalt, Menüführung und Struktur der Website sollte so schlüssig sein, dass der User weiß, worum es geht, was er vom Angebot hat und wie es konkret weitergeht.
• Wichtige Keywords gehören in die H1-Überschrift.
• Möglichst nur eine H1-Überschrift nutzen, ansonsten auf H2 oder H3 umsteigen.
• Insgesamt auf eine saubere Struktur der Website achten, damit Suchmaschinen alle Inhalte richtig erfassen und indizieren können.

Beispiel 2: www.Chateau-guetsch.ch

Beim zweiten Beispiel handelt es sich um die Website eines Anbieters aus der Schweiz, der mit seiner Website, bzw. mit seinem Angebot, auch in Deutschland bei Suchanfragen mitberücksichtigt werden will. Dieses Vorhaben ist absolut verständlich, vor allem, weil es sich um ein Hotel handelt.

Das grundsätzliche Erscheinungsbild der Website ist soweit tadellos. Allerdings gibt es unter der Oberfläche einige grundsätzliche Punkte, die korrigiert werden sollten. Zum einen gibt es im Quellcode die Möglichkeit, um Suchmaschinen genau mitzuteilen, ob dieses Angebot nur in der Schweiz, oder international gefunden werden soll. Oft findet man hier eine falsche Einstellung, so dass Suchmaschinen von sich aus das Angebot für die internationale Suche ausschließen. In jedem Fall ist also darauf zu achten, dass hier der Ersteller der Website sauber arbeitet und weiß, was er tut.

Offensichtlich setzt diese gesamte Website auf ein Content-Management-System auf, das jeweils dynamische Inhalte anzeigt. Grundsätzlich spricht nichts dagegen, allerdings sollte man hier darauf achten, dass die Linkstruktur und die Linkbezeichnungen auch sauber sind. Eine kanonische Linkstruktur ist hier sehr viel sinnvoller, als eine, die Einblick in die Programmstruktur gibt. Auch hier weiß der Fachmann, was zu tun ist.

Beim näheren Betrachten der Website zeigt sich noch ein weiteres Problem. Denn gerade im Buchungsbereich werden dynamische Seiten generiert und angezeigt. Das ist, wie gesagt, grundsätzlich gut und genau das, was vom System erwartet wird. Allerdings werden im vorliegenden Fall diese dynamischen Seiten nicht aus der Suchmaschinenindizierung ausgeschlossen. Einmal mehr ist hier das genaue Vorgehen mit dem Fachmann abzustimmen, damit dynamische Inhalte und Parameterseiten aus der Suchmaschinenindizierung ausgeschlossen werden.

Die letzte Überlegung betrifft die Preisangaben. In Europa haben wir einheitlich Euro-Angaben. Doch die Schweiz hat Franken, auch wenn dort der Euro fast schon ein gängiges Zahlungsmittel ist. Doch bei der Darstellung der unterschiedlichen Angebote und Buchungsmöglichkeiten sollten die Preise so angepasst werden, dass zum Beispiel in Deutschland nicht die Preise in Schweizer Franken, sondern gleich direkt umgerechnet in Euro angezeigt werden. Auch das ist eine Kleinigkeit, die dem User entgegenkommt.

Beispiel 3: www.Gastro4you.de

Das dritte Beispiel startet gleich mit einem kleinen Problem, denn hier gibt es eine Dissonanz zwischen URL (www.Gastro4you.de) und Firmennamen (Lacher — Für Ihren Erfolg beim Gast).

Das wirft drei grundsätzliche Fragen auf:

1. Worum geht es bei dem Angebot?
2. Was gibt es hier zu entdecken?
3. An wen richtet sich das Angebot?

Keine dieser Fragen wird beantwortet. Doch gleich am oberen Rand kommt eine Hotline-Telefonnummer und eine Box für eine Suchanfrage. Da sich diese Website an den Gastro-Profi richtet, was man anhand einiger Bilder vermuten kann, mag das passen. Doch wer diese Seite ohne Vorwarnung und Vorwissen betritt, der ist eher irritiert, weiß nicht worum es geht und ist dann meist nach wenigen Sekunden wieder weg.

Slider sind zwar aktuell sehr beliebte Gestaltungselemente, doch manchmal sind diese mit etwas Vorsicht zu genießen. Gerade dann, wenn die wichtigsten Fragen (siehe oben) noch nicht beantwortet sind, kann ein Slider eher dafür sorgen, dass der Kunden frühzeitig die Seite wieder verlässt.

Irgendwo auf der Website gab es/gibt es noch einen Link zu einer Anmeldeseite für einen Newsletter. Newsletter funktionieren auch heute noch sehr gut, wenn sie wertvoll sind und für den Leser interessante und spannende Inhalte liefern. Doch hierzu muss man es dem potenziellen Leser so leicht wie möglich machen, um sich in den Newsletter-Verteiler einzutragen. Versteckt man diesen auf einer Unterseite, dann braucht man sich nicht zu wundern, dass der Verteiler leer bleibt. Im Rahmen einer Onsite-Optimierung gehört das OptIn-Formular für einen Newsletter auf die Startseite — und zwar so, dass es leicht zu finden ist und auch einen klaren Grund liefert, warum sich ein Leser eintragen soll.

Ansonsten gibt es auf der Website einige Punkte, an denen die Lesbarkeit erheblich verbessert werden kann. So gibt es zum Beispiel unter dem Menüpunkt „Service“ eine ganze Reihe von Unterpunkten, die allerdings mit einem Trennungsstrich getrennt und auf die nächste Zeile umgebrochen wurden. Das sieht unglücklich aus und ist in jedem Fall schlecht zu lesen.

Ein weiterer, sehr wichtiger, Punkt der Onsite-Optimierung spielt sich noch unter der Oberfläche ab und erfordert hier einmal mehr den Fachmann bei der Umsetzung. Gemeint sind die unterschiedlichen Linkszenarien bei der Facettensuche. Grundsätzlich gibt es bei den Links unterschiedliche Szenarien um festzulegen, welche Links so eingerichtet werden, dass Suchmaschinen diese indizieren. Gemeint sind hier die Einstellungen für noindex und nofollow. Diese sollten so eingerichtet werden, dass sich bei den zu indizierenden Links nach Möglichkeit auch die passenden Keywords ergeben und alles andere, was nicht in Suchmaschinen auftauchen soll, wie zum Beispiel Bewertungen, Lieferzeiten etc., sollte direkt ausgeschlossen werden.

Ein gutes Beispiel ist hier die Firma Otto, die eine beinahe perfekte Lösung für eine wirklich sinnvolle Facettensuche hat und auf die Kombination von Keywords setzt. Gegebenenfalls sollte hier auch der Guide von Google über Noindex- und Nofollow-Links mit hinzugezogen werden.

Gesamtfazit

Die Onsite-Optimierung hat immer zwei Blickrichtungen. Auf der einen Seite sollte es dem Benutzer der Website so einfach wie möglich gemacht werden, um sich auf der Website zu bewegen und um das zu finden, was er sucht. Doch auf der anderen Seite geht es auch darum, den Suchmaschinen die Arbeit so einfach wie möglich zu machen und genau zu sagen, was sie indizieren und welchen Links sie folgen oder welche sie aussparen sollen. Gerade diese Kleinigkeiten können eine große Auswirkung auf das Ranking durch die Kombination von zentralen Keywords haben.

 

Search Driven Content: So erfüllst du die Suchintention

Über Jahre hinweg hat man sich bei der Suchmaschinenoptimierung von Websites auf die Inhalte konzentriert. Der Fokus wurde hierbei auf mehr oder weniger passende Keywords gelegt, und diese wurden dann entsprechend häufig in den Überschriften und im Text benutzt. Zusätzlich wurden die Keywords, zusammen mit einer Beschreibung der Seite, in den Meta-Daten gesetzt. All das geschah in der Hoffnung, um dann so möglichst gut von Google gerankt zu werden. Eine Top-Position war das Ziel, und oft waren alle Mittel recht, um dieses Ziel zu erreichen. Betrachten wir diesen Ansatz aus heutiger Sicht, dann war das natürlich ein sehr produkt- und systembezogener Ansatz. Doch schon Ende der 90er Jahre war sehr schnell klar, dass dieser Ansatz vom Prinzip her von der falschen Seite aus gedacht ist. Heute stehen Google, und natürlich auch andere Suchmaschinenanbieter, dafür, auf Suchanfragen mehr und mehr die Ergebnisse zu liefern, die der Suchende auch tatsächlich gebrauchen kann. Deshalb orientiert sich das Ranking bei den Suchergebnissen heute mehr an der Suchintention, und Relevanz ist das Schlagwort, das über allem steht.

Google kennt die Suchintention seiner Nutzer

Das ist auch ganz einfach zu verstehen und absolut nachvollziehbar, denn wenn wir eine Suchanfrage starten, dann haben wir oft auch einen sehr konkreten Grund, und jedes Mal, wenn wir Ergebnisse angezeigt bekommen, die uns so gar nicht weiterhelfen, dann ärgern wir uns. Doch heute ärgern wir uns zumeist immer weniger, denn Google weiß, wie ihre Nutzer ticken und unter welchen Umständen sie welche Suchanfragen starten.

Noch ein kleiner Rückblick: Früher haben wir uns auf möglichst viele Haupt- und Nebenkeywords konzentriert. Diese wurden dann ausführlich analysiert, Kombinationen von Keywords wurden ausgetestet, die Keywords der Konkurrenz wurden eingehend analysiert und damals wurden zu den einzelnen Top-Keywords auch jeweils eine eigene Seite angelegt. Oft hatte man dann 14 Top-Keywords und entsprechend 14 Seiten, die sich an diesem Keyword aufhängen, und dieses in einer entsprechenden Dichte verarbeitet.

Doch heute sieht alles etwas anders aus, denn es gibt zwar VIELE Keywords, doch meist nur EINE Suchintention. Genau an dieser Suchintention orientieren sich heute erfolgreiche Websites. Natürlich spielen Keywords auch heute noch eine Rolle, doch es reicht aus, diese in einem Text zu verarbeiten. Ein guter Text braucht heute viele Top-Keywords, eingebettet in einem hochwertigen Content. Der entscheidende Unterschied dabei ist, dass Google die Texte einer Website versteht und weiß, worum es geht — zumindest dann, wenn der Content entsprechend hochwertig und klar aufbereitet ist. Google versteht aber nicht nur den Inhalt einer Website, sondern Google versteht auch immer besser die Suchintention der Suchenden, um dann als Ergebnis auch das anzuzeigen, was gesucht wird.

So lässt sich die Ausgangssituation am besten beschreiben. Doch der Weg über die Keyword Analyse, Keyword Dichte, Keyword Appearance und die Anzahl der Worte hin zur semantischen Suche war lang, denn das Verstehen lernen der Suchmaschinenanbieter, um die einzelnen Inhalte zu verstehen, braucht seine Zeit. Oft war das so ein wenig wie beim Familienspiel TABU. Die Suchmaschine musste lernen zu unterscheiden und zu interpretieren, um zu erkennen, worum es geht. Somit spielen heute semantische Keywords eine größer werdende Rolle. Das klingt vielleicht kompliziert, doch heute ist die Keywordanalyse einfacher denn je, denn mit Angeboten wie auf Onpage.og (heute RYTE.com) kann man selbst in der Basisversion kostenfrei seine eigene Website analysieren. Hierbei werden die Keywords aus dem Text mit der aktuell bei Google am besten positionierten Suchergebnisse analysiert und nach Häufigkeit gewichtet. Auf Basis einer solchen Analyse kann man seinen Text sehr gut auf die Suchintention hin abstimmen.

Die Zeiten haben sich zwar geändert, die Suchintention der User steht im Mittelpunkt, doch der richtige und gezielte Einsatz von Keywords spielt noch immer eine entscheidende Rolle.

Der Nutzer und seine Suchintention stehen im Mittelpunkt

Betrachten wir einmal für einen kleinen Augenblick den User. Welche grundsätzlichen Intentionen könnte her bei seiner Suchanfrage haben? Die Analysen bis heute zeigen, dass vier grundsätzliche Intentionen den Nutzerbedarf umreißen:

1. Transaktionen: Hier erfolgt die Suche mit der Intention, um etwas zu kaufen, bzw. zu handeln.
2. Informationen: Der Suchende hat einen konkreten Bedarf an bestimmten Informationen.
3. Navigation: Der User weiß recht genau, was er will, doch er braucht nur einen entsprechenden Startpunkt.
4. Brands: Marken, Anbieter und bestimmte Produkte werden direkt gesucht.

Praktische jede einzelne Suchanfrage lässt sich einer dieser vier Gruppen zuordnen. Als nächstes geht es darum, die passenden Fokuskeywords, Nebenkeywords und ggf. auch die Longtail-Anfragen zu ermitteln. Hierzu gibt es klassische Werkzeuge, um tiefer einzutauchen und nach den passenden Keywords zu forschen.

Erste Anlaufstelle ist auch hier der Google Keyword-Planner, aber auch Tools wie Keywordtool.io, Ubersuggest.ip, Hyersuggest.com oder answerthepublic.com. Mehr Informationen zu diesem Thema sind unter dem Link

Keyword Recherche für mehr Sichtbarkeit in Suchmaschinenergebnissen

zu finden. Eine weitere Alternative entwickelt sich aktuell unter der Überschrift Google Global Market Finder von Google. Auch diese Lösung sollte man in Zukunft im Fokus haben, um sich selbst und seine Website besser zu positionieren.

Unterschiedliche Stadien der Nutzererwartungen — und wie geht es dann weiter

Bisher haben wir eine Vorstellung davon, WARUM eine Suchanfrage gestartet wird und welche Suchintention sich dahinter verbergen könnte. Kommen wir nun zum zweiten entscheidenden Punkt, nämlich die unterschiedlichen Stadien der Nutzererwartungen.

Dieser Punkt lässt sich am besten anhand der klassischen W-Fragen betrachten. WARUM und WANN dienen hierbei der Orientierung. WIE bezieht sich auf das Finden von Tipps und Ratschlägen und am Ende steht meist das WAS, also ein konkretes Angebot. Betrachten wir diese W-Fragen, dann können wir mit diesen recht genau verstehen, was den Nutzer antreibt, war er braucht und womit wir im konkret helfen können. Im Gegenzug hilft das dann auch dabei, die Inhalte einer Website so zu gestalten, dass dieser möglichst konkret auf ein Problem, und eine entsprechende Lösung, eingeht.

Doch wie geht es dann weiter? Im nächsten Schritt müssen wir uns dann genau anschauen, wie wir den Kunden in seinem Prozess begleiten. Oft braucht es mehrere Kontakte, die meist auch aus unterschiedlichen Intentionen und Situationen heraus entstehen, bis eine Entscheidung getroffen wird.

Dadurch ergeben sich am Ende 4 Stadien, an der sich ein Nutzer befinden kann:

1. Das kennenlernen und die Beantwortung der Kundenfrage, welches Produkt, bzw. welche Lösung ihm am besten helfen kann,
2. Lead-Generierung, so dass der Kunde grundsätzliches Interesse signalisiert und so den ersten Schritt geht,
3. Retargeting — der potenzielle Kunde wird über andere Kanäle noch einmal in Verbindung mit dem möglichen Angebot gebracht und am Ende steht der
4. Sale, also der Verkauf.

 

Unterschiedliche Stadien der Nutzerwartung

In dieser Darstellung geht es um die vier unterschiedlichen Stadien der Nutzererwartung.

 

Auf die eine oder andere Art und Weise durchläuft jeder Kunde diese vier Schritte, doch die eigentliche Frage ist noch, was ist der Auslöser der Suchanfrage? Auch dieser Gedankengang hilft dabei, um die Website zu optimieren.

8 Schritte und weitere Informationen

Betrachten wir alle bisherigen Punkte einmal anhand des Beispiels: mit dem Rauchen aufhören. Hierzu gibt es viele gute Gründe, doch für den einzelnen gibt es hier auch höchst individuelle Auslöser bzw. Suchimpulse. Zum Beispiel ein Todesfall in der Familie, gesundheitliche Probleme, Schwangerschaft, Beeinträchtigungen der sportlichen Leistung oder aber auch auf Grund von Medienberichten.

Ein solcher Anstoß setzt eine Kettenreaktion in Gang. Dadurch ergeben sich am Ende 8 einzelne Schritte, die wir als Blaupause für die Erstellung eines Angebots im Web nutzen können.

Schritt 1) Zuerst werden die Fokus-Keywords zum Thema „mit dem Rauchen aufhören“ mit den zuvor geschilderten Tools ermittelt.

Schritt 2) Gleiches gilt für Neben-Keywords, die eventuell auch eine Rolle spielen, z.B. „mehr Leistung ohne Rauchen“ etc.

 

Keywordanalyse für Suchmaschinenoptimierung

In der Darstellung sind das Hauptkeyword “Rauchen aufhören”, sowie weiter Nebenkeywords zu sehen.

 

Schritt 3) Semantische Keywords ermitteln auf Basis einer Textanalyse mit Onpage.org.

Schritt 4) Die W-Fragen beantworten und ermitteln, WARUM es eine gute Idee ist, mit dem Rauchen aufzuhören, WIE man aufhören kann, WANN der beste Zeitpunkt ist und WAS unternommen werden kann, um mit dem Rauchen aufzuhören.

Schritt 5) Danach geht es daran, die stärksten Suchimpulse zu ermitteln, wie zum Beispiel ein Todesfall in der Familie oder im näheren Umfeld, konkrete gesundheitliche Probleme oder auch aktuelle Einschränkungen durch das Rauchen.

Schritt 6) Betrachten, an welchem Punkt der Nutzer mit der jeweiligen Seite abgeholt werden soll. Sammelt er zum Beispiel Informationen oder ist er schon bereit, den nächsten Schritt zu gehen (Lead-Generierung).

Schritt 7) Wie sieht der konkrete Bedarf aus, bzw. wie kann man sich durch Retargeting in Erinnerung bringen?

Schritt 8) Am Ende steht die Entscheidung, im Idealfall der Verkauf.

Richtet man sich bei der Erstellung seines Contents bzw. seiner Website an diese 8 Schritte, und stimmt man jeweils den Inhalt so ab, dass Google versteht worum es möglichst konkret geht, dann steigt die Chance für ein besseres Ranking. Mit anderen Worten: Ziel ist es, wie in der Einleitung aufgezeigt, nicht mehr möglichst viele Keywords zu platzieren, sondern extrem wertvollen und inhaltsstarken Content zu einem Thema zu präsentieren, das sich möglichst konkret um ein Kernthema dreht. Je besser man auf den Punkt kommt, desto besser versteht Google, worum es geht, und je besser Google versteht, worum es geht, umso besser ist die Positionierung bei den Suchergebnissen.

Nach dem Erstellen von Content ist vor dem Erstellen

Wertvoller Content auf einer Website ist kein Ziel, sondern ein Prozess der kontinuierlichen Weiterentwicklung. Oft startet man mit einer Seite zum Thema, und dann kommen nach und nach weitere Inhalte hinzu, um das Thema zu vertiefen. Tiefe ist wichtig, denn gerade diese Tiefe ist es, die unter Umständen dafür verantwortlich ist, dass Google die Website als noch relevanter einstuft.

Dabei gibt es viele einzelne Möglichkeiten, um die Website weiter zu verbessern. Zum einen kann man hier und da die Metadaten weiter anpassen und ggf. aktualisieren. Die Texte lassen sich auch immer wieder optimieren und leicht verändern, um zum Beispiel auch aktuelle Entwicklungen mit aufzunehmen.

Vielleicht macht bei komplexen Themen auch ein Inhaltsverzeichnis Sinn. Gerade auf mobilen Endgeräten ist das wichtig für einen schnellen Überblick.

Dann kann man hier und da die Website durch neue Bilder, Grafiken, Infografiken, Tabellen und Listen ergänzen. All das hilft dabei, um die Website kontinuierlich frisch und aktuell zu halten — auch so etwas erkennt Google. Eine weitere Ergänzung des Contents sind zum Beispiel auch Interviews, Podcasts oder Videos. Gerade Expertenmeinungen, Zitate und weiterführende Inhalte sind es, die dem Content Schritt für Schritt mehr Wert und Relevanz geben.

Es gibt also immer etwas zu tun, um den Inhalt zu einem Thema ständig aktuell zu erhalten, kontinuierlich weiterzuentwickeln und mehr und mehr Tiefe zu geben.

Gesamtfazit

Der gesamte Inhalt eines Webangebots sollte immer an einem möglichst konkreten Thema ausgerichtet sein, so dass Google versteht, worum es geht und für welchen Suchenden das Thema möglicherweise relevant ist. Denn die Reihenfolge ist noch immer …

1. die Suche,
2. der Content dann
3. der Lead.

Bleibt am Ende noch zu klären, wie große Inhalte insgesamt aufgebaut werden müssen, denn nach und nach wächst ja naturgemäß der Umfang der Website. Natürlich ist auch die Beantwortung dieser Frage eng verknüpft mit der Suchintention des Users. Gibt es viele Informationen und Inhalte zu einem konkreten Thema, dann sollten diese auf einer Seite zusammengefasst sein. Sobald ein Nebenthema erreicht wird, gehört dieses auf eine separate Seite, denn dieser Inhalt könnte Google verwirren und so das Ranking verschlechtern. Nimmt man hier Wikipedia als Beispiel, dann findet man auch hier zu jedem Thema eine meist sehr ausführliche Informationsseite. Alle angrenzenden Themen werden dann wiederum auf eigenständigen Seiten behandelt, die untereinander vernetzt sind.

Sicher, auch wenn sich die grundsätzliche Herangehensweise durch die semantische Suche erheblich verändert hat, ist die Keywordanalyse noch immer notwendig. Hierzu kann man entsprechende Tools nutzen, aber auch händisch Keywords heraussuchen und dann in Excel entsprechend Clustern, dann man einen Überblick bekommt. Doch am Ende zählt die Fokussierung auf ein Thema, die Generierung vom wertvollem Content und hohe Relevanz zu einem Thema.

Republishing – die vielleicht beste SEO Strategie

Erik Kubitz ist der Geschäftsführer der Content Manufaktur, die unter anderem Dienstleistungen im Bereich der Beratung für SEO und im Bereich Redaktion anbietet. Aktuelle Kunden des Unternehmens sind unter anderem der ADAC, der Bayerische Rundfunk, Payback und die Versicherungskammer Bayern.
Kubitz war weiterhin als Dozent unter anderem an der Hochschule Salzburg und an der Akademie der deutschen Presse tätig. Außerdem hat er in seiner Laufbahn einige Publikationen zu verzeichnen, zu denen ein Video-Training zur Suchmaschinenoptimierung gehört. Für den Blog seo-book.de schrieb er ebenfalls.
Bevor er Geschäftsführer der Content Manufaktur wurde, war Kubitz als Redakteur bei den Stuttgarter Nachrichten und bei Chip tätig.

Republishing

Republishing hört sich erstmal nach einer sehr komplizierten Strategie im Bereich SEO an. In Wirklichkeit hat es aber recht einfache Hintergründe, da es nicht um sehr viel mehr als um das Aktualisieren von Inhalten geht. Diese einfachen Aktionen haben aber überraschend große Auswirkungen, da an ihnen nicht nur die Technik, sondern auch die Organisation hängt.

Eine typische Analyse

Wenn man eine typische Analyse einer Website durchführt, dann wird sich im Normalfall ein Bild abzeichnen, wie es im Folgenden dargestellt ist:

Im Durchschnitt machen 9 von 700 Beiträgen 25 Prozent des Traffics aus, wenn man die Homepage außen vor lässt. Das bedeutet, das ein Bruchteil der eigenen Inhalte maßgeblich dafür verantwortlich ist, wie viele Besucher auf die eigene Seite gezogen werden. Oftmals ist es dann sogar so, dass man, wenn man die Betrachtung auf die besten 30 Prozent der eigenen Inhalte erweitert, bei ungefähr 90 Prozent des eigenen Traffics ankommt. Die weniger guten Beiträge sind für die Performance der eigenen Seite also fast irrelevant. Eigenschaft dieser guten Beiträge ist es meistens, dass sie eine besonders hohe Verweildauer haben. Oft liegt diese bei bis zu zehn Minuten. Außerdem vereinen solche Beiträge mit 80 bis 90 Prozent einen großen Teil des Suchvolumens auf sich. Das bedeutet: Sie sind auch der Grund dafür, dass die Nutzer überhaupt erst einmal auf die eigene Seite gelangen.

Schaut man sich einen solchen Beitrag auf SEO-Book an, dann findet man folgende Zahlen: Aktuell hat er 2.389 Besucher pro Monat. Die durchschnittliche Position bei Google liegt bei 9,9. Das ist für einen Beitrag dieser Güte ziemlich schlecht. Dafür weist er eine Klickrate von 5 Prozent auf, was wiederum ziemlich gut ist, wenn ein Beitrag so weit positioniert ist. Außerdem ist der Beitrag schon neun Monate alt. Hier stellt sich natürlich die Frage, wie viel Klicks dieser Beitrag generieren könnte, wenn er einige Positionen nach oben rutscht. Dabei kann man davon ausgehen, dass sich die Klickrate wahrscheinlich auf ungefähr 10 Prozent steigern ließe. Das wären mehr als 1.000 zusätzliche Besucher im Monat. Das ist für SEO natürlich durchaus erstrebenswert.

Der Weg einer URL durch die SERPs

Wenn man einen neuen Beitrag veröffentlicht, dann wird dieser im Google Ranking, falls man aktive Suchmaschinenoptimierung betreibt, in etwa immer denselben Weg nehmen. Als erstes befindet er sich im Ranking sehr weit hinten. Durch die Anpassung durch das SEO-Team steigt er aber recht schnell in die Gefilde zwischen dem 10. und dem 20. Platz auf. Dort bleibt er für einige Zeit und springt immer mal für kurze Zeit auf einen sehr hohen Platz, wie zum Beispiel Platz 3. So testet der Algorithmus von Google, ob er geeignet ist, um auf einem derart hohen Platz zu stehen, indem er die User Signals ausliest. Hat man an dem Beitrag gute Arbeit geleistet, dann werden diese Nutzersignale gut ausfallen und Google wird merken, dass die Relevanz dieses Inhalts sehr hoch ist. Dadurch landet er schließlich konstant auf einem hohen Platz im Ranking. Von dort wird er mit hoher Wahrscheinlichkeit aber auch irgendwann wieder von einem anderen Beitrag verdrängt werden, da dieser noch besser auf die Bedürfnisse der Nutzer ausgerichtet ist. In diesem Fall muss man nun anfangen, den eigenen Beitrag anzupassen, damit dieser wieder besser rankt. Das bezeichnet man dann auch als Republishing.

URL-Verlauf durch die SERPs

In dieser Darstellung sehen wir den Weg (Position im Ranking) einer URL durch die SERPs

Republishing im Überblick

Republishing wird in mehreren Schritten durchgeführt. Als erstes muss man ein Inventar erfassen. Das bedeutet: Man braucht eine Liste mit URLs, die so verändert werden sollen, dass sie gut auffindbar sind. Dieses muss dann überwacht werden, damit man eine Auswahl mit Seiten treffen kann, bei denen es sich lohnt, sie zu überarbeiten und zu aktualisieren. Denn es ist natürlich nicht möglich, jede der hunderttausend Seiten, die große Kunden besitzen, andauernd zu verbessern. Als nächstes wird dann der Content entsprechend der in der Überwachung gewonnenen Erkenntnisse optimiert. Danach findet das Republishing der URL statt, und der ganze Prozess geht wieder von vorne los.

 

Bestandteile von Republishing

Die Darstellung zeigt die wichtigsten Bestandteile von Republishing.

Das Inventar erfassen

Wenn man das Inventar erfassen will, sollte man sich erst einmal vor Augen führen, welche Inhalte dort nicht hineingehören, weil es keinen Sinn macht, diese erneut zu veröffentlichen. Dazu gehören zum Beispiel News, da diese ihre Aktualität sehr schnell verlieren. Auch das Republishing von Pressemitteilungen und Blogbeiträgen in Form einer Art Tagebuch macht keinen Sinn.

Inhalte die zum Republishing-Inventar gehören sind dafür zum Beispiel Magazin-Blog-Beiträge, also etwa Ratgeber- und andere Magazin-Seiten, lexikalische Beiträge, Produkt-Seiten und Kategorie-Seiten. Zu diesen gehören dann natürlich auch die Kategorientexte, solange diese auch wirklich ordentlich suchmaschinenoptimiert sind.
Für das Inventar erstellt man sich am besten eine Liste aller eigenen Beitragsarten und überlegt dann, bei welchen von diesen sich ein Republishing lohnt.

Das Inventar überwachen

Im zweiten Schritt wird dann das eigene Inventar überwacht. Dabei ist es sinnvoll, sich als erstes zu überlegen, welche KPIs einem wichtig sind. Die meisten Leute werden wahrscheinlich den organischen SEO-Traffic mögen. Für diesen lässt man sich am besten den URL-Traffic und die eigene URL-Sichtbarkeit anzeigen. Legt man eher Wert auf den PPC-Traffic, dann sollte man sich die AdWords-Auswertung anschauen. Interessiert man sich für den Social Media Impact, dann sollte man auf den Inbound-Traffic von Facebook, Twitter und Co. achten. Und auch der User Impact ist für viele wichtig, weshalb es auch oft relevant sein kann, auf die CTR aus der Search Console, die Verweildauer und die Bounce Rate zu achten.

Wenn man zu viele URLs hat, dann sollte man das Pareto-Prinzip anwenden. Dabei generiert man mit einem Bruchteil der eigenen URLs den Großteil des gesamten Traffics. Auch das Alert-Prinzip kann von Nutzen sein. Um sich einen Überblick zu verschaffen, kann es hilfreich sein, sich die 10 wichtigsten eigenen URLs und Keywords zu notieren, um erstmal mit diesen zu arbeiten. Auf keinen Fall sollte man sich mit einem bestimmten Ranking zufriedengeben und dann denken, dass man an dieser URL nichts mehr verbessern muss. Denn dies kann ganz schnell zu einer Verschlechterung des Rankings derselben führen.

Auswahl für das Republishing treffen

Eine organisatorische Schwierigkeit ergibt sich spätestens an diesem Punkt, wenn man seine Texte von externen Redaktionen bestellt, da diese dann schwer zu erfassen und zu republishen sind.
Texte, die man auf jeden Fall regelmäßig aktualisieren sollte, sind die sogenannten Traffic-Dauerbrenner. Dabei kann es sich zum Beispiel um die 100 wichtigsten URLs handeln. Auch die Wunsch-Keywords sollten aktuell gehalten werden, da sich die wichtigen dauernd ein wenig verändern und dann ldementsprechend in den eigenen Inhalten auch vorkommen sollten.
Lieblinge der Social Media Nutzer sind auch immer ein Republishing wert. Diese besitzen nämlich auch das Potenzial, sehr viel Traffic zu generieren und können außerdem die eigenen Seiten auf den sozialen Medien voranbringen.

Interessant sind auch die verschiedenen Bereiche, die in Bezug auf sie Suchmaschinenoptimierung neue Chancen bieten, da sie sowieso nicht mehr viel schlechter werden können. Dazu gehören zum Beispiel sogenannte Loser-Keywords, also Suchwörter die ein großes Suchvolumen aufweisen, bei denen man aber einiges an Positionen im Ranking verloren hat. Auch die Schwellenkeywords, bei denen man geradeso nicht im sichtbaren Bereich rankt, können durch ein wenig Arbeit zu Erfolgen führen. Sehen kann man solche Veränderungen zum Beispiel mit dem Tool Sistrix, wobei aber auch verschiedene Alternativen möglich sind. URLs mit einer schlechten CTR lassen sich nur mit der Google Search Console unkompliziert anzeigen. Bei diesen kann man zum Beispiel darüber nachdenken, den Titel und die Beschreibung bei den Google Suchergebnissen zu verändern, wenn man sieht, dass sie gut ranken, aber wenig Klicks generieren,.

Alle diese Dinge sind mit Big Data schwer zu erfassen. Deshalb sollte man sich die Daten am besten auch regelmäßig mit den eigenen Augen anschauen, um mit Sinn und Verstand Möglichkeiten zu entdecken, die man nutzen kann, um die eigene Performance zu verbessern. Dazu beginnt man am besten jede Woche mit einer Stunde Analyse, in der man versucht, die eigenen Inhalte auf die weiter oben genannten Verbesserungsmöglichkeiten zu überprüfen.

Content optimieren und aktualisieren

Zur Optimierung des Contents beginnt man am besten mit einer inhaltlichen Renovierung. Dazu checkt man als erstes die Sinnhaftigkeit der Veränderungen, also zum Beispiel ob das Keyword noch zu der URL passt, auf der es sich befindet. Weiterhin sollte man überprüfen, ob sich die Technik in einem annehmbaren Zustand befindet. Wenn zum Beispiel eine URL abgestürzt ist, sollte man prüfen, ob vielleicht jemand die robots.txt Datei umgeschrieben hat oder ob etwas mit den Canonical Tags nicht in Ordnung ist. Eine Redaktion wird das natürlich nicht tun können, weshalb man hier unter Umständen Techniker heranziehen muss.

Danach schaut man sich an, was inhaltlich aktualisiert werden sollte. Dazu gibt es verschiedene Möglichkeiten. Als erstes sollte man die Texte verändern. Dabei ist es wichtig, möglichst nicht nur zwei Sätze umzustellen, sondern idealerweise einfach einen neuen Absatz einzufügen. Weiterhin kann es sinnvoll sein, den Vorspann oder das Fazit neu zu formulieren oder Veränderungen daran vorzunehmen. Auch die Description kann überarbeitet werden. Das ist häufig auch bei dem Titel hilfreich. Allerdings muss dieser meistens gleichbleiben, um technischen, organisatorischen und redaktionellen Problemen aus dem Weg zu gehen.

Nach diesem Schritt überlegt man sich dann, ob es vielleicht neue Medien gibt, die man in diesem Beitrag einbinden könnte. Dazu gehören zum Beispiel kürzlich gedrehte Videos oder aktuellere Infografiken. Auch das Verlinken von neuen Beiträgen kann sinnvoll sein, da man in der Zeit zwischen der Erstveröffentlichung eines Beitrags und seinem Republishing meistens viele neue Inhalte erstellt hat, die dann auch potenziell zu dem neuen Thema passen und somit verlinkt werden sollten.

Am besten nimmt man sich am Anfang jeder Woche zwei Stunden Zeit, um die performanten, alten Inhalte zu optimieren und auf ein Republishing vorzubereiten.

URL republishen

Als nächstes sollte man dann den aktualisierten Beitrag „schubsen“. Das liegt daran, dass 50 Prozent des Rankings bei Google mit der internen Verlinkung zu tun haben.
Dabei sollte man den Beitrag wie neu behandeln. Dazu ändert man zum Beispiel das Datum und setzt dieses auf „heute“. Weiterhin sollte für eine aktuelle Verlinkung von der Startseite und den verschiedenen Kategorieseiten gesorgt sein. Sinnvoll ist es häufig auch, eine Related-Content-Verlinkung vorzunehmen. Dabei sucht man auf der eigenen Seite nach ähnlichen Inhalten und verlinkt von und zu diesen den aktualisierten Beitrag. Um Google zu zeigen, dass man den Beitrag nicht nur republished hat, sondern ihn auch wirklich ernst nimmt, ist ein Link auf der Startseite immer gut. Weiterhin sollte man den Text auch auf den sozialen Medien teilen, um für eine größere Reichweite zu sorgen. Meistens ist es auch eine gute Idee, den Beitrag noch in der Google Search Console crawlen zu lassen, damit Google Notiz von ihm nimmt. Dazu klickt man auf den Button „Indexierung beantragen“.

Danach ist das Republishing abgeschlossen und man kann mit einem neuen Beitrag von vorne beginnen.

Eine beispielhafte Zeitkalkulation

Bei einem Republishing ist es sehr wichtig, sich Gedanken darüber zu machen, wie viel Zeit die einzelnen Schritte wahrscheinlich in Anspruch nehmen werden, damit es nicht in einem organisatorischen Chaos endet. Dafür soll hier eine Beispielrechnung aufgeführt sein.

Aufwand bei neuen Beiträgen

Die Zeit, die ein Redakteur benötigt, um einen neuen Beitrag zu verfassen, liegt bei etwa zwei bis vier Stunden. Das hängt natürlich auch mit der Länge des Beitrags und dem Anspruch an die Qualität zusammen, aber im Durchschnitt kann man davon ausgehen. Da man viele Felder des eigenen Themengebiets auf der eigenen Seite wahrscheinlich schon abgehandelt hat, kann man davon ausgehen, dass der Longtail-Beitrag vielleicht ein Suchvolumen von 1.000 Nutzern im Monat hat. Davon kann man realistischerweise etwa 10 Prozent bekommen, das heißt der zusätzliche Traffic liegt bei 100 Besuchern im Monat. Die Zeit, die man für 1.000 neue Nutzer im Monat benötigt liegt also bei 20 bis 40 Stunden.

Aufwand bei Aktualisierungen

Die Zeit, die ein Redakteur benötigt, um einen Beitrag zu aktualisieren, liegt ungefähr zwischen einer halben und einer ganzen Stunde. Durch das Uplift wird der ohnehin schon erfolgreiche Beitrag dann wahrscheinlich im Midtail-Bereich landen und etwa 1.000 Besucher pro Monat mehr generieren. Das bedeutet, man bekommt durch ihn den zehnfachen Traffic. Rechnet man jetzt noch zusätzlich eine Stunde pro Woche für Analyseaufgaben ein, dann liegt die Arbeitszeit, die man für 1.000 zusätzliche Besucher im Monat aufwenden muss, bei etwa 1,5 Stunden und ist somit ungleich geringer. Das kann man natürlich jetzt als Milchmädchenrechnung bezeichnen. Aber bei einem so großen Unterschied wird diese wahrscheinlich auch einen wahren Kern haben.

Republishing im Überblick

Zusammenfassend kann man also sagen, dass man zum Zwecke des Republishings als erstes nach den besten URLs und den spannendsten Keywords der eigenen Seite suchen sollte. Diese findet man mit einer Stunde Analyse pro Woche und lässt sie dann von einem erfahrenen Content Manager so umändern, dass sie wieder brandaktuell werden und dafür sorgen, dass die eigene Seite einen großen Traffic-Zuwachs für sich verzeichnen kann.

Repurposing

Als letztes soll hier noch das Repurposing angesprochen werden. Dabei handelt es sich sozusagen um Umnutzung, also die Nutzung zu einem anderen als dem vorgesehenen Zweck.

Man stelle sich vor, dass man auf seiner Website irgendeinen sehr guten Beitrag hat. Dieser ist dann natürlich auch auf den sozialen Kanälen geteilt worden und hat dort ebenfalls gute statistische Werte. Diesen Beitrag könnte man voll ausnutzen, indem man ihn nun nochmal in anderer Form weiterverbreitet. Natürlich muss man ihn entsprechend anpassen, aber dann kann das Ganze gut funktionieren.

Aus einem Magazinbeitrag kann man so zum Beispiel ein E-Book oder ein PDF machen. Eine Ratgeber-Blog-Serie könnte als E-Book nochmal erneut rausgegeben werden. Ein Blog könnte in einen Podcast oder ein Erklärvideo umgewandelt werden. Und eine Präsentation könnte sich gut als Blog-Beitrag, als E-Book und als Podcast machen. Man muss es nur ausprobieren.

Der große Vorteil dabei ist, dass man das Geld, das man für die Beiträge ausgibt, auch wirklich effektiv ausnutzt. Bei den Beiträgen ist es meist nicht am teuersten, sie schreiben zu lassen. Das Problem ist eher, dass man für viele Inhalte Spezialisten braucht, die sich wirklich mit einem Thema auskennen und auch entsprechend viel verlangen. Einen solchen Beitrag legt man natürlich nicht nach einmaliger Nutzung zur Seite, sondern man versucht, alles aus ihm rauszuholen.

Wichtigste Regel am Ende ist: Keep calm and trust in content! (Bleibe ruhig und vertraue deinen Inhalten!).

Was kostet Suchmaschinenoptimierung & Content Marketing wirklich

Werbung kostet Geld, Marketing kostet Geld und auch wenn vieles im Internet heute kostenlos, oder zumindest sehr günstig, zu finden ist, liegt auch hier immer ein gewisser Geldwert auf der einen Seite in der Waagschale. Doch was kostet heute WAS konkret, bzw. was muss man in einzelne Leistungen, rund um den Aufbau einer Website im Bereich Content Marketing, inkl. SEO Maßnahmen und Suchmaschinenoptimierung investieren? Diese Frage ist im Grunde eigentlich leicht zu beantworten, denn es gibt hier einige Erfahrungswerte, die direkt aus der Praxis kommen.

Betrachten wir im Nachfolgenden die verschiedenen Bestandteile, und den zu erwartenden Umfang im Rahmen einer Betreuung, anhand verschiedener Praxisbeispiele. Im Kern geht es hierbei um Basis-Preise, Abrechnungsmodelle und Kosten für Leistungen von Drittanbietern. Alle Preise, die in diesem Beitrag genannt werden, sind Beispiele aus dem Praxisalltag eines etablierten Anbieters für Content Marketing. Sie sind freibleibend, ohne Gewähr und jeweils zuzüglich der gesetzlichen Umsatzsteuer.

SEO Basispreise für die Betreuung

Für die Betreuung von Unternehmen und deren Websites werden die Arbeiten in der Regel auf Basis von Stundensätzen abgerechnet, wobei es auch verschiedene andere Abrechnungsmodelle gibt — dazu mehr im Verlauf dieses Beitrags. Bei der Betreuung durch eine Agentur liegen die Stundensätze zwischen 80 und 150 Euro. Freelancer berechnen für ihre Leistung, ihr Wissen und ihre Erfahrung Stundensätze von 60 bis 500 Euro. Diese große Spanne ergibt sich teilweise auch auf Grund des Bekanntheitsgrades und der jeweiligen Positionierung des Freelancers. Die Stundensätze von sehr bekannten Freelancern sind auf Grund ihres Bekanntheitsgrades, ihres bisherigen Werdegangs und natürlich auch Ihrer Erfahrung sehr viel höher, als bei unbekannten Freelancern. Insgesamt ergibt sich so bei der SEO Betreuung eine übliche Bandbreite von 60 bis 120 Euro pro Stunde.

Bei den Tagessätzen gibt es eine ähnliche Spanne. Agenturen berechnen für ihre Leistungen zwischen 800 und 4.000 Euro pro Tag. Bei Freelancern beginnen die Tagessätze meist bei 600 Euro und enden bei rund 5.000 Euro. Dadurch ergeben sich eine übliche Preisspanne für die Tagessätze von 600 bis 2.500 Euro

Bei den SEO Basispreisen gibt es zwei grundsätzliche Faktoren, die über die Höhe des jeweiligen Stunden- oder Tagessatzes entscheiden. Zum einen gibt es in Deutschland ein ganz normales Preisgefälle. Hierbei gibt es auf der einen Seite ein Nord-/Südpreisgefälle, aber auch ein Ost-/Westgefälle. Das ist ganz normal, denn auch bei anderen Faktoren, die sich kalkulieren lassen (z.B. Miete, Lohn, Infrastruktur, Dichte etc.), gibt es ähnliche Preisgefälle. Auch diese wirken sich am Ende auf die jeweiligen Kalkulationen aus. Zum anderen spielt auch die Reputation und die Erfahrung der jeweiligen Agentur, bzw. die des jeweiligen Freelancers, eine große Rolle. Je bekannter und erfahrener, umso höhere Stundensätze werden aufgerufen, wobei immer zu beachten ist, dass gerade im Content Marketing Erfahrung eine nicht zu unterschätzende Größe ist. Das ist wichtig, denn Erfahrung spart meist auch Zeit — und Zeit spielt bei allen Projekten eine große Rolle, gerade dann, wenn es um gewisse Wettbewerbsvorteile geht.

 

Kostenverteilung SEO Deutschland

Diese grafische Darstellung zeigt geographische Preisverlagerung für SEO innerhalb Deutschlands.

SEO Leistungen im Einzelnen

Der erste große Überblick über die jeweiligen Preisgestaltungen haben wir. Nun betrachten wir die einzelnen Leistungen und Preisgestaltungen im Detail. Zuerst kommt meinst eine SEO Vertriebsanalyse. Das ist der erste Schritt und wird von den entsprechenden Anbietern auch als Kontaktwerkzeug benutzt. Hierbei handelt es sich meist um eine einfache automatisierte Analyse. Oft kann diese Analyse schon über die Website, gegen Eintrag in einen Newsverteiler oder durch Start mit einem Probe-Account, kostenlos erstellt werden. Ohne großen Personalaufwand wird dann in einem automatisierten Prozess die Website, der Traffic und verschiedene andere Kriterien so überprüft, dass am Ende eine Liste mit Empfehlungen steht.

Entschließt man sich für eine Zusammenarbeit, dann steht zuerst meist eine ausführliche SEO Einzelanalyse im Mittelpunkt, um eine aktuelle IST-Situation zu definieren. Diese IST-Situation zeigt dann, an welchen Stellen konkret Handlungsbedarf besteht, so dass hier die Entscheider im Unternehmen eine entsprechende Entscheidung treffen können. Auf Basis der Zahlen, Daten und Fakten der IST-Situation können dann auch Empfehlungen ausgesprochen und Ziele definiert werden. Eine solche SEO Basisanalyse hat einen üblichen Rahmen für kleine und mittlere Projekte von 10 bis 20 Stunden. Beauftragt man hier eine entsprechende Agentur, dann ist mit einer Investition von 800 bis 3.000 Euro zu rechnen. Ein Freelancer berechnet für die Erstellung einer entsprechenden Basisanalyse zwischen 600 und 10.000 Euro. Im normalen Rahmen ergibt sich hier in der Praxis eine mittlere Preisspanne für die Kalkulation einer SEO Basisanalyse von 600 bis 2.400 Euro, da die hochpreisigen Analysen doch eher die Ausnahme sind.

Große Projekte erfordern oft auch einen hohen Einsatz an Manpower für die SEO Analyse. Hierbei ist meist mit mehr als 3 Einsatztagen zu rechnen. Dadurch ergibt sich eine Preisspanne für eine Big SEO Analyse durch eine Agentur in der Praxis von 1.920 bis 3.600 Euro, und bei einem Freelancer ist mit einer Spanne von 1.440 bis 2.880 Euro zu rechnen, wobei die Spannen hier jeweils nach oben offen sind.

Bei besonderen Anforderungen in Sachen Technik, oder auch dem Einsatz von umfangreichen Tools für die SEO Analyse und Betreuung im Hause rufen die Anbieter der entsprechenden Softwarelösungen und Tools Tagessätze für Schulung und Einweisung von 2.000 bis 4.000 Euro auf. Das ist oft gut investiertes Geld, denn niemand kennt die eigene Software so gut, wie der jeweilige Anbieter.

Preismodelle für SEO Leistungen

Bisher wurden alle Leistungen auf Basis des Tages- oder Stundensatzes betrachtet. Um sich vom Wettbewerb abzugrenzen verfolgen unterschiedliche Anbieter auch verschiedene Preis- und Abrechnungsmodelle. Betrachten wir nun einzelne Modelle und finden wir heraus, was alles möglich ist und was sich hinter den einzelnen Modellen verbirgt.

Ein Preismodell, dass ab und zu in der Masse von SEO Anbietern vorkommt, ist die erfolgsabhängige Bezahlung von Leistungen nach Ranking, Traffic oder auf Basis von Umsatz- oder Gewinnzahlen. Doch dieses Abrechnungsmodell ist mit Vorsicht zu genießen, da hier oft auch auf Nebenkeywords ohne Traffic gesetzt wird. Das bedeutet in der Praxis, dass in einzelnen Fällen zwar ein hohes Ranking erreicht, doch der Traffic und die Conversion können hier am Ende gegen Null gehen, weil Besucher nicht das finden, was sie suchen. Dieses Erfolgsmodell sieht dann zum Beispiel so aus, dass jedes Keyword, dass es in die Top-10 schafft, mit 500 Euro abgerechnet wird und jedes Keyword, dass es noch in die Top-30 schafft, wird mit 300 Euro abgerechnet. Schafft es dann ein Keyword tatsächlich auch in die Top-3, dann wird meist ein Bonus von 150 Euro zusätzlich fällig. Das Risiko liegt hier sicherlich beim jeweiligen Anbieter, doch der Ansatz motiviert auch, jedes nur erdenkliche Keyword zu nehmen, was auch nur im entferntesten passen könnte, um hier eine gute Positionierung zu erreichen. Ob das dann am Ende auch einen Einfluss auf Traffic oder Conversion hat, hat hier keine Bedeutung. Ein weiteres Problem ist, dass solche Anbieter ihre Verträge meist mit langen Laufzeiten von 12 oder 24 Monaten ausstatten, so dass man aus den jeweiligen Verträgen nur schwer wieder herauskommt. Außerdem lässt sich nur schwer nachvollziehen, ob und welche Maßnahmen greifen und für den jeweiligen Erfolg verantwortlich sind, bzw. welches organische Wachstum im gleichen Zeitraum möglich gewesen wäre.

Weitere Preismodelle sind zum Beispiel ein monatlicher Fixpreis von z.B. 2.000 Euro mit einer entsprechenden Anzahl von Stunden für die flexible Betreuung und kontinuierliche Maßnahmen, oder auch eine Abrechnung auf Besucherbasis mit einem Preis von z.B. 0,22 Euro pro Besucher. Eine erfolgsabhängige Betreuung auf Basis vom Netto-Umsatz könnte so aussehen, dass der jeweilige Anbieter hier 5 bis 8 % vom Netto-Umsatz erhält. Bei einem durchschnittlichen Netto-Umsatz von 70.000 Euro sind das also rund 5.600 Euro. Teilen wir diese Zahl durch einen durchschnittlichen Stundensatz von 125 Euro, dann ergeben sich hier rund 45 Stunden.

Auf den ersten Blick ist die erfolgsabhängige Bezahlung gut für den Auftraggeber, doch beim genauen Hinschauen ergeben sich oft gravierende Nachteile, wie lange Laufzeiten, fehlende oder falsche Motivation und mangelnde Transparenz. Das darf aber auch nicht darüber hinwegtäuschen, dass eine Betreuung ohne Zielsetzung und konkrete KPI-Zahlen (KPI = Key Perfomance Indikatoren) ebenso falsch ist.

Das fairste, transparenteste und beste Preismodell für Anbieter und Kunden ist somit die Betreuung auf Budget- und Stundensatzbasis. Am Ende ist man hier freier in der Betreuung und bei seinen Entscheidungen, die Arbeit wird an konkreten Zielen ausgerichtet und es gibt gewisse Mengen-Forecasts, die dem Auftraggeber zeigen, wohin die Reise geht. Am einfachsten wird hier ein Budget festgelegt. Dann werden nach Absprache nur die Arbeiten abgerechnet, die auch tatsächlich geleistet wurden — einfach, transparent, klar.

Bei einer Betreuung durch eine Agentur für SEO und Content Marketing mit monatlich 10 Stunden ist hier mit 800 ´bis 1.500 Euro zu rechnen, bei 20 Stunden sind es 1.600 bis 3.000 Euro und bei 50 Stunden sind liegt der Aufwand bei 4.000 bis 7.500 Euro. Engagiert man einen Freelancer, dann lieget der Aufwand bei 10 Stunden zwischen 600 und 1.200 Euro bei 20 Stunden ist mit 1.200 bis 2.400 Euro zu rechnen und bei monatlich 50 Stunden ist mit 3.000 bis 6.000 Euro zu kalkulieren. Die Laufzeit liegt hier meist bei 3 bis 12 Monaten — wobei 12 Monate eher die Ausnahme sind. Zu beachten ist, dass hier nur die reinen SEO Leistungen abgerechnet werden. Leistungen von Drittanbieter, wie Texter, Grafiker, Fotografen etc. werden separat abgerechnet. Auch hier gibt es verschiedene Erfahrungswerte, die in den folgenden Einzelbeispielen näher aufgezeigt werden.

Ein letztes Preismodell ist die Prepaid-Betreuung. Hier zahlt der Auftraggeber dem Auftragnehmer eine Summe x im Voraus. Die jeweiligen Leistungen werden mit dieser Vorauszahlung verrechnet. Dieses Verfahren ist durchaus üblich bei problematischen Projektlaufzeiten, oder wenn eine Betreuung Ad hoc, und nicht kontinuierlich, benötigt wird. Allerdings ist dieses Modell der Zusammenarbeit bei Agenturen und Freelancern eher unbeliebt, da deren Personal- und Leistungsstruktur meist nicht auf Ad hoc-Leistungen ausgelegt sind.

Fazit: Achten Sie bei den jeweiligen Preismodellen darauf, dass diese für alle Seiten fair und transparent sind, und dass die jeweiligen Laufzeiten sich auch in einem verträglichen Rahmen halten.

Leistungen von Drittanbietern

Suchmaschinenoptimierung ist ein Teil des Gesamtpakets, doch eine Website besteht aus mehr. Üblicherweise finden sich dort neben Texten auch Bilder, Fotos, Grafiken, Infografiken oder Videos. Diese Leistungen werden separat abgerechnet. Auch hierbei gibt es verschiedene Preisspannen und Stundensätze.

Bei der Erstellung von Texten gibt es drei Kategorien. Zuerst die Billigtexte, die man über einschlägig bekannte Text- und Content-Plattformen beziehen kann. Hier liegt die Preisspanne bei 1,3 bis 6 Cent pro Wort. Das ist auf den ersten Blick sehr günstig, bringt aber unter Umständen zwei Probleme mit sich. Zum einen ist die Qualität auf Grund der ggf. verschiedenen Autoren schwankend, so dass sich einzeln beauftrage Texte oder Textpassagen merklich unterscheiden. Gute Qualität ist hier, von Ausnahmen einmal abgesehen, eher Mangelware. Von daher ist es immer besser, auf einen Direktkontakt zu einem Texter zu setzen. Hierbei liegen die Kosten für gute und sachliche Texte bei 6 bis 12 Cent pro Wort. Geht es dann in Richtung emotionale Texte, Fachtexte, Storytelling oder einen professionellen Werbetexter, dann liegt hier die Preisspanne bei 20 bis 30 Cent pro Wort.

Ein ähnliches Konstrukt und Preisgefüge finden wir beim Einkauf von Grafiken. Diese lassen sich auf einschlägig bekannten Plattformen für wenige Euro, meist 1 bis 10 Euro günstig einkaufen. Doch hier ist immer damit zu rechnen, dass ein potenzieller Wettbewerber die gleichen Grafiken auch einkauft und nutzt. Einige Grafiken lassen sich mit exklusiven Rechten erwerben. In diesem Fall ist mit einem Einzelpreis von 60 bis 90 Euro — oder mehr — zu rechnen, bzw. aus einzelnen Grafiken lassen sich neue Grafiken erstellen oder Collagen kreieren. Hier ist mit einem Arbeitsaufwand von 1 bis 3 Stunden zu rechnen, so dass hier zusätzlich mit rund 60 bis 270 Euro zu rechnen ist. Die Königsklasse sind individuell angefertigte Grafiken — keine Infografiken. Ein Grafiker berechnet hier meist einen Stundensatz zwischen 60 und 90 Euro. Je nach Grafik, Idee und Aufwand ist mit einem durchschnittlichen Aufwand von 16 Stunden pro Grafik zu rechnen, so dass die Preisspanne zwischen 960 und 1.400 Euro liegt.

Gleiches gilt auch für Fotos. Diese lassen sich einerseits günstig Nutzungsrechte erwerben, doch die Königsklasse sind individuell erstellte Fotos. Professionelle Fotografen kalkulieren mit Stundensätzen zwischen 50 und 250 Euro, und mit einem Tagessatz von 400 — 2.500 Euro. Hinzukommen, je nach Aufwand und Umfang, meist noch Catering, Studiomieten, Equipment oder andere Nebenkosten. Die ausgewählten Bilder werden fast immer noch nachbearbeitet, damit diese perfekt sind. Hier ist im Schnitt mit einem zeitlichen Aufwand von 1 bis 5 Stunden, zum Stundensatz von 60 bis 90 Euro, zu rechnen. Insgesamt ist also bei jedem Foto mit einer Investition von 69 bis 450 Euro zu kalkulieren.

Auf die gleiche Art und Weise lässt sich auch die Erstellung von Videomaterial für die Website kalkulieren. Entweder kann man die Nutzungsrechte für Stockmaterial für 60 bis 300 Euro pro Sequenz erwerben, allerdings sind diese auch mit den gleichen Risiken wie bei Grafiken oder Fotos behaftet. Exklusives Videomaterial lässt sich durch einen Videografen erstellen, dessen Stundensatz zwischen 60 bis 250 Euro liegt. Die Tagessätze liegen in der Regel zwischen 400 und 800 Euro. Hinzu kommen auch hier ggf. Studiokosten, Equipment, Licht und sonstige Nebenkosten. Neben der reinen Aufnahme kommt noch der Schnitt und ggf. bestimmte Effekte hinzu. Hier werden mit Stundensätzen zwischen 60 und 90 Euro kalkuliert, wobei im Mittel mit 5 Stunden zu rechnen ist. Je nach Projekt, Art und Umfang ist mit einem Preis für eine 1 bis 3 Minuten dauernden Sequenz in Höhe von 3.000 bis 4.500 Euro zu rechnen.

Beispielkalkulationen

Betrachten wir einmal alle zuvor genannten Preise und verbinden wir jede einzelne Maßnahme zu einem einzigen Projekt, zum Beispiel einer holistischen Landingpage, dann ergibt sich hier folgende Kalkulation:

1. Ideenfindung, Projektmanagement, Anpassungen an Corporate Design und Corporate Identity, Einrichtung einer Domain oder Sub-Domain und Erstellung einer Struktur mit allen relevanten Tools: ca. 800 Euro.
2. Sachlich korrekte Texte mit einer mittleren Textstärke, ca. 5.000 Worte mit jeweils 12 Cent pro Wort: ca. 600 Euro.
3. Bilder für 20 Abschnitte/Kapitel, also rund 25 Grafiken insgesamt á 89 Euro: ca. 1.975 Euro.
4. Video, 1 bis 3 Minuten: ab ca. 3.000 Euro.
5. SEO Textoptimierung, 4 Stunden: ca. 400 Euro

Somit liegen die Gesamtkosten pro Landingpage bei zwischen ca. 3.775 Euro (ohne Video) und 6.775 Euro (mit Video).

Legt man als Projekt ein Glossar oder Wiki an, dann ist hier mit einem SEO Aufwand von 1 Stunde, sowie mit laufenden Kosten ab 100 Euro pro Monat zu kalkulieren. Hinzu kommen dann noch die entsprechenden Texte. Hier kann man im Durchschnitt die Texterstellung von sachlichen Texten mit 1.000 Worten á 12 Cent pro Wort kalkulieren. Das bedeutet, dass jeder Text ca. 120 Euro kostet. Hinzu kommen ggf. Grafiken, Recherche, Collage, mittlere Zeichnung etc. zum Stundensatz von ca. 79 Euro.

Möchte man auf der Landingpage einen Link-Magnet in Form eines Ratgebers, E-Books oder einen Video-Kurs anbieten, dann sollte man hier mit einer Investition ab 5.000 Euro kalkulieren. Soll hingegen eine aussagekräftige Info-Grafik wichtige Informationen vermitteln, dann kann man hier mit einer Investition ab 1.500 Euro kalkulieren.

Eine weitere Möglichkeit für eine trafficstarke Website ist die Erstellung von einem Listenpool. Die Investition für den Aufbau eines Grundgerüsts liegt hier bei 300 bis 3.000 Euro einmalig, inkl. Text und Grafik, sowie monatlich 200 bis 400 Euro für ein Jahr. Die individuelle Linkakquise wird mit 500 Euro für SEO Leistungen und 50 bis 500 Euro je Link, inkl. Text, kalkuliert. Insgesamt kommt man hier bei einer qualitativ hochwertigen Verlinkung auf einen Linkpreis von 550 bis 1.000 Euro pro Link.

Gesamtfazit

Content Marketing und Suchmaschinenoptimierung ist eine Investition. Hier gibt es keine Abkürzungen und es zählen Know-how, Wissen, Networking und verschiedene Schnittstellen im eigenen Haus. Content Marketing ist schon lange kein Beiwerk mehr, das man mal eben nebenbei so mitmacht. Für viele erfolgreiche Unternehmen ist es DAS zentrale Element, damit das Geschäft läuft. Somit gehört das Content Marketing in professionelle Hände, damit jeder investierte Euro vielfach wieder verdient werden kann.

Onpage SEO – Maßnahmen und Erfolgsbetrachtungen

Jens Fauldrath war von 2006 bis 2012 mit dem Aufbau eines SEO-Teams für die Deutsche Telekom AG beschäftigt. Außerdem arbeitet er seit 2006 als Dozent für Suchmaschinenmarketing an der Hochschule Darmstadt. Er ist verheiratet und hat eine Tochter.

Onpage SEO und das Geld

SEO wird von vielen Leuten oft falsch verstanden. Es handelt sich um keinen Performance-Kanal. Die Kosten können nur sehr schwer variiert werden. Das liegt daran, dass es beim SEO kaum veränderliche Kostengrößen gibt. Der Großteil des Budgets fließt in diesem Bereich in Fixkosten. Eine wichtige Komponente sind dabei besonders die Personalkosten. Auch die IT-Kosten und die Mitarbeit anderer Abteilungen beruhen auf fixen Ausgaben. Gleiches gilt für den Content-Einkauf, das Partnering und die Internet Popularity. Das bedeutet, dass der Wert der Suchmaschinenoptimierung größtenteils von der Qualität der Umsetzung abhängt. Es ist nicht wie beim SEA oder beim Affiliate-Marketing möglich, die Kosten pro Nutzer abzurechnen. Bei der Onpage SEO muss man unabhängig vom Erfolg erst einmal relativ viel Geld ausgeben. Das heißt, Onpage SEO lohnt sich nur, wenn sie auch äußerst gekonnt umgesetzt wird. Daraus lässt sich wiederum schlussfolgern, dass es von entscheidender Bedeutung ist, dass die Kunden, die zum Beispiel gerne ihre Website überarbeiten lassen möchten, auch wirklich verstehen, warum sie so viel Geld ausgeben müssen und außerdem auch noch daran glauben, dass der SEO, der ihnen seine Dienste gerne verkaufen möchte, auch wirklich weiß, wovon er spricht und was er tut. Um einen solchen Eindruck zu erzeugen sollte man darauf achten, sich nicht zu sehr in Fachsprache des Onpage SEO auszudrücken und dem Kunden die eigenen Methoden in für ihn halbwegs verständlicher Form zu präsentieren.

Onpage SEO: Verschiedene Themen und Ziele

Die Suchmaschinenoptimierung kann sehr viele unterschiedlich Ziele und Themen zum Gegenstand haben. Einer IT-Seite wird es zum Beispiel im Normalfall wahrscheinlich eher nicht darum gehen, mehr Traffic bzw. mehr Besucher auf die eigene Seite zu ziehen. Betreiber solcher Seiten muss man durch andere Themen, wie zum Beispiel die Indexbereinigung, HTML und geringere Ladezeiten für die eigene Arbeit interessieren. Wichtig können für solche Seiten auch geringere Wartungskosten und eine höhere Auffindbarkeit sein.

Bei der Informationsarchitektur geht es hingegen eher um die User Experience und um das Produktmanagement. Wichtige Themen sind hierbei die Verlinkung, die Navigation und die Nutzerführung.

Ist das Hauptthema der Content, dann muss man sich hauptsächlich mit der Redaktion und wiederum mit dem Produktmanagement auseinandersetzen. Diese interessieren sich insbesondere für die Themenplanung, den Contentausbau und den Redaktionskalender.

Ein weiteres häufig als wichtig betrachtetes Thema ist die Outreach, also die Reichweite. Um diese zu vergrößern muss man besonders mit der PR-Abteilung, der Marke, dem Sponsoring, dem Produktmanagement und dem Marketing zusammenarbeiten. Wichtige Punkte sind dabei der Content, das Seeding, die Influencer und die Qualität der Inhalte.

Bei allen diesen verschiedenen Kundengruppen muss man wissen, wie eigentlich wirklich ihre Ziele und Prioritäten aussehen, um dann auf diese eingehen zu können und die eigenen Angebote entsprechend anzupassen.

Cockpit und Alignment

Um dazu in der Lage zu sein, braucht man ein gutes Cockpit, das heißt ein Zentrum, in dem wichtige Informationen zu dem eigenen Unternehmen und den Projekten visualisiert werden und so der gesamte Management-Prozess erleichtert wird. Nur so behält man die Kontrolle über die eigenen Daten und kann gleichzeitig feststellen, was bei der Kommunikation überhaupt funktionieren kann und was nicht.
Falls man nicht Chef des ganzen Unternehmens ist, wird es weiterhin notwendig sein, ein Alignment der ganzen anderen Abteilungen sicherzustellen, da man im SEO niemals alleine arbeiten kann.

Das heißt man sollte als erstes in der Lage sein, eine Hypothese aufzustellen. Diese würde in etwa die Form: „Mit der Maßnahme A sollte sich das Ziel B erreichen lassen“ aufweisen. Diese Ziele muss man dann auf die Ziele der Stakeholder übersetzen. Danach ist es wichtig, sicherzustellen, dass man das Erreichen dieser Ziele messen kann und außerdem festzulegen, wie man diese Messung durchführen möchte. Als nächstes kann man beginnen, die Maßnahmen aus der Hypothese umzusetzen. Dabei sollte man auf keinen Fall vergessen, das Erreichen der Ergebnisse zu überprüfen. Gerade in der heutigen Zeit ist es sehr schwierig, vorauszusagen, wie Google auf bestimmte Veränderungen reagiert und ob die Maßnahmen wirklich Erfolg haben. Eine gut geplante Überprüfung sorgt hier für Klarheit. Die Ergebnisse dieser Überprüfung sollte man dann auch an die Stakeholder weiterkommunizieren, wobei es unvermeidlich sein wird, auch hin und wieder eigene Fehleinschätzungen zuzugeben. Nur wenn man zugibt, dass die eine oder andere eigene Hypothese auch mal nicht funktioniert hat, dann schafft man eine Vertrauensbasis. Diese ist für eine gelungene Zusammenarbeit sehr wichtig. Man sollte also auch die Verantwortung für eigene Fehler übernehmen. Wichtig hierbei ist natürlich, dass man nicht nur Fehler macht, sondern dass die meisten Maßnahmen auch in irgendeiner Form Erfolg haben. Man sollte nie vergessen, dass man nur mit dem eigenen Team zusammen etwas erreichen kann, weshalb es auch wichtig ist, Erfolge immer als Gemeinschaftsleistung zu betrachten.

Indexbereinigung

Bei der Indexbereinigung geht es darum, Seiten, die schlecht performen, zu entfernen, um so die wichtigen Seiten auf der eigenen Website besser sichtbar zu machen.

Messungen

Schaut man sich hierzu ein Diagramm von SISTRIX an, dann scheint die Maßnahme ein Erfolg zu sein. Die Seitenzahlen der betrachteten Website sinken, während der Sichtbarkeitsindex einen sichtbaren Schwenk nach oben aufweist. Auch bei einem zusätzlich eingefügten Graphen für den Page Efficiency Index, kann man einen deutlichen Anstieg verzeichnen. Dieser berechnet sich, indem man den Sichtbarkeitsindex durch die Anzahl der indexierten URLs teilt und dann mit einem Faktor zur Lesbarkeit multipliziert. Dieser Faktor dient dazu, sehr geringe Werte, deren Handhabung einfach unpraktisch wäre, zu vermeiden. Besonders interessant können solche Diagramme auch noch sein, wenn man mit ihnen bestimmte Hosts oder Verzeichnisse auf einer Domain betrachtet, da sich so genau feststellen lässt, wo aufgeräumt wurde.

 

Indexbereinigung_Seitenzahl_zu_Sichtbarkeit

Diese Darstellung zeigt uns die Sichtbarkeit einer Website, nach bzw. während einer Indexbereinigung.

 

Schaut man sich nun allerdings die Klickzahlen mit Hilfe der Google Search Console an, dann wird man vielleicht feststellen, dass diese relativ konstant geblieben sind. Da stellt sich dann natürlich die Frage, ob die Indexbereinigung überhaupt wirklich ein Erfolg war. Ein Blick auf ein weiteres Diagramm zeigt hierbei, dass die Page Impression Efficiency und die Page Click Efficiency beide gestiegen sind. Allerdings befinden sich die Werte trotzdem noch längst nicht in einem Bereich, der als wünschenswert zu bezeichnen wäre. In dem Beispiel kommen ungefähr 0,12 Klicks auf eine URL pro Monat. Da aber die meisten URLs unter mehr als einem Begriff ranken, sollte man Werte von über 1 anstreben.

Lässt man sich jetzt noch einen Index für die Effizienz im Top 10 Ranking und im Top 100 Ranking anzeigen, dann stellt man die Ursache für alle diese Dinge fest. Eine Indexbereinigung hat kaum Auswirkungen auf die Top 10 Rankings, da diese viel härter umkämpft sind. Stattdessen wird die Effizienz in den Top 100 Rankings verbessert. Das erklärt warum die Sichtbarkeit zwar deutlich gestiegen ist, aber trotzdem die Nutzeraktionen nicht wirklich ähnliche Erfolge versprechen. Trotzdem schafft man sich durch die Indexbereinigung natürlich eine viel bessere Ausgangsposition, da man in den Top 100 nach oben steigt und durch weitere Maßnahmen dann auch schneller zu Erfolgen kommt.

Zusammenfassung zur Indexbereinigung – Was bleibt?

Eine Indexbereinigung wirkt sich prinzipiell sehr viel intensiver auf die hinteren als auf die vorderen Rankingplätze aus. Ab einem gewissen Grad – wenn die Effizienz einen Wert von über 1 erreicht – sind allerdings auch deutliche Unterschiede in Bezug auf die vorderen Rankingplätze auszumachen.
Sehr nützlich ist der Page Efficiency Index als Kennzahl, da er mit Hilfe der API relativ einfach zu erheben ist und außerdem gut geeignet ist, um schnell Potenziale einzuschätzen und Wettbewerbsvergleiche durchzuführen.
Schaut man sich die indexierten Seiten mal bei Onlineshops für Mode an, dann stellt man fest, dass insbesondere Zalando von 2015 bis 2016 unter den Seiten kräftig aufgeräumt hat. Die Anzahl der Seiten sank von 240 auf 20. Außerdem fällt auf, dass es den kleineren Unternehmen hier leichter fällt, ihre Seiten zu kontrollieren.

Durchführung Indexbereinigung

Eine solche Bereinigung lässt sich relativ schnell über Meta-Robots und Canonical-Tags durchführen. Dabei kann es aber schnell zu einer schlechten Crawling-Optimierung kommen, weshalb man immer in den Logfiles nachschauen sollte, wie das Verhältnis Menschen zu Bots in den Aufrufen aussieht. Wichtige Komponenten für eine gute Crawling-Optimierung sind die Nutzung von PRG-Patterns, das Vermeiden von nicht benötigten URLs und die Benutzung von noindex-Bezeichnungen in der robots.txt Datei.

Komplexitätsreduktion

Eine Komplexitätsreduktion bietet insbesondere für einen SEO verschiedene, große Vorteile.
Als erstes hat man keinen oder sehr viel weniger Datenmüll, der dauernd gefiltert werden muss. Weiterhin gibt es keine Restrisiken mehr, die bewirken, dass eine No-Index-Regel vergessen wird und die Seitenzahl wieder explosiv steigt. Außerdem ist man in der Lage, sich mehr auf das Wesentliche zu konzentrieren, weil das Unwesentliche einfach nicht mehr vorhanden ist. Es kommt zu einer Zeitersparnis bei allen Themen, die in irgendeiner Form mit der Maintenance also der Wartung zu tun haben. Und man hat eine bessere Kontrolle und kann somit auch viel planvoller vorgehen.
Die Komplexitätsreduktion lässt sich also mit Aufräumen vergleichen. Sie ist am Anfang unangenehm, aber macht einem das Leben dann am Ende deutlich leichter.

Informationsarchitektur

Bei der Informationsarchitektur geht es darum, die eigenen Seite in einer Weise gut auffindbar zu machen, die sowohl der Nutzer, als auch der Bot gut versteht.
Dabei gibt es zwei wichtige Bereiche, mit denen man sich beschäftigen muss: den Place of Information und den Information Scent. Beim ersteren geht es darum, wo man sich gerade befindet, während der zweite sich mehr mit der Frage beschäftigt, wohin man gehen kann.
Bedeutsam für die Informationsarchitektur sind besonders der Aufbau der Templates und die Navigationsstruktur.
Ein weiteres Ziel ist es, den Longtail der Suche durch eine klare Dokumentenstruktur und optimierte Meta-Informationen möglichst optimal zu bedienen. Dabei handelt es sich um für die Suchmaschinen lohnende Mehrwortphrasen, mit denen sich möglichst viel Traffic auf der eigenen Website generieren lässt.
Um in Bezug auf diese Phrasen Messungen vorzunehmen, ist es oftmals sinnvoll, eine Segmentierung der GSC-Daten vorzunehmen. So kann man sie zum Beispiel auf Basis der Suchanfragen sortieren, wobei man allerdings beachten sollte, dass die Summe der einzelnen Segmente in diesem Fall höher als 100 Prozent liegen wird, weil manche Mehrwortanfragen in mehrere Segmente hineinpassen.
Segmentiert man hingegen auf Basis der URLs, dann wird die Summe bei 100 Prozent liegen, sonst hat man einen Fehler bei der Implementierung gemacht.
Man sollte auch noch beachten, dass auf Grund der Datenschutz-Richtlinien von Google die Daten aus der Search Console unvollständig sein können Deshalb sollte man nie in absoluten Zahlen denken, sondern sich nur auf die Anteile der einzelnen Segmente konzentrieren.
Für Probleme können auch die Aggregationstypen bei Abfragen in Google verantwortlich sein. Ob nach Property oder „by page“ aggregiert wird, macht meistens große Unterschiede in Bezug auf die Messdaten aus.
Wenn man bestimmte Seitentypen stärken möchte, kann es sinnvoll sein, eine Segmentierung der seitentypen auf Basis der URLs vorzunehmen. Auf diese Weise kann man sehr einfach feststellen, ob die entsprechenden Bereiche auch wirklich gestärkt wurden und ob diese Maßnahme die gesamte Seite nach vorne gebracht hat.

Theory into Practice

Um alle diese Tipps in die Praxis umzusetzen, ist es sinnvoll, ein Beispiel heranzuziehen.

Man hat eine Produktseite, die auf das Keyword „Preiswert“ optimiert ist. Nun kommt aber der Verdacht auf, dass das Suchvolumen für „günstig + Produkt“ größer sein könnte als dasjenige für die Variante mit „Preiswert“. Dabei hofft man, dass die Suchintention in beiden Fällen ungefähr dieselbe ist. Bei diesen Annahmen handelt es sich sozusagen um die Hypothese.
Will man hierfür Messungen vornehmen, dann stößt man auf ein Problem. Der Pfad des Nutzers besteht aus verschiedenen Segmenten. Das Ranking und die verschiedenen, diese betreffenden Messgrößen lassen sich noch ohne große Probleme mit der Google Search Console anzeigen. Selbiges gilt für Klicks, Impressions und CTRs. Um allerdings die Nutzerreaktionen auf Seiteninhalte sichtbar zu machen, indem man zum Beispiel Verweildauern und Bounce Rates anzeigen lässt oder um die Conversion Rate betrachten zu können benötigt man Google Analytics. Die beiden Tools lassen sich leider nicht optimal miteinander kombinieren.
Schaut man sich nun die Diagramme zu dem Beispiel an, dann stellt man fest, dass die Suchanfragen zu „Preiswert“ sehr stark sinken, während „Günstig“-Anfragen einen großen Anstieg zu verzeichnen haben. Insgesamt ist die Zahl der Anfragen nun größer, was die Schlussfolgerung zulässt, dass die Hypothese zum Suchvolumen korrekt war.
Nun stellt sich natürlich auch noch die Frage, ob die Qualität des neuen Traffics mit der des alten mithalten kann. Hierzu betrachtet man am besten die Absprungrate und die Conversions. Da diese beide ansteigen, kann man davon ausgehen, dass die Qualität des Traffics insgesamt besser geworden ist. Der Umsatz lässt Ähnliches vermuten. Die gesamte Maßnahme war also ein Erfolg.

Ein weiteres Beispiel bezieht sich auf die Texte auf den Kategorieseiten. Diese sind anfangs einfach nicht vorhanden. Die Hypothese, die man nun aufstellen kann, lautet, dass mehr sinnvolle und nicht lexikalische Texte auf den Kategorieseiten zu mehr Rankings derselben führen.
Hierfür schaut man sich als erstes an, auf welcher Position die URLs durchschnittlich ranken. Hier wird man feststellen, dass die durchschnittliche Position abgesunken ist. Das liegt daran, dass die zusätzlichen Phrasen, unter denen die URLs nun ranken, den Durchschnitt negativ beeinflussen. Man muss also nicht nur den Durchschnitt, sondern auch die Anzahl der Rankings betrachten. So stellt man dann fest, dass auch die Maßnahme mit den zusätzlichen Inhalten Erfolge für sich verbuchen kann. Man sollte bei diesen Maßnahmen immer darauf achten, dass man die Auswirkungen immer einzeln misst, da sich erfolge und Probleme sonst nicht mehr einer bestimmten Maßnahme eindeutig zuordnen lassen.

Ein Shop ohne weitere Inhalte ist ebenfalls eine interessante Ausgangslage. Hier könnte man versuchen, durch das Erstellen eines Ratgebers neue Rankings und somit auch neue Besucher zu gewinnen.
Um das zu überprüfen, kann man sich anzeigen lassen, wie viele Klicks und Impressions durch neue Suchanfragen erzeugt worden sind und welche auf alten Phrasen beruhen. Dabei ist ein Kannibalisierungseffekt von unter 20 Prozent akzeptabel. Da der Ratgeber natürlich auch teilweise Doppelrankings erzeugt. Da hier über 80 Prozent der Suchanfragen neu sind, kann man auch dieser Maßnahme einen Erfolg bescheinigen.

Fazit

Im Allgemeinen sollte man also in der Praxis erst einmal eine Hypothese aufstellen. Die Ziele, die mit dieser einhergehen, sollte man auf die Ziele der Stakeholder übertragen. Als nächstes ist es notwendig, eine Messung sicherzustellen, um den Erfolg der entsprechenden Maßnahmen zu verifizieren. Danach kommt es zur Umsetzung der Maßnahme und mit ihr zu der Überprüfung der in der Hypothese aufgestellten Annahmen. Diese Ergebnisse sollte man schließlich den Stakeholdern direkt und unverfälscht mitteilen.

Um diese Schritte alle durchführen zu können, benötigt man ein relativ flexibles Framework für das Reporting und die Analysen. Google Analytics, die Google Search Console und SISTRIX sind hier eine gute Wahl.
Bei der Aggregationslogik der Google Search Console ist es wichtig, für Suchanfragen immer die passenden Aggregationstypen auszuwählen.
Zur Visualisierung der gewonnenen Daten kann zum Beispiel Microsoft Excel sehr hilfreich sein.

Wer noch Fragen an Jens Fauldrath hat, kann ihn über Facebook und Twitter ohne Probleme kontaktieren.

Ranking Faktoren in Zeiten von Deep Learning

Hier kannst Du Dir die Präsentationsfolien zum Webinar holen

Wie wird meine Website am besten bei einer Suchmaschinenanfrage, vorwiegend bei Google, am besten gefunden? In den Anfangsjahren des Internets waren die Rezepte hierzu einfach, banal und nicht immer ganz „legal“. Hier und da wurden mit den Meta-Daten gespielt und mit Keywords in den Texten und Überschriften getrickst etc. Doch all diese schwarzen Techniken für ein besseres Ranking bei Google wurden nach und nach ausgehebelt und Unternehmen, die auf solche Strategien setzen, wurden abgestraft.

Heute zählen andere Ranking Faktoren, und die Tricksereien der Vergangenheit gehören endgültig in die Mottenkiste.

Ranking Faktoren sind tot — allerdings nicht richtig

Welche Ranking Faktoren zählen heute und worauf kommt es in Zukunft mehr und mehr an? Einer der wichtigsten Faktoren für eine gute Positionierung bei den Suchergebnissen ist die Relevanz für den Suchenden, denn wer eine Suchanfrage startet, der will auch möglichst ein passendes Ergebnis haben, also eines, das für ihn fast schon maßgeschneidert sind.

Das bedeutet, dass wir uns aktuelle Ranking Faktoren näher anschauen müssen, um entsprechende Zusammenhänge herzustellen. Doch Achtung, nicht bei allen vermuteten Zusammenhängen gibt es auch tatsächlich einen Zusammenhang. Man muss sehr genau hinschauen, um Ursache und Wirkung zu erkennen.

Bei der Auswertung von Websites, Suchanfragen und den angezeigten Suchergebnissen zeigt sich, dass zum Beispiel Internetseiten mit mehr Bullet-Points höher eingestuft werden, als solche, die wenige oder gar keine Bullet-Points haben. Des Weiteren sind auch die so genannten Social Signals, die aus Facebook, Twitter & Co. kommen, höchst relevant. Links, Likes und Shares lassen eine Website meist auch im Ranking steigen. Ebenso sind Backlinks interessant, wobei Suchmaschinenanbieter hier mittlerweile sehr genau hinschauen, wo die entsprechenden Links platziert sind und wie diese verzweigt sind.

Zum Schluss bleibt noch der eigentliche Content. Hier kommt es mittlerweile auf den Text, die Textlänge und den Inhalt an. Lange Texte werden beim Ranking Faktor höher bewertet als kurze Texte. Doch Keywords alleine im Text und in den Überschriften sind noch nicht alles. Mittlerweile wird der Content nicht einfach nur nach Worten gescannt und bewertet, sondern der Inhalt wird dank Deep Learning auch interpretiert und „verstanden“. Mit anderen Worten: Suchmaschinen wissen, was in dem Text steht und interpretieren, worauf es ankommt. Sucht man zum Beispiel nach lustigen Inhalten und Filmen die mit Star Wars zu tun haben, dann wird einem höchstwahrscheinlich der Film Spaceballs sehr weit oben bei den Suchergebnissen angezeigt. Das ist korrekt, denn dieser Film ist eine Parodie auf Teile von Star Wars, doch nirgendwo in den Filmbeschreibungen taucht Star Wars auf. Das heißt, die Relevanz wird aus dem Inhalt generiert. Wenn wir das als Grundlage nehmen, dann werden Texte auch nach Relevanz bewertet, auch wenn nirgendwo ein bestimmtes Keyword auftaucht.

Ein weiterer entscheidender Punkt ist dann noch die Ergebnisrelevanz. Das heißt, was könnte der User tatsächlich suchen. Impliziert seine Suche, dass er Bilder haben oder Filme sehen will, braucht er eine schnelle Lösung oder einen ausführlichen Text etc.?

Und über alles steht natürlich auch immer noch die Frage, über welches Gerät, also Desktop oder mobil (Smartphone), wird die Suchanfrage gestartet. Auch das hat eine Auswirkung auf das Suchergebnis. Doch dazu später mehr.

Am Ende bedeutet das, dass es praktische keine pauschalen Ranking Faktoren mehr gibt. Der Inhalt einer Seite zählt und je nach Intention des Suchenden kommen unterschiedliche Algorithmen zum Einsatz, damit ein möglichst passendes und relevantes Ergebnis gefunden und angezeigt werden kann.

SEO-Taktiken sind tot und statische Ranking Faktoren werden unwichtiger

 

Das klingt etwas dramatisch und ist so natürlich nicht zu 100 % richtig, doch am Ende steht die Relevanz für den Suchenden immer im Mittelpunkt.

Hier sprechen die Zahlen eine deutliche Sprache:

• Bei ca. 92 % aller Transaktionen im B2B kommt zuerst eine Suchanfrage im Internet und
• bei 81 % aller potenziellen Käufer kommt zuerst eine Recherche im Internet.

Das bedeutet, wir müssen mit den Karten spielen, die wir ausgeteilt bekommen. Die Ranking Faktoren sind heute bei weitem nicht mehr so festgelegt, wie noch vor einigen Jahren. Heute orientieren sich die Ranking Faktoren mehr und mehr an den Anforderungen der Suchenden, den jeweiligen Geräten, über die die Suchanfrage gestartet wird und weiteren Faktoren — dazu gleich mehr. Flexibilität ist Trumpf und somit gibt es auch in Zukunft Ranking Faktoren, auf die es wirklich ankommt, und nach denen man sich beim Aufbau seiner Präsent im Internet orientieren kann.

 

Die Darstellung zeigt für Ranking Faktoren, die für die Suchmaschinenoptimierung relevant sind.

Ranking Faktor 1: Der Ort

Wenn wir nach etwas ortsgebundenen suchen, dann variieren hier auch die relevanten Keywords in Bezug auf den jeweiligen Ort. Wenn wir zum Beispiel nach dem Begriff „Bauernhof Berlin“ oder „Bauernhof Dortmund“ suchen, dann gibt es, auf Basis der bisherigen Suchanfragen und der verfügbaren Inhalte, unterschiedliche Schwerpunkte von tatsächlich relevanten Keywords. Das heißt konkret, dass „Bauernhof Dortmund“ mit den zusätzlichen Keywords: Obst, Gemüse, hautnah erleben, Tiere, Natur, Hofladen, Übernachtung, Heu etc. assoziiert wird. Bei der Suchanfrage „Bauernhof Berlin“ hingegen wird mit komplett anderen Keywords assoziiert. Hier sind es: Bio, Bauernhof, Kinder, Familie, Urlaub, Aktivitäten.

Somit haben lokale Interessen und Schwerpunkte einen direkten Einfluss auf das Ranking bei Google.

Ranking Faktor 2: Branchen

Über Jahre hinweg wurden alle Branchen über einen Kamm geschoren, Hauptsache die Keywords und die Überschriften passen. Mittlerweile gibt es hier sehr viel tiefergehende Faktoren, die einen unmittelbaren Einfluss auf das Suchergebnis haben.

Im Gesundheitsbereich werden zum Beispiel Websites mit ausführlichen und inhaltsstarken Texten, vielen Übersichten und Bullet-Points und wenigen internen Links sehr viel höher eingestuft. Diese Einstufung folgt der Idee, dass der Suchende hier mehr nach ausführlichen Informationen, Symptomen, Hilfen oder Wirkstoffen sucht, und nicht nur ein paar Produktbilder sehen möchte.

Bei Websites, die das Thema Finanzen im Kern verfolgen, steht Sicherheit im Vordergrund. Ganz besonders geht es hier auch um die HTTPS-Verschlüsselung bei der Übertragung von Daten. Hier ist in Zukunft zu erwarten, dass Seiten ohne eine solche HTTPS-Verschlüsselung eher abgestraft und weiter hinten bei den Suchergebnissen angezeigt werden. Das Ganze kann sogar so weit gehen, dass man bei Websites ohne HTTPS-Verschlüsselung ein Art Warnhinweis angezeigt bekommt, dass hier Daten unsicher übertragen werden.

Im E-Commerce gelten wieder ganz andere Regeln. Hier kommt es zum Beispiel sehr darauf an, dass lokale Domains für die jeweiligen Länder höher eingestuft werden, als länderunspezifische Domains. Das bedeutet, dass Online-Shops, die zum Beispiel in Deutschland, Österreich und der Schweiz aktiv sind, auch die entsprechende .de, .at und .ch Domain brauchen. Zusätzlich werden auch Buttons für die Warenkörbe mit berücksichtigt, und deren Anzahl, die Größe von Bilddateien, Anzahl der internen Links, interaktive Elemente, Wortanzahl bei Textbeschreibungen und Videos erzielen eine bessere Positionierung bei den Suchergebnissen, hingegen haben Facebook-Signale, AdSense-Links, Flash-Inhalte etc. eine eher negative Auswirkung.

Fazit: Jede einzelne Branche spielt nach ihren eigenen Regeln, die sich letztlich nur durch Testen und Erfahrung ausspielen lassen.

Ranking Faktor 3: mobiles Ranking

Heute spielt es eine große Rolle, von welchem Gerät aus wir eine Suchanfrage starten. Analysen zeigen, dass wir von einem Desktop-Rechner nach vollkommen anderen Themen suchen, als mobil von einem Smartphone aus. Natürlich haben dann auch die Inhalte der einzelnen Websites einen großen Einfluss auf das entsprechende Ranking. So werden hier zum Beispiel eher kürzere Beiträge höher eingestuft. Auch die Anzahl der Bullet-Points sollte bei der mobilen Website eher geringer sein. Darstellung und Lesbarkeit spielen also eine große Rolle. Mobil ist somit sehr viel mehr, als ein Responsive-Layout, denn nur dynamische Inhalte können die devicespezifischen Nutzererwartungen erfüllen.

Ein weiterer entscheidender Punkt ist, dass schon heute rund 20 % aller Suchanfragen über Spracheingabe erfolgen. Auch das hat eine direkte Auswirkung auf die angezeigten Suchergebnisse, denn meist sind hier nur noch die ersten 1 bis 3 Ergebnisse relevant, wenn nicht sofort automatisch zum ersten gefunden Suchergebnis gesprungen wird.

Weiterhin ist zu vermuten, dass das mobile Ranking auch von anderen Faktoren getrieben sein wird, wie zum Beispiel der Uhrzeit und dem Tag, an dem die Suchanfrage gestartet wird. Außerdem rückt auch die Suche nach Lokalitäten, wie zum Beispiel dem stationären Handel, Gastronomie, Handel oder Dienstleistung im jeweiligen Umfeld mehr und mehr in den Mittelpunkt. Klar, wenn man einen Zahnarzt sucht, dann sind nur die relevant, die in direkter Nähe sind. Gleiches gilt für Restaurants, Baumärkte, Bars, Kinos etc. Das sehen wir schon heute, wenn wir direkt bei Google oder Apple in den jeweiligen Karten-Apps suchen.

 

Word_Count_Desktop_Mobil_SEO

Die Darstellung zeigt den Unterschied der empfohlenen Wörter zwischen der Desktop- und der Mobilen Nutzung

 

Gesamtfazit und ein kleiner Ausblick in die Zukunft der Suchmaschinenoptimierung

Wenn wir eine Suchanfrage starten, dann erwarten wir, dass uns das angezeigt wird, was für uns relevant ist. Oft wird sogar erwartet, dass der Suchmaschinenanbieter hier auch unsere Gedanken liest. Natürlich ist das noch nicht so weit, doch auf Grund der vielen gesammelten Daten der letzten Jahre (Stichwort: Big Data) und der Möglichkeit, diese Dank Deep Learning besser zu verstehen, werden auch die angezeigten Suchergebnisse immer besser und besser. Für den Suchenden ist das natürlich perfekt, doch für den Kampf um die besten Plätze auf der Ergebnisliste, ist praktisch alles offen.

Letztlich kann man nur noch durch guten, maßgeschneiderten Content und eine klare Positionierung Punkten, um gefunden zu werden — doch eine Garantie für eine Top-Platzierung gibt es nicht. Mehr noch, die Suchergebnisse orientieren sich in Zukunft mehr und mehr am Suchenden, am Device, über das die Suche initiiert wird, an der Erwartungshaltung des Suchenden, der Zeit und anderen Faktoren. So spielt es zum Beispiel auch eine Rolle, ob eine Suchanfrage eher informations- oder transaktionsgetrieben ist.

In Zukunft ist also zu erwarten, dass es Websites mit dynamischen Inhalten geben wird, die sich an den Anforderungen einzelner Nutzer orientieren, so dass zum Beispiel dynamisch unterschiedliche Inhalte für Desktop und mobile Geräte angezeigt wird. Heute haben wir hier oft eine Website, die sich responsive anpasst, doch die Inhalte bleiben gleich. Eine gewisse Dynamik würde hier einiges verändern und dynamische Texte könnten hier sehr erfolgreich sein.

Relaunch – Riesen Chance für SEO, aber auch riesen Gefahr

Stefan Vorwerk ist 33 Jahre alt und verheiratet. Er kommt aus Niedersachsen und lebt der derzeit in Hamburg. Trotzdem ist er Werder Bremen Fan. Seit zweieinhalb Jahren arbeitet er als SEO Berater zusammen mit 11 Kollegen bei dem Unternehmen Wingmen Online Marketing. 2016 begleitete er 7 verschiedene Relaunchs von teilweise sehr großen Unternehmen, die teilweise schon eher als Rettungsmaßnahmen zu verstehen waren. Deshalb ist er auf diesem Themengebiet sehr qualifiziert.

Die Anekdote vom ersten Kunden 2016

Stefan Vorwerks erster Kunde im Jahr 2016 rief ihn nach einem äußerst misslungenen Relaunch zeitgleich mit dem Tiefpunkt der Sichtbarkeit seiner Website an. Seine erste Frage war: „Wir haben gerelaunched und haben nun weniger Besucher als bisher. Was macht Google bei uns falsch?“.

Der Kunde hatte ganz offensichtlich einiges an Fehlern gemacht. Der Relaunch war ein Großprojekt gewesen, in das Millionen flossen, allerdings ohne irgendeine Beteiligung von SEO! Weiterhin hatte man vergessen Redirects zu umgezogenen URLs einzurichten, sodass viele Seiten überhaupt nicht mehr erreichbar waren und sich die Fehler häuften. Außerdem verschob man Inhalte hinter den Login, was die Nutzer natürlich nicht sonderlich attraktiv fanden. Auch Duplicate Content existierte in relativ großem Maße, da oft sehr viele Pfade zu demselben Produkt führten. Weiterhin wurden viele Inhalte versteckt. Es gab zwar einen guten FAQ, aber da die User für jede Überschrift erst einmal auf einen Reiter klicken mussten, hatte er mäßigen Erfolg. Der Kunde war ebenfalls auch noch international unterwegs, aber setzte HREFlang nicht korrekt ein, was zu Sprachproblemen führte. Und schließlich verwendete man häufig die Überschrift „Alle Produkte“ sehr häufig, was für die Suchmaschinen absolut nichtssagend war. Dies sind nur sie schwerwiegenderen Probleme, insgesamt waren es über 100.

Wenn man dies alles so liest, dann kommt man vielleicht zu dem Schluss, dass Relaunch ein sehr schwieriger Prozess ist. Das stimmt teilweise, da Relaunch etwas Abstraktes ist und man nicht unbedingt sofort den richtigen Weg findet. Andererseits ist es allerdings schon ein großer Schritt, einzusehen, dass SEO eine wichtige Rolle spielt.

Definition Relaunch

Ein Relaunch reicht von kleineren Veränderungen einer Website bis hin zu einer kompletten Neuerstellung. Je nachdem, ob man also nur eine kleine Modifikation vornimmt oder alles ohne die Verwendung von alten Strukturen neu aufbaut ist der Aufwand auch ein ganz anderer.

Weiterhin sind vom Relaunch auch sehr verschiedene Themen betroffen. Bei der Technik kann man sich zum Beispiel überlegen, ob man HTTPS einführt oder wie man die Ladezeiten verringern kann. Bei der Gestaltung kann es sinnvoll sein, auf ein Responsive Design umzusteigen, um auch die Nutzer von mobilen Endgeräten anzusprechen. Bei der Struktur spielen die Informationsarchitektur und der Aufbau der URLs, also auch die interne Verlinkung eine große Rolle. Und als Letztes sollten auch die Inhalte optimiert und Lücken geschlossen werden. Die Kombination von all diesen wichtigen Faktoren kann sehr kompliziert werden, insbesondere in organisatorischer Hinsicht.

Planung und Prozess

Essentiell für einen gelungenen Relaunch ist also eine gute Planung. Mit dieser lassen sich Maßnahmen, Ressourcen und Verantwortlichkeiten ganz genau festlegen.
Der Prozess eines Relaunches sieht dabei etwa folgendermaßen aus: Er beginnt mit dem Start. Hier ist es sehr wichtig, ein Ziel festzulegen, dass man erreichen will. Dazu kann der SEO-Experte zum Beispiel eine Ist-Analyse durchführen, um den aktuellen Zustand der Seite zu bewerten und vorhandene Probleme festzustellen. Wenn man keine genaue Vorstellung davon hat, wie die Marktlage ist und was man als Unternehmen anstreben sollte, dann kann außerdem eine Keyword-Recherche hilfreich sein. So können auch wichtige Themen für die zukünftige Website festgelegt werden.
Als nächstes kommt die Konzeptphase. Hier bestimmt der SEO zusammen mit Entwickler, Designern und den Verantwortlichen für das Projekt, wie die neue Seite aufgebaut sein soll. Hier muss man sich zum Beispiel Gedanken zu der Informationsarchitektur machen. Wichtig ist es auch, festzulegen, wie die URL-Schemata für bestimmte Bereiche oder Kategorien der Seite aussehen sollen. Eine bedeutsame Rolle spielt die interne Verlinkung, da sie einen maßgeblichen Einfluss auf die Nutzererfahrung hat. In Erwägung gezogen werden, sollte außerdem die Art der Weiterleitungen. Eine Themen und Keyword-Recherche kann in der Konzeptphase wieder von großem Nutzen sein.
Hierauf folgt die Design- und Entwurfsphase. Hier werden insbesondere die Templates näher betrachtet. Als erstes werden die Wireframes überprüft, bevor man anfängt die HTML-Templates zu entwickeln. Abschließend wird im Optimalfall auch noch ein Testsystem aufgesetzt.
Nun kommt es zum Relaunch. Kurz vor dem Relaunch sollte man das Testsystem nochmal crawlen, um ganz sicherzugehen, dass auch wirklich alle Änderungen und Standards, die man sich hierfür überlegt hat, eingeflossen sind. Außerdem ist es notwendig, Weiterleitungen für die alten URLs, die auf die neue Website umgezogen sind, zu erstellen. Das kann insbesondere bei großen Onlineshops für einen sehr großen Aufwand sorgen. Schließlich sollte man die Website auch nach dem Relaunch noch einmal crawlen, um zu bestätigen, dass auch wirklich alle Standards, die man sich in der letzten Zeit überlegt hat, eingehalten wurden.

Über den gesamten Prozess hinweg ist es sehr wichtig, kein Konkurrenzdenken zwischen den einzelnen Abteilungen, wie SEO und Design und UX zu entwickeln. Will man einen erfolgreichen Abschluss sicherstellen, dann kann man sich interne Streitereien um Budgets und ähnliches nicht erlauben.

Prozessablauf beim Relaunch

In dieser Darstellung wird der Prozess eines Relaunchs erläutert.

Häufige Fehlerquellen

Weiterleitungen

Es ist sehr wichtig, niemals ohne das Einrichten von entsprechenden Weiterleitungen zu relaunchen. Ein Relaunch soll einen Fortschritt darstellen und keine Katastrophe. Deshalb sollte man darauf achten, dass die alten Kunden auch auf der neuen Website ständige Besucher sind.

Hierfür ist es nötig, alle relevanten URLs per 301 Redirect auf passende Ziele weiterzuleiten. Welche diese relevanten URLs sind muss man selber bestimmen. Am besten legt man sich hierfür einen Katalog an und wählt dann die URLs aus, die man für wichtig erachtet. 301 Redirect sollte man verwenden, weil die Weiterleitung sozusagen ewig gilt. Die Inhalte auf der alten URL existieren nicht mehr, weshalb immer auf die neue weitergeleitet werden soll. Das ist der Unterschied zur 302, die eine zeitweise gültige Weiterleitung bedeuten würde. Das würde bewirken, dass die URL regelmäßig von der Suchmaschine gecrawlt wird.
Ein passendes Ziel ist im schlechtesten Fall einfach die Startseite der neuen Website. Gibt es allerdings Entsprechungen zu alten Seiten, dann sollte man diese auch 1 zu 1 weiterleiten. Dadurch kommt der Kunde direkt dorthin, wo er auch hinmöchte.
Ein guter Tipp ist es, beim Relaunch eine Redirect Sitemap hochzuladen, da diese Google hilft, die neue Struktur zu verstehen.

Überlasse nicht Google die Länderzuordnung deiner Websites – HREFlang implementieren

Wenn man eine internationale Website hat, dann sollte man unbedingt HREFlang implementieren. Das liegt daran, dass die deutsche Domain zum Beispiel nicht in Österreich funktioniert und die österreichische nicht in Deutschland. Außerdem erkennt Google die Länderzugehörigkeit nur, wenn es ein „.de“ oder ein „.at“ Anhängsel gibt. Sind diese nicht vorhanden, dann werden sich die beiden Domains einen Konkurrenzkampf beim Ranking liefern, was durchaus schädlich sein kann. Außerdem finden die Nutzer das dem Land entsprechende Angebot nicht, was Verluste beim Umsatz zur Folge haben kann.

Zeige Wichtiges dem Nutzer sofort – relevante Inhalte

Für die Optimierung ist es entscheidend, dass der Nutzer wichtige Inhalte einer Seite sofort sehen kann. Hierbei ist besonders die Frage, wann der Inhalt in einem Reiter platziert werden darf und wann nicht, wichtig. Hier kommt wieder der Kunde von Stefan Vorwerk ins Spiel, der schon am Anfang erwähnt wurde. Dieser platzierte auf einer Landingpage ausschließlich drei Reiter. Das ist sehr suboptimal, da hier sämtliche Inhalte nur mit weiterer Nutzerinteraktion sichtbar werden. Reiter sollte man also nur anwenden, um die Übersichtlichkeit zu optimieren, aber niemals die ganze Seite dort einschließen.

Stelle Relaunch ohne Robots.txt/No-Index-Sperren live

Bei einem Testsystem kann es sinnvoll sein, die oben genannten Sperren einzubauen, um zu verhindern, dass Google das System schon im Vorab crawlt. Übernimmt man diese Einschränkungen dann aber in die finale Version, dann kann das sehr negative Auswirkungen haben. Da Google nicht in der Lage ist, die entsprechenden Informationen zu gewinnen und die Seite zu crawlen, wird man wahrscheinlich sehr schlecht ranken.

Richtiges Timing schützt deinen Relaunch

Wenn man einen Relaunch plant, dann sollte man unbedingt dem SEO-Experten rechtzeitig Bescheid geben. Ein Relaunch bedeutet einiges an Aufwand und muss folglich auch ausreichend früh vorgeplant sein. Ansonsten kann es sein, dass es zu einem Desaster kommt, weil man die erforderlichen Optimierungen nicht schnell genug bewältigt kriegt.

Zeitdruck erhöht deine Kompromissbereitschaft – großzügiger Zeitplan

Erhöhte Kompromissbereitschaft klingt eigentlich erstmal nicht nach etwas Schlechtem. Allerdings will man ja eigentlich bei einem Relaunch besser werden und somit auch möglichst wenige Kompromisse eingehen. Deshalb sollte man einen sehr großzügigen Zeitplan haben. Eine Weisheit hierzu ist, erst die Zeit auszurechnen, die man voraussichtlich brauchen wird und diesen Betrag dann zu verdoppeln. So hat man mit hoher Wahrscheinlichkeit Erfolg dabei, bis zu dem angestrebten Datum auch fertig zu werden. Außerdem sollte man nach außen, also zu den Kunden am besten gar nicht erst ein Datum kommunizieren, damit man nicht zusätzlich unter Druck gerät. Wenn man am Ende dann früher fertig wird als eigentlich geplant war, dann wird das mit Sicherheit niemand kritisieren, sondern man erntet wahrscheinlich sogar auch noch Lob.

Priorisiere deine wichtigsten Inhalte und achte auf die interne Linkstruktur

Vor einem Relaunch sollte man sich darüber klarwerden, welche Seiten eine wichtige Rolle für einen spielen. Bei Katalogen bringen zum Beispiel die besten 20 Prozent der Inhalte 80 Prozent des Traffics und bei Onlineshops ist es durchaus wahrscheinlich, dass bestimmte Produkte maßgeblich den Umsatz steigern. Diese will man natürlich stärken und auf keinen Fall schwächen. Bei den Änderungen zu Relaunch kann es aber passieren, dass die entsprechenden Produkte plötzlich schlechter verlinkt sind und somit die Kunden seltener auf diese stoßen. Das hat Umsatzverluste zur Folge. Man sollte dem SEO-Experten also mitteilen, dass er darauf achten soll, um entsprechende Probleme zu vermeiden.

Jede deiner URLs sollte relevant sein

Man sollte eine möglichst geringe Zahl an URLs anstreben. Dazu sollte man sich bei jeder URL genau überlegen, ob sie überhaupt notwendig ist und es unbedingt vermeiden, dass verschiedene URLs zu demselben Inhalt führen, da diese dann auch von Google bestraft werden.

Es ist also wichtig genau abzuwägen, welche URLs überhaupt gebraucht werden. Zum Beispiel sollte man darüber nachdenken, ob man Druckversionen von einzelnen Seiten benötigt. Weiterhin muss betrachtet werden, was die Filter eigentlich machen und ob hier zusätzliche Filterseiten notwendig sind. Auch Tagseiten und Produktvarianten können unnütze URLs zur Folge haben.

Wenn es zu viele sinnlose URLs auf einer Seite gibt, dann ist das von Google zugewiesene Crawling Budget schneller erschöpft. Das hat zur Folge, dass seltener gecrawlt wird und Google somit Veränderungen auch sehr viel langsamer wahrnimmt.

Vermeide die Indexierung von Duplicate-URLs

Besonders bei Filtern kann es passieren, das Kopien von bestimmten Seiten entstehen. Setzt man hier keinen Canonical Tag ein, dann nimmt Google diese als Duplicate Content wahr, was zu einem niedrigeren Ranking führt. Die Canonicals verweisen auf die originale Seite und signalisieren Google somit, dass die Seite nicht indexiert werden soll und somit auch kein Duplicate Content ist. Das ist allerdings nur eine Notlösung, da solche Seitenkopien prinzipiell vermieden werden sollten. Die größte Gefahr beim Canonical Tag ist, dass er auf eine Filterseite statt auf die originale verweist. Ein solcher Fehler sollte unbedingt vermieden werden.

Duplicate Content im SEO

In der Suchmaschinenoptimierung ist Duplicate Content kontraproduktiv.

Sorge für eine gute Kommunikation

Sehr viele große Projekte scheitern an einer mangelnden Kommunikation. Es ist wichtig, dass die einzelnen Disziplinen, also SEO, Design, UX und Development nicht gegeneinander arbeiten, sondern dasselbe Ziel zu erreichen versuchen. Daher sollte man versuchen, dafür zu sorgen, dass die Kommunikation nicht nur über irgendwelche E-Mails und Textnachrichten stattfindet, sondern dass sich auch alle mindestens einmal treffen und viel miteinander telefonieren. Das führt zu einer viel engeren Zusammenarbeit und beugt Missverständnissen vor.

Hilfreiche Tipps (Chancen)

Reduziere die Anzahl irrelevanter URLs

Wenn man URLs, die nicht unbedingt gebraucht werden, entfernt, dann kann das sehr positive Auswirkungen haben. Ein Beispiel hierfür ist die Seite Urlaubsguru.de. Die hatten im April 2016 135.000 indexierte URLs. Im Zuge einer Überarbeitung senkten sie diese Zahl innerhalb eines halben Jahres auf ungefähr 11.000. Das führte dazu, dass sich der Sichtbarkeitsindex verdoppelte, sodass man davon ausgehen kann, dass der Traffic bei ihnen sehr zugenommen hat. Man sollte also veraltete URLs möglichst regelmäßig entfernen.

SEO als Spielwiese

Das moderne SEO bietet sehr viele interessante Möglichkeiten. Im Zuge eines Relaunches hat man die optimale Möglichkeit auf diese zu reagieren und sie anzuwenden.
Ist man zum Beispiel ein Newskanal, dann sollte man sich überlegen, ob man nicht AMP einsetzen möchte, um die mobilen Seiten zu verbessern. Als Informationsportal könnte man vielleicht Antwortboxen benutzen. Es kann auch nie falsch sein, die interne Verlinkung zu überarbeiten. Verschlüsselung durch HTTPS kann ebenfalls eine große Verbesserung darstellen. Verkürzt man die Ladezeiten, dann hat das höchstwahrscheinlich positive Auswirkungen auf die Erfahrung der Nutzer. Auch schematische Auszeichnungen sind eine gute Idee. Und schließlich sollte man auch unbedingt für ein möglichst flexibles Content Management System sorgen, damit sich das Veröffentlichen von neuen Inhalten möglichst einfach gestaltet.

Mache dein Tracking zukunftsfähig

Tracking ist ein sehr wichtiges Thema. Hier sollte man sich erst einmal anschauen, ob auf der eigenen Seite getrackt wird und welche Daten genau erhoben werden. Ist hier die Vorgehensweise nicht zufriedenstellend, dann sollte man sich überlegen, den Google Tag Manager zu verwenden. Dieser bietet viele verschiedene Vorteile. Man braucht nur sehr wenige Entwicklerressourcen um ihn zu implementieren. Hat man das getan, kann man sehr viele nützliche Tools in die eigene Website integrieren. So kann man zum Beispiel Google Analytics und das Retargeting Pixel von Facebook verwenden. So lassen sich mit relativ wenig Aufwand, viele hochwertige Daten gewinnen.

Sichere deine SEO-Standards

Standards kann man durch Monitoring absichern. Ansonsten ist es nämlich kaum möglich, die Einhaltung zu überprüfen. Überprüfen sollte man unter anderem die Indexierung, die Qualität der Überschriften und die Statuscodes, also wie erreichbar die wichtigen URLs sind. Empfehlen lässt sich hierfür das Tool Testomato, mit dem sich alle diese Dinge live überprüfen lassen. Es ist also sinnvoll Testomato einzusetzen, wenn man ein Monitoring durchführen möchte, besonders weil das Team, das dahintersteht, für Verbesserungsvorschläge immer offen ist.

Tretet in das mobile Zeitalter ein

Wenn man einen Relaunch durchführt, dann sollte man unbedingt auch eine mobile Optimierung mit einbeziehen. Die mobilen Endgeräte spielen inzwischen eine maßgebliche Rolle beim Generieren von Traffic und Umsätzen, da die Leute mit ihnen die meiste Zeit im Internet verbringen. Folglich ist es sinnvoll ein Responsive Design oder AMP anzuvisieren und die Website so für Smartphone-Nutzer attraktiver zu machen. Vermeiden sollte an es, die mobile Anpassung im Nachhinein durchzuführen.

Wer eine noch ausführlichere Relaunch Checkliste erhalten möchte oder noch zusätzliche Fragen zu dem Thema hat, der kann gerne an Stefan Vorwerk über die E-Mail-Adresse stefan.vorwerk@wngnm.de eine Nachricht schicken.

Optimierung der Search & Content Performance mit Searchmetrics

 

 

Andre Krüger leitet das Client Success Management Team von Searchmetrics für die Region Berlin und Umgebung. Das bedeutet, dass er Kunden an die Software heranführt und ihnen in sechs Sessions zu je einer Stunde wertvolles Wissen zu ihr vermittelt.

Kontext

Wie ist die Suite aufgebaut?

Die Searchmetrics Suite ist in zwei Bereiche untergliedert. Einer davon ist die Research Cloud. Diese dient vorwiegend der Recherche. So kann man feststellen, wie die eigene Performance zu bewerten ist und wie sich der Markt darstellt. Es gibt eine SEO- und eine Keywordrecherche und man kann Informationen zu sozialen Netzwerken gewinnen. Weiterhin existiert auch eine umfangreiche Datenbank mit einem Volumen von 15 Petabyte, die regelmäßig manuell angepasst wird. Somit hat Searchmetrics auch die volle Kontrolle über diese Daten und bereitet sie selber auf.
Der zweite Bereich ist die Project Area. Hier geben die Kunden vor, welche Keywords gecrawlt werden sollen. Die gefundenen Daten werden dann nur für das entsprechende Projekt den Kunden in einem speziellen Container zur Verfügung gestellt.
Die Research Cloud soll es den Kunden ermöglichen, den ganzen Markt im Blick zu behalten, während der Projektbereich darauf ausgelegt ist einen Fokus zu bieten und ein bestimmtes Set von Keywords näher zu untersuchen.

Die Searchmetrics Suite Plattform wird angeboten, weil das Unternehmen SEO als Search Experience Optimization versteht. Das heißt man versucht vor allem dafür zu sorgen, dass der Webauftritt des jeweiligen Unternehmens sowohl menschliche Nutzern als auch Bots eine möglichst optimale Erfahrung bietet. Das bedeutet, dass der SEO Manager von heute als Projektleiter zu betrachten ist, der die Zusammenarbeit von verschiedenen Abteilungen wie zum Beispiel technischer Optimierung und Seitenstruktur regelt und so für die genannte Optimierung Sorge trägt.

Wichtig hierfür ist es, die Web-Architektur so zu gestalten, dass der Nutzer zu einem bestimmten Ziel hingeführt wird. Dafür muss er erstmal von der Seite wissen, sich dann für diese interessieren und schließlich von einer Handlungsaufforderung davon überzeugt werden eine Conversion durchzuführen. Das bezeichnet man auch als Sales Funnel. Die Searchmetrics Suite soll bei dieser Anwerbung von Kunden unterstützend wirken.

Seit dem Hummingbird-Update ist Google sehr viel besser in der Lage, Inhalte zu verstehen. Deshalb muss man nun nicht mehr in Keywords denken, sondern eher in Themenclustern. Nimmt man zum Beispiel das Thema iPhone, dann kann man sich dazu eine ganze Reihe von Keywords ausdenken. Diese gehören aber alle zu bestimmten Bereichen, wie Kaufinteresse oder der Suche nach Beratung und Anleitungen, die Google erkennt und den jeweiligen Keywords zuordnen kann. Somit ist es nicht mehr sinnvoll, Landingpages für einzelne Keywords zu erstellen, sondern man sollte sie auf bestimmte Themengebiete ausrichten.
Ein Beispiel hierfür ist Bankrate. Die Landingpage dieser Seite rankt für insgesamt 3248 Keywords, weil verschiedenste Themenbereiche abgedeckt werden. Um für diese Worte in AdWords auf Platz eins zu ranken, müsste Bankrate 704.000 Euro ausgeben. Wenn man hier eine gute Contentstrategie anwendet, dann lässt sich ein großer Teil des Budgets einsparen.

Marktanalyse und Performance Tracking

Viele Nutzer schauen, bevor sie etwas kaufen, erstmal im Internet nach, ob sie nicht entsprechende Informationen finden können.

Gibt man auf der Startseite der Searchmetrics Suite eine Domain ein, dann wird man hierzu mit verschiedensten Daten darüber versorgt, wie man bei einer solchen Suche eigentlich performt. Diese Suche lässt sich mit speziellem Fokus auf 28 verschiedene Länder durchführen, für die die jeweiligen Daten generisch aufbereitet worden sind. Es lässt sich zum Beispiel feststellen, wie gut eine Seite bei organischen und bezahlten Keywords, bei Links und in sozialen Medien dasteht. Außerdem gibt es ein Liniendiagramm, das darstellt, wie sichtbar die entsprechende Domain in den letzten fünf Jahren war.
Die Daten gewinnt die Suite, indem sie Keywords bei Google eingibt und die Ergebnisseiten der Suchen dann bis zur fünften Seite speichert. So lassen sich die genauen Rankings feststellen. Auch Dinge, die die Nutzererfahrung betreffen, wie zum Beispiel die CTR, können so festgestellt werden, da sie das Ranking beeinflussen. Das Ganze wird in regelmäßigen Abständen für 650 Millionen verschiedene Keywords durchgeführt. Einen Einfluss hat auch das Suchvolumen auf die Daten, die in der Suite gespeichert werden.

Weiterhin lässt sich schnell und unkompliziert feststellen, wer die stärksten Wettbewerber oder auch Konkurrenten für das jeweilige Unternehmen sind. So kann auch verifiziert werden, welche Seiten der eigenen potenziell Keywords wegnehmen und so den Traffic verringern, der schlussendlich auf der Landingpage landet. Bei dem Modegeschäft H&M wird hier zum Beispiel die Seite gutscheinpony24.com angezeigt. Auch die Seite mode-und-preis-online.de scheint eine starke Konkurrenz darzustellen. Bewertet wird die Konkurrenz mit Hilfe der Schnittmengen von Keywords. Sowohl für H&M als auch für mode-und-preis-online.de kann man sehr einfach über Google herausfinden, für welche Keywords sie ranken. Je nachdem wie groß hier die Überschneidung ist, desto mehr Konkurrenz machen sich die beiden Unternehmen, da sie sich gegenseitig Keywords und somit auch Marktanteile wegnehmen. Die entsprechenden Keywords können mit der Suite auch ohne Probleme angezeigt und dann als Liste zu Beispiel in den eigenen Workflow exportiert werden. Außerdem lassen sich verschiedene Kriterien für die angezeigte Schnittmenge festlegen, wie zum Beispiel die Suche nach organischen und bezahlten Keywords.

In dem Bereich Subdomains ist es weiterhin möglich nachzuschauen, wie eine bestimmte Website eigentlich aufgebaut ist. Wenn man die einzelnen Unterseiten betrachtet, lässt sich deren Performance überprüfen. So kann man feststellen welche Produkte mehr Traffic anziehen und an welchen Seiten noch gearbeitet werden muss, weil sie schlecht performen. Bei H&M wird man hier zum Beispiel feststellen, dass sie bei der Damenmode sehr viel besser aufgestellt sind als bei der Herrenmode, was zum Beispiel daran liegen könnte, dass die Konkurrenz dort eine andere ist.

Ebenfalls möglich ist es, eine Keyword Recherche zu betreiben. Dann bekommt man unter anderem das Suchvolumen, das dahintersteht angezeigt und findet weiterhin heraus wie sich das Keyword auf das Jahr verteilt. Außerdem werden einem verschiedene ähnliche Keywords angezeigt.
Gibt man zum Beispiel Moonboots in das Suchfeld ein, dann wird man feststellen, dass das Suchvolumen ungefähr 7.500 Suchen beträgt und dass es sich um ein sehr saisonales Keyword handelt, da kein Mensch im Sommer Stiefel trägt. Verwandte Keywords sind zum Beispiel Moonboots Herren und Moonboots Damen. Also gibt es auch Moonboots für Herren, was relativ überraschend ist. Mit Hilfe dieser Keywords kann man also auch feststellen, was für Inhalte man erstellen sollte, um für bestimmte Suchanfragen relevant zu sein. Bei den Moonboots sieht man außerdem eine Wettbewerbszahl von 97 Prozent. Das teilt einem mit, dass das Keyword sehr hart umkämpft ist und ein Ranking hier sehr schwierig werden wird.

Content Performance

Live Demo

Eine weitere wichtige Funktion der Searchmetrics Suite ist die Content Performance. Hier kann man zum Beispiel sehen, wie viele URLs eine Domain enthält und welche davon am relevantesten sind. Bei H&M wird man so herausfinden, dass auf der Website über 3.000 URLs existieren. Außerdem sind die Kategorien für Damen wieder besonders wichtig. Klickt man nun auf eine der angezeigten URLs, wird man mit verschiedenen weiteren Informationen versorgt. Man sieht, für wie viele Keywords die jeweilige URL rankt. Weiterhin bekommt man einen Traffic Index angezeigt, der mitteilt, wie viele Klicks diese URL ungefähr generiert. Außerdem gibt es Schätzwerte zu den Durchklickraten und den Suchvolumen. Die einzelnen Keywords, für die die URL rankt werden ebenfalls dargestellt. Und schließlich kann man sich auch noch auf URL-Ebene mit der Konkurrenz vergleichen lassen und so herausfinden, wie man im Vergleich mit ihr dasteht.
Bei der Damen-Seite von H&M stellt man so fest, dass sie zwar für viele Keywords rankt, dass aber bei vielen von diesen Keywords noch nicht optimale Platzierungen erreicht werden. Das heißt, sie besitzt noch viel Potenzial und kann bei einer entsprechenden Anpassung eine große Menge zusätzlichen Traffic für die Domain generieren. Vergleicht man die Seite nun mit der entsprechenden URL von Bonprix, dann findet man heraus, dass Bonprix bei den CPC-Werten besser aufgestellt ist und so etwas Geld bei den AdWords sparen kann, während H&Ms Ladies-Seite eine deutlich höhere Reichweite besitzt, da hier ein Suchvolumen von 417.000 Anfragen 220.000 Anfragen gegenübersteht. Wenn es sich also um eine Brand-Awareness-Seite handeln würde, dann wüsste man, dass man alles richtiggemacht hat, da die Reichweite der H&M Seite sehr groß ist.

Wenn man feststellt, dass die eigene Seite auf bestimmte Keywords nicht allzu gut rankt, dann kann man die Funktion der Content-Optimierung verwenden. Dazu setzt man bei einer spezifischen URL Häkchen hinter die entsprechenden Keywords. Daraufhin wird man zu einer Seite weitergeleitet, die einen noch die Anzahl der durchsuchten Dokumente festlegen lässt, bevor man die Analyse startet. Daraufhin beginnt die Searchmetrics Suite, die ersten 15 Ergebnisse der Google-Suche zu crawlen und analysiert, durch welche Inhalte diese Seiten Erfolg im Ranking haben.
Analysiert man zum Beispiel die eigene Seite in Bezug auf den Begriff IT Unternehmensberatung, dann wird man vielleicht feststellen, dass sie sich eher auf Keywords wie „Unternehmensberatung“, „online“ und „Marketing“ konzentriert. Das heißt sie legt wahrscheinlich einen großen Fokus auf Onlinemarketing. Mit Hilfe der Suchergebnisse von Google ist aber zu sehen, dass Suchworte wie „Unternehmen“, „Lösungen“ und „Datenschutz“ sehr viel besser funktionieren, da die Userdaten hier positiver ausfallen. Folglich sollte man den Content in einer Richtung verändern, die konkrete Lösungen für bestimmte Probleme von Unternehmen anbietet. Scrollt man weiter nach unten, findet man weiterhin heraus, wie viele Worte Text durchschnittlich bei den hochrankenden URLs zu finden sind. So beträgt der Durchschnitt bei der IT Unternehmensberatung zum Beispiel 670 Wörter. Auch die Seitenstruktur wird angezeigt und kann verglichen werden.

Weiterhin lässt sich die eigene Seite auf Similar und Duplicate Content überprüfen, indem man Ein- und Zwei-Wort-Phrasen mit der Konkurrenz vergleicht. Das gesamte Briefing zum Content, das hier als Analyse entsteht, kann man dann auch per E-Mail zum Beispiel an die Redakteure versenden und ihnen so mitteilen, wie sie die Seiten bitte verändern sollen, damit der Content konkurrenzfähiger wird.

Technische Struktur

Die Websites werden durch eine technische Struktur bestimmt, da sie in einzelne Themenbereiche aufgegliedert sind, die durch die Struktur in der Technik modelliert werden. Das stellt die Kunden oft vor große Herausforderungen, da die Websites immer komplexer werden und somit auch die technische Struktur schwerer sauber erstellt werden kann. Eine solche richtige Website-Architektur ist aber maßgeblich um Tests durchzuführen, Relaunches zu planen oder Kategorieseiten für einzelne Typen von Produkten zu erstellen. Außerdem muss man sich mit der Struktur der eigenen Website genau auskennen, um die Visibility, den Traffic und die Umsätze steigern zu können.

Wichtige Elemente einer Website-Architektur

Die Searchmetrics Suite kann bei der Erstellung der Struktur einer Seite in vielerlei Hinsicht helfen. Mit ihr lassen sich zum Beispiel technische Fehler der Seite feststellen, wodurch man erstens den aktuellen Zustand der Seite beurteilen kann und zweitens in der Lage ist, die entsprechenden Fehler zu beheben. Weiterhin ist es auch möglich, die Ebenen-Verteilung näher zu betrachten. So schaut man sich an, auf welchen Ebenen sich der eigene Content befindet und wie lange der Nutzer sich durch die Seite hindurchklicken muss, bevor er zu dem entsprechenden Inhalt gelangt.

Die Ladezeiten der Seite spielen ebenfalls eine wichtige Rolle. Sind sie zu lang, dann werden viele Nutzer sehr frühzeitig abspringen, da sie sich nicht auf eine nervige Warterei einlassen wollen. Die Verweildauer der Nutzer nimmt somit ab, was auch wieder einen schlechten Einfluss auf das Ranking der Seite bei Google hat. Außerdem beeinflussen die Ladezeiten das Crawling-Budget von Google, was ebenfalls zu Nachteilen führen kann. Dateigrößen sind, insbesondere durch den rasant wachsenden mobilen Markt, auch von großer Bedeutung. Wenn der eigene Content zu groß ist, dann wird er auf mobilen Endgeräten mit sehr begrenzter Bandbreite wahrscheinlich nicht oder nur sehr langsam laden, was wieder zur Unzufriedenheit der Nutzer führt.

Content-Kategorien lassen sich mit der Suite ebenfalls betrachten. So kann man feststellen, wie die einzelnen Bereiche der Seite performen und wo man besonders Verbesserungen vornehmen sollte. Und auch die interne Linkstruktur kann ausschlaggebend für die Optimierung einer Website sein.

Searchmetrics Suite Aufbau SEO

Die Darstellung zeigt den Aufbau der Searchmetrics Suite.

 

Geht man in der Suite unter dem Reiter Optimierung auf die Kategorie Seitenstruktur, dann werden einem verschiedene, interessante Daten angezeigt. Als erstes sieht man einen Domain-Score, der etwas über die insgesamte, bisherige Optimierung aussagt. Außerdem findet man Daten zu der Menge der No-Index-Seiten und dem Anteil der Seiten, die leicht erreichbar sind, weil sie auf einer der oberen drei Ebenen liegen. Auch die Ladezeit der Seite wird angezeigt. Weiterhin findet man eine Auflistung von Fehler und Hinweisen und kann außerdem die eigenen URLs nach verschiedenen Faktoren wie zum Beispiel Ebenen und Ladezeiten filtern.
Über den Crawl hat man die volle Kontrolle und kann ihm, wenn man auf Setup klickt, bestimmte Vorgaben und Einstellungen mitgeben.

Interne Linkstruktur

Die interne Linkstruktur bildet das Fundament jeder Website. Sie navigiert den Nutzer durch die Domain und sorgt dafür, dass für ihn die verschiedenen URLs zugänglich werden. Bei großen Seiten kann diese Linkstruktur sehr kompliziert und verwirrend sein. Mit dem Wachstum einer Website wird die Verwaltung und die Wartung außerdem immer komplexer. Weiterhin verschlingt die Linkstruktur auch in der Analyse immer mehr Zeit und erzeugt somit auch Kosten.

Warum sind interne Links nun aber so wichtig? Einerseits verbessern sie durch eine gute Navigation die Nutzererfahrung. Andererseits helfen sie den Suchmaschinen, den Kontext einer Seite besser zu verstehen und erhöhen so die Relevanz und schließlich auch das Ranking.

Die Verlinkung wird mit Hilfe des Link Juice dargestellt. Dieser berücksichtigt die Qualität der Links und ihre Verteilung. Außerdem wird auch die Anzahl der Links auf einzelnen Seiten betrachtet. So kann gut festgestellt werden, wie wichtig einzelne Seiten sind. Außerdem wird zwischen zwei Prinzipien unterschieden: Wie gut eine Seite selbst verlinkt ist und wie gut sie zu anderen weiterverlinkt.

In der Live Demo findet man verschiedene Daten zu den Links, wie zum Beispiel die Anzahl der Broken Links und die Verknüpfung der URLs untereinander. Auch Dinge wie verschwendeter Linkjuice, unfokussierte Linktexte, die Anzahl der analysierten Seiten und die Anzahl der Links auf diesen Seiten werden angezeigt. Wenn man nun zum Beispiel auf eine der URLs klickt, die Link Juice verschwenden, dann wird man feststellen, dass die Searchmetrics Suite einen konkreten Vorschlag darüber macht, wie man die Seite verbessern kann. Ein solcher Vorschlag kann zum Beispiel lauten, man solle am besten die Metabeschreibung überarbeiten.

Mobile

Ein großer Teil der Internetnutzung auf mobilen Endgeräten findet über Apps statt. Allerdings werden die Daten dieser Apps inzwischen nicht mehr nur über die Apps selber bereitgestellt. Google ist in der Lage, Daten aus Apps auch für normale Nutzer der Suchmaschine zu streamen. Das bedeutet, dass es nicht nur wichtig ist, die eigen App zu optimieren, sondern dasselbe auch mit den Informationen, die Google abgreift zu tun.
Hierfür bietet die Searchmetrics Suite eigene Funktionen an. Hier kann man unter anderem sehen, unter wie vielen und welchen Keywords die entsprechende App rankt. Die Keywords lassen sich außerdem filtern, sodass man unkompliziert feststellen kann, welche Gewinner und Verlierer man hat. Ein Vergleich mit der Konkurrenz ist dabei ebenfalls möglich.

User Happiness – der entscheidende SEO Faktor für Top Rankings

Christian Tembrink kommt aus Köln. Schon im Jahr 2000 begann er sich mit Online Marketing zu beschäftigen. Er lernte bei Yellowstrom und studierte Betriebswirtschaftslehre und Wirtschaftspsychologie. Tembrink interessiert sich also eigentlich schon immer dafür, wie man die Meinungen und Einstellungen der Leute beeinflussen kann. Außerdem arbeitete er in einer SEA-Agentur, betrieb ein bisschen SEO und zog einige eigene Projekte hoch. Da er merkte, dass die Arbeit bei Konzernen schlecht zu ihm passte und es für ihn interessanter war, Menschen zu helfen, gründete er 2007 netspirits. Die Firma ist auf SEO spezialisiert und hat viele große Konzerne und Marken als Kunden. Außerdem betätigt sich Tembrink gerne als Buchautor, Sprecher und Dozent. Weiterhin kennt er sich gut in den Bereichen Web-Usability und YouTube aus. Wer sich gerne mit ihm austauschen möchte, der kann ihn einfach auf Google suchen oder über die Website von netspirits erreichen.

SEO ist ein vielschichtiger Prozess: Der Nutzer spielt eine wichtige Rolle

Hauptziel der Suchmaschinenoptimierung ist es, möglichst optimal auffindbar zu sein.
Hierfür gibt es viele wichtige Verbesserungsmöglichkeiten. Das Monitoring spielt hierbei eine große Rolle. Es geht darum, die Technik zu überwachen, KPIs zu ermitteln, vordefinierte Ziele zu kontrollieren und Indizierungen und Rankings zu überprüfen.
Auch die technische Weiterentwicklung und Qualitätssicherung besitzt große Bedeutung. In diesen Bereich fallen die Benutzung von CMS, die Bearbeitung von Templates, die technische Wartung und Bereitstellung der Server, die Analyse von Keywords, die Optimierung von Websites und das weitere Ausbauen und Verlinken von Inhalten.
Bedeutsam ist es, die Inhalte einer Seite an die Anforderungen, die Google und die Benutzer stellen, anzupassen. Hierfür wichtige Elemente sind die Redaktion, der Vertrieb und die Produktpflege. Aber auch der Customer Service und die Schnittstelle für PR und Marketing sollten nicht vernachlässigt werden.
Nicht außer Acht lassen sollte man die Links und die Erwähnungen im Netz. Dabei geht es vorwiegend darum, schlechte und ungültige Links zu entfernen und externe Links zu der eigenen Website möglichst weit zu verbreiten.
Das letzte wichtige Gebiet ist die User Happiness und die damit einhergehende Optimierung von User Signals. Bedeutsame Signale dieser Art sind die im sozialen Medienbereich zu verortenden, wie Likes, Shares und Tweets sowie die Bounce Rate und die Verweildauer. Außerdem geht es um Call to Actions, Video Marketing und das Optimieren der User Signals durch das Auswerten von Analysen.
Wenn man zum Beispiel Kleidung verkauft, dann lässt sich die Kaufwahrscheinlichkeit durch Videos um 75 Prozent erhöhen. Weitere mit dem Gebiet in Beziehung stehende Faktoren sind klassische Kampagnen, E-Mail-Marketing, die Aktionen der User und Online-Kooperationen.

 

Suchmaschinenoptimierung die wichtigsten Bestandteile

Die Darstellung zeigt die Bestandteile der Suchmaschinenoptimierung. Die grünen Felder zeigen die Themen, die direkt mit dem User verbunden sind.

 

Googles Patent zur User Happiness ist … die Augenbrauen-Cam!

Google veröffentlichte schon 2010 ein interessantes Patent zur User Happiness. Es handelt sich um eine Überwachung der Augenbrauen des Nutzers mit Hilfe der Webcam. So lässt sich dessen Stimmung relativ leicht feststellen. Wenn der User eher verärgert ist, dann werden die Augenbrauen sich zusammenziehen und eine Zornesfalte entsteht. Ist er dagegen über das, was er sieht, erfreut, dann heben sich seine Augenbrauen wahrscheinlich eher.

Echte Stores vs. Websites

In echten Geschäften fällt einem oft auf, dass die Leute sich sehr viel Mühe geben, dem Kunden ein großartiges Erlebnis zu bieten. Es wird Musik gespielt, Düfte werden versprüht und in luxuriöseren Geschäften wird des Öfteren sogar von einem Mitarbeiter empfangen. Websites machen oft den Fehler, genau gegenteilig zu handeln. Bei Dell muss man zum Beispiel erst den Cookies zustimmen und einige Filter wegklicken. Das ist natürlich schlecht für die User Happiness und somit auch für das Ranking.

These User Signals

Das Ranking bei Google hängt zu einem großen Teil vom Ausnutzen des Algorithmus ab. Überschreitet man allerdings einen gewissen Punkt, dann besitzen die User Signals zentrale Bedeutung. Der zeitliche Verlauf der Ranking-Position lässt sich etwa so beschreiben. Erst steigt die Position durch die Arbeit der SEO stark. Durch die vielen User kommt es zu technischen Problemen und außerdem werden die User irgendwann der Website überdrüssig. Das führt zu einem leichten Absturz des Rankings. Werden die Probleme gelöst, dann kommt es zu einer stabilen, leichten Steigerung.

Studien zu Ranking-Faktoren und User Happiness

Bei den Ranking Faktoren haben in letzter Zeit die benutzerbasierten Werte, wie Eignung für mobile Geräte und Benutzungsdaten gegenüber den traditionellen SEO-Faktoren, wie URL-Struktur und internen Links, deutlich an Bedeutung gewonnen.
Auch in psychologischen Studien zeigt sich, dass die Zufriedenheit der Nutzer immer mehr beeinflusst, wie groß der Erfolg einer Seite ist.
Google ist in letzter Zeit von einer Suchmaschine zu einem Großkonzern avanciert, der künstliche Intelligenz und eine Großzahl an verschiedenen Tools anbietet. Außerdem steht laut der Firmenphilosophie nun der Nutzer am meisten im Vordergrund. Das bedeutet, dass man als Website für die SEO insbesondere darauf konzentriert sein sollte, dem User nützlich zu sein. Zwar ist es immer noch möglich, die Rankingergebnisse durch Tricks zu manipulieren, aber das Ganze ist nicht nachhaltig. Langfristig hilft nur wirklich qualitativ hochwertiger Content statt Massenproduktion, um eine Website voranzubringen. Google beobachtet zur Umsetzung dieser Gedanken intensiv die Aktionen der Nutzer und bewertet Websites danach. Wichtigstes Monitoring-Tool ist hierbei interessanterweise Google Chrome.

In einem Experiment suchten viele Nutzer nach „Best Grilled Steaks“. Dort nahmen sie das erste Ergebnis und klickten ganz kurz darauf, um dann sofort wieder zurückzugehen. Das vierte Ergebnis schauten sie sich dagegen sehr lange an. Nach 70 Minuten solcher Aktionen rückte das vierte Ergebnis tatsächlich auf Platz eins.

Praxistipps zur Suchmaschinenoptimierung

Wichtig für die Suchmaschinenoptimierung ist die Keywordanalyse. Hierbei geht es darum, herauszufinden, welche Begriffe mit dem eigenen Konzern verbunden werden und ob man bei bestimmten wichtigen Suchen überhaupt angezeigt wird. Dabei ist es weniger wichtig, möglichst vielen Nutzern, die irgendein Keyword eingeben, angezeigt zu werden, als dass man denjenigen angezeigt wird, die wirklich etwas mit den eigenen Angeboten anfangen können. Bedeutsam ist es auch zu wissen, was der potenzielle Kunde der betrachteten Unternehmen wahrscheinlich bei Google für eine Anfrage eingeben wird, um dafür zu sorgen, dass er einen dann auch findet. Denn nur Nutzer, deren Bedürfnisse auch erfüllt werden, kaufen ein.

Websites mit schlechter CTR optimieren

Wichtig zur Überwachung der User Happiness ist an erster Stelle die CTR. Die Click-Through-Rate zeigt an, ob Nutzer sich eher durch eine Seite durchklicken oder öfter sofort bouncen (abspringen). Für Google findet man die CTR in der Search Console. Ist eine Seite zum Beispiel gut im Ranking, aber die Nutzer bouncen oft, dann sollte man überlegen, ob die Bedürfnisse nicht erfüllt werden. Eine Möglichkeit ist auch, dass ein niedriger geranktes Video die Aufmerksamkeit wegzieht.

Die Snippets, also die Textausschnitte, die Google in den Suchergebnissen anzeigt, sollten auch optimiert werden. Im Title sollte man das Keyword finden und nach Möglichkeit auch psychologische Tricks anwenden. Die Marke kann in der URL stehen, während die Description zusätzliche Informationen enthalten sollte. Wichtige Dinge, die es zu berücksichtigen gilt sind außerdem, dass Problemstellungen gelöst werden, Alleinstellungsmerkmale des eigenen Angebots offensichtlich sind, Aufmerksamkeit zusammen mit positiven Emotionen generiert wird und Emojis eingesetzt werden.
Weitere Tipps zur Form der Snippets sind, dass sie verknappte Texte enthalten, Sonderzeichen einsetzen und auf die Bedürfnisse des Nutzers eingehen sollten. W-Fragen, Related Searches und Auto-Suggest sind dabei gute Hilfsmittel.

Möglichkeiten zur Bewertung einer Website sollte man nur dort einbauen, wo sie wahrscheinlich auch positiv ausfallen. Wenn eine Seite kaum außergewöhnliche Inhalte aufweist oder sogar relativ uninteressant ist, dann sollte man sich die Nutzerbefragung sparen. Hier wird man wohl kaum positive Rückmeldungen bekommen. Die viel bessere Variante ist es, einige positive Ergebnisse mit vielen Likes zu erzielen und mit diesem Erfolg dann neue Besucher anzuziehen. Durch verschiedene Bewertungs-Plug-ins werden dann die Ergebnisse in den Snippets von Google angezeigt und können so ausgespielt werden. Auch Emotionen können in solchen Plug-ins abgefragt werden.

Erste Aufgabe ist es also, Seiten mit schlechter CTR zu optimieren.

Die Seiten mit großer Bounce-Rate optimieren

Die zweite wichtige Kennzahl für die User Happiness ist die Bounce Rate. Wichtig bei der Arbeit in diesem Bereich ist es, nicht aus den Augen zu verlieren, dass die Nutzer entscheiden, welche Inhalte gut sind, und nicht die Marketing-Abteilung oder die Quality Assurance. Wichtigstes Ziel in diesem Arbeitsabschnitt ist es, die Bounce Rate zu minimieren, damit die Besucher auf der Website bleiben und nicht sofort auf eine andere springen. Erster Schritt auf dem Weg dahin, ist der Blick in das Tool Google Analytics. Findet man hier Seiten, die eine ungewöhnlich hohe Bounce-Rate aufweisen, dann sollte man eine Verbesserung in Angriff nehmen. Wichtig dabei ist es allerdings auch, den Zweck der Seite im Auge zu behalten. Handelt es sich um eine Wetterseite, dann ist eine hohe Bounce-Rate nichts Ungewöhnliches, da der Nutzer oft einfach kurz das morgige Wetter anschauen wird, um dann weiterzusurfen. Bounce-Raten lassen sich auf vielfältige Weise minimieren: Die problematischen Seiten kann man zum Beispiel einfach¬ löschen oder zusammenführen. Man sollte auch andere Faktoren überprüfen. Wichtig sind vor allem das Design, das die Seite ansprechend machen soll, der Inhalt, der die vom Nutzer gewünschten Lösungen liefern soll und auch Dinge wie Formate und Nutzerführung.

 

Minimierung der Bouncerate in der Suchmaschinenoptimierung

Eine grafische Darstellung, was optimiert werden muss, um die Bouncerate zu minimieren.

 

Seit dem Google Quality Update, werden Nutzerintentionen in verschiedene Kategorien unterteilt. Es gibt informationsgetriebene, transaktionsgetriebene, navigationsgetriebene, Marken- und kommerzielle Keyword-Suchanfragen. Sinn dahinter ist es, im Blick zu behalten, dass ein nach Daunenjacken suchender User wahrscheinlich keinen Blogartikel sehen will, der ihm erklärt, was Daunenjacken sind, sondern Kleidung zum Kauf.

Was sucht zum Beispiel auch jemand, der „Vorhangstoffe“ bei Google eintippt? Um eine Antwort auf diese Frage zu finden, fragte Tembrink den Innenarchitekten einer Designplattform. Dieser antwortete, er würde gerne über Dinge wie Muster, Farben, Maße, Lichtdurchlässigkeit, Wärmeisolierung, Preise, Stile und Aufhängungen informiert werden. Außerdem wäre es sicher auch noch interessant, ein paar Deko-Beispiele zu sehen, um das wahre Endergebnis bei bestimmten Stoffen besser einschätzen zu können. Auf Platz Eins fanden sie dann den Designer Archi Tonic. Dessen Website lieferte zwar einige dieser Informationen, aber längst nicht alle. Dafür gab es einen Filter, der das Jahr des Stoffes beinhaltete, was eine vollkommen irrelevante Information darstellt. Tembrink stellte also die These auf, dass die Seite die Bedürfnisse der Besucher nicht befriedige. Und tatschlich fand er mithilfe einiger Tools heraus, dass zum Beispiel die Filter kaum benutzt wurden, da sie in den völlig falschen Kategorien gesetzt waren. Auch die Farbwahl war äußerst ungünstig, da grelles Rot zu sehr in die Augen sticht und Schwarz nicht zum Hingucken anregt. Man sollte also auf jeden Fall darauf achten, dass die Bedürfnisse der Nutzer angesprochen werden.

Der Suchvorgang des Nutzers sollte etwa so ablaufen: Erst orientiert er sich in den Suchergebnissen und auf der Landingpage. Dabei muss ihm schnell klarwerden, dass die Seite eine Lösung für sein Problem anbietet. Dann prüft der User den Inhalt und die Angebote, was mit etwas Glück sein Interesse weckt und ihn dazu bewegt, aktiv zu werden. Schließlich kommt es zu einem Handlungsversuch, im Laufe dessen der Nutzer (hoffentlich) etwas kauft oder anderweitig Gewinn einbringt.

Für wen sind die Texte?

Die Texte sollten prinzipiell für den Nutzer geschrieben sein. Hierfür kann man sich zum Beispiel Zalando anschauen. Diese Website besitzt wunderbare Texte, die einem unter anderem erklären, was ein Sneaker ist und so dem Kunden weiterhelfen.
Fissler, eine Firma für Kochtöpfe, zeigt, wie man es falsch macht. Hier stößt man als erstes auf einen Text, der einem ausführlich erklärt, wie hochwertig die Töpfe von Fissler sind. Den Kunden interessiert das allerdings nicht, er möchte lieber Töpfe sehen. Auch die Tatsache, dass man ein großes Werbebanner mit einem Uhrensale darunter findet, ist nicht unbedingt gewinnbringend.

Sehr viel besser macht es die Seite Bergfreunde.de. Hier findet man erst einige Angebote zu Daunenjacken. Hat man sich diese angeschaut, dann stößt man auf ein Werbebanner, dass einen über die Möglichkeit informiert, sich eine Kaufberatung durchzulesen, die hilfreiche Tipps bietet. So wird der Kunde für das Angebot interessiert und erst danach umfassend informiert.

Tooltip Optimizator

Das Programm Tooltip Optimizator ist ein sehr nützliches Werkzeug, das außerdem mit einer dreimonatigen kostenlosen Probezeit daherkommt. Hiermit kann man zum Beispiel segmentierte Umfragen durchführen, die es einem erlauben, Informationen zu bestimmten Usergruppen zu erlangen. Außerdem lassen sich die Nutzer auf Seiten umleiten, die ihnen speziell auf die jeweilige Gruppe zugeschnittene Angebote machen. Auch Echtzeit-Interaktionen werden so möglich.
Tembrink führte zum Beispiel auf einer Website eine Umfrage durch und wollte von den Nutzern wissen ob sie gefunden hätten, was sie suchten. Da hier 35 Prozent mit Nein antworteten, wurde offensichtlich, wo Profite verloren gingen.

Design – auch für SEO wichtig

Das Design besitzt auch für die Suchmaschinenoptimierung große Bedeutung. Ungefähr 75 Prozent der Kunden leiten die Glaubwürdigkeit eines Unternehmens von dessen Webdesign ab.
Das lässt sich auch im echten Leben nachverfolgen. In einem Experiment malte man in einem Geschäft rote Streifen auf den Boden, die zur Treppe führten. Das hatte zur Folge, dass 70 Prozent der Kunden die Treppe nahmen, obwohl auch eine Rolltreppe zur Verfügung stand. Das Gehirn des Menschen lässt sich also mit einfachen Mitteln stark beeinflussen.
Das Webdesign kann man mit dem Tool Eyequant überprüfen. Damit lässt sich feststellen, ob die wichtigen Bereiche, Buttons und Textfelder einer Seite auch entsprechend hervorstechen. Problematisch Bereiche kann man dann ganz einfach überarbeiten, indem man zum Beispiel die Hintergrundfarbe ändert. Groupon konnte mit dem Tool die CTR um 52 Prozent steigern.

Verweildauer

Neben der Bounce Rate ist auch noch die Verweildauer auf der Seite sehr wichtig. Auch hier spielt der Typ der Seite eine wichtige Rolle. Im Normalfall sollte man allerdings darauf aus sein, die Zeit, die der Suchende auf der Seite verbringt, zu maximieren. Ein gutes Mittel zu diesem Zweck ist das Integrieren von Videos, da sie oft das Interesse wecken und für ein Verweilen der Nutzer sorgen. Weiterhin sollte man passende Artikel auf der Seite platzieren und die Inhalte vorher mit Blick auf die Bedürfnisse der Nutzer testen. Das Einbauen einer Suchfunktion und die angenehme Formatierung der Inhalte sind auch hilfreich. Ratgeber und Antworten auf W-Fragen sind auch gut dazu geeignet, das Interesse der Nutzer zu wecken. Besonders interessant wird eine Website durch den Einbau von einzigartigen und originellen Elementen.
Die Erhöhung der Verweildauer hat gute Chancen, das Ranking einer Website zu verbessern.

Fazit

Letztendliche und wichtigste Aufgabe ist es, in gute, den Nutzer ansprechende Inhalte zu investieren. Beispiele dafür sind qualitativ hochwertige Bilder und Texte, Ratgeber und Videos. Wichtig für die Bewertung der Inhalte ist der Kunde und nicht die Firma. Die Navigation der Seiten sollte einwandfrei funktionieren, um keine Kunden abzuschrecken. Auch mobiler Content ist gut geeignet, um mehr Besucher anzusprechen – zumindest, wenn er gut umgesetzt wird. Außerdem sollte man dem Nutzer viele Möglichkeiten zur Interaktion mit der Seite geben, damit er sich mehr damit beschäftigt. Umfragen und Chats sind hier wertvolle Beispiele. Eine Analyse ist sehr hilfreich, um Probleme zu finden und schließlich auch zu beheben.
Letztendlich sollte also die eher technisch orientierte Oldschool SEO, durch eine Newschool SEO abgelöst werden, die nichts höher schätzt als den Nutzer. Nur mit dieser Strategie erreicht man langfristige Erfolge.

Optimierungspotenziale in der internen Verlinkung 2016

Justus Blümer ist Consultant bei dem Unternehmen Wingmen Online Marketing. Er kommt ursprünglich eher aus der Entwicklungsrichtung und hat deswegen einen relativ technischen Hintergrund. Hauptsächlich beschäftigt er sich mit der Optimierung von relativ großen Systemen, sowohl in inhaltlicher als auch in technischer Hinsicht. Meist handelt es sich dabei um redaktionelle Portale mit 100.000 bis einer Million Unterseiten. Somit fokussiert er sich auf die Dinge, die hier starke Veränderungen bewirken können und interne Verlinkung ist dabei natürlich ein Schwerpunkt. Um die Websites auszuwerten ist Webanalyse sehr wichtig, wobei Blümer besonders Google Analytics sehr viel verwendet. Zum Erheben der entsprechenden Daten kann man JavaScript gut gebrauchen, weshalb Blümer auch dieses häufig benutzt.

Grundlegendes Wissen zur internen Verlinkung

Ein Fehler, der oft bei der Benennung von Links gemacht wird, ist eine mangelnde Beziehung zum Kontext. Titel wie „Weiterlesen“, „mehr“ und „Hier erfahren Sie mehr“ sind nicht sehr aussagekräftig und somit von geringer Anziehungskraft. Man sollte stattdessen sogenannte sprechende Linktexte einsetzen, die genau mitteilen wohin man weitergeleitet wird. Kontextbezogenheit ist also wichtig. Dadurch kann der Nutzer sich besser orientieren und Google erkennt die enthaltenen Begriffe und kann sie als Rankingfaktor für die Zielseite benutzen.
Bei Konsistenz handelt es sich ebenfalls um einen häufigen Fehler. Oft verlinken Seiten mit demselben Beschreibungstext auf verschiedene Seiten. Das ist insofern entschuldbar, als dass bei sehr großen Seiten eine Koordination, was das angeht sehr schwierig ist.
Weiterhin sollte man auch nicht gleiche URLs variiert verlinken. Das ist vorwiegend ein technisches Problem. Man sollte zum Beispiel immer das korrekte Protokoll verlinken. Das bewirkt, das Google immer nur eine Website aufrufen muss und beeinflusst das Crawling-Budget. Prinzipiell ist es immer besser, HTTPS einzusetzen, da dieses Protokoll verschlüsselt und kostenlos ist. Weiterhin sollte man auch entweder konsequent den Trailing Slash am Ende der URL setzen oder weglassen. Hierbei sollte auch immer sichergestellt werden, dass die eine URL im Falle eines Falles auch immer auf die andere weiterleitet. Browser sind auch oft in der Lage, die URLs entsprechend umzuschreiben. Auch die Groß- und Kleinschreibung besitzt eine gewisse Bedeutung, da sie eine komplett neue URL ausmacht. Bei ihr sollte man ebenfalls auf einer Standardisierung bestehen.

Semantik

Bei Semantik geht es darum, wie man einen inhaltlichen Kontext transportiert und was ein Link eigentlich wirklich über die Zielseite aussagt.

Zusammenfassen von internen Links

Erste wichtige Maßnahme, die man hier ergreifen sollte, ist das Zusammenfassen von identischen Links. Auf der Landingpage von Freitag.de findet man zum Beispiel eine Kurzbeschreibung von einem Interview. Diese besteht aus einem Bild, einer Überschrift und einem kurzen Text, die alle drei zu demselben Interview verlinken. Das ist ungünstig, da Google erkennt, dass die drei Links dasselbe Nutzerbedürfnis bedienen und nicht in der Lage ist automatisch den sinnvollsten herauszusuchen. Im Normalfall wird einfach der erste genommen.

Besser macht es Sport 1, die ganz ähnliche Elemente für Artikel auf ihrer Seite haben. Die Website nutzt die Möglichkeiten, die es seit HTML 5 gibt und legt Links um Blockelemente, sodass es nur noch eine Verknüpfung gibt, die Google ganz einfach erkennen kann.

Internes Tracking

Ein weiteres Thema, das sehr häufig zu finden ist, ist das interne Tracking. Mit dessen Hilfe ist es Technikern möglich, zu sehen, welche Links überhaupt angeklickt werden. So können sie feststellen, auf welchen Schaltflächen man Verknüpfungen platzieren sollte. Naheliegend ist es hierbei, für die Auswertung UTM-Parameter von Google Analytics anzufügen. Dabei gibt es allerdings mehrere große Probleme. Durch den Parameter wird eine vollkommen andere URL verlinkt, sodass Google diese auch noch crawlen muss. Wenn ein User außerdem den Inhalt der URL gut findet und ihn zum Beispiel auf sozialen Medien weiter verlinkt, dann tut er dies auch wieder mit der parametrisierten URL. Das führt zu falschen Trackingdaten, da User, die die Teaserfläche des Links gar nicht gesehen oder angeklickt haben, auch als Benutzer der URL gezählt werden. Außerdem geht der Traffickanal verloren, das heißt es kann nicht mehr festgestellt werden, ob der User von sozialen Medien oder durch SEO auf die Seite gekommen ist, da die Quellendaten des Users überschrieben werden.

Interne No-Follow-Links

Ein weiteres Problem sind häufige, sinnlos eingesetzte, interne No-Follow-Links. Diese weisen die Suchmaschinen an, Links auf andere Seite nicht einzubeziehen, wenn deren Linkpopularität berechnet wird. Die einzige Verwendung, die es dafür mal gab, war das sogenannte Page-Rank-Sculpting. Dieses sollte Google, abseits von der wirklichen durch die Nutzer wahrgenommene Realität der Linkstruktur, eine andere Wichtigkeit der einzelnen Seiten vorgaukeln und so bestimmte Seiten gezielt stärken. Das funktioniert allerdings schon lange nicht mehr, da Google entsprechend modifiziert wurde. Es gibt derzeit nur zwei Gründe für No-Follow-Links, die sich aber nur auf externe Links anwenden lassen. Entweder bekommt man für den speziellen Link dieser Art eine Gegenleistung oder es existiert keine redaktionelle Kontrolle über ihn, das heißt er wurde zum Beispiel von einem User in ein Forum gestellt.

Interaktionselemente als Links

Interaktionselemente auf einer Seite werden häufig als Links gesetzt. Das ist falsch. Auf Lichtblick.de findet man zum Beispiel eine Einstellungsmöglichkeit für die Schriftgröße, die als a-Tag ausgezeichnet ist. Viel geeigneter wäre hier allerdings ein Button, was auch nicht unbedingt das Aussehen der Seite beeinflussen würde. Dafür fällt einem dann die Analyse sehr viel leichter und Google wundert sich nicht, dass man ohne Ziel verlinkt, da es sich bei der Schriftgrößenveränderung nun mal um ein Interaktionselement handelt und nicht um eine Weiterleitung auf eine andere Website.
Ein ähnliches Thema muss man in Zusammenhang mit der Website von Xing Coaches behandeln. Hier gibt es einen kleinen Merken-Button neben den Profilen der einzelnen Trainer. Dieser sollte ebenfalls kein Link sein, da sich nur ein kleines Pop-up-Fenster öffnet und der Nutzer nicht auf eine gesonderte URL weitergeleitet wird. Diese Problemstellung lässt sich am besten über Java Script mit Klicklistenern und Post-Requests lösen. So werden keine zusätzlichen URLs erzeugt und Google kann sich auf die wirklich relevanten Seiten konzentrieren.

 

Interaktionselemente Verlinkungen Suchmaschinenoptimierung

Interaktionselemente: Buttons sind hier sinnvoller als Links mit a-tag.

 

UX

Die UX bezeichnet die User Experience, das heißt die Erfahrung des Nutzers mit der Website. Es geht also weniger um Google und mehr um den Nutzer an sich.

Versteckte Links

Die erste Erkenntnis, die hier zu nennen ist, zeigt auf, dass versteckte Links einen geringen Nutzwert haben. Ein gutes Beispiel ist die Website des Bundesministeriums für Wirtschaft und Energie. Dort findet man einen Slider, der verschiedene Themenbereiche in zeitlichen Intervallen anzeigt. Wahrscheinlich konnte man sich einfach nicht darüber einigen, welche Inhalte priorisiert werden sollten. So muss der Nutzer dauernd zurückklicken, da der Slider relativ schnell ist und man den angezeigten Text niemals in der zur Verfügung gestellten Zeit durchlesen kann. Die User werden also die meisten Inhalte des Sliders nie zu Gesicht bekommen. Google reagiert darauf auch, da das Programm die Seite durchrendert und so feststellt, dass bestimmte Elemente nicht sichtbar sind. Ähnliche ungünstige Elemente sind Fly-out-Boxen und Carousels.

Der Entwickler ist nicht der User!

Wichtig ist es auch, immer im Hinterkopf zu behalten, dass man selbst nicht der User ist. Der Nutzer sitzt wahrscheinlich nicht vor einem 27 Zoll Monitor, sondern benutzt genervt sein Handy in einer U-Bahn. Deshalb sollte man erstens immer die Seiten an mobile Nutzung anpassen und zweitens berücksichtigen, dass der Besucher der Seite wahrscheinlich keine Zeit für ein exploratives Navigieren hat. Die Führung des Nutzers ist also wichtig. Außerdem sollte man sich das Chrome Developer Tool anschauen, mit dem sich mobile Seiten für verschiedene Endgeräte simulieren lassen, was eine bessere Einschätzung des Endergebnisses ermöglicht. Die Platzierung der internen Links hat ebenfalls eine direkte Wirkung auf die Nutzersignale und sollte somit geschickt durchgeführt werden. Wenn der Nutzer sofort feststellen kann, dass er über die Links die gesuchten Inhalte findet, dann ist die Gefahr, dass er sofort zurückklickt viel geringer, was Google natürlich positiv bewertet.

Choice Paralysis

Vermeiden sollte man auch Choice Paralysis. Das bedeutet, dass der User durch zu viele Möglichkeiten überfordert wird. Das Optimum lässt sich hier durch A/B Tests finden.
Ebenfalls wichtig ist es, 404 Fehler priorisiert anzugehen. 404 Fehler passieren insbesondere auf großen Websites selbst den Besten, wenn zum Beispiel ein Redakteur durch Zufall eine Seite löscht. Sie sollten allerdings natürlich vermieden werden, da dem Nutzer eine leere Seite angezeigt wird und er somit unzufrieden ist. 404 Fehler kann man mit einem speziellen Titel wie „Seite nicht gefunden“ filtern und so diejenigen finden, die wirklich schaden, da sie des Öfteren aufgerufen werden. Dieser priorisierten Links kann man sich dann annehmen und so effizient Fehler beseitigen. Außerdem kann man mit Google Analytics einen automatisierten Bericht erstellen, sodass man eine E-Mail erhält, wenn wieder gehäuft 404 Fehler auftreten.

Speed-Boost

Am Ende des UX-Themas steht noch eine High-End-Verbesserung, die derzeit noch sehr selten eingesetzt wird, weil damit erheblicher Aufwand einhergeht. Es handelt sich um eine Beschleunigung der internen Links. Durch verschiedene neue Technologien, wie zum Beispiel AMP, wird der Nutzer immer mehr in einer Richtung erzogen, die ihm die Möglichkeit gibt, Inhalte sofort zu erhalten. Das bedeutet, dass Ladezeiten schnell für eine große Nutzerunzufriedenheit sorgen. Deshalb ist es sinnvoll, Inhalte vorzuladen und sogar schon die Darstellung im Voraus zu berechnen. Das bezeichnet man auch als Prefetching und Prerendering. Wenn man zum Beispiel weiß, dass 50 Prozent der Nutzer als nächstes auf einen bestimmten Link klicken, dann ist es sinnvoll, diesen im Voraus zu laden. So lassen sich viele Vorgänge erheblich beschleunigen.

Quantitative Verlinkung: “Viel hilft viel?”

Bei der quantitativen Verlinkung geht es darum, wie häufig Seiten innerhalb des kompletten Websitekonstruktes miteinander verlinkt werden. Man will natürlich erreichen, dass einerseits alle Seiten erreichbar sind und andererseits die relevanteren Seiten häufiger verlinkt sind, um sie im Google Ranking zu stärken.
Dafür sind HTML-Sitemaps nach wie vor eine gute Maßnahme, da sie die Linkstruktur verdeutlichen. Sie sorgen dafür, dass Google sich besser in den einzelnen URLs zurechtfindet. Für den Nutzer ist kein wirklicher Mehrwert vorhanden, weshalb es sinnvoll ist, die Sitemap auf den Index zu setzen.
Sehr hilfreich ist es auch, das Tool Screaming Frog zu nutzen. Diese kostet ungefähr 100 Dollar im Jahr, die Ausgaben halten sich also in Grenzen. Das Tool erlaubt es einem, auf schnelle und einfache Art und Weise die interne Verlinkung zu kontrollieren. Je nachdem was für einen Rechner man zur Verfügung stehen hat, fängt es aber ab 150.000 URLs an zu ruckeln, weshalb man nicht mehr Seiten auf einmal überwachen sollte. Außerdem ist die Oberfläche recht begrenzt, weshalb man sich nicht auf das Tool beschränken, sondern Exporte benutzen sollte, da sich so zusätzlich Daten einbinden lassen. Gut geeignet sind hierfür DeepCrawl, Audisto oder aber auch mit JavaScript erstellte Eigenbau-Varianten

Weiterhin ist es wichtig, die interne Verlinkung in die eigenen Tests aufzunehmen. Bei jeder Veränderung sollte man sich vorher anschauen, inwiefern dadurch Seiten besser oder schlechter verlinkt sind und ob dies den eigenen Erwartungen entspricht. Zu diesem Zweck legt man zum Beispiel ein Excel-Sheet an und überwacht mit Hilfe eines Exports in dieses Sheet, wie viele Links auf die jeweiligen URLs führen. So sind Veränderungen zumindest bei den wichtigeren Seiten leicht festzustellen. Für die Kontrolle der qualitativen Verlinkung bietet sich eine PageRank an. Wenn man zum Beispiel ein Händlerverzeichnis mit 1.000 Händlern hat, die sich alle untereinander jeweils einmal verlinken, dann hat jedes dieser Händlerprofile schon 1000 interne Links. Wenn nun aber zu dem Händlerverzeichnis selbst nur sehr wenige Links führen, dann ist die qualitative Verlinkung relativ gering. Somit sollte man diese auch nicht vernachlässigen.

Qualitative Verlinkung – Monitoring des internen PageRank

Bei der qualitativen Verlinkung geht es nicht nur darum, wie viele Links auf eine bestimmte Seite führen, sondern auch darum, wie diese untereinander vererbt werden.
Zur Berechnung des PageRank eignen sich wiederum die Daten von Screaming Frog sehr gut. Exportieren kann das Programm die Daten allerdings nicht selbst. Dafür braucht man das kostenlose Tool Gephi, das relativ viele Ressourcen und Arbeitsspeicher benötigt. So lassen sich dann aber gut Unregelmäßigkeiten in der internen Verlinkung aufdecken und Seitenbereiche, die zu Unrecht stark verlinkt sind, finden.
Für Gephi exportiert man als erstes alle internen Links als CSV. Dann passt man die Datei all_inlinks.csv an, indem man die erste Zeile löscht und das Wort „Destination“ durch „Target“ ersetzt. Die Daten sind nun mit Gephi kompatibel und können importiert werden. Danach können sie zur Berechnung des PageRank benutzt werden.

Als Ausblick sei hier noch genannt, das man nicht nur die Reaktionen der User auf Optimierungen überprüfen kann, sondern auch die von Google. Dies geschieht durch die Auswertung der Logfiles. Je nachdem, wie man diese konfiguriert hat, kann man mit ihnen sämtliche Request nachverfolgen und so feststellen welche URLs der Google Bot wie häufig aufruft. So erhält man auch wertvolle Informationen zur Crawling-Frequenz. Elastic, logstash und kibana sind hier drei nützliche Tools, die einem bei der Analyse der Linkstruktur und der internen Verlinkung weiterhelfen.

Automatisierte interne Verlinkung

Besonders bei großen Websites, wie zum Beispiel Redaktionen, kann die interne Verlinkung schnell zu viel Arbeit und großem Aufwand führen. Hier ist eine Automatisierung ein wünschenswertes und wichtiges Hilfsmittel. Vorteile sind unter anderem, dass die Redakteure, die mit dem Produzieren von hochwertigem Content meist schon genügend beschäftigt sind, sich keine Gedanken mehr um das Einfügen von Links machen müssen und dass Behebungen von 404s und interne Weiterleitungen allgemein leichter fallen. Allerding führt eine Automatisierung auch zu einem eintönigen, internen Linkprofil, zu einer inhaltlich zusammenhangloseren Verlinkung und zu einer ungenauen Nutzerführung. Zum Beispiel kann es passieren, dass die Automatisierung bei doppeldeutigen Begriffen auf Websites verlinkt, die überhaupt nicht zum ursprünglichen Thema passen.
Deshalb sollte man keine vollautomatische Verlinkung einsetzen. Das Standardmodell hierbei ist meist eine Liste von Keywords zu erstellen und diese Wörtern URLs zuzuordnen, auf die beim Auftreten verlinkt wird. Eine solche Linkstruktur kann schnell Probleme, wie sinnlose Weiterleitungen verursachen.
Besser ist hier eine maschinell unterstützte interne Verlinkung. Das bedeutet, dass der Redakteur noch selber bestimmt, wohin verlinkt wird, aber dass man ihm mit Hilfe von CMS Vorschläge macht, die ihm die Arbeit insofern erleichtern, als dass er sich nicht dauernd darüber Gedanken machen muss, welcher der Tausend Artikel in der Datenbank denn nun gerade an dieser Stelle passt. Stattdessen kann er aus einer Liste mit potenziell geeigneten Texten auswählen, wodurch außerdem auch Fehler vermieden werden, da der Redakteur bemerkt, ob der Artikel passt oder nicht.
Ein mögliches Vorgehen ist es, eine Liste mit Shorthead Keywords vorzugeben. Diese Keywords werden dann im CMS hervorgehoben. Der Redakteur markiert die zugehörige passende Passage im Text und sorgt so dafür, dass ihm die Automatisierung inhaltlich sinnvolle und passende Vorschläge macht. Weiterhin kann man die Ausgabe der Suche auch noch priorisieren, indem man ihr zum Beispiel bestimmte Kriterien wie SEO Traffic, Artikellänge, Artikeldatum und andere vorgibt.

Erfahrungsgemäß dauert es eine relativ lange Zeit bis die Veränderungen in der internen Verlinkung und der Linkstruktur wirklich zu Ergebnissen führen. Man sollte sich also zwei bis drei Monate gedulden.

RankBrain, Machine Learning und die Zukunft von SEO

SEO steht mit dem Aufstieg von künstlicher Intelligenz vor neuen Herausforderungen. Selbstlernende Algorithmen wie RankBrain werden die Art, wie Suchmaschinentreffer ermittelt und sortiert werden, grundlegend ändern und SEO-Fachleute zu einem tiefgreifenden Umdenken zwingen. In diesem Webinar spricht Kai Spriesterbach über die Hintergründe und die Auswirkungen von Künstlichen Neuronalen Netzwerken (ANN), Deep Machine Learning und RankBrain.

Einleitung: Was ist künstliche Intelligenz?

Spriesterbach beginnt mit der Frage, was künstliche Intelligenz eigentlich ausmache. „Artificial Intelligence,“ zitiert er Douglas Hofstadter, „is whatever hasn‘t been done yet.“ – „Künstliche Intelligenz ist alles, was noch nicht erreicht wurde.“ Pamela McCorduck fügt hinzu: „Every time somebody figured out how to make a computer do something, there was a chorus of critics to say: ‚That‘s not thinking!‘“ – „Jedes Mal, wenn jemand es geschafft hat, dass ein Computer etwas Neues macht, hat ein Chor von Kritikern gesagt: ‚Aber das ist kein Denken!‘“ Künstliche Intelligenz wird also meist als Zukunftsmusik gesehen, egal, was Computer bereits können. Es ist daher schwer, genau abzugrenzen, ab wann von KI gesprochen werden sollte.

Computer können traditionell gewisse Sachen besonders gut und andere weitaus weniger gut als Menschen. Die Stärken von Computern sind schnelles und genaues Rechnen, das zuverlässige Befolgen von Anweisungen und mehrfaches Wiederholen des gleichen Prozesses. Andererseits sind Computer nicht gut darin, eigene Lösungswege zu finden, abstrakt zu denken und allgemein „menschlich“ zu sein. Als klassisches Kennzeichen einer weit entwickelten künstlichen Intelligenz gilt daher der Turing-Test: Eine künstliche Intelligenz, die diesen Test besteht, wäre in ihrem Verhalten nicht mehr von einem Menschen zu unterscheiden.

Bisher liegt diese Schwelle noch in der Zukunft, jedoch gibt es Prognosen, nach denen sie schon bald erreicht sein könnte. Die Rechenleistung, die für $1000 erhältlich ist, verdoppelt sich seit dem Jahr 1900 relativ konsistent alle 18 Monate. War es 1997 noch eine Sensation, dass ein Computer den menschlichen Schachweltmeister besiegen konnte, gewann 2011 bereits der Computer Watson in Jeopardy – einem weitaus „menschlicheren“ Spiel – und 2015 gewann Deep Mind in Go gegen menschliche Gegner. Die Entwicklung, die dies möglich macht, basiert nicht nur auf einem bloßen Ansteigen der verfügbaren Rechenleistung: Während Schach mit seinen 10⁵⁰ möglichen Zügen noch von einem hinreichend starken Computer mathematisch „gelöst“ werden kann, gibt es in Go 10¹⁷¹ mögliche Züge – eine unvorstellbare Zahl, die die geschätzte Anzahl der Atome im Universum, 4×10⁸⁰, um ein Weites übersteigt. Die ca. 10⁸ Operationen pro Sekunde, die ein durchschnittliches Insektengehirn durchführt, wurden von Computern im Wert von $1000 um die Jahrtausendwende erreicht, die 10¹⁵ Operationen eines menschlichen Gehirns sind für das Jahr 2025 angesetzt. Um 2060 soll die verfügbare Rechenleistung laut den gleichen Prognosen 10²⁶ und damit die Rechenleistung aller menschlichen Gehirne erreichen.

Der Erfolg von Computern in „menschlichen“ Spielen wie Jeopardy oder Go basiert auf neueren Entwicklungen in der Computertechnologie, die anstatt auf bloßes Rechnen auf lernende Maschinen setzen. Diese Technologie wird auch in anderen Feldern wie Gesichts-, Sprach- und Spamerkennung sowie in der Medizin verwandt. Auch Produktempfehlungen, etwa bei Amazon, bei Spotify oder im Aktienhandel, basieren darauf.

Neuronale Netzwerke und Deep Learning

Künstliche Neuronale Netzwerke

Wie werden diese Entwicklungen nun also von Suchmaschinen verwendet? Spriesterbach konzentriert sich in diesem Vortrag auf Googles Projekt „RankBrain“ und erklärt nun zunächst das Prinzip der neuronalen Netzwerke, das diesem zugrunde liegt.

Angelehnt sind derartige Netzwerke an neuronale Netzwerke in den Körpern von Lebewesen. Sobald ein hinreichend starker Stimulus von außen auf Nervenzellen trifft, wird dieser intern verarbeitet und ein entsprechender Output erzeugt. Welche Reaktion dabei genau gezeigt wird, hängt von einer vielschichtigen Verarbeitung in einem komplexen internen Netzwerk ab.

Künstliche neuronale Netzwerke (ANN) müssen zunächst aufgebaut werden. Da Computer in Zahlen, nicht in Worten denken, müssen Sätze zunächst in Zahlenkombinationen umgewandelt werden. Jedes Wort entspricht einer anderen Zahl, jeder Satz einem Set von Zahlen. Werden die Zahlen, die den Wörtern eines Satzes entsprechen, in einem mehrdimensionalen Koordinatensystem dargestellt, so kann ein Satz durch einen Vektor ausgedrückt werden. Da jeder Satz ein wenig anders ist, zeigt jeder Vektor in eine etwas andere Richtung. Spriesterbach geht auf die mathematischen Hintergründe exkursartig ein, seine weiteren Erläuterungen sind jedoch auch ohne Kenntnisse der Vektorenrechnung zu verstehen.

Der Computer muss nun den fraglichen Satz nicht direkt verstehen. Vielmehr muss er lernen, Verbindungen zwischen den Daten zu sehen, mit denen er gefüttert wird. Spriesterbach zeigt als Beispiel den Satz „Etwas ist faul im Staate Dänemark“ – ein Zitat aus Shakespeares Hamlet. Wird ein ANN mit dem Text dieses Theaterstücks gefüttert, lernt es unter anderem, dass die Zahlenkombination, die dem oben genannten Satz entspricht, von Shakespeare ist. Wird ihm nun der gleiche Satz noch einmal präsentiert, weiß es bereits, dass es sich um ein Shakespeare-Zitat handelt. Wird ihm dagegen eine lediglich ähnliche Zahlenkombination gezeigt, zeigt das ANN keinen vergleichbaren Output.

Intelligente Algorithmen

Auch komplexere Anfragen an ANNs werden möglich: Ein Netzwerk, das sich an die Muster und Wortbeziehungen einer menschlichen Sprache gewöhnt hat, versteht beispielsweise, dass der Input „König – Mann + Frau“ zu dem Output „Königin“ führen soll. Eine Suche nach „Schweden“ findet assoziierte Begriffe wie „Norwegen“ oder „Dänemark“. Das ANN muss nicht verstehen, dass es sich bei all diesen Begriffen um Ländernamen handelt, um Verbindungen zu identifizieren. Als weiteres Beispiel ist jeder Ländername mit dem Namen der jeweiligen Hauptstadt assoziiert – wiederum ganz ohne dass das ANN weiß, dass es sich um Städte und Länder handelt.

Unter dem Stichwort „Deep Learning“ werden derartige Lernprozesse heute genutzt, um beispielsweise die Bildersuche zu verbessern. So erkennt Google Brain heute Katzen, da es eine große Anzahl Katzenbilder „gesehen“ und dadurch Erwartungen aufgebaut hat, wie Katzen typischerweise aussehen. Auch das maschinelle Auslesen von durch Menschen ausgefüllte Formulare wurde durch Deep Learning verbessert: Ein ANN, das eine große Anzahl von Arten gesehen hat, auf die Menschen beispielsweise die Zahl 9 schreiben, entwickelt die Fähigkeit, auch die „9“-en in den Handschriften von bisher unbekannten Personen zu erkennen, solange die Zahlen nicht allzu ungewöhnlich aussehen. Je größer der „Trainings“-Datensatz, desto zuverlässiger die künftigen Ergebnisse.

Doch nicht nur das: Ein ANN, das genug „trainiert“ wurde, erkennt Cluster und Trends und kann somit selbstständig eigene Inhalte erzeugen. Ein ANN, das mit genug Shakespeare-Zitaten gefüttert wurde, kann beispielsweise weitere Sätze „im Stil von Shakespeare“ erzeugen. Diese sind nicht notwendigerweise sinnvoll, sondern basieren lediglich auf statistischen Häufigkeiten. Eine ähnliche Technologie wird auf der Website Jukebox genutzt, auf der Algorithmen Musikstücke komponieren können, die auf den Genre- und Stimmungsangaben der Nutzer aufbauen. Das ANN hat aus einer Vielzahl von Musikstücken gelernt, wie beispielsweise ein trauriges Elektro-Stück „typischerweise“ oder statistisch gesehen klingt und kann ein weiteres statistisch wahrscheinliches Stück schaffen.

Ein sogenannter „evolutionärer Algorithmus“ verbessert sich selbst, während er verschiedene Verknüpfungen ausprobiert. So lernte ein Algorithmus, Super Mario zu spielen. Die einzige Anweisung, die ihm zu diesem Zweck gegeben wurde, war: lauf so weit wie möglich nach rechts. Durch unzählige Wiederholungen des Levels schaffte der Algorithmus es schließlich, selbiges zu durchqueren, ohne überhaupt den Unterschied zwischen den verschiedenen Objekten, die einem Spieler in diesem Spiel begegnen, zu begreifen.

Was hat das mit SEO zu tun?

Derartige Entwicklungen haben so weitreichende Implikationen für SEO, dass Spriesterbach seine eigene Frage „Ist SEO tot?“ mit „Ja und nein“ beantworten muss. ANNs haben das Potential, die Art, wie Suchanfragen verarbeitet werden, vollkommen zu verändern. Wenn sich ein Netzwerk daran gewöhnt, dass die Suchanfragen „Wetter Berlin“ und „Wie wird es morgen in Berlin?“ das Gleiche bedeuten, fällt die Bedeutung von Keyword-Optimisation. Synonyme oder verwandte Begriffe müssen nicht mehr genannt werden, da die Suchmaschine es nun erkennt, wenn sich von der Wortwahl her völlig unterschiedliche Suchanfragen auf das gleiche Thema beziehen. Stattdessen gewinnen Kontext und Nutzerverhalten an Bedeutung für die Bewertung einer Website.

RankBrain und kontextsensitive Suche

Googles selbstlernender Algorithmus, der zur Weiterentwicklung der Suchergebnisse verwendet wird, heißt RankBrain. RankBrain verbessert die „klassische“ Suche und nutzt dabei weiterhin als Basis die SEO-Rankingfaktoren wie Backlinks, Trust oder Nutzerdaten. Allerdings verwendet es darüber hinaus das oben erklärte Machine Learning, um aus dem Verhalten der Nutzer zu lernen, welche Treffer am relevantesten sind. Sozusagen „aus Erfahrung“, also aus der Beobachtung davon, welche Suchanfragen das Gleiche zu bedeuten scheinen, lernt RankBrain, wie die gefundenen Treffer zu sortieren sind.

Dies verändert die Art, wie Google Suchbegriffe verarbeitet: Während früher einige Begriffe wie Füllwörter bei der Suche ignoriert wurden, kommt es mit RankBrain auf den Suchbegriff als Ganzes statt auf die Einzelwörter an. Wiederum ist dies am besten durch das Bild des Vektors zu verstehen: fehlt ein Wort im Satz, dann zeigt der Vektor in eine andere Richtung, der Suchbegriff ist damit ein anderer – unter Umständen sogar ein völlig anderer. Jedes Wort verändert die Bedeutung des Satzes, der nun von der Suchmaschine als ein Objekt statt als Ansammlung von Wörtern begriffen wird.

Die Suche wird auf diese Weise kontextsensitiver und fokussiert sich mehr darauf, was „normalerweise“ gewünscht wird, wenn ein bestimmter Ausdruck gesucht wird. Spriesterbach zeigt Screenshots von einer Suchanfrage – „why are pdfs so weak“ – die einmal Mitte 2015, also vor der Implementierung von RankBrain, und einmal Anfang 2016 durchgeführt wurde. Noch Mitte 2015 wertete Google die Erwähnung des Begriffs „pdfs“ als Anhaltspunkt, dass vor allem Dateien vom Typ PDF gezeigt werden sollten. Als Ergebnisse wurden daher PDF-Dateien gezeigt, die beispielsweise die Schwäche des irakischen Widerstands im dritten Golfkrieg oder die Schwäche der Schwerkraft diskutierten. Anfang 2016, mit der neuen kontextsensitiven Suche, wurde der Satz jedoch als Ganzes verarbeitet und der erste Treffer war ein Artikel – keine PDF-Datei – über die Schwäche von PDF-Verschlüsselung. Dadurch, dass Google den Satz als Ganzes verarbeitete, verstand die Suchmaschine, dass „pdfs“ an dieser Stelle als Thema, nicht als gewünschtes Dateiformat gemeint war.

In der deutschsprachigen Suche war dies zum Zeitpunkt des Vortrags noch nicht implementiert, sodass eine Testsuchanfrage „Wer ist Abs“ zu Artikeln über das Antiblockiersystem von Autos oder über Bauchmuskeltraining führte. Eine kontextsensitive Verarbeitung der Suchanfrage hätte verstanden, dass das Fragewort „wer“ auf eine Person hindeutet und hätte daher Suchergebnisse, die Personen namens Abs behandeln, priorisiert.

Eine Studie aus dem Jahre 2016, die untersuchte, welche Rankingfaktoren momentan wirklich bedeutsam sind, fand heraus, dass dies unter der neuen kontextsensitiven Suche in verschiedenen Themenbereichen durchaus unterschiedlich sein kann. Ein früher gültiger Ratschlag wie „mehr Backlinks sind besser“ ist nicht mehr uneingeschränkt gültig – die Studie fand bei Online-Shops eine positive Korrelation zwischen einem hohen Ranking und vielen Backlinks, während bei Seiten über Darlehen eine Negative festgestellt wurde. Interne Verlinkungen wiesen keinen signifikanten Effekt auf, eine höhere Textlänge nur einen leicht Positiven. Dafür gewannen andere Aspekte an Bedeutung: da RankBrain „gelernt“ hatte, dass Online-Shops normalerweise interaktive Elemente aufweisen, wurden bei Anfragen nach Einkaufsmöglichkeiten Seiten mit vielen interaktiven Elementen und insbesondere „Add to Cart“-Buttons bevorzugt.

Spriesterbach zieht daraus den Schluss, dass SEO nach wie vor wichtig ist, sich aber mit zunehmender Geschwindigkeit verändert. RankBrain wird zwar bisher nicht bei allen Suchphrasen eingesetzt, allerdings kommt es mehr und mehr zur Anwendung. In diesem neuen Paradigma ist tatsächliche Relevanz der fraglichen Website für Suchanfragen wichtiger denn je. Inhalte müssen vor allem zu den Anforderungen der Nutzer passen, da diese durch ihr Surfverhalten der Suchmaschine zeigen, ob die aufgerufene Seite das ist, was sie sehen wollten.

Welche Anpassungen von SEO sind notwendig?

Generell, so Spriesterbach, sollte man sich auf die Veränderungen, die die Implementierung von Machine Learning bei Suchmaschinen mit sich bringt, rechtzeitig einstellen. Die Fragen, die Website-Betreiber sich stellen sollten, sind: Was ist Googles Ziel? In welche Richtung entwickelt sich die Technik? Aufgrund der neuen kontextsensitiven Suche ist es wichtiger, die wirklichen Bedürfnisse der Nutzer zu verstehen, als zu versuchen, durch Tricks in den Rankings aufzusteigen.

In der Q&A schränkt Spriesterbach dies allerdings ein wenig ein: Auch im Zeitalter von RankBrain gebe es Methoden, sich auf eher kreative Weise in den Suchergebnissen nach vorne zu bewegen. So können beispielsweise Rezensionen künstlich erstellt werden, die so aussehen, als seien sie von echten Menschen. Dies ist ein Teil des Userfeedbacks, den die kontextsensitive Suche mit einbezieht.

Abgesehen davon sollten sich Betreiber genau ansehen, bei welchen Suchbegriffen sie ranken und ihr Angebot darauf anpassen, was User suchen, wenn sie über diese Suchbegriffe auf die Seite kommen. Denn: erhält eine Seite viele Aufrufe, das Nutzungsverhalten der User lässt aber darauf schließen, dass diese mit der Seite nicht zufrieden sind, dann kann dies einer Seite im RankBrain-System eher schaden als nützen. Bleiben die Reaktionen negativ, kann es sogar besser sein, auf bestimmte Begriffe nicht mehr zu ranken, um die allgemeine Qualität der Seite in den Augen von RankBrain nicht zu gefährden.

Doch wie kann die Zufriedenheit der Nutzer gesteigert werden? Eine direkte Befragung der User ist, so Spriesterbach, die beste Möglichkeit, herauszufinden, was von der Seite gewünscht wird. Davon abgesehen sollte verstärkt auf eine Kombination von informativen Texten und kommerziellen Angeboten gesetzt werden, idealerweise auf der derselben Unterseite. Google bezieht SEO-Texte weiterhin in den Suchprozess mit ein, nur wird nun außerdem betrachtet, wie Nutzer mit der Seite interagieren.

Auch macht Google es, so Spriesterbach, mit seinem neuen System kleinen, neuen Läden schwerer, hoch zu ranken. Hier rät Spriesterbach, entweder stärker auf lokale Bezüge zu setzen und so Kunden in der eigenen Umgebung anzuziehen oder besonders auf Service zu setzen, da gerade die großen, etablierten Geschäfte, die in RankBrain weit oben erscheinen, in diesem Feld oftmals Defizite aufweisen.

10 SEO-Tipps für nachhaltige Erfolge

Die Kriterien, die das Google Ranking beeinflussen, haben sich in den letzten Jahren geändert. Die Anforderungen an SEO Texte haben sich dadurch ebenfalls dramatisch gewandelt. Standen früher vor allem Backlinks und die Verteilung von Keywords im Mittelpunkt, sind heute Themen wie die holistische Themenabbildung, der User-Intent Match und die Crawlability in den Fokus gerückt. Das Verhalten des einzelnen Users wird viel mehr analysiert, damit er mit der Webseite interagieren kann. Lange, mit Keywords verfrachtete Texte gehören der Vergangenheit an. In den folgenden Abschnitten finden Sie zehn wertvolle Tipps, um Ihre Webseite mit modernen SEO-Methoden zu optimieren und Ihren Traffic zu erhöhen.

SEO ist kein isolierter Kanal mehr

SEO Marketing verteilt sich auf vielen Bereichen wie Content, Brand Marketing und User Signals. Es ist aber genauso wichtig, andere Online-Marketing Kanäle wie Social Media, E-Mail Marketing und Content Marketing zu bedienen, um mit SEO Marketing längerfristig Erfolg zu haben. Der Einfluss von SEO auf SEA ist enorm. Wer zum Beispiel im SEO Bereich auf ein Produkt verweist, führt oft den User über einen Remarketing Tag auf der eigentlich Landing Page. Ein Customer Journey Tracking ist hier unabdingbar, um herauszufinden welche Kanäle der User bevorzugt. Es ist hier auch wichtig, den sogenannten Cross-CPO zu berechnen. Das Tool Intelliads weist jedem Kunden einen sogenannten User Identifier, zum Beispiel eine Kundennummer, zu. Dadurch werden die Bewegungen der User auch verfolgt, wenn sie sich von einem anderen Gerät einloggen. Die gespeicherten Daten werden benutzt, um ein Benutzerprofil, den sogenannten Customer Journey, zu erzeugen. Google hat dazu ein neues Tool entwickelt, das die Touch Points der User besser nachvollziehen lässt. Alles in allem soll SEO-Marketing nicht als alleinstehenden Kanal betrachtet werden, sondern als ein Teil von Online-Marketing. Die Kosten sollen viel mehr auf allen Kanälen verteilt werden, um die Effizienz zu erhöhen.

Content-Strategie optimieren

Früher orientierten sich SEO Texte an Keywords. Eine gewisse Anzahl von Wörtern und eine gewisse Dichte an Keywords sollte erreicht werden. Heute liegt der Fokus auf sogenannten Themencluster, also Begriffen und Themen, die mit dem Hauptwort verwandt sind. Zum Thema “Indische Küche” sind zum Beispiel “Zutaten”, “Rezepte” und “Restaurants” dazugehörige Cluster. Wer Content für eine Suchmaschine erstellt, soll all diese Themenbereiche berücksichtigen und abdecken. Geschieht das nicht, wertet Google den Artikel ab. Ein Keyword-Planer hilft, die Suchanfragen pro Monat zu bestimmten Begriffen festzustellen. WDF*IDF Tools sind dafür da, die Frequenz und die inverse Dokumentenhäufigkeit (IDF) zu bestimmen. Diese Parameter sind wichtig, um die Relevanz eines Textes einzuschätzen. In einer sogenannten SEO-Line tauchen alle Themen auf, die im Text erwähnt werden sollen. Eine weitere Möglichkeit sind W-Fragen Tool wie Answer the Public. Das kostenlose Tool beantwortet die relevanten W-Fragen zu einem bestimmten Keyword. Tauchen die gleichen Begriffe im Google Keywords auf, kann man anhand der Fragen den Text gliedern und so den Content nach SEO Kriterien optimieren. Im letzten Schritt sollen die verschiedenen URLs zu einer Webseite nach dem User Intent geclustert werden. Man soll sich als Content-Ersteller also fragen, was der User möchte. Je nach Zweck der Webseite (Information, Abschluss) soll die Struktur der Webseite dem Bedürfnis des Users entsprechen. Die Webseiten der Zukunft haben einen holistischen Themenblick und sind stärker userorientiert als in der Vergangenheit, als es lediglich darum ging, möglichst eine hohe Keyworddichte zu erreichen, um Google zu beeindrucken.

Wenige hochwertige Seiten statt viele nichtssagende

Die Aufenthaltsdauer der User ist bei den ersten drei Google-Ergebnissen höher als bei den folgenden Treffern. Auch die Absprungrate ist deutlich geringer. Aus diesem Grund soll der Fokus der Content-Ersteller darin liegen, qualitativ hohe Seiten zu erschaffen, anstatt viele lange Texte und Seiten zu produzieren, die keine Aufmerksamkeit finden. Hilfreich ist es, sich zu fragen, was der Besucher genau braucht. Manche Informationen lassen sich mit Bildstrecken oder Videos am besten darstellen. Auch Anleitungen, Infografiken, HTML-Grafiken, Teaser und Bildunterschriften kommen zum Einsatz, wenn es darum geht, ein Produkt oder eine Dienstleistung so zu beschreiben, dass die Besucher der Webseite emotional angesprochen werden und sich nicht langweilen. Lange Textblöcke sind dagegen nicht Mittel der Wahl, da die Aufmerksamkeit schnell nachlässt. Jede Webseite sollte eine mobile Variante für iPhone und Androidnutzer besitzen.

Interne Linkstruktur

Bei vielen Webseiten ist die Linkstruktur eine Schwachstelle. Eine Umstrukturierung kann den Unterschied machen zwischen einem Platz in der Top-Ten und/oder eine vierstellige Ranking. Die Seiten sollen innerhalb weniger Klicks erreicht werden können, also eine flache Ebenenstruktur besitzen. Ein weiter wichtiger Punkt sind semantisch einheitliche Linktexte. Der Linktext soll den Begriff enthalten, der das Hauptthema der Seite ist, zum Beispiel “Thomas Müller” und nicht “Fußballspieler”. Die richtige Positionierung der Links spielt ebenfalls eine große Rolle. Mit dem reasonable Surfermodell ermittelt Google, welche Links innerhalb einer Seite am wahrscheinlichsten Klicks generieren werden. Die Links im Contentbereich werden öfters geklickt als die, die seitlich oder in der Fußzeile erscheinen.

interne Linkstruktur Suchmaschinenoptimierung

Was ist wichtig bei der internen Linkstruktur? Keine zufällige Struktur entstehen lassen!

Accelerated Mobile Pages (AMP) nutzen

Bei den AMP handelt es sich um Seiten, die eine schlanke Struktur besitzen und sich sehr schnell hochladen lassen. Im Bereich der News lassen sich die Nachrichten somit schnell durchscrollen. In den USA werden sie schon in separaten Content-Boxen gerankt. Obwohl sie neu sind, schätzen viele Experten, dass sie in den nächsten Jahren an Bedeutung gewinnen werden. Die Implementierung ist sehr einfach. Momentan können nur die Browser Chrome und Opera diese Inhalte richtig darstellen, doch es ist denkbar, dass demnächst die anderen großen Anbieter wie Firefox und Explorer nachziehen werden.

Pagespeed (Ladegeschwindigkeit) beachten

Die Ladegeschwindigkeit einer Seite wirkt sich positiv auf die Crawlability, also auf die Benutzerfreundlichkeit, aus. Die Aktivierung von GZIP oder Browser Caching spart Ladezeit. Auch CSS Sprites, die Zusammenfassung vieler Bilder in einem, von dem nur Ausschnitte gezeigt werden, wirken sich positiv aus. Unter anderem nutzt Facebook diese Methode. Interessant sind auch neue Formate wie das von Google entwickelte WebP. Damit werden Bildgrößen von bis zu 80 Prozent gespart. HTTP 2, der neue HTTP-Standard, hilft zusätzlich bei der Erhöhung von Page Speed.

 

Seitengeschwindigkeit Suchmaschinenoptimierung

Was ist wichtig um die Seitengeschwindigkeit nicht einzuschränken?

 

User Intent messen

Die Kombination zwischen Google Tag Manager und Google Analytics erlaubt tiefe Einblicke in das User Verhalten. Anhand der Scrolltiefe, also wie weit der User herunterscrollt, kann man die Crawlability einer Seite einschätzen. Mit diesen Tools kann man auch die Return-Rate messen, spricht wie viele User nach wie viel Zeit auf den Zürück-Button geklickt haben. Der Umgang der User mit der Seite ist ein wichtiger Faktor, um richtig zu reagieren und sie zu optimieren.

Customer Lifetime Value (CLV) erhöhen

Bei einer Conversion Rate von 3 Prozent stellen die meisten Besucher der Webseite verlorenen Traffic dar. Um auch diese User optimal auszunutzen, kann man versuchen, Daten zu gewinnen, indem man einen Exit Intent Overlay abspielt, wenn diese auf den Zurück-Button klicken oder den Browser schließen wollen. Manchmal wird zum Beispiel einen Gutschein angeboten, wenn der User sich mit seiner E-Mail-Adresse registriert. Auch Footer-Bars sind geeignete Methode, um die Conversion Rate zu erhöhen. Wenn der Besucher länger inaktiv ist, kann man zum Beispiel darüber Hilfe in Form einer Telefonnummer anbieten. Eine weitere Möglichkeit sind Notifications. Hier wird der User mit dynamischen Bannern anhand seines Surfverhaltens animiert, bestimmte Dienstleistungen zu buchen oder Produkte zu kaufen. Damit kann man auch den Traffic auf der eigenen Webseite erhöhen. Booking.com wendet unter anderem diese Methode mit Erfolg an.

Mobile First

Zirka zwei Drittel der deutschen Internetnutzer besuchen Webseiten mit ihrem iPhone, Smartphone oder Tablet. Diese User sind also auf der Suche nach Apps. Eine Möglichkeit, die Apps zu werben, ist über die App One Box von Google. Auch über SEA oder mit Overlays kann man neu entwickelte Apps bekannt machen. Mittlerweile kann Google auch Apps indexieren, also vom Suchergebnis direkt auf sie verweisen. Über dem Smartphone kann man darüber hinaus Apps streamen, also sie verwenden, ohne sie herunterzuladen. Und schließlich kommen die kleinen Logos. Sie fallen unter dem Begriff Branding: Der User sieht jeden Tag das Logo einer bestimmten Firma (z.B. Amazon, Booking.com) und verinnerlicht es so sehr, dass es für ihn keine Alternative mehr zu dieser Firma gibt. Der Nachteil der mobilen Internetnutzung ist, dass keine Interaktion mit der Mouse möglich ist. Auch Inhalte herunterzuladen ist schwierig und nicht erwünscht, da der User keine Zeit dafür hat. Auf der anderen Seite können aber Inhalte über Social Media geteilt werden und 1-Click-Actions getätigt werden.

Markenaufbau

Branding führt dazu, dass das Suchvolumen steigt und der Anteil der Direktnutzer steigt, also der Nutzer, die die URL direkt in die Browserzeile eingeben. Umso bekannter eine Marke ist, desto mehr wird sie auch verlinkt. Viele Backlinks mit Anchor bedeuten wiederum ein gutes Ranking. Eine Marke beeinflusst nicht nur SEO-Ranking und Suchvolumen, sondern bildet auch ein Vertrauen. Das Verhältnis zwischen Kosten einer Kampagne und Conversion Rate ist günstiger, wenn die Kampagne auf Markenbildung abzielt.

Zusammenfassung

Die klassischen Methoden der SEO-Optimierung, die nur auf die Keyworddichte basierten, gelten als überholt. Statt Keywords sind Themencluster wichtig. Die mediale Content-Aufbereitung hat darüber hinaus signifikant an Bedeutung gewonnen. Es ist also sehr wichtig, wie Inhalte präsentiert werden, um die Aufmerksamkeit der User zu erhöhen. Auf der technischen Seite sollte man als Webseitenbetreiber auf eine günstige Linkstruktur achten und die Ladeseitengeschwindigkeit optimieren. Neue Möglichkeiten wie AMP-Formate verschlanken die Seite und erhöhen den Traffic. Wichtig ist, so viel wie möglich über das Verhalten der User zu erfahren, um den Content anzupassen. Da die meisten User über mobile Phones unterwegs sind, ändern sich die Interaktionsmöglichkeiten. Schließlich ist es wichtig, ein Vertrauen zur Marke aufzubauen, um die Conversion Rate zu erhöhen.

AMP: Inhaltliche und technische Vor- und Nachteile der neuen Google-Strategie

Dies ist eine schriftliche Zusammenfassung des Webinars „AMP: Vor- und Nachteile der neuen Google-Strategie“ von Justus Blümer. Blümer ist Consultant bei der Firma Wingmen Online Marketing in Hamburg und beschäftigt sich dort hauptsächlich mit der technischen Suchmaschinenoptimierung und analysiert hierfür meist sehr große Websites. Außerdem ist er für die Webanalyse und ihre Implementierung zuständig.

Was ist AMP?

Bei vielen Websites ergibt sich das Problem, dass durch sogenannte „Tracker“ die Ladezeiten verlängert werden bzw. der Prozessor stärker beansprucht wird. Auf einem Desktop sind diese Auswirkungen noch eher harmlos während auf einem Smartphone das Warten auf Internetinhalte erfahrungsgemäß zum Geduldsspiel werden kann. In einem Zitat des Accelerated-Mobile-Pages-Projects heißt es zum Beispiel: „For many, reading on the mobile web is a slow, clunky and frustrating experience – but it doesn‘t have to be that way.“ (auf Deutsch: Für viele ist das Lesen im mobilen Web eine langsame, klobige und frustrierende Erfahrung, aber es muss nicht so sein.“). Zurückführen lassen sich solche Tracker meist auf Werbung aber auch andere Prozesse haben ihre Hand mit im Spiel. Genau nachverfolgen lassen sie sich mit dem Ghostery-Plug-in, das man hier herunterladen kann:
www.ghostery.com/de/

Google, das Unternehmen steht hinter dem Projekt, weiß schon seit einiger Zeit von dem Problem und hat begonnen Gegenmaßnahmen einzuleiten. Seit April 2010 ist zum Beispiel die Ladezeit einer Website ein offizieller Rankingfaktor. Und 2011 entwickelte man das PageSpeed-Tool, das die Ladezeiten auch verringern soll. Man empfahl sogar den eigenen Mitarbeitern bei HTML den Head- und den Body-Text wegzulassen um die eigenen Produkte zu optimieren. Nichts davon brachte allerdings wirklich zufriedenstellende Ergebnisse.

Das Accelerated Mobile Pages Project soll nun die Lösung bringen. Bisher war es üblich für unterschiedliche Plattformen ein sogenanntes responsives Webdesign zu verwenden. Dabei kann die Website sich selbstständig an die Plattform anpassen, benutzt aber sowohl für Smartphones als auch für Desktops denselben Code. Das bedeutet, dass auch sämtliche die Ladezeit verlängernden Overheads auf das Smartphone mitübertragen werden.
AMP dagegen benutzt einen anderen Code, der einfach bestimmte Overheads streicht, wenn er eine mobile Plattform erkennt. Das soll zu einer Beschleunigung führen.

Testet man AMP mit einem Handy auf der Website von Focus dann stellt man fest, dass das Verfahren tatsächlich funktioniert. Ohne Accelerated Mobile Pages braucht die Seite 5,5 Sekunden zum Laden, mit AMP nur 1,14 Sekunden. Auch die übertragenen Daten sind deutlich von ungefähr 1,5 MB auf 835 KB reduziert worden.

Was hat Blümer, der Experte für Suchmaschinenoptimierung, davon?

Eine Website, die mit AMP programmiert wurde, wird von Google tendenziell höher gerankt. Der Effekt ist derzeit aber meist auf News-Publisher beschränkt. Außerdem soll neben den Suchergebnissen durch ein kleines Symbol angezeigt werden, ob es sich um eine Accelerated Mobile Page handelt. Dieses ist bis jetzt allerdings noch nicht live und soll erst in nächster Zeit kommen. Hiervon erhofft man sich Steigerungen der Klickzahlen, da die Konsumenten natürlich schnellere Ladezeiten bevorzugen. Die Frage ist allerdings, ob der Großteil der Nutzer des Internets das überhaupt bemerkt.

Außerdem wird -als Reaktion auf den Klick- die Website von Google gecacht. Das bedeutet, dass man sich gar nicht wirklich auf dem Server des jeweiligen Anbieters befindet, sondern eine Kopie der Website sieht. In Wirklichkeit befindet man sich aber trotzdem auf einem Server von Google. Das ist durchaus vorteilhaft, da die Server von Google technisch sehr weit ausgereift und somit meistens schneller als die der ursprünglichen Publisher sind. Außerdem gibt es bei Lastspitzen keine Probleme, da die Server von Google der Größe des Konzerns entsprechen. So ließen sich zum Beispiel auch Websitenabstürze oftmals verhindern.
Ein Problem der Technologie ist allerdings die Tatsache, dass man auf dem Server von Google nur einen Swipe mit dem Daumen durchführen muss und auf den Websites der Konkurrenz landet. Das kann jede sorgfältige Optimierung sofort zunichtemachen. Deshalb sollte man genau überprüfen, ob es sich lohnt AMP zu implementieren oder ob dies sogar zu Traffic-Verlusten führt, bevor man die entsprechenden Schritte einleitet.

Die Verbreitung von AMP-Websites

Obwohl das AMP-Projekt vor nicht sehr langer Zeit, nämlich 2015, herausgebracht wurde, ist die Verbreitung relativ beeindruckend. Insgesamt existieren laut SimilarTech inzwischen 268.050 Websites mit AMP. Die meisten davon kommen aus den USA (29.210), aber überraschenderweise gibt es auch in Indonesien (7.586) und Brasilien (6.259) viele Seiten dieses Typs. Auch das Wachstum ist ziemlich groß. Die zuerst genannte Zahl stellt im Vergleich zum Vormonat (!) eine Steigerung von 4,44 Prozent dar. Es gibt also derzeit sehr viele Unternehmen und Websites die AMP implementieren. Google geht mit der großen Annahme des Standards natürlich gerne hausieren.

Verbreitung_AMP_SEO

Die Darstellung zeigt die Verbreitung von AMP. Klarer Spitzenreiter: USA.

Kontrolle

Die Kontrolle bedeutet für Google zwei Dinge: Einmal geht es um die schnelle und sorgenfreie Auslieferung der Daten an den User, sodass dieser möglichst wenig warten muss und Accelerated Mobile Pages gerne benutzt. Und andererseits besitzen sie nun die Datenhoheit über alles, was bei ihnen in diesem Bereich gesucht wird. Denn die Besitzer der Websites liefern ihre Daten nun nicht mehr direkt aus, sondern über die Server von Google. Somit erhält auch nur Google direkte Informationen über die Aktionen des Nutzers. So erfahren sie genaueres über die Bounce-Rate, also wie oft der Nutzer zwischen Seiten hin und her springen muss, um alle Informationen zu finden, die er sucht. Auch die Verweildauern kann Google nun genau nachvollziehen und so also feststellen wie lange sich ein User eine bestimmte Website anschaut. Sogar sämtliche Interaktionen wie Klicks und Scrolls sind nun nachverfolgbar und besitzen das Potenzial ausgewertet zu werden. Bisher werden diese Möglichkeiten von Google wohl noch nicht genutzt, aber wer weiß schon was in der Zukunft noch kommt.

Ein weiterer großer Vorteil für den Konzern ist es, dass die gewonnenen Daten fast absolut exklusiv sind. Facebook und andere Konkurrenzunternehmen haben keinen Zugriff darauf. Allerdings besitzt Facebook seine Instant Articles, die fast ein genaues Gegenstück zu Googles Accelerated Mobile Pages darstellen. Somit hat zwar Facebook keinen Zugriff auf AMP, aber auch Google keinen Zugang zu den Instant-Articles-Daten was den Wettbewerb aufrechterhält.

Weiterhin hat Google auch die vollkommene Kontrolle über den Incentive, also den Anreiz für die Webprogrammierer. So können sie die Vorteile, die AMP bietet jederzeit streichen. Hier sollte man vorsichtig sein. Wenn man zum Beispiel seit drei Monaten AMP implementiert hat, kann es sonst passieren, dass Google zu dem Schluss kommt, dass sie jetzt 80 Prozent der Webseiten im Netz unter ihrem Standard vereinheitlicht haben und ihnen nun leider keine so großen Vorteile beim Suchmaschinenranking mehr bieten können. Wer darauf nicht vorbereitet ist, würde bitter enttäuscht werden.

AMP wird gerne als Open Source bezeichnet. Das ist nur zur Hälfte richtig. Einerseits sind die Accelerated Mobile Pages tatsächlich frei verfügbar. Aber auf der anderen Seite hat Google trotzdem die volle Kontrolle darüber, wer an dem Projekt mitarbeitet und welche Features aufgenommen werden. Es ist also nicht so unabhängig wie man es von Open Source Projekten erwarten würde.

Ein Beispiel hierfür ist die Einbindung von Schriftarten. Bei AMP sind nur zwei Anbieter erlaubt: Google API und Fonts.net. Es gibt aber noch verschiedene andere wie Typekit, die große Bedeutung besitzen, aber durch die Beschränkungen einfach ausgesperrt werden. Hier können Accelerated Mobile Pages wirklich zum Problem werden, besonders wenn das Firmen-Image mit einer bestimmten Schriftart verknüpft ist.

Die Technik

Erkennungsmerkmale der Accelerated Mobile Pages

Entsprechende Websites erkennt man sehr leicht in dem man den Quelltext öffnet. Hier findet man in dem normalen HTML-Tag einen Blitz beziehungsweise die drei Buchstaben AMP. Diese zeigen an, dass es sich um eine Seite mit einer Implementierung des Google-Standards handelt. Das Ganze sieht in etwa so aus: <html amp=”amp”> oder <html (blitz)=”(Blitz)”>
Außerdem müssen normale HTML-Websites, die auf dem Smartphone als AMP erscheinen, auf diese Seite verweisen damit Google diese nicht als duplizierten Inhalt ansieht. Das würde eine Validierung erschweren.
Es ist allerdings auch möglich, AMP-only, also nur mit dem Standard Googles zu programmieren. Da Accelerated Mobile Pages beinahe ganz normales HTML sind, braucht man dann auch keinen speziellen Browser zum Anzeigen.

 

Verhinderung von Duplicate Contant SEO

Die Darstellung zeigt den Unterschied in der Programmierung – Duplicate Contant wird verhindert.

Verschlüsselung mit HTTPS

Wenn man mit AMP eine Website erstellt, ist es sinnvoll diese mit HTTPS abzusichern. Die Lizenz ist inzwischen meist kostenfrei. Man muss nur noch ein Zertifikat bei „Let`s Encrypt“ beantragen und dieses dann in regelmäßigen Abständen erneuern lassen. Hat man einen eigenen Server zur Verfügung, der das alles steuert, ist das sogar kostenfrei. Und dann ist die Website verschlüsselt. Da man spätesten wenn man Werbeinhalte auf der Seite platziert sowieso HTTPS benutzen muss, lohnt es sich, dies auch gleich zu tun.

Extensions

Im Quellcode von Accelerated Mobile Pages existieren viele Elemente, wie zum Beispiel Bilder und Tabellen, die man als Programmierer wie selbstverständlich in die eigenen Websites einbaut. Diese mussten allerdings alle erst einmal von den Entwicklern abstrahiert werden.
Die Implementierungen dieser Elemente nennt man Extensions. Zum Beispiel gibt es amp-analytics. Diese Erweiterung beschreibt wie man eine Webanalyse in eine Website dieser Art einbaut. Das ist nämlich eigentlich schwierig, da Java-Script verboten ist.

Verbote und ihre Umgehung

Das Verbot von Java-Script zog ursprünglich viele andere nach sich. So durfte man keine Formulare, Maps oder interaktiven Infografiken verwenden. Auch externe Kommentarsysteme wie bei Facebook waren nicht erlaubt. Inzwischen gibt es aber verschiedene Extensions, wie zum Beispiel amp-form und amp-iframe, die es erlauben, ähnliche Features einzubauen. Amp-iframes darf allerdings nicht für Werbung genutzt werden. Die Website von IFramely kann außerdem hilfreich sein, falls es noch keine passenden Extensions gibt.

Warum ist AMP so schnell?

Einer der Gründe für die kurze Ladezeit ist die Pre-Party. Diese sorgt dafür, dass vom Browser Aufgaben erfüllt werden, bevor der Nutzer überhaupt eine entsprechende Aktion ausgeführt hat. Die Pre-Party hat drei Teile. Das Preconnecting baut schon eine Verbindung zum Server auf, bevor der User überhaupt auf die entsprechende Website geklickt hat. Das Prefetching lädt die entsprechenden Daten herunter. Und im extremsten Fall kommt noch das Prerendering zum Einsatz, das die Darstellung der Website schon im Voraus berechnet. So soll der Benutzer glauben, dass die Ladezeit gleich null war, da er die Hintergrundvorgänge ja nicht wahrnehmen kann.

Weiterhin wird das Java-Script komplett asynchron ausgeführt. Das bedeutet, dass der Inhalt der Seite komplett unabhängig vom Java-Script geladen wird und dieses erst irgendwann, wenn es fertig ist, hinzukommt.
Außerdem wird nur Inline-CSS verwendet. CSS ist die Sprache die für die Formatierung der Websites zuständig ist. Bei Accelerated Mobile Pages wird das CSS inline, also im HTML-Code geschrieben und nicht in externe Dateien ausgelagert. Dadurch werden Requests an den Server eingespart, was die Ladezeiten weiter verkürzt.

Ein weiterer Vorteil ist, dass die Ressourcen stark priorisiert werden. Die Inhalte, die der Nutzer als erstes ohne zu scrollen sieht, werden also auch als erstes geladen und gerendert. Dadurch werden ihm wieder schnellere Aufrufe vorgegaukelt.
Der Prozessor von Smartphones wird durch das Verbot von Selektoren und nicht hardwarebeschleunigten Selektoren sehr entlastet. Selektoren legen fest, welche CSS-Regeln wo angewandt werden und können bei einer großen Zahl von betroffenen Elementen sehr rechenintensiv sein. Animationen fordern einen Prozessor aufgrund des oft hohen grafischen Aufwands ohnehin sehr stark.

Validierung mit dem Chrome Developer Tool

Um eine Website aufzubauen, muss diese auch von Bugs befreit und validiert werden. Google nimmt eine Website nämlich nur dann in die Suchergebnisse auf, wenn sie auch validiert worden ist. Dazu lässt man sich die Website mit Hilfe des Chrome Developer Tools auf dem gewünschten Mobilgerät simulieren. Wenn man dann oben im Browser an die URL die Zeichenkette „#development=1“ anhängt, weiß der Chrome Browser, dass man die Seite entbuggen will und zeigt einem das entsprechende Ergebnis an. Dabei ist zu beachten, dass ausgegebene Warnungen nicht automatisch zum Misslingen der Validierung und zum Ausschluss führen.

Plug-Ins zum Implementieren von Accelerated Mobile Pages

WordPress und Drupal sind zwei mögliche Plug-Ins mit denen sich AMP implementieren lässt. Es handelt sich bei beiden um ziemliche Minimalausführungen. Das ist auch das größte Problem des Standards. Da es sich um eine komplett eigenständige Seitenvariante handelt, ist der Aufwand für kompliziertere Designs erheblich größer als bei HTML.

Schematische Auszeichnung und automatisiertes Testen

Um die Webseiten besser zu strukturieren, ist die schematische Auszeichnung quasi Pflicht. Zwar hat sie noch keine direkten Auswirkungen auf die Rankings bei Google, aber das ist in Zukunft nicht unwahrscheinlich. Die inhaltlich passende Auszeichnung lässt sich über schema.org implementieren.
Ein weiteres Tool ist wichtig, weil selbst der beste Programmierer ab und zu Fehler macht. Diese sind dann oft sehr schwer aufzufinden. Deshalb ist es sinnvoll automatisiert zu testen. Ein gutes Werkzeug für diesen Zweck ist Testomato.

Analyse von Accelerated Mobile Pages

Zur Analyse werden Anbieter wie Google Analytics, comScore, INFOnline und Webtrekk unterstützt.

Beispiel Google Analytics

Mit Google Analytics lassen sich verschiedene Dinge wie zum Beispiel benutzerdefinierte Dimensionen oder auch Ereignisse (Klick, Scroll) tracken.
Man kann entweder in eine bestimmte Hauptproperty tracken oder in mehrere verschieden Properties. Wichtig ist dabei nur, dass man weiterhin in der Lage ist den normalen Traffic vom AMP-Traffic zu unterscheiden. So lässt sich feststellen ob an durch die schnellen Ladezeiten Nutzer gewonnen oder aber auch vielleicht welche verloren hat, weil sie eine zu einfache Möglichkeit haben auf andere Websites abzuspringen.
Dazu benutzt man entweder einen Filter zur Umwandlung der Accelerated Mobile Page in eine separate Datenansicht. Oder man sorgt dafür, dass nur die normale AMP weggetrackt wird und setzt eine benutzerdefinierte Dimension auf AMP. Zur Not kann man auch noch ein spezielles Trackingpixel einbinden.

Monetarisierung

Es wäre sinnlos Benutzer auf die eigene Website zu ziehen, wenn man dadurch keine Einnahmen bekommt. Der Googles Standard unterstützt die meisten wichtigen Werbeanbieter, sodass man sich hier im Normalfall keine Sorgen zu machen braucht. Ist der richtige jedoch nicht dabei, hat man, falls man nicht zu großem technischen Aufwand bereit ist, Pech gehabt. Die Website wird mit einem nicht kompatiblen Anbieter nämlich nicht validiert.
Für Paywalls, also die Sicherung bestimmter zahlungspflichtiger Inhalte gegen unberechtigten Zugriff, gibt es eine spezielle Extension. Sie heißt amp-access. Hier sollte man allerdings sehr vorsichtig sein, da die eingekaufte Paywall nicht unbedingt mit der Extension kompatibel ist.

Fazit

Wer AMP nutzen will sollte sich vorher überlegen wie viele Plattformen er unterstützen möchte. Es gibt genügend Alternativen. Beispiele sind Feedly und Flipboard.

Prinzipiell sind Accelerated Mobile Pages eigentlich keine gute Idee, da sie sehr viel Komplexität schaffen und stark von der Normalität abweichen. Sie erzwingen viele Dinge, die man in HTML problemlos umsetzen könnte, aber nicht muss. News-Anbieter werden trotzdem kaum darum herumkommen. Obwohl sie auf viele Daten verzichten müssen und alle Vorteile des Standards jederzeit aufgehoben werden könnten, ist er die beste Möglichkeit maximalen Traffic zu generieren. Falls man AMP nutzt, sollte man auf jeden Fall Schema.org einbauen.

Außerdem sollte man den Standard nicht sofort auf der kompletten Webseite einbinden, sondern erst einmal testen. Das geht zum Beispiel indem man nur den Blog oder einen anderen Teil des Ganzen verändert. So lassen sich Aufwand, Verbesserungen und Nutzen sehr viel besser einschätzen und auf den Rest übertragen. Und wenn es einfach nicht funktioniert, dann kann man die Idee einfach verwerfen.

Justus Blümer kann bei eventuellen Fragen auch noch über seinen Facebook-Kanal erreicht werden.

 

 

Experten-Tipps zum Thema SEO