Optimierungspotenziale in der internen Verlinkung 2016

Beschreibung zum kostenlosen Online Marketing Webinar

In der letzten Zeit bekommt die Onpage-Optimierung immer mehr Aufmerksamkeit – zu Recht! Wenn die Basics erledigt sind steht das große Thema interne Verlinkung auf dem Plan. In diesem Webinar erfahrt Ihr, wie Ihr ungenutzte Potenziale aufdecken, konkrete Maßnahmen entwickeln und die Erfolge messen könnt.

 

 

Video zum Webinar

Webinar Termin:

15.07.2016

14:00 Uhr - 15:00 Uhr

Das wirst Du nach dem Webinar erreicht haben:

  • Du kannst Deine interne Linkstruktur auch für große Seiten bewerten
  • Nutzer sind zufriedener und konvertieren besser
  • Google kann Deine Seite schneller crawlen
  • Du kannst Dein Ranking-Potenzial im Longtail besser ausschöpfen

Zielgruppe

Das Webinar richtet sich an alle Onlinemarketer, die SEO steuern oder selbst umsetzen und verstanden haben, worauf es ankommt. Technik-Hintergrundwissen ist nicht erforderlich – trotzdem werden auch Entwickler etwas Neues mitnehmen können und ein besseres Bild davon bekommen, welche Strukturen für die interne Verlinkung man in Frontend und Backend immer im Blick haben sollte.

Optimierungspotenziale in der internen Verlinkung 2016

Justus Blümer ist Consultant bei dem Unternehmen Wingmen Online Marketing. Er kommt ursprünglich eher aus der Entwicklungsrichtung und hat deswegen einen relativ technischen Hintergrund. Hauptsächlich beschäftigt er sich mit der Optimierung von relativ großen Systemen, sowohl in inhaltlicher als auch in technischer Hinsicht. Meist handelt es sich dabei um redaktionelle Portale mit 100.000 bis einer Million Unterseiten. Somit fokussiert er sich auf die Dinge, die hier starke Veränderungen bewirken können und interne Verlinkung ist dabei natürlich ein Schwerpunkt. Um die Websites auszuwerten ist Webanalyse sehr wichtig, wobei Blümer besonders Google Analytics sehr viel verwendet. Zum Erheben der entsprechenden Daten kann man JavaScript gut gebrauchen, weshalb Blümer auch dieses häufig benutzt.

Grundlegendes Wissen zur internen Verlinkung

Ein Fehler, der oft bei der Benennung von Links gemacht wird, ist eine mangelnde Beziehung zum Kontext. Titel wie „Weiterlesen“, „mehr“ und „Hier erfahren Sie mehr“ sind nicht sehr aussagekräftig und somit von geringer Anziehungskraft. Man sollte stattdessen sogenannte sprechende Linktexte einsetzen, die genau mitteilen wohin man weitergeleitet wird. Kontextbezogenheit ist also wichtig. Dadurch kann der Nutzer sich besser orientieren und Google erkennt die enthaltenen Begriffe und kann sie als Rankingfaktor für die Zielseite benutzen.
Bei Konsistenz handelt es sich ebenfalls um einen häufigen Fehler. Oft verlinken Seiten mit demselben Beschreibungstext auf verschiedene Seiten. Das ist insofern entschuldbar, als dass bei sehr großen Seiten eine Koordination, was das angeht sehr schwierig ist.
Weiterhin sollte man auch nicht gleiche URLs variiert verlinken. Das ist vorwiegend ein technisches Problem. Man sollte zum Beispiel immer das korrekte Protokoll verlinken. Das bewirkt, das Google immer nur eine Website aufrufen muss und beeinflusst das Crawling-Budget. Prinzipiell ist es immer besser, HTTPS einzusetzen, da dieses Protokoll verschlüsselt und kostenlos ist. Weiterhin sollte man auch entweder konsequent den Trailing Slash am Ende der URL setzen oder weglassen. Hierbei sollte auch immer sichergestellt werden, dass die eine URL im Falle eines Falles auch immer auf die andere weiterleitet. Browser sind auch oft in der Lage, die URLs entsprechend umzuschreiben. Auch die Groß- und Kleinschreibung besitzt eine gewisse Bedeutung, da sie eine komplett neue URL ausmacht. Bei ihr sollte man ebenfalls auf einer Standardisierung bestehen.

Semantik

Bei Semantik geht es darum, wie man einen inhaltlichen Kontext transportiert und was ein Link eigentlich wirklich über die Zielseite aussagt.

Zusammenfassen von internen Links

Erste wichtige Maßnahme, die man hier ergreifen sollte, ist das Zusammenfassen von identischen Links. Auf der Landingpage von Freitag.de findet man zum Beispiel eine Kurzbeschreibung von einem Interview. Diese besteht aus einem Bild, einer Überschrift und einem kurzen Text, die alle drei zu demselben Interview verlinken. Das ist ungünstig, da Google erkennt, dass die drei Links dasselbe Nutzerbedürfnis bedienen und nicht in der Lage ist automatisch den sinnvollsten herauszusuchen. Im Normalfall wird einfach der erste genommen.

Besser macht es Sport 1, die ganz ähnliche Elemente für Artikel auf ihrer Seite haben. Die Website nutzt die Möglichkeiten, die es seit HTML 5 gibt und legt Links um Blockelemente, sodass es nur noch eine Verknüpfung gibt, die Google ganz einfach erkennen kann.

Internes Tracking

Ein weiteres Thema, das sehr häufig zu finden ist, ist das interne Tracking. Mit dessen Hilfe ist es Technikern möglich, zu sehen, welche Links überhaupt angeklickt werden. So können sie feststellen, auf welchen Schaltflächen man Verknüpfungen platzieren sollte. Naheliegend ist es hierbei, für die Auswertung UTM-Parameter von Google Analytics anzufügen. Dabei gibt es allerdings mehrere große Probleme. Durch den Parameter wird eine vollkommen andere URL verlinkt, sodass Google diese auch noch crawlen muss. Wenn ein User außerdem den Inhalt der URL gut findet und ihn zum Beispiel auf sozialen Medien weiter verlinkt, dann tut er dies auch wieder mit der parametrisierten URL. Das führt zu falschen Trackingdaten, da User, die die Teaserfläche des Links gar nicht gesehen oder angeklickt haben, auch als Benutzer der URL gezählt werden. Außerdem geht der Traffickanal verloren, das heißt es kann nicht mehr festgestellt werden, ob der User von sozialen Medien oder durch SEO auf die Seite gekommen ist, da die Quellendaten des Users überschrieben werden.

Interne No-Follow-Links

Ein weiteres Problem sind häufige, sinnlos eingesetzte, interne No-Follow-Links. Diese weisen die Suchmaschinen an, Links auf andere Seite nicht einzubeziehen, wenn deren Linkpopularität berechnet wird. Die einzige Verwendung, die es dafür mal gab, war das sogenannte Page-Rank-Sculpting. Dieses sollte Google, abseits von der wirklichen durch die Nutzer wahrgenommene Realität der Linkstruktur, eine andere Wichtigkeit der einzelnen Seiten vorgaukeln und so bestimmte Seiten gezielt stärken. Das funktioniert allerdings schon lange nicht mehr, da Google entsprechend modifiziert wurde. Es gibt derzeit nur zwei Gründe für No-Follow-Links, die sich aber nur auf externe Links anwenden lassen. Entweder bekommt man für den speziellen Link dieser Art eine Gegenleistung oder es existiert keine redaktionelle Kontrolle über ihn, das heißt er wurde zum Beispiel von einem User in ein Forum gestellt.

Interaktionselemente als Links

Interaktionselemente auf einer Seite werden häufig als Links gesetzt. Das ist falsch. Auf Lichtblick.de findet man zum Beispiel eine Einstellungsmöglichkeit für die Schriftgröße, die als a-Tag ausgezeichnet ist. Viel geeigneter wäre hier allerdings ein Button, was auch nicht unbedingt das Aussehen der Seite beeinflussen würde. Dafür fällt einem dann die Analyse sehr viel leichter und Google wundert sich nicht, dass man ohne Ziel verlinkt, da es sich bei der Schriftgrößenveränderung nun mal um ein Interaktionselement handelt und nicht um eine Weiterleitung auf eine andere Website.
Ein ähnliches Thema muss man in Zusammenhang mit der Website von Xing Coaches behandeln. Hier gibt es einen kleinen Merken-Button neben den Profilen der einzelnen Trainer. Dieser sollte ebenfalls kein Link sein, da sich nur ein kleines Pop-up-Fenster öffnet und der Nutzer nicht auf eine gesonderte URL weitergeleitet wird. Diese Problemstellung lässt sich am besten über Java Script mit Klicklistenern und Post-Requests lösen. So werden keine zusätzlichen URLs erzeugt und Google kann sich auf die wirklich relevanten Seiten konzentrieren.

 

Interaktionselemente Verlinkungen Suchmaschinenoptimierung

Interaktionselemente: Buttons sind hier sinnvoller als Links mit a-tag.

 

UX

Die UX bezeichnet die User Experience, das heißt die Erfahrung des Nutzers mit der Website. Es geht also weniger um Google und mehr um den Nutzer an sich.

Versteckte Links

Die erste Erkenntnis, die hier zu nennen ist, zeigt auf, dass versteckte Links einen geringen Nutzwert haben. Ein gutes Beispiel ist die Website des Bundesministeriums für Wirtschaft und Energie. Dort findet man einen Slider, der verschiedene Themenbereiche in zeitlichen Intervallen anzeigt. Wahrscheinlich konnte man sich einfach nicht darüber einigen, welche Inhalte priorisiert werden sollten. So muss der Nutzer dauernd zurückklicken, da der Slider relativ schnell ist und man den angezeigten Text niemals in der zur Verfügung gestellten Zeit durchlesen kann. Die User werden also die meisten Inhalte des Sliders nie zu Gesicht bekommen. Google reagiert darauf auch, da das Programm die Seite durchrendert und so feststellt, dass bestimmte Elemente nicht sichtbar sind. Ähnliche ungünstige Elemente sind Fly-out-Boxen und Carousels.

Der Entwickler ist nicht der User!

Wichtig ist es auch, immer im Hinterkopf zu behalten, dass man selbst nicht der User ist. Der Nutzer sitzt wahrscheinlich nicht vor einem 27 Zoll Monitor, sondern benutzt genervt sein Handy in einer U-Bahn. Deshalb sollte man erstens immer die Seiten an mobile Nutzung anpassen und zweitens berücksichtigen, dass der Besucher der Seite wahrscheinlich keine Zeit für ein exploratives Navigieren hat. Die Führung des Nutzers ist also wichtig. Außerdem sollte man sich das Chrome Developer Tool anschauen, mit dem sich mobile Seiten für verschiedene Endgeräte simulieren lassen, was eine bessere Einschätzung des Endergebnisses ermöglicht. Die Platzierung der internen Links hat ebenfalls eine direkte Wirkung auf die Nutzersignale und sollte somit geschickt durchgeführt werden. Wenn der Nutzer sofort feststellen kann, dass er über die Links die gesuchten Inhalte findet, dann ist die Gefahr, dass er sofort zurückklickt viel geringer, was Google natürlich positiv bewertet.

Choice Paralysis

Vermeiden sollte man auch Choice Paralysis. Das bedeutet, dass der User durch zu viele Möglichkeiten überfordert wird. Das Optimum lässt sich hier durch A/B Tests finden.
Ebenfalls wichtig ist es, 404 Fehler priorisiert anzugehen. 404 Fehler passieren insbesondere auf großen Websites selbst den Besten, wenn zum Beispiel ein Redakteur durch Zufall eine Seite löscht. Sie sollten allerdings natürlich vermieden werden, da dem Nutzer eine leere Seite angezeigt wird und er somit unzufrieden ist. 404 Fehler kann man mit einem speziellen Titel wie „Seite nicht gefunden“ filtern und so diejenigen finden, die wirklich schaden, da sie des Öfteren aufgerufen werden. Dieser priorisierten Links kann man sich dann annehmen und so effizient Fehler beseitigen. Außerdem kann man mit Google Analytics einen automatisierten Bericht erstellen, sodass man eine E-Mail erhält, wenn wieder gehäuft 404 Fehler auftreten.

Speed-Boost

Am Ende des UX-Themas steht noch eine High-End-Verbesserung, die derzeit noch sehr selten eingesetzt wird, weil damit erheblicher Aufwand einhergeht. Es handelt sich um eine Beschleunigung der internen Links. Durch verschiedene neue Technologien, wie zum Beispiel AMP, wird der Nutzer immer mehr in einer Richtung erzogen, die ihm die Möglichkeit gibt, Inhalte sofort zu erhalten. Das bedeutet, dass Ladezeiten schnell für eine große Nutzerunzufriedenheit sorgen. Deshalb ist es sinnvoll, Inhalte vorzuladen und sogar schon die Darstellung im Voraus zu berechnen. Das bezeichnet man auch als Prefetching und Prerendering. Wenn man zum Beispiel weiß, dass 50 Prozent der Nutzer als nächstes auf einen bestimmten Link klicken, dann ist es sinnvoll, diesen im Voraus zu laden. So lassen sich viele Vorgänge erheblich beschleunigen.

Quantitative Verlinkung: “Viel hilft viel?”

Bei der quantitativen Verlinkung geht es darum, wie häufig Seiten innerhalb des kompletten Websitekonstruktes miteinander verlinkt werden. Man will natürlich erreichen, dass einerseits alle Seiten erreichbar sind und andererseits die relevanteren Seiten häufiger verlinkt sind, um sie im Google Ranking zu stärken.
Dafür sind HTML-Sitemaps nach wie vor eine gute Maßnahme, da sie die Linkstruktur verdeutlichen. Sie sorgen dafür, dass Google sich besser in den einzelnen URLs zurechtfindet. Für den Nutzer ist kein wirklicher Mehrwert vorhanden, weshalb es sinnvoll ist, die Sitemap auf den Index zu setzen.
Sehr hilfreich ist es auch, das Tool Screaming Frog zu nutzen. Diese kostet ungefähr 100 Dollar im Jahr, die Ausgaben halten sich also in Grenzen. Das Tool erlaubt es einem, auf schnelle und einfache Art und Weise die interne Verlinkung zu kontrollieren. Je nachdem was für einen Rechner man zur Verfügung stehen hat, fängt es aber ab 150.000 URLs an zu ruckeln, weshalb man nicht mehr Seiten auf einmal überwachen sollte. Außerdem ist die Oberfläche recht begrenzt, weshalb man sich nicht auf das Tool beschränken, sondern Exporte benutzen sollte, da sich so zusätzlich Daten einbinden lassen. Gut geeignet sind hierfür DeepCrawl, Audisto oder aber auch mit JavaScript erstellte Eigenbau-Varianten

Weiterhin ist es wichtig, die interne Verlinkung in die eigenen Tests aufzunehmen. Bei jeder Veränderung sollte man sich vorher anschauen, inwiefern dadurch Seiten besser oder schlechter verlinkt sind und ob dies den eigenen Erwartungen entspricht. Zu diesem Zweck legt man zum Beispiel ein Excel-Sheet an und überwacht mit Hilfe eines Exports in dieses Sheet, wie viele Links auf die jeweiligen URLs führen. So sind Veränderungen zumindest bei den wichtigeren Seiten leicht festzustellen. Für die Kontrolle der qualitativen Verlinkung bietet sich eine PageRank an. Wenn man zum Beispiel ein Händlerverzeichnis mit 1.000 Händlern hat, die sich alle untereinander jeweils einmal verlinken, dann hat jedes dieser Händlerprofile schon 1000 interne Links. Wenn nun aber zu dem Händlerverzeichnis selbst nur sehr wenige Links führen, dann ist die qualitative Verlinkung relativ gering. Somit sollte man diese auch nicht vernachlässigen.

Qualitative Verlinkung – Monitoring des internen PageRank

Bei der qualitativen Verlinkung geht es nicht nur darum, wie viele Links auf eine bestimmte Seite führen, sondern auch darum, wie diese untereinander vererbt werden.
Zur Berechnung des PageRank eignen sich wiederum die Daten von Screaming Frog sehr gut. Exportieren kann das Programm die Daten allerdings nicht selbst. Dafür braucht man das kostenlose Tool Gephi, das relativ viele Ressourcen und Arbeitsspeicher benötigt. So lassen sich dann aber gut Unregelmäßigkeiten in der internen Verlinkung aufdecken und Seitenbereiche, die zu Unrecht stark verlinkt sind, finden.
Für Gephi exportiert man als erstes alle internen Links als CSV. Dann passt man die Datei all_inlinks.csv an, indem man die erste Zeile löscht und das Wort „Destination“ durch „Target“ ersetzt. Die Daten sind nun mit Gephi kompatibel und können importiert werden. Danach können sie zur Berechnung des PageRank benutzt werden.

Als Ausblick sei hier noch genannt, das man nicht nur die Reaktionen der User auf Optimierungen überprüfen kann, sondern auch die von Google. Dies geschieht durch die Auswertung der Logfiles. Je nachdem, wie man diese konfiguriert hat, kann man mit ihnen sämtliche Request nachverfolgen und so feststellen welche URLs der Google Bot wie häufig aufruft. So erhält man auch wertvolle Informationen zur Crawling-Frequenz. Elastic, logstash und kibana sind hier drei nützliche Tools, die einem bei der Analyse der Linkstruktur und der internen Verlinkung weiterhelfen.

Automatisierte interne Verlinkung

Besonders bei großen Websites, wie zum Beispiel Redaktionen, kann die interne Verlinkung schnell zu viel Arbeit und großem Aufwand führen. Hier ist eine Automatisierung ein wünschenswertes und wichtiges Hilfsmittel. Vorteile sind unter anderem, dass die Redakteure, die mit dem Produzieren von hochwertigem Content meist schon genügend beschäftigt sind, sich keine Gedanken mehr um das Einfügen von Links machen müssen und dass Behebungen von 404s und interne Weiterleitungen allgemein leichter fallen. Allerding führt eine Automatisierung auch zu einem eintönigen, internen Linkprofil, zu einer inhaltlich zusammenhangloseren Verlinkung und zu einer ungenauen Nutzerführung. Zum Beispiel kann es passieren, dass die Automatisierung bei doppeldeutigen Begriffen auf Websites verlinkt, die überhaupt nicht zum ursprünglichen Thema passen.
Deshalb sollte man keine vollautomatische Verlinkung einsetzen. Das Standardmodell hierbei ist meist eine Liste von Keywords zu erstellen und diese Wörtern URLs zuzuordnen, auf die beim Auftreten verlinkt wird. Eine solche Linkstruktur kann schnell Probleme, wie sinnlose Weiterleitungen verursachen.
Besser ist hier eine maschinell unterstützte interne Verlinkung. Das bedeutet, dass der Redakteur noch selber bestimmt, wohin verlinkt wird, aber dass man ihm mit Hilfe von CMS Vorschläge macht, die ihm die Arbeit insofern erleichtern, als dass er sich nicht dauernd darüber Gedanken machen muss, welcher der Tausend Artikel in der Datenbank denn nun gerade an dieser Stelle passt. Stattdessen kann er aus einer Liste mit potenziell geeigneten Texten auswählen, wodurch außerdem auch Fehler vermieden werden, da der Redakteur bemerkt, ob der Artikel passt oder nicht.
Ein mögliches Vorgehen ist es, eine Liste mit Shorthead Keywords vorzugeben. Diese Keywords werden dann im CMS hervorgehoben. Der Redakteur markiert die zugehörige passende Passage im Text und sorgt so dafür, dass ihm die Automatisierung inhaltlich sinnvolle und passende Vorschläge macht. Weiterhin kann man die Ausgabe der Suche auch noch priorisieren, indem man ihr zum Beispiel bestimmte Kriterien wie SEO Traffic, Artikellänge, Artikeldatum und andere vorgibt.

Erfahrungsgemäß dauert es eine relativ lange Zeit bis die Veränderungen in der internen Verlinkung und der Linkstruktur wirklich zu Ergebnissen führen. Man sollte sich also zwei bis drei Monate gedulden.

Optimierungspotenziale in der internen Verlinkung 2016

Justus Blümer ist Consultant bei dem Unternehmen Wingmen Online Marketing. Er kommt ursprünglich eher aus der Entwicklungsrichtung und hat deswegen einen relativ technischen Hintergrund. Hauptsächlich beschäftigt er sich mit der Optimierung von relativ großen Systemen, sowohl in inhaltlicher als auch in technischer Hinsicht. Meist handelt es sich dabei um redaktionelle Portale mit 100.000 bis einer Million Unterseiten. Somit fokussiert er sich auf die Dinge, die hier starke Veränderungen bewirken können und interne Verlinkung ist dabei natürlich ein Schwerpunkt. Um die Websites auszuwerten ist Webanalyse sehr wichtig, wobei Blümer besonders Google Analytics sehr viel verwendet. Zum Erheben der entsprechenden Daten kann man JavaScript gut gebrauchen, weshalb Blümer auch dieses häufig benutzt.

Grundlegendes Wissen zur internen Verlinkung

Ein Fehler, der oft bei der Benennung von Links gemacht wird, ist eine mangelnde Beziehung zum Kontext. Titel wie „Weiterlesen“, „mehr“ und „Hier erfahren Sie mehr“ sind nicht sehr aussagekräftig und somit von geringer Anziehungskraft. Man sollte stattdessen sogenannte sprechende Linktexte einsetzen, die genau mitteilen wohin man weitergeleitet wird. Kontextbezogenheit ist also wichtig. Dadurch kann der Nutzer sich besser orientieren und Google erkennt die enthaltenen Begriffe und kann sie als Rankingfaktor für die Zielseite benutzen.
Bei Konsistenz handelt es sich ebenfalls um einen häufigen Fehler. Oft verlinken Seiten mit demselben Beschreibungstext auf verschiedene Seiten. Das ist insofern entschuldbar, als dass bei sehr großen Seiten eine Koordination, was das angeht sehr schwierig ist.
Weiterhin sollte man auch nicht gleiche URLs variiert verlinken. Das ist vorwiegend ein technisches Problem. Man sollte zum Beispiel immer das korrekte Protokoll verlinken. Das bewirkt, das Google immer nur eine Website aufrufen muss und beeinflusst das Crawling-Budget. Prinzipiell ist es immer besser, HTTPS einzusetzen, da dieses Protokoll verschlüsselt und kostenlos ist. Weiterhin sollte man auch entweder konsequent den Trailing Slash am Ende der URL setzen oder weglassen. Hierbei sollte auch immer sichergestellt werden, dass die eine URL im Falle eines Falles auch immer auf die andere weiterleitet. Browser sind auch oft in der Lage, die URLs entsprechend umzuschreiben. Auch die Groß- und Kleinschreibung besitzt eine gewisse Bedeutung, da sie eine komplett neue URL ausmacht. Bei ihr sollte man ebenfalls auf einer Standardisierung bestehen.

Semantik

Bei Semantik geht es darum, wie man einen inhaltlichen Kontext transportiert und was ein Link eigentlich wirklich über die Zielseite aussagt.

Zusammenfassen von internen Links

Erste wichtige Maßnahme, die man hier ergreifen sollte, ist das Zusammenfassen von identischen Links. Auf der Landingpage von Freitag.de findet man zum Beispiel eine Kurzbeschreibung von einem Interview. Diese besteht aus einem Bild, einer Überschrift und einem kurzen Text, die alle drei zu demselben Interview verlinken. Das ist ungünstig, da Google erkennt, dass die drei Links dasselbe Nutzerbedürfnis bedienen und nicht in der Lage ist automatisch den sinnvollsten herauszusuchen. Im Normalfall wird einfach der erste genommen.

Besser macht es Sport 1, die ganz ähnliche Elemente für Artikel auf ihrer Seite haben. Die Website nutzt die Möglichkeiten, die es seit HTML 5 gibt und legt Links um Blockelemente, sodass es nur noch eine Verknüpfung gibt, die Google ganz einfach erkennen kann.

Internes Tracking

Ein weiteres Thema, das sehr häufig zu finden ist, ist das interne Tracking. Mit dessen Hilfe ist es Technikern möglich, zu sehen, welche Links überhaupt angeklickt werden. So können sie feststellen, auf welchen Schaltflächen man Verknüpfungen platzieren sollte. Naheliegend ist es hierbei, für die Auswertung UTM-Parameter von Google Analytics anzufügen. Dabei gibt es allerdings mehrere große Probleme. Durch den Parameter wird eine vollkommen andere URL verlinkt, sodass Google diese auch noch crawlen muss. Wenn ein User außerdem den Inhalt der URL gut findet und ihn zum Beispiel auf sozialen Medien weiter verlinkt, dann tut er dies auch wieder mit der parametrisierten URL. Das führt zu falschen Trackingdaten, da User, die die Teaserfläche des Links gar nicht gesehen oder angeklickt haben, auch als Benutzer der URL gezählt werden. Außerdem geht der Traffickanal verloren, das heißt es kann nicht mehr festgestellt werden, ob der User von sozialen Medien oder durch SEO auf die Seite gekommen ist, da die Quellendaten des Users überschrieben werden.

Interne No-Follow-Links

Ein weiteres Problem sind häufige, sinnlos eingesetzte, interne No-Follow-Links. Diese weisen die Suchmaschinen an, Links auf andere Seite nicht einzubeziehen, wenn deren Linkpopularität berechnet wird. Die einzige Verwendung, die es dafür mal gab, war das sogenannte Page-Rank-Sculpting. Dieses sollte Google, abseits von der wirklichen durch die Nutzer wahrgenommene Realität der Linkstruktur, eine andere Wichtigkeit der einzelnen Seiten vorgaukeln und so bestimmte Seiten gezielt stärken. Das funktioniert allerdings schon lange nicht mehr, da Google entsprechend modifiziert wurde. Es gibt derzeit nur zwei Gründe für No-Follow-Links, die sich aber nur auf externe Links anwenden lassen. Entweder bekommt man für den speziellen Link dieser Art eine Gegenleistung oder es existiert keine redaktionelle Kontrolle über ihn, das heißt er wurde zum Beispiel von einem User in ein Forum gestellt.

Interaktionselemente als Links

Interaktionselemente auf einer Seite werden häufig als Links gesetzt. Das ist falsch. Auf Lichtblick.de findet man zum Beispiel eine Einstellungsmöglichkeit für die Schriftgröße, die als a-Tag ausgezeichnet ist. Viel geeigneter wäre hier allerdings ein Button, was auch nicht unbedingt das Aussehen der Seite beeinflussen würde. Dafür fällt einem dann die Analyse sehr viel leichter und Google wundert sich nicht, dass man ohne Ziel verlinkt, da es sich bei der Schriftgrößenveränderung nun mal um ein Interaktionselement handelt und nicht um eine Weiterleitung auf eine andere Website.
Ein ähnliches Thema muss man in Zusammenhang mit der Website von Xing Coaches behandeln. Hier gibt es einen kleinen Merken-Button neben den Profilen der einzelnen Trainer. Dieser sollte ebenfalls kein Link sein, da sich nur ein kleines Pop-up-Fenster öffnet und der Nutzer nicht auf eine gesonderte URL weitergeleitet wird. Diese Problemstellung lässt sich am besten über Java Script mit Klicklistenern und Post-Requests lösen. So werden keine zusätzlichen URLs erzeugt und Google kann sich auf die wirklich relevanten Seiten konzentrieren.

 

Interaktionselemente Verlinkungen Suchmaschinenoptimierung

Interaktionselemente: Buttons sind hier sinnvoller als Links mit a-tag.

 

UX

Die UX bezeichnet die User Experience, das heißt die Erfahrung des Nutzers mit der Website. Es geht also weniger um Google und mehr um den Nutzer an sich.

Versteckte Links

Die erste Erkenntnis, die hier zu nennen ist, zeigt auf, dass versteckte Links einen geringen Nutzwert haben. Ein gutes Beispiel ist die Website des Bundesministeriums für Wirtschaft und Energie. Dort findet man einen Slider, der verschiedene Themenbereiche in zeitlichen Intervallen anzeigt. Wahrscheinlich konnte man sich einfach nicht darüber einigen, welche Inhalte priorisiert werden sollten. So muss der Nutzer dauernd zurückklicken, da der Slider relativ schnell ist und man den angezeigten Text niemals in der zur Verfügung gestellten Zeit durchlesen kann. Die User werden also die meisten Inhalte des Sliders nie zu Gesicht bekommen. Google reagiert darauf auch, da das Programm die Seite durchrendert und so feststellt, dass bestimmte Elemente nicht sichtbar sind. Ähnliche ungünstige Elemente sind Fly-out-Boxen und Carousels.

Der Entwickler ist nicht der User!

Wichtig ist es auch, immer im Hinterkopf zu behalten, dass man selbst nicht der User ist. Der Nutzer sitzt wahrscheinlich nicht vor einem 27 Zoll Monitor, sondern benutzt genervt sein Handy in einer U-Bahn. Deshalb sollte man erstens immer die Seiten an mobile Nutzung anpassen und zweitens berücksichtigen, dass der Besucher der Seite wahrscheinlich keine Zeit für ein exploratives Navigieren hat. Die Führung des Nutzers ist also wichtig. Außerdem sollte man sich das Chrome Developer Tool anschauen, mit dem sich mobile Seiten für verschiedene Endgeräte simulieren lassen, was eine bessere Einschätzung des Endergebnisses ermöglicht. Die Platzierung der internen Links hat ebenfalls eine direkte Wirkung auf die Nutzersignale und sollte somit geschickt durchgeführt werden. Wenn der Nutzer sofort feststellen kann, dass er über die Links die gesuchten Inhalte findet, dann ist die Gefahr, dass er sofort zurückklickt viel geringer, was Google natürlich positiv bewertet.

Choice Paralysis

Vermeiden sollte man auch Choice Paralysis. Das bedeutet, dass der User durch zu viele Möglichkeiten überfordert wird. Das Optimum lässt sich hier durch A/B Tests finden.
Ebenfalls wichtig ist es, 404 Fehler priorisiert anzugehen. 404 Fehler passieren insbesondere auf großen Websites selbst den Besten, wenn zum Beispiel ein Redakteur durch Zufall eine Seite löscht. Sie sollten allerdings natürlich vermieden werden, da dem Nutzer eine leere Seite angezeigt wird und er somit unzufrieden ist. 404 Fehler kann man mit einem speziellen Titel wie „Seite nicht gefunden“ filtern und so diejenigen finden, die wirklich schaden, da sie des Öfteren aufgerufen werden. Dieser priorisierten Links kann man sich dann annehmen und so effizient Fehler beseitigen. Außerdem kann man mit Google Analytics einen automatisierten Bericht erstellen, sodass man eine E-Mail erhält, wenn wieder gehäuft 404 Fehler auftreten.

Speed-Boost

Am Ende des UX-Themas steht noch eine High-End-Verbesserung, die derzeit noch sehr selten eingesetzt wird, weil damit erheblicher Aufwand einhergeht. Es handelt sich um eine Beschleunigung der internen Links. Durch verschiedene neue Technologien, wie zum Beispiel AMP, wird der Nutzer immer mehr in einer Richtung erzogen, die ihm die Möglichkeit gibt, Inhalte sofort zu erhalten. Das bedeutet, dass Ladezeiten schnell für eine große Nutzerunzufriedenheit sorgen. Deshalb ist es sinnvoll, Inhalte vorzuladen und sogar schon die Darstellung im Voraus zu berechnen. Das bezeichnet man auch als Prefetching und Prerendering. Wenn man zum Beispiel weiß, dass 50 Prozent der Nutzer als nächstes auf einen bestimmten Link klicken, dann ist es sinnvoll, diesen im Voraus zu laden. So lassen sich viele Vorgänge erheblich beschleunigen.

Quantitative Verlinkung: “Viel hilft viel?”

Bei der quantitativen Verlinkung geht es darum, wie häufig Seiten innerhalb des kompletten Websitekonstruktes miteinander verlinkt werden. Man will natürlich erreichen, dass einerseits alle Seiten erreichbar sind und andererseits die relevanteren Seiten häufiger verlinkt sind, um sie im Google Ranking zu stärken.
Dafür sind HTML-Sitemaps nach wie vor eine gute Maßnahme, da sie die Linkstruktur verdeutlichen. Sie sorgen dafür, dass Google sich besser in den einzelnen URLs zurechtfindet. Für den Nutzer ist kein wirklicher Mehrwert vorhanden, weshalb es sinnvoll ist, die Sitemap auf den Index zu setzen.
Sehr hilfreich ist es auch, das Tool Screaming Frog zu nutzen. Diese kostet ungefähr 100 Dollar im Jahr, die Ausgaben halten sich also in Grenzen. Das Tool erlaubt es einem, auf schnelle und einfache Art und Weise die interne Verlinkung zu kontrollieren. Je nachdem was für einen Rechner man zur Verfügung stehen hat, fängt es aber ab 150.000 URLs an zu ruckeln, weshalb man nicht mehr Seiten auf einmal überwachen sollte. Außerdem ist die Oberfläche recht begrenzt, weshalb man sich nicht auf das Tool beschränken, sondern Exporte benutzen sollte, da sich so zusätzlich Daten einbinden lassen. Gut geeignet sind hierfür DeepCrawl, Audisto oder aber auch mit JavaScript erstellte Eigenbau-Varianten

Weiterhin ist es wichtig, die interne Verlinkung in die eigenen Tests aufzunehmen. Bei jeder Veränderung sollte man sich vorher anschauen, inwiefern dadurch Seiten besser oder schlechter verlinkt sind und ob dies den eigenen Erwartungen entspricht. Zu diesem Zweck legt man zum Beispiel ein Excel-Sheet an und überwacht mit Hilfe eines Exports in dieses Sheet, wie viele Links auf die jeweiligen URLs führen. So sind Veränderungen zumindest bei den wichtigeren Seiten leicht festzustellen. Für die Kontrolle der qualitativen Verlinkung bietet sich eine PageRank an. Wenn man zum Beispiel ein Händlerverzeichnis mit 1.000 Händlern hat, die sich alle untereinander jeweils einmal verlinken, dann hat jedes dieser Händlerprofile schon 1000 interne Links. Wenn nun aber zu dem Händlerverzeichnis selbst nur sehr wenige Links führen, dann ist die qualitative Verlinkung relativ gering. Somit sollte man diese auch nicht vernachlässigen.

Qualitative Verlinkung – Monitoring des internen PageRank

Bei der qualitativen Verlinkung geht es nicht nur darum, wie viele Links auf eine bestimmte Seite führen, sondern auch darum, wie diese untereinander vererbt werden.
Zur Berechnung des PageRank eignen sich wiederum die Daten von Screaming Frog sehr gut. Exportieren kann das Programm die Daten allerdings nicht selbst. Dafür braucht man das kostenlose Tool Gephi, das relativ viele Ressourcen und Arbeitsspeicher benötigt. So lassen sich dann aber gut Unregelmäßigkeiten in der internen Verlinkung aufdecken und Seitenbereiche, die zu Unrecht stark verlinkt sind, finden.
Für Gephi exportiert man als erstes alle internen Links als CSV. Dann passt man die Datei all_inlinks.csv an, indem man die erste Zeile löscht und das Wort „Destination“ durch „Target“ ersetzt. Die Daten sind nun mit Gephi kompatibel und können importiert werden. Danach können sie zur Berechnung des PageRank benutzt werden.

Als Ausblick sei hier noch genannt, das man nicht nur die Reaktionen der User auf Optimierungen überprüfen kann, sondern auch die von Google. Dies geschieht durch die Auswertung der Logfiles. Je nachdem, wie man diese konfiguriert hat, kann man mit ihnen sämtliche Request nachverfolgen und so feststellen welche URLs der Google Bot wie häufig aufruft. So erhält man auch wertvolle Informationen zur Crawling-Frequenz. Elastic, logstash und kibana sind hier drei nützliche Tools, die einem bei der Analyse der Linkstruktur und der internen Verlinkung weiterhelfen.

Automatisierte interne Verlinkung

Besonders bei großen Websites, wie zum Beispiel Redaktionen, kann die interne Verlinkung schnell zu viel Arbeit und großem Aufwand führen. Hier ist eine Automatisierung ein wünschenswertes und wichtiges Hilfsmittel. Vorteile sind unter anderem, dass die Redakteure, die mit dem Produzieren von hochwertigem Content meist schon genügend beschäftigt sind, sich keine Gedanken mehr um das Einfügen von Links machen müssen und dass Behebungen von 404s und interne Weiterleitungen allgemein leichter fallen. Allerding führt eine Automatisierung auch zu einem eintönigen, internen Linkprofil, zu einer inhaltlich zusammenhangloseren Verlinkung und zu einer ungenauen Nutzerführung. Zum Beispiel kann es passieren, dass die Automatisierung bei doppeldeutigen Begriffen auf Websites verlinkt, die überhaupt nicht zum ursprünglichen Thema passen.
Deshalb sollte man keine vollautomatische Verlinkung einsetzen. Das Standardmodell hierbei ist meist eine Liste von Keywords zu erstellen und diese Wörtern URLs zuzuordnen, auf die beim Auftreten verlinkt wird. Eine solche Linkstruktur kann schnell Probleme, wie sinnlose Weiterleitungen verursachen.
Besser ist hier eine maschinell unterstützte interne Verlinkung. Das bedeutet, dass der Redakteur noch selber bestimmt, wohin verlinkt wird, aber dass man ihm mit Hilfe von CMS Vorschläge macht, die ihm die Arbeit insofern erleichtern, als dass er sich nicht dauernd darüber Gedanken machen muss, welcher der Tausend Artikel in der Datenbank denn nun gerade an dieser Stelle passt. Stattdessen kann er aus einer Liste mit potenziell geeigneten Texten auswählen, wodurch außerdem auch Fehler vermieden werden, da der Redakteur bemerkt, ob der Artikel passt oder nicht.
Ein mögliches Vorgehen ist es, eine Liste mit Shorthead Keywords vorzugeben. Diese Keywords werden dann im CMS hervorgehoben. Der Redakteur markiert die zugehörige passende Passage im Text und sorgt so dafür, dass ihm die Automatisierung inhaltlich sinnvolle und passende Vorschläge macht. Weiterhin kann man die Ausgabe der Suche auch noch priorisieren, indem man ihr zum Beispiel bestimmte Kriterien wie SEO Traffic, Artikellänge, Artikeldatum und andere vorgibt.

Erfahrungsgemäß dauert es eine relativ lange Zeit bis die Veränderungen in der internen Verlinkung und der Linkstruktur wirklich zu Ergebnissen führen. Man sollte sich also zwei bis drei Monate gedulden.