RankBrain, Machine Learning und die Zukunft von SEO

Beschreibung zum kostenlosen Online Marketing Webinar

Spätestens mit der Veröffentlichung von RankBrain ist klar: Google setzt bei seiner Suche auf Künstliche Intelligenz. In diesem Webinar erklärt Kai Spriestersbach, was es eigentlich mit künstlicher Intelligenz auf sich hat und was das für die Suchmaschinenoptimierung bedeutet. Insbesondere geht er darauf ein, was der aktuelle Stand in Sachen KI ist und wo (noch) die Grenzen liegen. Außerdem zeigt er, wie neuronale Netze und Deep Learning funktionieren.

 

Video zum Webinar

Webinar Termin:

16.06.2016

17:00 Uhr - 18:00 Uhr

Das wirst Du nach dem Webinar erreicht haben:

Nach dem Seminar verstehst Du besser, wie Neuronale Netze bzw. Deep Learning funktionieren und mit welchen Waffen Google zukünftig die Suchergebnisse weiter verbessern wird.

Zielgruppe

Jeder, für den das Thema organische Suche relevant ist und der sich auf die Zukunft im SEO vorbereiten will.

RankBrain, Machine Learning und die Zukunft von SEO

SEO steht mit dem Aufstieg von künstlicher Intelligenz vor neuen Herausforderungen. Selbstlernende Algorithmen wie RankBrain werden die Art, wie Suchmaschinentreffer ermittelt und sortiert werden, grundlegend ändern und SEO-Fachleute zu einem tiefgreifenden Umdenken zwingen. In diesem Webinar spricht Kai Spriesterbach über die Hintergründe und die Auswirkungen von Künstlichen Neuronalen Netzwerken (ANN), Deep Machine Learning und RankBrain.

Einleitung: Was ist künstliche Intelligenz?

Spriesterbach beginnt mit der Frage, was künstliche Intelligenz eigentlich ausmache. „Artificial Intelligence,“ zitiert er Douglas Hofstadter, „is whatever hasn‘t been done yet.“ – „Künstliche Intelligenz ist alles, was noch nicht erreicht wurde.“ Pamela McCorduck fügt hinzu: „Every time somebody figured out how to make a computer do something, there was a chorus of critics to say: ‚That‘s not thinking!‘“ – „Jedes Mal, wenn jemand es geschafft hat, dass ein Computer etwas Neues macht, hat ein Chor von Kritikern gesagt: ‚Aber das ist kein Denken!‘“ Künstliche Intelligenz wird also meist als Zukunftsmusik gesehen, egal, was Computer bereits können. Es ist daher schwer, genau abzugrenzen, ab wann von KI gesprochen werden sollte.

Computer können traditionell gewisse Sachen besonders gut und andere weitaus weniger gut als Menschen. Die Stärken von Computern sind schnelles und genaues Rechnen, das zuverlässige Befolgen von Anweisungen und mehrfaches Wiederholen des gleichen Prozesses. Andererseits sind Computer nicht gut darin, eigene Lösungswege zu finden, abstrakt zu denken und allgemein „menschlich“ zu sein. Als klassisches Kennzeichen einer weit entwickelten künstlichen Intelligenz gilt daher der Turing-Test: Eine künstliche Intelligenz, die diesen Test besteht, wäre in ihrem Verhalten nicht mehr von einem Menschen zu unterscheiden.

Bisher liegt diese Schwelle noch in der Zukunft, jedoch gibt es Prognosen, nach denen sie schon bald erreicht sein könnte. Die Rechenleistung, die für $1000 erhältlich ist, verdoppelt sich seit dem Jahr 1900 relativ konsistent alle 18 Monate. War es 1997 noch eine Sensation, dass ein Computer den menschlichen Schachweltmeister besiegen konnte, gewann 2011 bereits der Computer Watson in Jeopardy – einem weitaus „menschlicheren“ Spiel – und 2015 gewann Deep Mind in Go gegen menschliche Gegner. Die Entwicklung, die dies möglich macht, basiert nicht nur auf einem bloßen Ansteigen der verfügbaren Rechenleistung: Während Schach mit seinen 10⁵⁰ möglichen Zügen noch von einem hinreichend starken Computer mathematisch „gelöst“ werden kann, gibt es in Go 10¹⁷¹ mögliche Züge – eine unvorstellbare Zahl, die die geschätzte Anzahl der Atome im Universum, 4×10⁸⁰, um ein Weites übersteigt. Die ca. 10⁸ Operationen pro Sekunde, die ein durchschnittliches Insektengehirn durchführt, wurden von Computern im Wert von $1000 um die Jahrtausendwende erreicht, die 10¹⁵ Operationen eines menschlichen Gehirns sind für das Jahr 2025 angesetzt. Um 2060 soll die verfügbare Rechenleistung laut den gleichen Prognosen 10²⁶ und damit die Rechenleistung aller menschlichen Gehirne erreichen.

Der Erfolg von Computern in „menschlichen“ Spielen wie Jeopardy oder Go basiert auf neueren Entwicklungen in der Computertechnologie, die anstatt auf bloßes Rechnen auf lernende Maschinen setzen. Diese Technologie wird auch in anderen Feldern wie Gesichts-, Sprach- und Spamerkennung sowie in der Medizin verwandt. Auch Produktempfehlungen, etwa bei Amazon, bei Spotify oder im Aktienhandel, basieren darauf.

Neuronale Netzwerke und Deep Learning

Künstliche Neuronale Netzwerke

Wie werden diese Entwicklungen nun also von Suchmaschinen verwendet? Spriesterbach konzentriert sich in diesem Vortrag auf Googles Projekt „RankBrain“ und erklärt nun zunächst das Prinzip der neuronalen Netzwerke, das diesem zugrunde liegt.

Angelehnt sind derartige Netzwerke an neuronale Netzwerke in den Körpern von Lebewesen. Sobald ein hinreichend starker Stimulus von außen auf Nervenzellen trifft, wird dieser intern verarbeitet und ein entsprechender Output erzeugt. Welche Reaktion dabei genau gezeigt wird, hängt von einer vielschichtigen Verarbeitung in einem komplexen internen Netzwerk ab.

Künstliche neuronale Netzwerke (ANN) müssen zunächst aufgebaut werden. Da Computer in Zahlen, nicht in Worten denken, müssen Sätze zunächst in Zahlenkombinationen umgewandelt werden. Jedes Wort entspricht einer anderen Zahl, jeder Satz einem Set von Zahlen. Werden die Zahlen, die den Wörtern eines Satzes entsprechen, in einem mehrdimensionalen Koordinatensystem dargestellt, so kann ein Satz durch einen Vektor ausgedrückt werden. Da jeder Satz ein wenig anders ist, zeigt jeder Vektor in eine etwas andere Richtung. Spriesterbach geht auf die mathematischen Hintergründe exkursartig ein, seine weiteren Erläuterungen sind jedoch auch ohne Kenntnisse der Vektorenrechnung zu verstehen.

Der Computer muss nun den fraglichen Satz nicht direkt verstehen. Vielmehr muss er lernen, Verbindungen zwischen den Daten zu sehen, mit denen er gefüttert wird. Spriesterbach zeigt als Beispiel den Satz „Etwas ist faul im Staate Dänemark“ – ein Zitat aus Shakespeares Hamlet. Wird ein ANN mit dem Text dieses Theaterstücks gefüttert, lernt es unter anderem, dass die Zahlenkombination, die dem oben genannten Satz entspricht, von Shakespeare ist. Wird ihm nun der gleiche Satz noch einmal präsentiert, weiß es bereits, dass es sich um ein Shakespeare-Zitat handelt. Wird ihm dagegen eine lediglich ähnliche Zahlenkombination gezeigt, zeigt das ANN keinen vergleichbaren Output.

Intelligente Algorithmen

Auch komplexere Anfragen an ANNs werden möglich: Ein Netzwerk, das sich an die Muster und Wortbeziehungen einer menschlichen Sprache gewöhnt hat, versteht beispielsweise, dass der Input „König – Mann + Frau“ zu dem Output „Königin“ führen soll. Eine Suche nach „Schweden“ findet assoziierte Begriffe wie „Norwegen“ oder „Dänemark“. Das ANN muss nicht verstehen, dass es sich bei all diesen Begriffen um Ländernamen handelt, um Verbindungen zu identifizieren. Als weiteres Beispiel ist jeder Ländername mit dem Namen der jeweiligen Hauptstadt assoziiert – wiederum ganz ohne dass das ANN weiß, dass es sich um Städte und Länder handelt.

Unter dem Stichwort „Deep Learning“ werden derartige Lernprozesse heute genutzt, um beispielsweise die Bildersuche zu verbessern. So erkennt Google Brain heute Katzen, da es eine große Anzahl Katzenbilder „gesehen“ und dadurch Erwartungen aufgebaut hat, wie Katzen typischerweise aussehen. Auch das maschinelle Auslesen von durch Menschen ausgefüllte Formulare wurde durch Deep Learning verbessert: Ein ANN, das eine große Anzahl von Arten gesehen hat, auf die Menschen beispielsweise die Zahl 9 schreiben, entwickelt die Fähigkeit, auch die „9“-en in den Handschriften von bisher unbekannten Personen zu erkennen, solange die Zahlen nicht allzu ungewöhnlich aussehen. Je größer der „Trainings“-Datensatz, desto zuverlässiger die künftigen Ergebnisse.

Doch nicht nur das: Ein ANN, das genug „trainiert“ wurde, erkennt Cluster und Trends und kann somit selbstständig eigene Inhalte erzeugen. Ein ANN, das mit genug Shakespeare-Zitaten gefüttert wurde, kann beispielsweise weitere Sätze „im Stil von Shakespeare“ erzeugen. Diese sind nicht notwendigerweise sinnvoll, sondern basieren lediglich auf statistischen Häufigkeiten. Eine ähnliche Technologie wird auf der Website Jukebox genutzt, auf der Algorithmen Musikstücke komponieren können, die auf den Genre- und Stimmungsangaben der Nutzer aufbauen. Das ANN hat aus einer Vielzahl von Musikstücken gelernt, wie beispielsweise ein trauriges Elektro-Stück „typischerweise“ oder statistisch gesehen klingt und kann ein weiteres statistisch wahrscheinliches Stück schaffen.

Ein sogenannter „evolutionärer Algorithmus“ verbessert sich selbst, während er verschiedene Verknüpfungen ausprobiert. So lernte ein Algorithmus, Super Mario zu spielen. Die einzige Anweisung, die ihm zu diesem Zweck gegeben wurde, war: lauf so weit wie möglich nach rechts. Durch unzählige Wiederholungen des Levels schaffte der Algorithmus es schließlich, selbiges zu durchqueren, ohne überhaupt den Unterschied zwischen den verschiedenen Objekten, die einem Spieler in diesem Spiel begegnen, zu begreifen.

Was hat das mit SEO zu tun?

Derartige Entwicklungen haben so weitreichende Implikationen für SEO, dass Spriesterbach seine eigene Frage „Ist SEO tot?“ mit „Ja und nein“ beantworten muss. ANNs haben das Potential, die Art, wie Suchanfragen verarbeitet werden, vollkommen zu verändern. Wenn sich ein Netzwerk daran gewöhnt, dass die Suchanfragen „Wetter Berlin“ und „Wie wird es morgen in Berlin?“ das Gleiche bedeuten, fällt die Bedeutung von Keyword-Optimisation. Synonyme oder verwandte Begriffe müssen nicht mehr genannt werden, da die Suchmaschine es nun erkennt, wenn sich von der Wortwahl her völlig unterschiedliche Suchanfragen auf das gleiche Thema beziehen. Stattdessen gewinnen Kontext und Nutzerverhalten an Bedeutung für die Bewertung einer Website.

RankBrain und kontextsensitive Suche

Googles selbstlernender Algorithmus, der zur Weiterentwicklung der Suchergebnisse verwendet wird, heißt RankBrain. RankBrain verbessert die „klassische“ Suche und nutzt dabei weiterhin als Basis die SEO-Rankingfaktoren wie Backlinks, Trust oder Nutzerdaten. Allerdings verwendet es darüber hinaus das oben erklärte Machine Learning, um aus dem Verhalten der Nutzer zu lernen, welche Treffer am relevantesten sind. Sozusagen „aus Erfahrung“, also aus der Beobachtung davon, welche Suchanfragen das Gleiche zu bedeuten scheinen, lernt RankBrain, wie die gefundenen Treffer zu sortieren sind.

Dies verändert die Art, wie Google Suchbegriffe verarbeitet: Während früher einige Begriffe wie Füllwörter bei der Suche ignoriert wurden, kommt es mit RankBrain auf den Suchbegriff als Ganzes statt auf die Einzelwörter an. Wiederum ist dies am besten durch das Bild des Vektors zu verstehen: fehlt ein Wort im Satz, dann zeigt der Vektor in eine andere Richtung, der Suchbegriff ist damit ein anderer – unter Umständen sogar ein völlig anderer. Jedes Wort verändert die Bedeutung des Satzes, der nun von der Suchmaschine als ein Objekt statt als Ansammlung von Wörtern begriffen wird.

Die Suche wird auf diese Weise kontextsensitiver und fokussiert sich mehr darauf, was „normalerweise“ gewünscht wird, wenn ein bestimmter Ausdruck gesucht wird. Spriesterbach zeigt Screenshots von einer Suchanfrage – „why are pdfs so weak“ – die einmal Mitte 2015, also vor der Implementierung von RankBrain, und einmal Anfang 2016 durchgeführt wurde. Noch Mitte 2015 wertete Google die Erwähnung des Begriffs „pdfs“ als Anhaltspunkt, dass vor allem Dateien vom Typ PDF gezeigt werden sollten. Als Ergebnisse wurden daher PDF-Dateien gezeigt, die beispielsweise die Schwäche des irakischen Widerstands im dritten Golfkrieg oder die Schwäche der Schwerkraft diskutierten. Anfang 2016, mit der neuen kontextsensitiven Suche, wurde der Satz jedoch als Ganzes verarbeitet und der erste Treffer war ein Artikel – keine PDF-Datei – über die Schwäche von PDF-Verschlüsselung. Dadurch, dass Google den Satz als Ganzes verarbeitete, verstand die Suchmaschine, dass „pdfs“ an dieser Stelle als Thema, nicht als gewünschtes Dateiformat gemeint war.

In der deutschsprachigen Suche war dies zum Zeitpunkt des Vortrags noch nicht implementiert, sodass eine Testsuchanfrage „Wer ist Abs“ zu Artikeln über das Antiblockiersystem von Autos oder über Bauchmuskeltraining führte. Eine kontextsensitive Verarbeitung der Suchanfrage hätte verstanden, dass das Fragewort „wer“ auf eine Person hindeutet und hätte daher Suchergebnisse, die Personen namens Abs behandeln, priorisiert.

Eine Studie aus dem Jahre 2016, die untersuchte, welche Rankingfaktoren momentan wirklich bedeutsam sind, fand heraus, dass dies unter der neuen kontextsensitiven Suche in verschiedenen Themenbereichen durchaus unterschiedlich sein kann. Ein früher gültiger Ratschlag wie „mehr Backlinks sind besser“ ist nicht mehr uneingeschränkt gültig – die Studie fand bei Online-Shops eine positive Korrelation zwischen einem hohen Ranking und vielen Backlinks, während bei Seiten über Darlehen eine Negative festgestellt wurde. Interne Verlinkungen wiesen keinen signifikanten Effekt auf, eine höhere Textlänge nur einen leicht Positiven. Dafür gewannen andere Aspekte an Bedeutung: da RankBrain „gelernt“ hatte, dass Online-Shops normalerweise interaktive Elemente aufweisen, wurden bei Anfragen nach Einkaufsmöglichkeiten Seiten mit vielen interaktiven Elementen und insbesondere „Add to Cart“-Buttons bevorzugt.

Spriesterbach zieht daraus den Schluss, dass SEO nach wie vor wichtig ist, sich aber mit zunehmender Geschwindigkeit verändert. RankBrain wird zwar bisher nicht bei allen Suchphrasen eingesetzt, allerdings kommt es mehr und mehr zur Anwendung. In diesem neuen Paradigma ist tatsächliche Relevanz der fraglichen Website für Suchanfragen wichtiger denn je. Inhalte müssen vor allem zu den Anforderungen der Nutzer passen, da diese durch ihr Surfverhalten der Suchmaschine zeigen, ob die aufgerufene Seite das ist, was sie sehen wollten.

Welche Anpassungen von SEO sind notwendig?

Generell, so Spriesterbach, sollte man sich auf die Veränderungen, die die Implementierung von Machine Learning bei Suchmaschinen mit sich bringt, rechtzeitig einstellen. Die Fragen, die Website-Betreiber sich stellen sollten, sind: Was ist Googles Ziel? In welche Richtung entwickelt sich die Technik? Aufgrund der neuen kontextsensitiven Suche ist es wichtiger, die wirklichen Bedürfnisse der Nutzer zu verstehen, als zu versuchen, durch Tricks in den Rankings aufzusteigen.

In der Q&A schränkt Spriesterbach dies allerdings ein wenig ein: Auch im Zeitalter von RankBrain gebe es Methoden, sich auf eher kreative Weise in den Suchergebnissen nach vorne zu bewegen. So können beispielsweise Rezensionen künstlich erstellt werden, die so aussehen, als seien sie von echten Menschen. Dies ist ein Teil des Userfeedbacks, den die kontextsensitive Suche mit einbezieht.

Abgesehen davon sollten sich Betreiber genau ansehen, bei welchen Suchbegriffen sie ranken und ihr Angebot darauf anpassen, was User suchen, wenn sie über diese Suchbegriffe auf die Seite kommen. Denn: erhält eine Seite viele Aufrufe, das Nutzungsverhalten der User lässt aber darauf schließen, dass diese mit der Seite nicht zufrieden sind, dann kann dies einer Seite im RankBrain-System eher schaden als nützen. Bleiben die Reaktionen negativ, kann es sogar besser sein, auf bestimmte Begriffe nicht mehr zu ranken, um die allgemeine Qualität der Seite in den Augen von RankBrain nicht zu gefährden.

Doch wie kann die Zufriedenheit der Nutzer gesteigert werden? Eine direkte Befragung der User ist, so Spriesterbach, die beste Möglichkeit, herauszufinden, was von der Seite gewünscht wird. Davon abgesehen sollte verstärkt auf eine Kombination von informativen Texten und kommerziellen Angeboten gesetzt werden, idealerweise auf der derselben Unterseite. Google bezieht SEO-Texte weiterhin in den Suchprozess mit ein, nur wird nun außerdem betrachtet, wie Nutzer mit der Seite interagieren.

Auch macht Google es, so Spriesterbach, mit seinem neuen System kleinen, neuen Läden schwerer, hoch zu ranken. Hier rät Spriesterbach, entweder stärker auf lokale Bezüge zu setzen und so Kunden in der eigenen Umgebung anzuziehen oder besonders auf Service zu setzen, da gerade die großen, etablierten Geschäfte, die in RankBrain weit oben erscheinen, in diesem Feld oftmals Defizite aufweisen.

RankBrain, Machine Learning und die Zukunft von SEO

SEO steht mit dem Aufstieg von künstlicher Intelligenz vor neuen Herausforderungen. Selbstlernende Algorithmen wie RankBrain werden die Art, wie Suchmaschinentreffer ermittelt und sortiert werden, grundlegend ändern und SEO-Fachleute zu einem tiefgreifenden Umdenken zwingen. In diesem Webinar spricht Kai Spriesterbach über die Hintergründe und die Auswirkungen von Künstlichen Neuronalen Netzwerken (ANN), Deep Machine Learning und RankBrain.

Einleitung: Was ist künstliche Intelligenz?

Spriesterbach beginnt mit der Frage, was künstliche Intelligenz eigentlich ausmache. „Artificial Intelligence,“ zitiert er Douglas Hofstadter, „is whatever hasn‘t been done yet.“ – „Künstliche Intelligenz ist alles, was noch nicht erreicht wurde.“ Pamela McCorduck fügt hinzu: „Every time somebody figured out how to make a computer do something, there was a chorus of critics to say: ‚That‘s not thinking!‘“ – „Jedes Mal, wenn jemand es geschafft hat, dass ein Computer etwas Neues macht, hat ein Chor von Kritikern gesagt: ‚Aber das ist kein Denken!‘“ Künstliche Intelligenz wird also meist als Zukunftsmusik gesehen, egal, was Computer bereits können. Es ist daher schwer, genau abzugrenzen, ab wann von KI gesprochen werden sollte.

Computer können traditionell gewisse Sachen besonders gut und andere weitaus weniger gut als Menschen. Die Stärken von Computern sind schnelles und genaues Rechnen, das zuverlässige Befolgen von Anweisungen und mehrfaches Wiederholen des gleichen Prozesses. Andererseits sind Computer nicht gut darin, eigene Lösungswege zu finden, abstrakt zu denken und allgemein „menschlich“ zu sein. Als klassisches Kennzeichen einer weit entwickelten künstlichen Intelligenz gilt daher der Turing-Test: Eine künstliche Intelligenz, die diesen Test besteht, wäre in ihrem Verhalten nicht mehr von einem Menschen zu unterscheiden.

Bisher liegt diese Schwelle noch in der Zukunft, jedoch gibt es Prognosen, nach denen sie schon bald erreicht sein könnte. Die Rechenleistung, die für $1000 erhältlich ist, verdoppelt sich seit dem Jahr 1900 relativ konsistent alle 18 Monate. War es 1997 noch eine Sensation, dass ein Computer den menschlichen Schachweltmeister besiegen konnte, gewann 2011 bereits der Computer Watson in Jeopardy – einem weitaus „menschlicheren“ Spiel – und 2015 gewann Deep Mind in Go gegen menschliche Gegner. Die Entwicklung, die dies möglich macht, basiert nicht nur auf einem bloßen Ansteigen der verfügbaren Rechenleistung: Während Schach mit seinen 10⁵⁰ möglichen Zügen noch von einem hinreichend starken Computer mathematisch „gelöst“ werden kann, gibt es in Go 10¹⁷¹ mögliche Züge – eine unvorstellbare Zahl, die die geschätzte Anzahl der Atome im Universum, 4×10⁸⁰, um ein Weites übersteigt. Die ca. 10⁸ Operationen pro Sekunde, die ein durchschnittliches Insektengehirn durchführt, wurden von Computern im Wert von $1000 um die Jahrtausendwende erreicht, die 10¹⁵ Operationen eines menschlichen Gehirns sind für das Jahr 2025 angesetzt. Um 2060 soll die verfügbare Rechenleistung laut den gleichen Prognosen 10²⁶ und damit die Rechenleistung aller menschlichen Gehirne erreichen.

Der Erfolg von Computern in „menschlichen“ Spielen wie Jeopardy oder Go basiert auf neueren Entwicklungen in der Computertechnologie, die anstatt auf bloßes Rechnen auf lernende Maschinen setzen. Diese Technologie wird auch in anderen Feldern wie Gesichts-, Sprach- und Spamerkennung sowie in der Medizin verwandt. Auch Produktempfehlungen, etwa bei Amazon, bei Spotify oder im Aktienhandel, basieren darauf.

Neuronale Netzwerke und Deep Learning

Künstliche Neuronale Netzwerke

Wie werden diese Entwicklungen nun also von Suchmaschinen verwendet? Spriesterbach konzentriert sich in diesem Vortrag auf Googles Projekt „RankBrain“ und erklärt nun zunächst das Prinzip der neuronalen Netzwerke, das diesem zugrunde liegt.

Angelehnt sind derartige Netzwerke an neuronale Netzwerke in den Körpern von Lebewesen. Sobald ein hinreichend starker Stimulus von außen auf Nervenzellen trifft, wird dieser intern verarbeitet und ein entsprechender Output erzeugt. Welche Reaktion dabei genau gezeigt wird, hängt von einer vielschichtigen Verarbeitung in einem komplexen internen Netzwerk ab.

Künstliche neuronale Netzwerke (ANN) müssen zunächst aufgebaut werden. Da Computer in Zahlen, nicht in Worten denken, müssen Sätze zunächst in Zahlenkombinationen umgewandelt werden. Jedes Wort entspricht einer anderen Zahl, jeder Satz einem Set von Zahlen. Werden die Zahlen, die den Wörtern eines Satzes entsprechen, in einem mehrdimensionalen Koordinatensystem dargestellt, so kann ein Satz durch einen Vektor ausgedrückt werden. Da jeder Satz ein wenig anders ist, zeigt jeder Vektor in eine etwas andere Richtung. Spriesterbach geht auf die mathematischen Hintergründe exkursartig ein, seine weiteren Erläuterungen sind jedoch auch ohne Kenntnisse der Vektorenrechnung zu verstehen.

Der Computer muss nun den fraglichen Satz nicht direkt verstehen. Vielmehr muss er lernen, Verbindungen zwischen den Daten zu sehen, mit denen er gefüttert wird. Spriesterbach zeigt als Beispiel den Satz „Etwas ist faul im Staate Dänemark“ – ein Zitat aus Shakespeares Hamlet. Wird ein ANN mit dem Text dieses Theaterstücks gefüttert, lernt es unter anderem, dass die Zahlenkombination, die dem oben genannten Satz entspricht, von Shakespeare ist. Wird ihm nun der gleiche Satz noch einmal präsentiert, weiß es bereits, dass es sich um ein Shakespeare-Zitat handelt. Wird ihm dagegen eine lediglich ähnliche Zahlenkombination gezeigt, zeigt das ANN keinen vergleichbaren Output.

Intelligente Algorithmen

Auch komplexere Anfragen an ANNs werden möglich: Ein Netzwerk, das sich an die Muster und Wortbeziehungen einer menschlichen Sprache gewöhnt hat, versteht beispielsweise, dass der Input „König – Mann + Frau“ zu dem Output „Königin“ führen soll. Eine Suche nach „Schweden“ findet assoziierte Begriffe wie „Norwegen“ oder „Dänemark“. Das ANN muss nicht verstehen, dass es sich bei all diesen Begriffen um Ländernamen handelt, um Verbindungen zu identifizieren. Als weiteres Beispiel ist jeder Ländername mit dem Namen der jeweiligen Hauptstadt assoziiert – wiederum ganz ohne dass das ANN weiß, dass es sich um Städte und Länder handelt.

Unter dem Stichwort „Deep Learning“ werden derartige Lernprozesse heute genutzt, um beispielsweise die Bildersuche zu verbessern. So erkennt Google Brain heute Katzen, da es eine große Anzahl Katzenbilder „gesehen“ und dadurch Erwartungen aufgebaut hat, wie Katzen typischerweise aussehen. Auch das maschinelle Auslesen von durch Menschen ausgefüllte Formulare wurde durch Deep Learning verbessert: Ein ANN, das eine große Anzahl von Arten gesehen hat, auf die Menschen beispielsweise die Zahl 9 schreiben, entwickelt die Fähigkeit, auch die „9“-en in den Handschriften von bisher unbekannten Personen zu erkennen, solange die Zahlen nicht allzu ungewöhnlich aussehen. Je größer der „Trainings“-Datensatz, desto zuverlässiger die künftigen Ergebnisse.

Doch nicht nur das: Ein ANN, das genug „trainiert“ wurde, erkennt Cluster und Trends und kann somit selbstständig eigene Inhalte erzeugen. Ein ANN, das mit genug Shakespeare-Zitaten gefüttert wurde, kann beispielsweise weitere Sätze „im Stil von Shakespeare“ erzeugen. Diese sind nicht notwendigerweise sinnvoll, sondern basieren lediglich auf statistischen Häufigkeiten. Eine ähnliche Technologie wird auf der Website Jukebox genutzt, auf der Algorithmen Musikstücke komponieren können, die auf den Genre- und Stimmungsangaben der Nutzer aufbauen. Das ANN hat aus einer Vielzahl von Musikstücken gelernt, wie beispielsweise ein trauriges Elektro-Stück „typischerweise“ oder statistisch gesehen klingt und kann ein weiteres statistisch wahrscheinliches Stück schaffen.

Ein sogenannter „evolutionärer Algorithmus“ verbessert sich selbst, während er verschiedene Verknüpfungen ausprobiert. So lernte ein Algorithmus, Super Mario zu spielen. Die einzige Anweisung, die ihm zu diesem Zweck gegeben wurde, war: lauf so weit wie möglich nach rechts. Durch unzählige Wiederholungen des Levels schaffte der Algorithmus es schließlich, selbiges zu durchqueren, ohne überhaupt den Unterschied zwischen den verschiedenen Objekten, die einem Spieler in diesem Spiel begegnen, zu begreifen.

Was hat das mit SEO zu tun?

Derartige Entwicklungen haben so weitreichende Implikationen für SEO, dass Spriesterbach seine eigene Frage „Ist SEO tot?“ mit „Ja und nein“ beantworten muss. ANNs haben das Potential, die Art, wie Suchanfragen verarbeitet werden, vollkommen zu verändern. Wenn sich ein Netzwerk daran gewöhnt, dass die Suchanfragen „Wetter Berlin“ und „Wie wird es morgen in Berlin?“ das Gleiche bedeuten, fällt die Bedeutung von Keyword-Optimisation. Synonyme oder verwandte Begriffe müssen nicht mehr genannt werden, da die Suchmaschine es nun erkennt, wenn sich von der Wortwahl her völlig unterschiedliche Suchanfragen auf das gleiche Thema beziehen. Stattdessen gewinnen Kontext und Nutzerverhalten an Bedeutung für die Bewertung einer Website.

RankBrain und kontextsensitive Suche

Googles selbstlernender Algorithmus, der zur Weiterentwicklung der Suchergebnisse verwendet wird, heißt RankBrain. RankBrain verbessert die „klassische“ Suche und nutzt dabei weiterhin als Basis die SEO-Rankingfaktoren wie Backlinks, Trust oder Nutzerdaten. Allerdings verwendet es darüber hinaus das oben erklärte Machine Learning, um aus dem Verhalten der Nutzer zu lernen, welche Treffer am relevantesten sind. Sozusagen „aus Erfahrung“, also aus der Beobachtung davon, welche Suchanfragen das Gleiche zu bedeuten scheinen, lernt RankBrain, wie die gefundenen Treffer zu sortieren sind.

Dies verändert die Art, wie Google Suchbegriffe verarbeitet: Während früher einige Begriffe wie Füllwörter bei der Suche ignoriert wurden, kommt es mit RankBrain auf den Suchbegriff als Ganzes statt auf die Einzelwörter an. Wiederum ist dies am besten durch das Bild des Vektors zu verstehen: fehlt ein Wort im Satz, dann zeigt der Vektor in eine andere Richtung, der Suchbegriff ist damit ein anderer – unter Umständen sogar ein völlig anderer. Jedes Wort verändert die Bedeutung des Satzes, der nun von der Suchmaschine als ein Objekt statt als Ansammlung von Wörtern begriffen wird.

Die Suche wird auf diese Weise kontextsensitiver und fokussiert sich mehr darauf, was „normalerweise“ gewünscht wird, wenn ein bestimmter Ausdruck gesucht wird. Spriesterbach zeigt Screenshots von einer Suchanfrage – „why are pdfs so weak“ – die einmal Mitte 2015, also vor der Implementierung von RankBrain, und einmal Anfang 2016 durchgeführt wurde. Noch Mitte 2015 wertete Google die Erwähnung des Begriffs „pdfs“ als Anhaltspunkt, dass vor allem Dateien vom Typ PDF gezeigt werden sollten. Als Ergebnisse wurden daher PDF-Dateien gezeigt, die beispielsweise die Schwäche des irakischen Widerstands im dritten Golfkrieg oder die Schwäche der Schwerkraft diskutierten. Anfang 2016, mit der neuen kontextsensitiven Suche, wurde der Satz jedoch als Ganzes verarbeitet und der erste Treffer war ein Artikel – keine PDF-Datei – über die Schwäche von PDF-Verschlüsselung. Dadurch, dass Google den Satz als Ganzes verarbeitete, verstand die Suchmaschine, dass „pdfs“ an dieser Stelle als Thema, nicht als gewünschtes Dateiformat gemeint war.

In der deutschsprachigen Suche war dies zum Zeitpunkt des Vortrags noch nicht implementiert, sodass eine Testsuchanfrage „Wer ist Abs“ zu Artikeln über das Antiblockiersystem von Autos oder über Bauchmuskeltraining führte. Eine kontextsensitive Verarbeitung der Suchanfrage hätte verstanden, dass das Fragewort „wer“ auf eine Person hindeutet und hätte daher Suchergebnisse, die Personen namens Abs behandeln, priorisiert.

Eine Studie aus dem Jahre 2016, die untersuchte, welche Rankingfaktoren momentan wirklich bedeutsam sind, fand heraus, dass dies unter der neuen kontextsensitiven Suche in verschiedenen Themenbereichen durchaus unterschiedlich sein kann. Ein früher gültiger Ratschlag wie „mehr Backlinks sind besser“ ist nicht mehr uneingeschränkt gültig – die Studie fand bei Online-Shops eine positive Korrelation zwischen einem hohen Ranking und vielen Backlinks, während bei Seiten über Darlehen eine Negative festgestellt wurde. Interne Verlinkungen wiesen keinen signifikanten Effekt auf, eine höhere Textlänge nur einen leicht Positiven. Dafür gewannen andere Aspekte an Bedeutung: da RankBrain „gelernt“ hatte, dass Online-Shops normalerweise interaktive Elemente aufweisen, wurden bei Anfragen nach Einkaufsmöglichkeiten Seiten mit vielen interaktiven Elementen und insbesondere „Add to Cart“-Buttons bevorzugt.

Spriesterbach zieht daraus den Schluss, dass SEO nach wie vor wichtig ist, sich aber mit zunehmender Geschwindigkeit verändert. RankBrain wird zwar bisher nicht bei allen Suchphrasen eingesetzt, allerdings kommt es mehr und mehr zur Anwendung. In diesem neuen Paradigma ist tatsächliche Relevanz der fraglichen Website für Suchanfragen wichtiger denn je. Inhalte müssen vor allem zu den Anforderungen der Nutzer passen, da diese durch ihr Surfverhalten der Suchmaschine zeigen, ob die aufgerufene Seite das ist, was sie sehen wollten.

Welche Anpassungen von SEO sind notwendig?

Generell, so Spriesterbach, sollte man sich auf die Veränderungen, die die Implementierung von Machine Learning bei Suchmaschinen mit sich bringt, rechtzeitig einstellen. Die Fragen, die Website-Betreiber sich stellen sollten, sind: Was ist Googles Ziel? In welche Richtung entwickelt sich die Technik? Aufgrund der neuen kontextsensitiven Suche ist es wichtiger, die wirklichen Bedürfnisse der Nutzer zu verstehen, als zu versuchen, durch Tricks in den Rankings aufzusteigen.

In der Q&A schränkt Spriesterbach dies allerdings ein wenig ein: Auch im Zeitalter von RankBrain gebe es Methoden, sich auf eher kreative Weise in den Suchergebnissen nach vorne zu bewegen. So können beispielsweise Rezensionen künstlich erstellt werden, die so aussehen, als seien sie von echten Menschen. Dies ist ein Teil des Userfeedbacks, den die kontextsensitive Suche mit einbezieht.

Abgesehen davon sollten sich Betreiber genau ansehen, bei welchen Suchbegriffen sie ranken und ihr Angebot darauf anpassen, was User suchen, wenn sie über diese Suchbegriffe auf die Seite kommen. Denn: erhält eine Seite viele Aufrufe, das Nutzungsverhalten der User lässt aber darauf schließen, dass diese mit der Seite nicht zufrieden sind, dann kann dies einer Seite im RankBrain-System eher schaden als nützen. Bleiben die Reaktionen negativ, kann es sogar besser sein, auf bestimmte Begriffe nicht mehr zu ranken, um die allgemeine Qualität der Seite in den Augen von RankBrain nicht zu gefährden.

Doch wie kann die Zufriedenheit der Nutzer gesteigert werden? Eine direkte Befragung der User ist, so Spriesterbach, die beste Möglichkeit, herauszufinden, was von der Seite gewünscht wird. Davon abgesehen sollte verstärkt auf eine Kombination von informativen Texten und kommerziellen Angeboten gesetzt werden, idealerweise auf der derselben Unterseite. Google bezieht SEO-Texte weiterhin in den Suchprozess mit ein, nur wird nun außerdem betrachtet, wie Nutzer mit der Seite interagieren.

Auch macht Google es, so Spriesterbach, mit seinem neuen System kleinen, neuen Läden schwerer, hoch zu ranken. Hier rät Spriesterbach, entweder stärker auf lokale Bezüge zu setzen und so Kunden in der eigenen Umgebung anzuziehen oder besonders auf Service zu setzen, da gerade die großen, etablierten Geschäfte, die in RankBrain weit oben erscheinen, in diesem Feld oftmals Defizite aufweisen.