Hands on SEO in Zeiten der Sprachsuche

Beschreibung zum kostenlosen Online Marketing Webinar

Voice Search ist ein in der Digital Marketing Welt zunehmend populärer und wichtiger Fachbegriff. Die Vernetzung zwischen Machine Learning Technologien und der ansteigenden Nutzung der Sprachsuche eröffnen Marketern völlig neue Wege, ihre Zielgruppen zu erreichen. Geißenberger geht in seinem Vortrag auf aktuelle Zahlen wie bspw. die populärsten Queries, potentielle Nutzungsszenarien für Marketer als auch den Einfluss auf SEO und konkrete Optimierungsmöglichkeiten ein. Ebenso gibt es einen Einblick in die potentielle Zukunft der Voice-Search Nutzung und Marketingansätze, die heute schon verfolgt werden können.

Video zum Webinar

Webinar Termin:

20.10.2017

11:00 Uhr - 12:00 Uhr

Was Du nach dem Webinar gelernt hast:

  • Du kennst den aktuellen Stand der Entwicklung im Bereich Voice Search
  • Du lernst in einer Kurzübersicht die verschiedenen Typen an Eingabemedien und deren Bedeutung kennen
  • Die Auswirkungen auf das Suchverhalten und die Google Suchergebnisse werden aufgezeigt
  • Als Kerninhalt lernst du, welche Möglichkeiten zur Vermarktung deiner Inhalte und Produkte dir zur Verfügung stehen
  • Ebenso gehe ich darauf ein, welche weitern Möglichkeiten der Nutzung der Sprachsuche es neben SEO gibt
  • Abschließend stelle ich ein kleines Experiment vor, welches wir gemeinsam mit YAY! Digital entwickelt haben

Zielgruppe:

Visionäre eCommerceler, welche sich mit Zukunftstrends beschäftigen und sich bereits heute für den Voice-Search Bereich aufstellen möchten. Das betrifft sowohl eCommerce Start Ups als auch gesetzte Unternehmen mit >10 Mio. Umsatz.

Hands on SEO in Zeiten der Sprachsuche

Die Slides zum Webinar:

Aus Star Trek Filmen kennen wir das: Fragen und Anweisungen werden an den Computer per Sprache gestellt. Hier heißt es zum Beispiel: „Computer, bitte liefere mir Aufstellung von …“ oder „Computer, bitte dimme das Licht um …“. Heute ist das Realität und wir sagen „Hey Siri, kannst Du bitte …“, „Alexa, setzt Du bitte … auf meine Einkaufsliste“ oder „Okay Google, ich suche …“. Die Sprachsteuerung hält nach und nach Einzug in unser Leben. Zuerst über das Smartphone, jetzt aktuell über Heimsysteme wie Amazon Echo, Google Home und Apple HomePod.

Es ist mehr als deutlich, dass Voice Search, also die Suche über Spracheingabe in unserer digitalen Welt mehr und mehr zunimmt. Sicherlich stehen viele der Systeme heute noch in den Kinderschuhen, doch die Entwicklung ist wohl nicht mehr aufzuhalten. Die Vernetzung von Machine Learning Technologien, KI-Systemen und der zunehmenden Nutzung der Sprachsteuerung und Suche via Spracheingabe bietet Marketern völlig neue Wege, um ihre Zielgruppe zu erreichen. Alexander Geißenberger geht in seinem Webinar auf aktuelle Zahlen, die populärsten Suchanfragen (Queries), potenzielle Nutzungsszenarien für Marketer als auch auf den Einfluss auf SEO Maßnahmen und konkrete Optimierungmöglichkeiten ein.

Der heutige Stand der Dinge in Sachen Sprachsuche

Vier Unternehmern sind heute auf den unterschiedlichsten Plattformen mit Systemen zur Sprachsteuerung unterwegs. Zum einen Apple mit Siri, Google mit Voice Search, Microsoft mit Cortana und Amazon mit Alexa. Drei der vier Anbieter haben eine klare Strategie bezüglich der Systeme. Apple konzentriert sich bei der Spracheingabe auf seine Geräte und die Verbesserung der User Experience. Google Voice Search nutzt die Sprachsteuerung unter anderem als Schnittstelle zur Suchmaschine, und Alexa ist die Verbindung zu den Angeboten von Amazon. Praktisch alle Systeme bieten weiterhin auch die Möglichkeit, Geräte im Rahmen der Heimautomation (Internet of Things = IoT) mit einzubinden und zu steuern bzw. auch Musik abzuspielen etc. Aktuell kommen auch Aspekte der Kommunikation dazu, so dass man zum Beispiel auch über Alexa Telefongespräche führen kann. Langsam aber sicher kommen die Themen Entertainment, Kommunikation, IoT und Smarthome via Sprachsteuerung in Fahrt.

Bei den aktuell verfügbaren Geräten, allerdings Smartphones ausgenommen, liegt Amazon Echo mit 70,6 % Nutzung weit vor Google Home mit 23,8 % und anderen Systemen mit 5,6 %. Neu dazu kommen wird Ende 2016 in den USA, und mit der weltweiten Einführung in 2017, noch Apple HomePod.

Doch wer nutzt die aktuellen Geräte zur Sprachsuche?

In 2016 haben 23,3 % der Millennials, 13,4 % der Generation X und 8,6 % der Baby Boomer Systeme mit Sprachsteuerung genutzt. In 2017 konnte man eine leichte Steigerung der Zahlen beobachten auf 29,9 % bei den Millennials, 15,6 % bei der Generation X und 9,7 % bei den Baby Boomern. Da die Systeme nach und nach immer besser werden, besser funktionieren und sich auch nach und nach Gewohnheiten ausbilden, die uns die Sprachsteuerung nutzen lassen, werden die Zahlen wohl in den kommenden Jahren weiter steigen. In 2018 ist zu erwarten, dass 35,8 % der Millenials, 16,7 % der Generation X und 9,9 % der Baby Boomer Systeme zur Sprachsteuerung nutzen werden. Für 2019 liegt die Prognose bei einer Nutzerzahl von 39,3 % bei den Millennials, 17,2 % bei der Generation X und bei 10,1 % bei den Baby Boomern.

Viele Systeme sind zuerst auf dem Smartphone gestartet. Heute nutzen 49,4 % Google Now, 42,5 % Apple Siri, 5,1 % Cortana, 1,8 % Alexa, 0,7 % S Voice und 0,4 % nutzen andere Systeme.

Viele müssen sich erst noch an die Sprachsteuerung gewöhnen, und nicht immer sind die Ergebnisse von komplexeren Anfragen befriedigend – obwohl die Entwicklung hier täglich in riesigen Schritten voranschreitet. Doch wozu nutzen wir aktuell die Sprachsteuerung und welche Aktionen bzw. Anfragen werden aktuell am meisten per Spracheingabe gestartet? Auch hier gibt es konkrete Zahlen:

  • Musik abspielen: 14,2 %
  • Setzen von Wecker und Erinnerungen: 12,6 %
  • Wetter: 12,2 %
  • Suche nach Telefonnummern von einem Kontakt: 9,4 %
  • Spaßanfragen: 9,1 %
  • Sprachnachrichten abspielen: 8,1 %
  • Kalendereinträge abfragen: 7,3 %
  • News und Überschriften checken: 7,3 %
  • Verkehrsnachrichten checken: 7 %
  • Songs aus dem Radio suchen: 6,6 %
  • Etc.

Doch was macht die Spracheingabe so attraktiv und warum werden wir uns daran über die Zeit gewöhnen? Nun, bisher haben wir Anfragen bei Google – und in anderen Suchmaschinen –, immer als Text erdacht, formuliert und über eine Tastatur eingegeben. Jeder einzelne Schritt beschäftigt unser Gehirn. Insgesamt fordert dieser Prozess der Suchanfrage unserem Hirn einiges an Leistung ab. Die Spracheingabe funktioniert direkt und ohne Umwege. Hier siegt am Ende das rein ökonomische Prinzip, um mit möglichst wenig Energieauffand zum Ziel zu kommen. Deshalb werden sich die Sprachsysteme auch in Zukunft mehr und mehr in unseren Alltag drängen – zumindest dann, wenn sie an entscheidenden Stellen noch besser werden.

Aktuell haben wir drei unterschiedliche Szenarien mit entsprechenden Möglichkeiten und Schnittstellen als Ausgangssituation:

  1. Zum einen Geräte mit Displays wie PCs, Smartphones oder Tablets und Geräte ohne visuelle Schnittstelle wie Google Home, Amazon Echo oder Apple HomePod.
  2. Neben der Sprachsteuerung besitzen einige Geräte alternativ die Möglichkeit der Eingabe über Tastaturen.
  3. Der dritte Punkt beschäftigt sich mit dem Standort der Geräte. Smartphones und Tablets sind eher für den mobilen Einsatz gedacht, PCs und Heimsysteme sind stationär verortet.

Wie lernen Maschinen, um die Sprachsuche zu verbessern?

Beschäftigen wir uns zuerst mit dem Prinzip der Sprachsteuerung. Auf den ersten Blick klingt das alles so einfach und man fragt sich schnell, warum einiges noch nicht so gut funktioniert, wie es eigentlich funktionieren sollte. Wie gesagt, die Technik steckt aktuell noch in den Kinderschuhen, doch die Entwicklung schreitet rasant fort. Warum aber ist die Spracherkennung nicht ganz so einfach und wo liegen die aktuellen Stolpersteine?

Für uns Menschen ist die Sprache etwas sehr Natürliches. Wir verstehen intuitiv Zusammenhänge, können Bezüge herstellen sowie Inhalte erfassen und entsprechend interpretieren. Wie gesagt, für uns ist das ganz normal, und wir müssen hier nicht über die einzelnen Schritte nachdenken.

Doch wenn man diesen, für uns vollkommen natürlichen Prozess bewusst in einzelne Schritte zerlegt, dann zeigt sich schnell, dass das Verstehen, Interpretieren und Lernen von gesprochenen Worten auch für eine Maschine eine Höchstleistung darstellt. Konkret geht es bei der Spracherkennung nicht nur um das reine Verstehen, sondern auch um den Kontext und manchmal auch um Bezüge auf kürzlich zurückliegende Inhalte. Manchmal verstehen wir Inhalte aus einem Gespräch auch nur, weil wir unseren Gesprächspartner gut kennen und wissen, was er meinen könnte.

Konkret bedeutet das für alle Systeme der Spracherkennung, dass diese nicht nur hören, sondern auch verstehen und interpretieren müssen, um den jeweiligen Kontext zu verstehen und Zusammenhänge zu erkennen. In diesem Zusammenhang gilt es, zwei Prozessebenen zu unterscheiden:

  1. Die reine Spracherkennung (Speech Recognition): Hierbei geht es zuerst darum, den reinen gesprochenen Text zu erkennen und in einzelne Buchstaben und Worte zu übersetzen.
  2. Sprachverarbeitung und Sprachverständnis (Natural Language Processing bzw. Natural Language Unterstanding): Im zweiten Schritt geht es darum, semantische Zusammenhänge zu erkennen, erkannten Worte und Inhalte zu interpretieren und einen Bezugs zum User herzustellen, um die vom User erwartete Reaktion bzw. Antwort herauszukristallisieren.

Nehmen wir einmal folgende Frage als Beispiel für die Sprachsuche: „Wo ist die nächste Bäckerei?“

Das ist eine einfache Frage nach einem lokal verortetem Ergebnis, das in Bezug zur aktuellen Position steht. Mit „wo“ wird die Art der Anfrage vorgegeben – nämlich dass es sich um eine Frage nach einem Ort handelt. Der Satzteil „nächste“ wird angegeben, dass etwas in einer bestimmten Distanz in Bezug zur aktuellen Position gesucht wird. Zum Schluss kommt die Information, wonach konkret gesucht wird: nach einer Bäckerei.

Nun kann die hinterlegte Datenbank nach entsprechenden Ergebnissen durchsucht werden, und in einer Übersichtskarte werden die gefundenen Ergebnisse gezeigt.

Soweit, so gut, doch nun kommt die nächste Frage über die Sprachsuche: „Wie komme ich dorthin?“

Eine normale Sprachsuche würde diese Frage zwar erkennen und entsprechend übersetzen, doch ohne Bezug auf das zuvor gefundene Ergebnis – die Bäckerei – ergibt diese Frage für das System keinen Sinn. Mit anderen Worten, das KI-System muss an dieser Stelle nicht nur über die Sprachsuche das gesprochene Wort erkennen und übersetzen, sondern auch den Bezug zur vorherigen Anfrage nach der nächsten Bäckerei mit einbeziehen. Nun ergibt die Frage einen Sinn, und das System kann die Frage mit einer Routenbeschreibung und der Angabe der Entfernung beantworten.

Der Weg des Schalls bei der Sprachsuche

Die Aufgabenstellung und die einzelnen Herausforderungen sind klar. Doch wenn man die einzelnen Schritte genauer betrachtet, dann gibt es an verschiedenen Stellen weitere Herausforderungen. Zuerst geht es darum, Worte zu verstehen und gegebenenfalls auch voneinander zu unterschieden. So klingen „Dancing“ und „Dance sing“ ähnlich. Hier muss die Spracherkennung erkennen und lernen, was im Gesamtkontext gemeint sein könnte. Dabei ist zu beachten, dass einzelne Sprecher schnell oder langsam bzw. hoch oder tief modelliert sprechen. Manchmal gibt es auch störende Hintergrundgeräusche oder der Sprecher hat einen Dialekt. All das muss bei der Spracherkennung mitberücksichtigt werden und Hintergrund- und Nebengeräusche müssen herausgefiltert werden.

Die gesprochenen Worte werden von einem Mikrofon aufgenommen und digital übersetzt (gesampled). Das Ergebnis sind Wellenkurven mit charakteristischen Wellenbergen- und tälern. Diese Daten werden in 20 Millisekunden-Blöcke aufgeteilt, so dass diese besser verarbeitet werden können. Neuronale Netze (KI-Lösungen) erkennen jetzt einzelne Buchstaben und formen daraus Worte. Auf Basis von Wahrscheinlichkeiten und Vektoren werden die einzelnen Worte zu Sätzen zusammengefügt, um daraus dann auf Basis von Wahrscheinlichkeiten die entsprechenden Inhalte abzuleiten.

Machine Learning ist letztlich angewandte Statistik, die mit jedem Datenpunkt besser wird. Mit anderen Worten: Je mehr Daten gesammelt werden, umso besser werden die Ergebnisse ausfallen.

Was bedeutet die Sprachsuche für Online Marketer und die Suchmaschinenoptimierung (SEO)?

Das Smartphone hat mit der Notwendigkeit eines Responsive Designs schon einige Änderungen in Bezug auf die Suchmaschinenoptimierung (SEO) notwendig gemacht. Ähnlich verhält es sich jetzt mit der Suchmaschinenoptimierung und einzelne SEO Maßnahmen für Websites in Bezug auf Relevanz und Ergebnisse, damit diese für die Sprachausgabe optimiert sind.

Konkret geht es in Zukunft bei der Suchmaschinenoptimierung und SEO Maßnahmen mit Bezug auf die Sprachsuche um folgende 5 Punkte:

  1. Weniger Ergebnisse durch die Sprachsuche: In Zukunft werden durch die langsame Sprachausgabe weniger Ergebnisse im Fokus stehen. Aktuell sind es die ersten drei bis zehn Treffer auf der ersten Seite, die relevant sind. In Zukunft werden wohl nur noch die ersten drei Treffer präsentiert werden.
  2. In der Sprachsuche ist eventuell kein Brand mehr erkennbar: Durch die Sprachausgabe und die Präsentation der Suchergebnisse kann es mehr und mehr passieren, dass einzelne Marken und deren Markenvorteile mehr in den Hintergrund treten und somit weniger relevant werden.
  3. Kein Display und keine visuellen Elemente bei der Sprachsuche und einigen Ausgabegeräten: Auf dem Smartphone, dem Tablet oder dem PC gibt es auch weiterhin Trefferlisten. Doch Systeme wie Google Home, Amazons Alexa oder Apples HomePod haben keinen Display, sondern nur ein einfaches visuelles Feedbackmedium, um so anzuzeigen, dass die Geräte aktiv sind. Ansonsten findet die Kommunikation und die Ausgabe der Ergebnisse ausschließlich über die Sprache statt.
  4. Neue Rankingfaktoren für die Sprachsuche: Suchmaschinenanbieter, allen voran Google, werden in Zukunft neue Rankingfaktoren einführen, um die Relevanz von Inhalten und die Präsentationsfähigkeit durch Sprachausgabe mehr in den Fokus zu rücken. Gerade das ist bei der Suchmaschinenoptimierung und einzelnen SEO Maßnahmen zu berücksichtigen.
  5. Neuer Content, Suchmaschinenoptimierung und SEO Maßnahmen, um auf die Sprachsuche vorbereitet zu sein: Um den anstehenden neuen Rankingfaktoren gerecht zu werden, muss auf einer Website neuer Content eingerichtet werden, der speziell für Sprachausgabe optimiert ist. Mehr dazu im weiteren Text unter der Überschrift Featured Snippets.

Die Zeiten ändern sich – die Sprachsuche verändert vieles

Der Laptop hat die Art, wie und wo wir arbeiten, verändert, das iPhone hat die Art, wie wir Informationen suchen und kommunizieren, verändert. Die Spracherkennung und -steuerung bzw. die Sprachausgabe wird einmal mehr an einigen Stellen alles verändern. Das ist eine Herausforderung in Bezug auf die Suchmaschinenoptimierung und alle SEO Maßnahmen.

In Zukunft werden wir mehr und mehr Siri, Cortana, Alexa oder Google um Rat fragen. Die üblichen W-Fragen bekommen somit eine vollkommen neue Bedeutung. Schon heute ist es so, dass ein Drittel der Menschen von sich sagt, dass sie eher ihr Handy nutzen, als einen Mitarbeiter um Rat zu fragen. Die ich-will-wissen-Momente nehmen noch mehr zu – das zeigt der aktuelle Anstieg bei der Online-Informationssuche von Kunden um 65 %. Außerdem nimmt die Second-Screen-Nutzung weiter zu. Rund 66 % der Nutzer von Smartphones nutzen parallel zum TV-Konsum das Smartphone, um nach speziellen Inhalten aus Sendungen o. ä. zu suchen. Auch diese Faktoren müssen bei der Suchmaschinenoptimierung und allen weiteren SEO Maßnahmen berücksichtigt werden.

Eine weitere Entwicklung sind die ich-will-dahin-Momente, also die Zunahme von lokalen Suchanfragen. Die Suchanfragen nach Orten in der Nähe haben sich gegenüber dem letzten Jahr mehr als verdoppelt, und 82 % der Smartphone-Nutzer verwenden eine Suchmaschine, um Geschäfte in der unmittelbaren Umgebung zu finden. Lokale SEO Maßnahmen sind für die entsprechenden Websites oberste Pflicht, damit hier gezielt Suchmaschinenoptimierung betrieben wird.

Bei der Anzeige von Suchergebnissen reagiert Google schon heute mit neuen Anzeigeformaten bei den Suchergebnissen: mit sogenannten Rich Cards, Rich Snippets und Featured Snippets. Diese sollten schon jetzt bei der Suchmaschinenoptimierung berücksichtigt werden. Hier werden auf dem Smartphone bestimmte Suchergebnisse nicht nur in Form von Links angezeigt. Vielmehr werden ausgewählte Informationen gleich fertig formatiert präsentiert. Mach doch mal einen Test auf Deinem Smartphone und suche nach Persönlichkeiten oder bestimmten Orten. Über den Linkvorschlägen stehen hier zumeist optisch abgesetzte Inhalte mit den wichtigsten Informationen. Bei der lokalen Suche wird das am besten passende Ergebnis wie eine Visitenkarte angezeigt. All diese Anzeigenformate helfen Benutzern, die Ergebnisse zu findet, die sie suchen.

Deshalb ist zu erwarten, dass auch bei der Sprachausgabe ein entsprechend neues Format ins Zentrum des Interesses rücken wird und eine direkte Auswirkung auf die Suchmaschinenoptimierung hat. Gemeint sind hier die Featured Snippets, die vermutlich vorbereitend für Googles Voice Search entwickelt worden sind.

Google selbst beschreibt dieses Format wie folgt:

„Wenn ein Nutzer in der Google-Suche eine Frage stellt, zeigen wir ihm oben auf der Ergebnisseite möglicherweise ein Suchergebnis in einem speziellen Block mit einem hervorgehobenem Snippet. Dieser Block enthält eine aus einer Website extrahierte Zusammenfassung der Antwort, einen Link zur jeweiligen Seite sowie den Titel und die URL der Seite.“

Ziel ist Folgendes: Eindeutige Anfragen (per Sprache) sollen mit eindeutigen Ergebnissen (ggf. auch per Sprache) beantwortet werden.

Dabei bieten Featured Snippets eine Reihe von Vorteilen:

  1. Die Click-Through-Rate (CTR) steigt, wenn man auf der Website alles richtig macht (dazu an späterer Stelle mehr).
  2. Bei smarten Assistenten gibt es zwar keine CTR, aber Erfolge in der personalisierten Suche.
  3. In der mobilen Suche kann man alle anderen Ergebnisse aus dem sichtbaren Bereich verdrängen, da diese weiter nach unten verschoben werden.

Über die Featured Snippets kann man auch den Wettbewerb analysieren oder Potenziale ermitteln, denn Antworten aus dem Knowledge Graph können nicht geschlagen werden. Weitere Tipps:

  1. Per Search Console die höchste Klickrate überprüfen. Hohe Klickraten bei schlechter Position weisen auf vorhandenes Snippet hin.
  2. In der Google Search Console nach Fragen suchen.
  3. Per SEMrush die Featured Snippes der Konkurrenz ermitteln.

Onsite-Optimierung im Rahmen der Suchmaschinenoptimierung für Featured Snippets

Für die Onsite-Optimierung im Rahmen der Suchmaschinenoptimierung gibt es 5 konkrete Schritte, um die eigenen Inhalte für Featured Snippets vorzubereiten:

  1. Mögliche Fragen strukturiert und mit wenig Text beantworten (max. 50 Wörter)
  2. Fragen bzw. Fragestellungen in H2-Tag vor die Antwort stellen
  3. Wenn eine Tabelle angezeigt werden soll, dann als HTML formatieren.
  4. Passenden Content auf der Seite einbinden.
  5. In der Antwort, die Lust auf mehr wecken, damit der User klickt.

Sicherlich ist zu erwarten, dass hier in Zukunft noch weitere Faktoren bei der Suchmaschinenoptimierung zum Tragen kommen.

Was können wir heute konkret tun, um in Zukunft mehr Traffic über Voice Search zu bekommen?

In Zukunft ist es wohl unerlässlich, sich nicht nur mit neuen Faktoren der Suchmaschinenoptimierung zu beschäftigen, sondern auch mit der Hardware von Google, Apple und Amazon näher zu beschäftigen. Gerade Amazon ist wichtiger denn je, denn bereits heute laufen 42 % der e-Commerce-Suchanfragen über Amazon. Das bedeutet konkret: Produkte werden nicht bei Google, sondern bei Amazon gesucht. Es ist zu erwarten, dass bis 2020 die Anzahl der Suchanfragen auf 50 % steigen werden.

Das heißt, dass in Zukunft für die entsprechenden Plattformen auch Apps, oder im Falle von Amazons Alexa Skills, entwickelt werden müssen. MyTaxi, DPD, Lieferando, Gelbe Seiten und mehr sind schon heute als Skills für Amazons Alexa verfügbar, so dass hier entsprechende Anfragen und Aufträge über die Sprachsteuerung getätigt werden können.

Amazon bietet für die Entwicklung von Alexa Skills einen guten Einstieg über das SDK auf https://developer.amazon.com/de/echo.

Doch wie rankt man auf Amazon?

Auch das Ranking bei Amazon ist mit Bordmitteln und einfachen Schritten möglich. Hierbei sind folgende Punkte entscheidend:

  • Bei vielen Produktsuchen auf Google findet man in den Top 5 der beliebtesten Produkte Angebote von Amazon.
  • Amazon arbeitet nach Keywords im Titel und in Bullet-Points.
  • Nutze Bilder, Testsiegel & Co.
  • Ausführliche Produktbeschreibung mit passenden Keywords sind eine gute Investition.
  • Amazon Vendor bietet die Möglichkeit, um unter anderem Feature-Listen und einen Produktvergleich zu integrieren.
  • Kundenfragen als Service anbieten.
  • Kundenrezensionen gezielt einholen und nutzen.

Einen kostenlosen Download zum Thema gibt es auf http://ecommerce.xpose360.de

Was gibt es noch zu tun?

Gerade lokal agierende Anbieter sollten ihr Unternehmen in allen relevanten Services eintragen. Zum Beispiel:

  • Meinestadt.de
  • Google My Business
  • Yelp
  • Das Örtliche
  • Gelbe Seiten

Um die Inhalte der eigenen Website zu verbessern, sollte man den Service www.Schema.org nutzen für …

  • Markup
  • Semantische Auszeichnung
  • Strukturierte Daten
  • Snippet-Optimierung

Rund um das Angebots-, Lösungs- und Produktportfolio gilt es W-Fragen zu formulieren und zu optimieren. Also zum Beispiel …

  • Welches …
  • Welche …
  • Welcher …
  • Wie …
  • Wann …
  • Wozu …

Hilfestellung bei W-Fragen bietet die Website www.TermLabs.io. Wo geht die Reise in Zukunft hin? Der Blick in die Glaskugel ist natürlich immer etwas vage, denn Google macht um seinen Suchalgorithmus noch immer ein großes Geheimnis. Doch folgende Punkte sollten den Weg ebnen:

  • Bereite Dich schon heute vor und finde einen gesunden Mix an Kanälen.
  • Konzentriere Dich auf die Big Four, denn in Zukunft dürfte sich praktisch alles um sie drehen.
  • Steuerung von IoT durch Voice Search befeuert das Thema weiter und sorgt so für die weitere Verbreitung.
  • e-Commerce Suchanfragen verlagern sich in einigen Bereichen (Nachbestellung, wenig diversifizierte Produkte etc.) auf smarte Assistenten (heute schon auch über Amazon Dash-Button)
  • Ausbau der Sprachsteuerung in Autos & Co. fördert die weitere Verbreitung der Sprachsysteme.

Fazit

Natürlich müssen wir uns an die Sprachsteuerung noch gewöhnen, und nicht in jeder Umgebung ist diese sinnvoll oder gewünscht. Doch in Zukunft ist davon auszugehen, dass wir uns an die Sprachsteuerung gewöhnen werden. Es ist davon auszugehen, dass die einzelnen Systeme sich noch dramatisch verbessern werden, um letztlich so nicht nur einfache Sprachbefehle auszuführen, sondern um auch komplexe Fragen zu beantworten oder Aufgabenstellungen zu bearbeiten. Es ist am Ende nur eine Frage der Zeit.

Hands on SEO in Zeiten der Sprachsuche

Die Slides zum Webinar:

Aus Star Trek Filmen kennen wir das: Fragen und Anweisungen werden an den Computer per Sprache gestellt. Hier heißt es zum Beispiel: „Computer, bitte liefere mir Aufstellung von …“ oder „Computer, bitte dimme das Licht um …“. Heute ist das Realität und wir sagen „Hey Siri, kannst Du bitte …“, „Alexa, setzt Du bitte … auf meine Einkaufsliste“ oder „Okay Google, ich suche …“. Die Sprachsteuerung hält nach und nach Einzug in unser Leben. Zuerst über das Smartphone, jetzt aktuell über Heimsysteme wie Amazon Echo, Google Home und Apple HomePod.

Es ist mehr als deutlich, dass Voice Search, also die Suche über Spracheingabe in unserer digitalen Welt mehr und mehr zunimmt. Sicherlich stehen viele der Systeme heute noch in den Kinderschuhen, doch die Entwicklung ist wohl nicht mehr aufzuhalten. Die Vernetzung von Machine Learning Technologien, KI-Systemen und der zunehmenden Nutzung der Sprachsteuerung und Suche via Spracheingabe bietet Marketern völlig neue Wege, um ihre Zielgruppe zu erreichen. Alexander Geißenberger geht in seinem Webinar auf aktuelle Zahlen, die populärsten Suchanfragen (Queries), potenzielle Nutzungsszenarien für Marketer als auch auf den Einfluss auf SEO Maßnahmen und konkrete Optimierungmöglichkeiten ein.

Der heutige Stand der Dinge in Sachen Sprachsuche

Vier Unternehmern sind heute auf den unterschiedlichsten Plattformen mit Systemen zur Sprachsteuerung unterwegs. Zum einen Apple mit Siri, Google mit Voice Search, Microsoft mit Cortana und Amazon mit Alexa. Drei der vier Anbieter haben eine klare Strategie bezüglich der Systeme. Apple konzentriert sich bei der Spracheingabe auf seine Geräte und die Verbesserung der User Experience. Google Voice Search nutzt die Sprachsteuerung unter anderem als Schnittstelle zur Suchmaschine, und Alexa ist die Verbindung zu den Angeboten von Amazon. Praktisch alle Systeme bieten weiterhin auch die Möglichkeit, Geräte im Rahmen der Heimautomation (Internet of Things = IoT) mit einzubinden und zu steuern bzw. auch Musik abzuspielen etc. Aktuell kommen auch Aspekte der Kommunikation dazu, so dass man zum Beispiel auch über Alexa Telefongespräche führen kann. Langsam aber sicher kommen die Themen Entertainment, Kommunikation, IoT und Smarthome via Sprachsteuerung in Fahrt.

Bei den aktuell verfügbaren Geräten, allerdings Smartphones ausgenommen, liegt Amazon Echo mit 70,6 % Nutzung weit vor Google Home mit 23,8 % und anderen Systemen mit 5,6 %. Neu dazu kommen wird Ende 2016 in den USA, und mit der weltweiten Einführung in 2017, noch Apple HomePod.

Doch wer nutzt die aktuellen Geräte zur Sprachsuche?

In 2016 haben 23,3 % der Millennials, 13,4 % der Generation X und 8,6 % der Baby Boomer Systeme mit Sprachsteuerung genutzt. In 2017 konnte man eine leichte Steigerung der Zahlen beobachten auf 29,9 % bei den Millennials, 15,6 % bei der Generation X und 9,7 % bei den Baby Boomern. Da die Systeme nach und nach immer besser werden, besser funktionieren und sich auch nach und nach Gewohnheiten ausbilden, die uns die Sprachsteuerung nutzen lassen, werden die Zahlen wohl in den kommenden Jahren weiter steigen. In 2018 ist zu erwarten, dass 35,8 % der Millenials, 16,7 % der Generation X und 9,9 % der Baby Boomer Systeme zur Sprachsteuerung nutzen werden. Für 2019 liegt die Prognose bei einer Nutzerzahl von 39,3 % bei den Millennials, 17,2 % bei der Generation X und bei 10,1 % bei den Baby Boomern.

Viele Systeme sind zuerst auf dem Smartphone gestartet. Heute nutzen 49,4 % Google Now, 42,5 % Apple Siri, 5,1 % Cortana, 1,8 % Alexa, 0,7 % S Voice und 0,4 % nutzen andere Systeme.

Viele müssen sich erst noch an die Sprachsteuerung gewöhnen, und nicht immer sind die Ergebnisse von komplexeren Anfragen befriedigend – obwohl die Entwicklung hier täglich in riesigen Schritten voranschreitet. Doch wozu nutzen wir aktuell die Sprachsteuerung und welche Aktionen bzw. Anfragen werden aktuell am meisten per Spracheingabe gestartet? Auch hier gibt es konkrete Zahlen:

  • Musik abspielen: 14,2 %
  • Setzen von Wecker und Erinnerungen: 12,6 %
  • Wetter: 12,2 %
  • Suche nach Telefonnummern von einem Kontakt: 9,4 %
  • Spaßanfragen: 9,1 %
  • Sprachnachrichten abspielen: 8,1 %
  • Kalendereinträge abfragen: 7,3 %
  • News und Überschriften checken: 7,3 %
  • Verkehrsnachrichten checken: 7 %
  • Songs aus dem Radio suchen: 6,6 %
  • Etc.

Doch was macht die Spracheingabe so attraktiv und warum werden wir uns daran über die Zeit gewöhnen? Nun, bisher haben wir Anfragen bei Google – und in anderen Suchmaschinen –, immer als Text erdacht, formuliert und über eine Tastatur eingegeben. Jeder einzelne Schritt beschäftigt unser Gehirn. Insgesamt fordert dieser Prozess der Suchanfrage unserem Hirn einiges an Leistung ab. Die Spracheingabe funktioniert direkt und ohne Umwege. Hier siegt am Ende das rein ökonomische Prinzip, um mit möglichst wenig Energieauffand zum Ziel zu kommen. Deshalb werden sich die Sprachsysteme auch in Zukunft mehr und mehr in unseren Alltag drängen – zumindest dann, wenn sie an entscheidenden Stellen noch besser werden.

Aktuell haben wir drei unterschiedliche Szenarien mit entsprechenden Möglichkeiten und Schnittstellen als Ausgangssituation:

  1. Zum einen Geräte mit Displays wie PCs, Smartphones oder Tablets und Geräte ohne visuelle Schnittstelle wie Google Home, Amazon Echo oder Apple HomePod.
  2. Neben der Sprachsteuerung besitzen einige Geräte alternativ die Möglichkeit der Eingabe über Tastaturen.
  3. Der dritte Punkt beschäftigt sich mit dem Standort der Geräte. Smartphones und Tablets sind eher für den mobilen Einsatz gedacht, PCs und Heimsysteme sind stationär verortet.

Wie lernen Maschinen, um die Sprachsuche zu verbessern?

Beschäftigen wir uns zuerst mit dem Prinzip der Sprachsteuerung. Auf den ersten Blick klingt das alles so einfach und man fragt sich schnell, warum einiges noch nicht so gut funktioniert, wie es eigentlich funktionieren sollte. Wie gesagt, die Technik steckt aktuell noch in den Kinderschuhen, doch die Entwicklung schreitet rasant fort. Warum aber ist die Spracherkennung nicht ganz so einfach und wo liegen die aktuellen Stolpersteine?

Für uns Menschen ist die Sprache etwas sehr Natürliches. Wir verstehen intuitiv Zusammenhänge, können Bezüge herstellen sowie Inhalte erfassen und entsprechend interpretieren. Wie gesagt, für uns ist das ganz normal, und wir müssen hier nicht über die einzelnen Schritte nachdenken.

Doch wenn man diesen, für uns vollkommen natürlichen Prozess bewusst in einzelne Schritte zerlegt, dann zeigt sich schnell, dass das Verstehen, Interpretieren und Lernen von gesprochenen Worten auch für eine Maschine eine Höchstleistung darstellt. Konkret geht es bei der Spracherkennung nicht nur um das reine Verstehen, sondern auch um den Kontext und manchmal auch um Bezüge auf kürzlich zurückliegende Inhalte. Manchmal verstehen wir Inhalte aus einem Gespräch auch nur, weil wir unseren Gesprächspartner gut kennen und wissen, was er meinen könnte.

Konkret bedeutet das für alle Systeme der Spracherkennung, dass diese nicht nur hören, sondern auch verstehen und interpretieren müssen, um den jeweiligen Kontext zu verstehen und Zusammenhänge zu erkennen. In diesem Zusammenhang gilt es, zwei Prozessebenen zu unterscheiden:

  1. Die reine Spracherkennung (Speech Recognition): Hierbei geht es zuerst darum, den reinen gesprochenen Text zu erkennen und in einzelne Buchstaben und Worte zu übersetzen.
  2. Sprachverarbeitung und Sprachverständnis (Natural Language Processing bzw. Natural Language Unterstanding): Im zweiten Schritt geht es darum, semantische Zusammenhänge zu erkennen, erkannten Worte und Inhalte zu interpretieren und einen Bezugs zum User herzustellen, um die vom User erwartete Reaktion bzw. Antwort herauszukristallisieren.

Nehmen wir einmal folgende Frage als Beispiel für die Sprachsuche: „Wo ist die nächste Bäckerei?“

Das ist eine einfache Frage nach einem lokal verortetem Ergebnis, das in Bezug zur aktuellen Position steht. Mit „wo“ wird die Art der Anfrage vorgegeben – nämlich dass es sich um eine Frage nach einem Ort handelt. Der Satzteil „nächste“ wird angegeben, dass etwas in einer bestimmten Distanz in Bezug zur aktuellen Position gesucht wird. Zum Schluss kommt die Information, wonach konkret gesucht wird: nach einer Bäckerei.

Nun kann die hinterlegte Datenbank nach entsprechenden Ergebnissen durchsucht werden, und in einer Übersichtskarte werden die gefundenen Ergebnisse gezeigt.

Soweit, so gut, doch nun kommt die nächste Frage über die Sprachsuche: „Wie komme ich dorthin?“

Eine normale Sprachsuche würde diese Frage zwar erkennen und entsprechend übersetzen, doch ohne Bezug auf das zuvor gefundene Ergebnis – die Bäckerei – ergibt diese Frage für das System keinen Sinn. Mit anderen Worten, das KI-System muss an dieser Stelle nicht nur über die Sprachsuche das gesprochene Wort erkennen und übersetzen, sondern auch den Bezug zur vorherigen Anfrage nach der nächsten Bäckerei mit einbeziehen. Nun ergibt die Frage einen Sinn, und das System kann die Frage mit einer Routenbeschreibung und der Angabe der Entfernung beantworten.

Der Weg des Schalls bei der Sprachsuche

Die Aufgabenstellung und die einzelnen Herausforderungen sind klar. Doch wenn man die einzelnen Schritte genauer betrachtet, dann gibt es an verschiedenen Stellen weitere Herausforderungen. Zuerst geht es darum, Worte zu verstehen und gegebenenfalls auch voneinander zu unterschieden. So klingen „Dancing“ und „Dance sing“ ähnlich. Hier muss die Spracherkennung erkennen und lernen, was im Gesamtkontext gemeint sein könnte. Dabei ist zu beachten, dass einzelne Sprecher schnell oder langsam bzw. hoch oder tief modelliert sprechen. Manchmal gibt es auch störende Hintergrundgeräusche oder der Sprecher hat einen Dialekt. All das muss bei der Spracherkennung mitberücksichtigt werden und Hintergrund- und Nebengeräusche müssen herausgefiltert werden.

Die gesprochenen Worte werden von einem Mikrofon aufgenommen und digital übersetzt (gesampled). Das Ergebnis sind Wellenkurven mit charakteristischen Wellenbergen- und tälern. Diese Daten werden in 20 Millisekunden-Blöcke aufgeteilt, so dass diese besser verarbeitet werden können. Neuronale Netze (KI-Lösungen) erkennen jetzt einzelne Buchstaben und formen daraus Worte. Auf Basis von Wahrscheinlichkeiten und Vektoren werden die einzelnen Worte zu Sätzen zusammengefügt, um daraus dann auf Basis von Wahrscheinlichkeiten die entsprechenden Inhalte abzuleiten.

Machine Learning ist letztlich angewandte Statistik, die mit jedem Datenpunkt besser wird. Mit anderen Worten: Je mehr Daten gesammelt werden, umso besser werden die Ergebnisse ausfallen.

Was bedeutet die Sprachsuche für Online Marketer und die Suchmaschinenoptimierung (SEO)?

Das Smartphone hat mit der Notwendigkeit eines Responsive Designs schon einige Änderungen in Bezug auf die Suchmaschinenoptimierung (SEO) notwendig gemacht. Ähnlich verhält es sich jetzt mit der Suchmaschinenoptimierung und einzelne SEO Maßnahmen für Websites in Bezug auf Relevanz und Ergebnisse, damit diese für die Sprachausgabe optimiert sind.

Konkret geht es in Zukunft bei der Suchmaschinenoptimierung und SEO Maßnahmen mit Bezug auf die Sprachsuche um folgende 5 Punkte:

  1. Weniger Ergebnisse durch die Sprachsuche: In Zukunft werden durch die langsame Sprachausgabe weniger Ergebnisse im Fokus stehen. Aktuell sind es die ersten drei bis zehn Treffer auf der ersten Seite, die relevant sind. In Zukunft werden wohl nur noch die ersten drei Treffer präsentiert werden.
  2. In der Sprachsuche ist eventuell kein Brand mehr erkennbar: Durch die Sprachausgabe und die Präsentation der Suchergebnisse kann es mehr und mehr passieren, dass einzelne Marken und deren Markenvorteile mehr in den Hintergrund treten und somit weniger relevant werden.
  3. Kein Display und keine visuellen Elemente bei der Sprachsuche und einigen Ausgabegeräten: Auf dem Smartphone, dem Tablet oder dem PC gibt es auch weiterhin Trefferlisten. Doch Systeme wie Google Home, Amazons Alexa oder Apples HomePod haben keinen Display, sondern nur ein einfaches visuelles Feedbackmedium, um so anzuzeigen, dass die Geräte aktiv sind. Ansonsten findet die Kommunikation und die Ausgabe der Ergebnisse ausschließlich über die Sprache statt.
  4. Neue Rankingfaktoren für die Sprachsuche: Suchmaschinenanbieter, allen voran Google, werden in Zukunft neue Rankingfaktoren einführen, um die Relevanz von Inhalten und die Präsentationsfähigkeit durch Sprachausgabe mehr in den Fokus zu rücken. Gerade das ist bei der Suchmaschinenoptimierung und einzelnen SEO Maßnahmen zu berücksichtigen.
  5. Neuer Content, Suchmaschinenoptimierung und SEO Maßnahmen, um auf die Sprachsuche vorbereitet zu sein: Um den anstehenden neuen Rankingfaktoren gerecht zu werden, muss auf einer Website neuer Content eingerichtet werden, der speziell für Sprachausgabe optimiert ist. Mehr dazu im weiteren Text unter der Überschrift Featured Snippets.

Die Zeiten ändern sich – die Sprachsuche verändert vieles

Der Laptop hat die Art, wie und wo wir arbeiten, verändert, das iPhone hat die Art, wie wir Informationen suchen und kommunizieren, verändert. Die Spracherkennung und -steuerung bzw. die Sprachausgabe wird einmal mehr an einigen Stellen alles verändern. Das ist eine Herausforderung in Bezug auf die Suchmaschinenoptimierung und alle SEO Maßnahmen.

In Zukunft werden wir mehr und mehr Siri, Cortana, Alexa oder Google um Rat fragen. Die üblichen W-Fragen bekommen somit eine vollkommen neue Bedeutung. Schon heute ist es so, dass ein Drittel der Menschen von sich sagt, dass sie eher ihr Handy nutzen, als einen Mitarbeiter um Rat zu fragen. Die ich-will-wissen-Momente nehmen noch mehr zu – das zeigt der aktuelle Anstieg bei der Online-Informationssuche von Kunden um 65 %. Außerdem nimmt die Second-Screen-Nutzung weiter zu. Rund 66 % der Nutzer von Smartphones nutzen parallel zum TV-Konsum das Smartphone, um nach speziellen Inhalten aus Sendungen o. ä. zu suchen. Auch diese Faktoren müssen bei der Suchmaschinenoptimierung und allen weiteren SEO Maßnahmen berücksichtigt werden.

Eine weitere Entwicklung sind die ich-will-dahin-Momente, also die Zunahme von lokalen Suchanfragen. Die Suchanfragen nach Orten in der Nähe haben sich gegenüber dem letzten Jahr mehr als verdoppelt, und 82 % der Smartphone-Nutzer verwenden eine Suchmaschine, um Geschäfte in der unmittelbaren Umgebung zu finden. Lokale SEO Maßnahmen sind für die entsprechenden Websites oberste Pflicht, damit hier gezielt Suchmaschinenoptimierung betrieben wird.

Bei der Anzeige von Suchergebnissen reagiert Google schon heute mit neuen Anzeigeformaten bei den Suchergebnissen: mit sogenannten Rich Cards, Rich Snippets und Featured Snippets. Diese sollten schon jetzt bei der Suchmaschinenoptimierung berücksichtigt werden. Hier werden auf dem Smartphone bestimmte Suchergebnisse nicht nur in Form von Links angezeigt. Vielmehr werden ausgewählte Informationen gleich fertig formatiert präsentiert. Mach doch mal einen Test auf Deinem Smartphone und suche nach Persönlichkeiten oder bestimmten Orten. Über den Linkvorschlägen stehen hier zumeist optisch abgesetzte Inhalte mit den wichtigsten Informationen. Bei der lokalen Suche wird das am besten passende Ergebnis wie eine Visitenkarte angezeigt. All diese Anzeigenformate helfen Benutzern, die Ergebnisse zu findet, die sie suchen.

Deshalb ist zu erwarten, dass auch bei der Sprachausgabe ein entsprechend neues Format ins Zentrum des Interesses rücken wird und eine direkte Auswirkung auf die Suchmaschinenoptimierung hat. Gemeint sind hier die Featured Snippets, die vermutlich vorbereitend für Googles Voice Search entwickelt worden sind.

Google selbst beschreibt dieses Format wie folgt:

„Wenn ein Nutzer in der Google-Suche eine Frage stellt, zeigen wir ihm oben auf der Ergebnisseite möglicherweise ein Suchergebnis in einem speziellen Block mit einem hervorgehobenem Snippet. Dieser Block enthält eine aus einer Website extrahierte Zusammenfassung der Antwort, einen Link zur jeweiligen Seite sowie den Titel und die URL der Seite.“

Ziel ist Folgendes: Eindeutige Anfragen (per Sprache) sollen mit eindeutigen Ergebnissen (ggf. auch per Sprache) beantwortet werden.

Dabei bieten Featured Snippets eine Reihe von Vorteilen:

  1. Die Click-Through-Rate (CTR) steigt, wenn man auf der Website alles richtig macht (dazu an späterer Stelle mehr).
  2. Bei smarten Assistenten gibt es zwar keine CTR, aber Erfolge in der personalisierten Suche.
  3. In der mobilen Suche kann man alle anderen Ergebnisse aus dem sichtbaren Bereich verdrängen, da diese weiter nach unten verschoben werden.

Über die Featured Snippets kann man auch den Wettbewerb analysieren oder Potenziale ermitteln, denn Antworten aus dem Knowledge Graph können nicht geschlagen werden. Weitere Tipps:

  1. Per Search Console die höchste Klickrate überprüfen. Hohe Klickraten bei schlechter Position weisen auf vorhandenes Snippet hin.
  2. In der Google Search Console nach Fragen suchen.
  3. Per SEMrush die Featured Snippes der Konkurrenz ermitteln.

Onsite-Optimierung im Rahmen der Suchmaschinenoptimierung für Featured Snippets

Für die Onsite-Optimierung im Rahmen der Suchmaschinenoptimierung gibt es 5 konkrete Schritte, um die eigenen Inhalte für Featured Snippets vorzubereiten:

  1. Mögliche Fragen strukturiert und mit wenig Text beantworten (max. 50 Wörter)
  2. Fragen bzw. Fragestellungen in H2-Tag vor die Antwort stellen
  3. Wenn eine Tabelle angezeigt werden soll, dann als HTML formatieren.
  4. Passenden Content auf der Seite einbinden.
  5. In der Antwort, die Lust auf mehr wecken, damit der User klickt.

Sicherlich ist zu erwarten, dass hier in Zukunft noch weitere Faktoren bei der Suchmaschinenoptimierung zum Tragen kommen.

Was können wir heute konkret tun, um in Zukunft mehr Traffic über Voice Search zu bekommen?

In Zukunft ist es wohl unerlässlich, sich nicht nur mit neuen Faktoren der Suchmaschinenoptimierung zu beschäftigen, sondern auch mit der Hardware von Google, Apple und Amazon näher zu beschäftigen. Gerade Amazon ist wichtiger denn je, denn bereits heute laufen 42 % der e-Commerce-Suchanfragen über Amazon. Das bedeutet konkret: Produkte werden nicht bei Google, sondern bei Amazon gesucht. Es ist zu erwarten, dass bis 2020 die Anzahl der Suchanfragen auf 50 % steigen werden.

Das heißt, dass in Zukunft für die entsprechenden Plattformen auch Apps, oder im Falle von Amazons Alexa Skills, entwickelt werden müssen. MyTaxi, DPD, Lieferando, Gelbe Seiten und mehr sind schon heute als Skills für Amazons Alexa verfügbar, so dass hier entsprechende Anfragen und Aufträge über die Sprachsteuerung getätigt werden können.

Amazon bietet für die Entwicklung von Alexa Skills einen guten Einstieg über das SDK auf https://developer.amazon.com/de/echo.

Doch wie rankt man auf Amazon?

Auch das Ranking bei Amazon ist mit Bordmitteln und einfachen Schritten möglich. Hierbei sind folgende Punkte entscheidend:

  • Bei vielen Produktsuchen auf Google findet man in den Top 5 der beliebtesten Produkte Angebote von Amazon.
  • Amazon arbeitet nach Keywords im Titel und in Bullet-Points.
  • Nutze Bilder, Testsiegel & Co.
  • Ausführliche Produktbeschreibung mit passenden Keywords sind eine gute Investition.
  • Amazon Vendor bietet die Möglichkeit, um unter anderem Feature-Listen und einen Produktvergleich zu integrieren.
  • Kundenfragen als Service anbieten.
  • Kundenrezensionen gezielt einholen und nutzen.

Einen kostenlosen Download zum Thema gibt es auf http://ecommerce.xpose360.de

Was gibt es noch zu tun?

Gerade lokal agierende Anbieter sollten ihr Unternehmen in allen relevanten Services eintragen. Zum Beispiel:

  • Meinestadt.de
  • Google My Business
  • Yelp
  • Das Örtliche
  • Gelbe Seiten

Um die Inhalte der eigenen Website zu verbessern, sollte man den Service www.Schema.org nutzen für …

  • Markup
  • Semantische Auszeichnung
  • Strukturierte Daten
  • Snippet-Optimierung

Rund um das Angebots-, Lösungs- und Produktportfolio gilt es W-Fragen zu formulieren und zu optimieren. Also zum Beispiel …

  • Welches …
  • Welche …
  • Welcher …
  • Wie …
  • Wann …
  • Wozu …

Hilfestellung bei W-Fragen bietet die Website www.TermLabs.io. Wo geht die Reise in Zukunft hin? Der Blick in die Glaskugel ist natürlich immer etwas vage, denn Google macht um seinen Suchalgorithmus noch immer ein großes Geheimnis. Doch folgende Punkte sollten den Weg ebnen:

  • Bereite Dich schon heute vor und finde einen gesunden Mix an Kanälen.
  • Konzentriere Dich auf die Big Four, denn in Zukunft dürfte sich praktisch alles um sie drehen.
  • Steuerung von IoT durch Voice Search befeuert das Thema weiter und sorgt so für die weitere Verbreitung.
  • e-Commerce Suchanfragen verlagern sich in einigen Bereichen (Nachbestellung, wenig diversifizierte Produkte etc.) auf smarte Assistenten (heute schon auch über Amazon Dash-Button)
  • Ausbau der Sprachsteuerung in Autos & Co. fördert die weitere Verbreitung der Sprachsysteme.

Fazit

Natürlich müssen wir uns an die Sprachsteuerung noch gewöhnen, und nicht in jeder Umgebung ist diese sinnvoll oder gewünscht. Doch in Zukunft ist davon auszugehen, dass wir uns an die Sprachsteuerung gewöhnen werden. Es ist davon auszugehen, dass die einzelnen Systeme sich noch dramatisch verbessern werden, um letztlich so nicht nur einfache Sprachbefehle auszuführen, sondern um auch komplexe Fragen zu beantworten oder Aufgabenstellungen zu bearbeiten. Es ist am Ende nur eine Frage der Zeit.