Screaming Frog – 12 Analysemöglichkeiten in 45 Minuten

Beschreibung zum kostenlosen Online Marketing Webinar

Im Vortrag werden 12 Analysemöglichkeiten für ein Website Audit mit Screaming Frog gezeigt. Im Fokus stehen dabei die Funktionen Custom Search, Custom Extraction sowie die API Anbindungen an die Google Search Console und Google Analytics. Das Ziel des Vortrags ist es Inspirationsquellen für eigene Analysen zu geben.

Video zum Webinar

Webinar Termin:

20.12.2017

14:00 Uhr - 14:45 Uhr

Was Du nach dem Webinar gelernt hast:

  • Inspirationsquellen für eigene Analysen mit Screaming Frog (=Aufzeigen der Funktionsmöglichkeiten)
  • Für den eigenen Berufsalltag sofort anwendbare Analysen
  • Beispielanalysen: Identifikation von Seiten zur Snippetoptimierung, Bulk Google PageSpeed Check, Linkauditing

Zielgruppe:

  • Anfänger
  • Fortgeschritten
  • Online Marketing Manager
  • SEO Manager / SEO-Consultants

Screaming Frog – 12 Analysemöglichkeiten in 45 Minuten

Entdecken Sie im Webinar von Justin Keirath 12 Analysemöglichkeiten für ein Website Audit mit Screaming Frog. Im Kern geht es hierbei um die Funktionen aus Custom Search, Custom Extraction sowie die Nutzung von API-Anbindungen an die Google Search Console und Google Analytics.

Ziel des Webinars ist es, praktisch für jeden User eine Analysemöglichkeit zu präsentieren und verschiedene Inspirationen zu liefern, was man mit der Lösung Screaming Frog alles machen kann.

In den nachfolgenden Punkten wird immer wieder auf die entsprechenden Screenshots aus dem Webinar mit einer ungefähren Minutenangabe verwiesen. Bei Unklarheiten ist es also ratsam, hier ggf. die Aufzeichnung auf YouTube zu konsultieren (https://youtu.be/kAmKUPFwFYQ)

1. Oben Graph Meta Tags

Open Graph Meta Tags werden zum Beispiel von Facebook oder auf Twitter-Cards verwendet. Bei der ersten Analyse mit Screaming Frog geht es darum

  • herauszufinden, was als og:title oder og:image hinterlegt ist,
  • um herauszufinden, ob die og:url mit der gewünschten URL übereinstimmen und
  • welcher og:type hinterlegt ist.

Ziel ist es, die Snippets bei Facebook zu optimieren oder um Duplikate bzw. fehlerhafte Einbindungen zu finden.

Wie sehen Open Graph Einbindungen im Quelltext aus? Nun, ein Blick mit den Entwickler-Tools (zum Beispiel von Firefox) geben einen Einblick in den Quelltext. Dort sind die entsprechenden Elemente in den Meta-Property-Beschreibungen zu finden, und können mittels XPath extrahiert werden (siehe ab Minute 2:02).

Weiter geht es im nächsten Schritt in Screaming Frog. Hierbei werden in der Costum Extraction die entsprechenden Attribute hinterlegt, so dass die jeweiligen Inhalte aus HTML via XPath extrahiert werden (siehe ab Minute 3: 02).

Lässt man Screaming Frog nun crawlen, dann bekommt man eine Liste als Ergebnis, die man in Excel bearbeiten kann (siehe Minute 3:28). Aus dieser Liste lässt sich nun leicht herauslesen, wo zum Beispiel Bilder fehlen oder doppelte Inhalte vorhanden sind.

2. Publikationsfrequenz je Autor

Bei der nächsten Analyse geht es darum herauszufinden, wie oft Autoren auf einer Website veröffentlichen, in welcher Frequenz sie schreiben und welche Gastautoren aktiv sind. Die zentralen Fragen sind dabei:

  • Wie viele Artikel veröffentlicht unser Konkurrent pro Tag?
  • Welcher Autor erstellt wie viele Inhalte?
  • Welche Gastautoren gibt es?

Auch diese Fragen lassen sich mit einer Analyse durch Screaming Frog analysieren. Dadurch kann man zum Beispiel die Konkurrenz im Auge behalten, Sichtbarkeitsverlust bzw. –zunahme analysieren oder Gastautoren zu eruieren.

Das Ganze funktioniert mittels eines Status Quo Crawls, um die entsprechenden Elemente zu ermitteln. Im Beispiel (ab Minute 4:42) geht es über das seo-portal.de, um hier wieder über die Entwickler-Tools den entsprechenden CSS-Selektor zu kopieren. Im Beispiel geht es darum herauszufinden, von wem ein Artikel stammt und wann dieser veröffentlicht wurde.

Die entsprechenden Elemente kopiert man dann im Anschluss wieder in die Custom Extraction. Letztlich werden auf diesem Wege der Autor und das Veröffentlichungsdatum extrahiert. Zusätzlich wird noch in einer dritten Extraktion überprüft, ob es sich um einen Artikel oder eine Vorlage handelt.

Als Ergebnisliste (ab Minute 6:13) erhält man wieder eine Liste, die man in Excel bearbeiten und sortieren kann. Nun lässt sich mittels Autorennamen herausfinden, wie oft einzelne Autoren neue Artikel veröffentlichen, bzw. durch das Datum kann man auch darstellen, in welcher Frequenz einzelne Artikel veröffentlicht wurden, bzw. über welchen Zeitraum sich einzelne Veröffentlichungen verteilen.

Ein Tipp

Ab der Version 8 bietet Screaming Frog die Möglichkeit, einzelne Vorlagen für den Extractor zu speichern. Diese Möglichkeit sollte man immer dann nutzen, wenn man einzelne Extraktoren öfter benötigt.

3. Identifikation von Seiten zur Snippet-Optimierung

Bei dieser Analyse geht es darum, Seiten zu identifizieren, die sich zwar in den Top 10 befinden, aber nur eine geringe CTR haben. Das ist wichtig, um beispielsweise SERP-Snippets zu optimieren.

Zuerst verbindet man über Configuration -> API Access -> Google Search Console Screaming Frog mit der Google Search Console. Das ist mit wenigen Klicks erledigt und braucht nur wenige Sekunden. Danach noch die zu crawlende Website auswählen und einen Zeitraum definieren.

Ein Hinweis an dieser Stelle: Bisher konnte man in der Google Search Console nur einen Zeitraum von 90 Tagen wählen. Doch aktuell wird die Google Search Console umgestellt, und ist derzeit als Beta-Version verfügbar. Ein Unterschied ist hierbei, dass man als Zeitraum jetzt bis zu 12 Monate einstellen kann.

Mittels Dimensions-Filter kann man nun noch nach Geräten oder Ländern Filtern, um hier ggf. detailliertere Analysen durchzuführen.

Als Ergebnis erhält man nach einem Crawl, oder ggf. auch mehreren Crawls, wieder eine Tabelle mit den entsprechenden Ergebnissen (siehe ab Minute 9:52). Im Beispiel werden Klicks, Impressions, CTR und die durchschnittliche Position je URL angezeigt. Je nach Filter können die Daten sich auf bestimmte Geräte, Länder oder Suchbegriffe beziehen.

Nun kann man die Unterseiten identifizieren, die als Kandidaten für die Snippet-Optimierung gelten. Hierbei kann man zum Beispiel nach durchschnittlicher Position kleiner gleich 10 und CTR aufsteigend filtern.

4. Google Cache Check

Eine wichtige Frage ist immer, ob unsere URLs im Google Cache vorgehalten werden, und wann hat die letzte Aktualisierung stattgefunden. Hier hilft Screaming Frog bei der Analyse, doch bei vielen URLs funktioniert das nur mit Proxys und langsamen Crawler-Einstellungen.

Nun kommen wir zur Frage, ob die eigene URL im Index bzw. Cache vorliegt, und wann diese das letzte Mal aktualisiert wurde. Gerade nach größeren Änderungen, zum Beispiel auf den Kategorienseiten, können die Informationen extrem wichtig sein.

Zuerst gilt es, die Cache-Abfrage-URLs zu erstellen (ab Minute 11:34). Die Abfrage des Chaches funktioniert über den Link …

  • https://webcache.googleusercontent.com/search?q=cache:

Hinter dem Doppelpunkt muss die abzufragende URL platziert werden.

Möchte man viele URLs überprüfen, dann kann man sich hier die Arbeit etwas erleichtern, indem man mittels Excel die VERKETTEN-Funktion nutzt …

  • [=VERKETTEN(“https://webcache.googleusercontent.com/search?q=cache:“;A1)]

Dadurch lassen sich die URls mit der Abfrage so verketten, dass man im nächsten Schritt die finalen URLs in Screaming Frog weiter nutzen kann. Hier wechselt man in den Listen-Modus (Mode -> List) und fügt die kopierte URL-Liste hier ein.

Ist das erledigt, dann braucht man noch den entsprechenden Extractor zu erstellen (ab Minute 12:31). Wenn man sich hierbei eine Google Cache Ergebnisseite anschaut, dann findet man dort meist einen Satz wie „Dies ist der Cache von Google von http: …“ und ein entsprechendes Datum am Ende. Mit Hilfe der Entwickler-Tools extrahiert man nun wieder aus dem Quellcode den Satz und das Datum als CSS-Path, um dann später in Excel das Ergebnis so zu bereinigen, dass nur noch Datum und Uhrzeit übrig bleiben.

Als Ergebnis erhält man unter anderem auch einen aktuellen Status-Code der besagt, ob eine Seite im Cache vorhanden ist (Status-Code 200) oder nicht (Status-Code 404). Das Datum der letzten Aktualisierung lässt sich nach Bereinigung des Satzes darstellen (ca. ab Minute 13:00).

5. Bulk Google PageSpeed Check

In der nächsten Analyse geht es darum herauszufinden, welche Seiten auf Basis von Google Analytics und der Google PageSpeed API schlechte Ladenzeiten haben. Ziel ist es, Unterseiten mit einer schlechten Performance zu identifizieren, damit diese optimiert werden können.

Der erste Schritt führt hierbei wieder über Configuration -> API Access -> Google Analytics, um eine Verbindung zwischen Screaming Frog und Google Analytics herzustellen. Wenn alles verbunden ist und die zu analysierende Site ausgewählt wurde, dann müssen unter Metrics die Informationen zu Site Speed ausgewählt werden (siehe ab Minute 14:40). Alle anderen Informationen spielen keine Rolle, da uns hier bei diesem Beispiel nur die Geschwindigkeit interessiert.

Tipp: Die Site Speed Stichprobe bei Google Analytics per setSiteSpeedSampleRate() erhöhen, denn die Standardeinstellung von 1 % liefert oft zu wenige und zu ungenaue Ergebnisse, da als Site-Speed nur 1 % aller Besucher als Berechnungsgrundlage genutzt werden. Besser ist es, den Wert auf 5 oder 10 % zu setzen.

Nun lässt man Screaming Frog crawlen. Als Ergebnis erhält man wieder eine Liste (ab Minute 15:42) mit URLs, und den durchschnittlichen Ladezeiten pro Seite (average page load time). Zusätzlich werden auch weitere Informationen ausgelesen, wie Anzahl der Sessions, Bounce Rate, Redirection Time etc. In Excel kann man diese Liste nun auf- oder absteigend sortieren, bzw. mit der Mittelwertfunktion in Excel kann man analysieren, welche URLs im Mittel liegen, und welche darüber bzw. darunter performen.

Diese Domains nimmt man nun in den URLProfiler. Der URLProfiler ist weiteres Tool (das nichts mit Screaming Frog zu tun hat). Doch es ist ideal, um API-Daten anzuzapfen, um so weitere Informationen zu URLs zu bekommen. Als Ergebnis bekommt man nun eine finale Liste mit den Mobile Speed Score, Usability Score und Desktop Speed Score zu jeder einzelnen URL (ab Minute 16:46).

Diese Liste hilft auf ideale Weise dabei, um zu bestimmen, welche Seiten überarbeitet und optimiert werden müssen.

6. Bulk Structured Data Markup Check

Diese Analyse zeigt, auf welchen Seiten es Schema.org Einbindungen vorhanden sind, und ob es gegebenenfalls Fehler bei der Einbindung gibt.

Vor den Crawls wird zuerst eine Custom Search in Screaming Frog eingerichtet (ab Minute 17:28). Hierbei wird als Filter „Schema.org“ eingesetzt, um im Quellcode der einzelnen HTML-Seiten nach diesem Begriff zu suchen. Lässt man nun Screaming Frog crawlen, dann erhält man als Ergebnis eine Liste (ab Minute 17:59) mit einer Häufigkeits-Aufstellung der gefundenen Begriffe.

Diese Liste wird nun als Datenbasis für das Structured Data Testing Tool von Google genutzt. Dadurch lassen sich zum Beispiel Fehler in der Struktur leicht aufdecken.

Die Abfrage funktioniert hierbei über …

  • https://search.google.com/structured-data/testing-tool#url=

Nach dem Gleichzeichen muss die zu prüfende encodete URL (hier ggf. nach einem Encoding-Tool suchen) platziert werden. Wie schon bei der Chache-Analyse, kann man hier in Excel mit VERKETTEN eine entsprechende Liste erstellen.

Hinweis: Bitte darauf achten, dass das JavaScript-Rendering eingeschaltet ist, da Structured Data Testing Tool auf JavaScript basiert, und ansonsten ggf. URLs nicht korrekt funktionieren bzw. die Extraktion fehlschlägt. (Aktivierung unter Spider -> Rendering -> JavaScript Rendering)

Nun ruft man eine URL auf (ab Minute 20:10), um dann im Google Structured Data Markup Tool den Bereich zu finden, den wir extrahieren wollen. Das ist der Bereich, in dem die Fehler, Warnungen und Elemente ausgegeben werden. Im Anschluss kopiert man wieder mit den Entwickler-Tools den entsprechenden CSSPath, um diesen dann im Custom Extractor zu hinterlegen, so dass als Ergebnis beim Crawlen der entsprechende Text extrahiert wird.

Nun werden die zuvor generierten URLs im List-Mode eingefügt (ab Minute 20:37), und man startet das Crawlen. Als Ergebnis erhält man einen Bericht mit einzelnen URLs und den jeweiligen Ergebnissen. Aus diesen Ergebnissen lassen sich jetzt ganz konkret die Fehler und Warnungen herauslesen.

7. JSON-LD Schema.org Einbindungen

Schema.org Einbindungen lassen sich nicht nur über HTML einbinden, sondern auch über JSON-LD. Deshalb ist es sinnvoll herauszufinden, auf welchen Unterseiten es Schema.org JSON-LD Einbindungen gibt, und welchen Inhalt diese Einbindungen haben. Dadurch lassen sich Unterseiten mit bestimmten Markups, aber auch redundante oder fehlerhafte Schema.org Einbindungen identifizieren.

Bei der Ausführung der Crawls muss hier ein anderer, sinnvollerer Weg gegangen werden, denn wir wollen hier den kompletten JSON-LD Code extrahieren. Hierzu nutzt man Regex in der Custom Extraction (ab Minute 21:54).

Ganz wichtig hierbei ist, dass auch hier das JavaScript-Rendering aktiviert ist, denn oft werden die JSON-LD Schema Einbindungen über den Google Tag Manager gehandhabt. Ist dann das JavaScript-Rendering nicht aktiviert, dann wird die entsprechende Aktion nicht ausgelöst, so dass keine bzw. falsche Ergebnisse geliefert werden.

(Ab Minute 22:45) Als Ergebnis bekommt man wieder eine Liste mit den jeweiligen Einbindungen, die man anschließend nach dem Export in Excel nach Typen sortieren und auswerten kann.

8. Broken Linkbuilding

Links, Inlinks und Backlinks sind für die eigene Reputation und das Ranking einer Website extrem wichtig. Deshalb kann es sich lohnen, auf Links und Inlinks zu achten, und mehr noch nach sogenannten Broken Links bei bestimmten Suchbegriffen zu suchen.

Hierbei handelt es sich zum Beispiel um Links, die als Ergebnis einen 404- oder 410-Fehler ausgeben, bzw. ein „no response“ zurückgegeben werden. Diese Links lassen sich zum Beispiel für eine eigene Top-100 Liste an Suchbegriffen analysieren, um den Betreibern der entsprechenden Websites passenden neuen Content für die Verlinkung anzubieten.

Ziel ist es also, inaktive oder nicht korrekt funktionierende Links zu identifizieren, um dann eigenen Content als Alternative zur Verlinkung anzubieten.

Als Tools braucht man hier unter Mac OS X den Simple SERP Scraper oder für Windows ScrapeBox, um beim Crawlen nach bestimmten Keywords (entweder die eigenen, oder aber auch Keywords der Konkurrenz) die entsprechenden Suchergebnisse zu bekommen (ab Minute 24:40).

Als Ergebnis erhält man wieder eine Liste, die im Screaming Frog über Mode -> List eingefügt wird. Hierbei muss noch der Crawler entsprechend konfiguriert werden (ab Minute 25:14). Damit nur die URLs geprüft wird, die in der Liste vorgegeben sind (Link Crawl Depth = 1).

Ist das Crawling gestartet, dann holt man sich über Bulk Export –> Response Codes die URLs mit den jeweils relevanten Response Codes (4xx, 5xx, no response). Über URLProfiler, LRT oder Majestic Bulk Checker überprüft man nun im nächsten Schritt die Links aus der generierten Liste (siehe ab Minute 26:10) und lässt diese „bewerten“. Danach noch die Listen sortieren, um ggf. Duplikate bzw. offensichtlich unpassende URLs zu entfernen.

Am Ende erhält man wieder eine Liste mit URLs, die man sich nach Anzahl der eingehenden Links sortieren lassen kann (Inlinks werden hierbei nicht berücksichtigt). Über diesen Weg lassen sich dann sinnvolle Seiten für eine Broken Linkbuilding Kampagne identifizieren.

9. Linkauditing

Beim Linkauditing gilt es, nicht nur eigene Links und Inlinks zu analysieren, sondern auch die Links unter die Lupe zu nehmen, mit denen andere Websites auf unsere eigene Website verlinken. Analysiert werden soll hierbei, auf welche Unterseiten verlinkt wird, welcher Linktext genutzt wird und ob dieser Link ggf. auf „nofollow“ gesetzt ist. Dadurch kann man das eigene Linkbuilding überwachen und erhält so wichtige Daten für eine Linkaufbau-Kampagne.

Es kann aber auch eine Liste mit Citation erstellt werden, um hier mit mehreren Crawls zu ermitteln, welche Seiten zwar den Firmen-, Marken- oder Produktnamen im Inhalt haben, ohne dabei zu verlinken. Hierzu kann man wieder, wie beim Broken Linkbuilding, zum Beispiel mit dem Simple SERP Scraper und bestimmten Keywords nach entsprechenden URLs suchen (siehe ab Minute 27:16). Die entsprechende Liste wird wieder unter Mode -> List eingefügt (ab Minute 27:47).

Danach muss unter Costum Extraction noch der Crawler konfiguriert werden, damit die Werte für href, Linktext und rel über XPath extrahiert werden (siehe ab Minute 28:04). Im Grunde genommen ist das ähnlich wie bei der Open Graph Analyse vom Anfang dieses Beitrags.

Als Ergebnis erhält man wieder eine Liste, auf welchen Seiten der Link vorhanden ist, auf welche Seite verlinkt wird und welcher Linktext genutzt wird, bzw. hier erfährt man auch, ob ein Link auf „nofollow“ gesetzt ist, wobei Inlinks hier wieder ignoriert werden (siehe ab Minute 28:40).

10. Identifikation von unbesuchten Unterseiten

In dieser Analyse geht es darum, die Unterseiten zu identifizieren, die über Google keine Besucher bekommen haben, bzw. die gar keine Besucher hatten. Dadurch lassen sich Karteileichen identifizieren, bzw. aber auch mögliche Trackingprobleme identifizieren.

Gerade bei großen Websites ist es sinnvoll, nach unbesuchten Seiten zu suchen. Mit Screaming Frog ist das möglich, indem man zuerst eine Verbindung zu Google Analytics herstelle (siehe ab Minute 29:52), und dann in den Einstellungen die entsprechenden Metriken und Zeiträume definiert. Idealerweise wählt man hier Session-Daten und die Page-Tracking bzw. Page-View-Daten. Zusätzlich sollte man auch eine Verbindung zur Google Search Console aufbauen, und auch hier sollte man einen möglichst langen Zeitraum, also 90 Tage, bzw. in der Beta-Version 12 Monate, wählen.

Zusätzlich wird nun im Custom Search noch der Google Analytics-Code bzw. der Google Tag Manager Code 1. als„ Contains“ und 2. als „Does Not Contain“ festgelegt. Dadurch werden die einzelnen Seiten durchsucht und festgestellt, ob die entsprechenden Tracking-Tags vorhanden sind (siehe ab Minute 30:51).

Nach dem Crawlen erhält man nun einen Report mit URLs und den jeweiligen Informationen aus Google Analytics. Auf Basis der Sessions aus Google Analytics kann man nun ersehen, welche Seiten die wenigsten bzw. gar keine Besucher haben. In diesem Fall ist dann zu überlegen, ob diese Seiten noch eine Existenzberechtigung haben, bzw. auf „no-index“ gesetzt werden sollten.

11. Review Snippets überprüfen

Nun geht es darum herauszufinden, auf welchen Unterseiten Reviews vorhanden sind, welche Bewertungen Unterseiten haben (aggregateRating) und wie diese Bewertungen in Suchergebnissen angezeigt werden. Ziel hierbei ist es, Unterseiten mit schlechten Bewertungen zu identifizieren, um diese dann inhaltlich zu verbessern oder für eine bessere CTR Snippetoptimierung zu betreiben.

Im Beispiel geht es um die Seite eatsmarter.de. Mittels der Entwickler-Tools kopiert man sich zuerst aus dem Quellcode den CSSPath für die durchschnittliche Bewertung und für die Gesamtzahl der Bewertungen (siehe ab Minute 34:13). Beide Inhalte werden im Custom Extractor hinterlegt (siehe ab Minute 34:19).

Als Ergebnis bekommt man wieder eine Liste, in diesem Beispiel sind es Rezepte, mit den jeweiligen URLs, den Bewertungen und der Anzahl von Bewertungen. Nun geht es darum herauszufinden, ob diese Bewertungen so auch in den Google Ergebnissen angezeigt werden.

Hierzu erstellt man wieder zu den einzelnen gefundenen URLs eine Site-Abfrage bei Google, am besten wieder mit der Hilfe von Excel und VERKETTUNGEN (siehe ab Minute 34:35). Achtung, auch hier muss das JavaScript-Rendering aktiviert werden (Configuration -> Spider -> Rendering). Für die Site-Abfrage wird folgender Link genutzt:

  • https://www.google.de/search?q=site:&gws_rd=cr

Hinter dem Doppelpunkt wird dann wieder die URL eingefügt. Die Ergänzung &gws_rd=cr ist ein wichtiger Ländercode, ohne den die Abfrage nicht korrekt funktioniert.

Die finale Liste für die Abfrage wird nun wieder im Mode -> List eingefügt. Unter Umständen kann es aber in diesem Falle zu Problemen bei den Crawls kommen, da Screaming Frog auf eine Chromium-Engine setzt (wichtig, ab Minute 35:48). Deshalb sollte man sich zusätzlich noch die Seite anschauen bzw. einen Screenshot rendern lassen, und wieder mit den Entwickler-Tools den Bereich kopieren, der für die Darstellung der Bewertungen zuständig ist. Dieser wird dann wieder im Custom Extractor hinterlegt (siehe ab Minute 37:26).

Als Ergebnis erhält man wieder eine Ergebnisliste, aus der sich Übereinstimmungen oder Abweichungen herauslesen lassen.

12. „Thin content“-Kategorieseiten identifizieren

In der letzten Analyse geht es darum zu analysieren, welche Kategorieseiten es im Online-Shop gibt, wie viele Produkte auf den jeweiligen Kategorieseiten angezeigt werden und wie viel Text auf einer Kategorieseite vorhanden ist. Ziel hierbei ist es, Kategorieseiten mit „thin content“, also zu wenig Content, zu identifizieren, bzw. einen Überblick über die Kategoriestruktur eines Online-Shops zu bekommen.

Im Beispiel geht es um die Seite www.peek-cloppenburg.de (sieh ab Minute 38:53). Im Detail sollen hierbei folgende Inhalte extrahiert werden:

  • Kategoriename
  • Produktzahl
  • Pagination
  • Breadcrumb
  • Text

Tipp: Idealerweise sollte man für Crawls von großen Websites den Crawling-Bereich eingrenzen über die Konfiguration der Spider Include URLs (siehe ab Minute 39:13).

Ansonsten werden hier auch wieder der jeweilige CSSPath für Kategoriename, Produktzahl, Pagination, Breadcrumb und Text aus dem Quellcode kopiert, um diesen im Custom Extractor zu hinterlegen.

Eine Ausnahme, bzw. in diesem Fall eine Besonderheit, ist die Produktzahl. Wenn diese nicht direkt vorliegt, dann muss man diese selbst berechnen. Das passiert, indem man die Produktboxen, über die CSS-Class und Custom Search, zählt (siehe ab Minute 40:14). Dadurch erhält man einen guten Annäherungswert.

Am Ende erhält man wieder eine Liste, die man in Excel auswerten kann (siehe ab Minute 40:45). Hierbei findet man in den jeweiligen Spalten die URL, die Kategorienüberschrift, den Kategorientext, die Textlänge und alle weiteren abgefragten Informationen.

Anmerkung: Das Keywords Inlinks hat im gesamten Webinar keine Rolle gespielt. Trotzdem habe ich versucht, dieses an halbwegs passenden Stellen mit einzuarbeiten.

Screaming Frog – 12 Analysemöglichkeiten in 45 Minuten

Entdecken Sie im Webinar von Justin Keirath 12 Analysemöglichkeiten für ein Website Audit mit Screaming Frog. Im Kern geht es hierbei um die Funktionen aus Custom Search, Custom Extraction sowie die Nutzung von API-Anbindungen an die Google Search Console und Google Analytics.

Ziel des Webinars ist es, praktisch für jeden User eine Analysemöglichkeit zu präsentieren und verschiedene Inspirationen zu liefern, was man mit der Lösung Screaming Frog alles machen kann.

In den nachfolgenden Punkten wird immer wieder auf die entsprechenden Screenshots aus dem Webinar mit einer ungefähren Minutenangabe verwiesen. Bei Unklarheiten ist es also ratsam, hier ggf. die Aufzeichnung auf YouTube zu konsultieren (https://youtu.be/kAmKUPFwFYQ)

1. Oben Graph Meta Tags

Open Graph Meta Tags werden zum Beispiel von Facebook oder auf Twitter-Cards verwendet. Bei der ersten Analyse mit Screaming Frog geht es darum

  • herauszufinden, was als og:title oder og:image hinterlegt ist,
  • um herauszufinden, ob die og:url mit der gewünschten URL übereinstimmen und
  • welcher og:type hinterlegt ist.

Ziel ist es, die Snippets bei Facebook zu optimieren oder um Duplikate bzw. fehlerhafte Einbindungen zu finden.

Wie sehen Open Graph Einbindungen im Quelltext aus? Nun, ein Blick mit den Entwickler-Tools (zum Beispiel von Firefox) geben einen Einblick in den Quelltext. Dort sind die entsprechenden Elemente in den Meta-Property-Beschreibungen zu finden, und können mittels XPath extrahiert werden (siehe ab Minute 2:02).

Weiter geht es im nächsten Schritt in Screaming Frog. Hierbei werden in der Costum Extraction die entsprechenden Attribute hinterlegt, so dass die jeweiligen Inhalte aus HTML via XPath extrahiert werden (siehe ab Minute 3: 02).

Lässt man Screaming Frog nun crawlen, dann bekommt man eine Liste als Ergebnis, die man in Excel bearbeiten kann (siehe Minute 3:28). Aus dieser Liste lässt sich nun leicht herauslesen, wo zum Beispiel Bilder fehlen oder doppelte Inhalte vorhanden sind.

2. Publikationsfrequenz je Autor

Bei der nächsten Analyse geht es darum herauszufinden, wie oft Autoren auf einer Website veröffentlichen, in welcher Frequenz sie schreiben und welche Gastautoren aktiv sind. Die zentralen Fragen sind dabei:

  • Wie viele Artikel veröffentlicht unser Konkurrent pro Tag?
  • Welcher Autor erstellt wie viele Inhalte?
  • Welche Gastautoren gibt es?

Auch diese Fragen lassen sich mit einer Analyse durch Screaming Frog analysieren. Dadurch kann man zum Beispiel die Konkurrenz im Auge behalten, Sichtbarkeitsverlust bzw. –zunahme analysieren oder Gastautoren zu eruieren.

Das Ganze funktioniert mittels eines Status Quo Crawls, um die entsprechenden Elemente zu ermitteln. Im Beispiel (ab Minute 4:42) geht es über das seo-portal.de, um hier wieder über die Entwickler-Tools den entsprechenden CSS-Selektor zu kopieren. Im Beispiel geht es darum herauszufinden, von wem ein Artikel stammt und wann dieser veröffentlicht wurde.

Die entsprechenden Elemente kopiert man dann im Anschluss wieder in die Custom Extraction. Letztlich werden auf diesem Wege der Autor und das Veröffentlichungsdatum extrahiert. Zusätzlich wird noch in einer dritten Extraktion überprüft, ob es sich um einen Artikel oder eine Vorlage handelt.

Als Ergebnisliste (ab Minute 6:13) erhält man wieder eine Liste, die man in Excel bearbeiten und sortieren kann. Nun lässt sich mittels Autorennamen herausfinden, wie oft einzelne Autoren neue Artikel veröffentlichen, bzw. durch das Datum kann man auch darstellen, in welcher Frequenz einzelne Artikel veröffentlicht wurden, bzw. über welchen Zeitraum sich einzelne Veröffentlichungen verteilen.

Ein Tipp

Ab der Version 8 bietet Screaming Frog die Möglichkeit, einzelne Vorlagen für den Extractor zu speichern. Diese Möglichkeit sollte man immer dann nutzen, wenn man einzelne Extraktoren öfter benötigt.

3. Identifikation von Seiten zur Snippet-Optimierung

Bei dieser Analyse geht es darum, Seiten zu identifizieren, die sich zwar in den Top 10 befinden, aber nur eine geringe CTR haben. Das ist wichtig, um beispielsweise SERP-Snippets zu optimieren.

Zuerst verbindet man über Configuration -> API Access -> Google Search Console Screaming Frog mit der Google Search Console. Das ist mit wenigen Klicks erledigt und braucht nur wenige Sekunden. Danach noch die zu crawlende Website auswählen und einen Zeitraum definieren.

Ein Hinweis an dieser Stelle: Bisher konnte man in der Google Search Console nur einen Zeitraum von 90 Tagen wählen. Doch aktuell wird die Google Search Console umgestellt, und ist derzeit als Beta-Version verfügbar. Ein Unterschied ist hierbei, dass man als Zeitraum jetzt bis zu 12 Monate einstellen kann.

Mittels Dimensions-Filter kann man nun noch nach Geräten oder Ländern Filtern, um hier ggf. detailliertere Analysen durchzuführen.

Als Ergebnis erhält man nach einem Crawl, oder ggf. auch mehreren Crawls, wieder eine Tabelle mit den entsprechenden Ergebnissen (siehe ab Minute 9:52). Im Beispiel werden Klicks, Impressions, CTR und die durchschnittliche Position je URL angezeigt. Je nach Filter können die Daten sich auf bestimmte Geräte, Länder oder Suchbegriffe beziehen.

Nun kann man die Unterseiten identifizieren, die als Kandidaten für die Snippet-Optimierung gelten. Hierbei kann man zum Beispiel nach durchschnittlicher Position kleiner gleich 10 und CTR aufsteigend filtern.

4. Google Cache Check

Eine wichtige Frage ist immer, ob unsere URLs im Google Cache vorgehalten werden, und wann hat die letzte Aktualisierung stattgefunden. Hier hilft Screaming Frog bei der Analyse, doch bei vielen URLs funktioniert das nur mit Proxys und langsamen Crawler-Einstellungen.

Nun kommen wir zur Frage, ob die eigene URL im Index bzw. Cache vorliegt, und wann diese das letzte Mal aktualisiert wurde. Gerade nach größeren Änderungen, zum Beispiel auf den Kategorienseiten, können die Informationen extrem wichtig sein.

Zuerst gilt es, die Cache-Abfrage-URLs zu erstellen (ab Minute 11:34). Die Abfrage des Chaches funktioniert über den Link …

  • https://webcache.googleusercontent.com/search?q=cache:

Hinter dem Doppelpunkt muss die abzufragende URL platziert werden.

Möchte man viele URLs überprüfen, dann kann man sich hier die Arbeit etwas erleichtern, indem man mittels Excel die VERKETTEN-Funktion nutzt …

  • [=VERKETTEN(“https://webcache.googleusercontent.com/search?q=cache:“;A1)]

Dadurch lassen sich die URls mit der Abfrage so verketten, dass man im nächsten Schritt die finalen URLs in Screaming Frog weiter nutzen kann. Hier wechselt man in den Listen-Modus (Mode -> List) und fügt die kopierte URL-Liste hier ein.

Ist das erledigt, dann braucht man noch den entsprechenden Extractor zu erstellen (ab Minute 12:31). Wenn man sich hierbei eine Google Cache Ergebnisseite anschaut, dann findet man dort meist einen Satz wie „Dies ist der Cache von Google von http: …“ und ein entsprechendes Datum am Ende. Mit Hilfe der Entwickler-Tools extrahiert man nun wieder aus dem Quellcode den Satz und das Datum als CSS-Path, um dann später in Excel das Ergebnis so zu bereinigen, dass nur noch Datum und Uhrzeit übrig bleiben.

Als Ergebnis erhält man unter anderem auch einen aktuellen Status-Code der besagt, ob eine Seite im Cache vorhanden ist (Status-Code 200) oder nicht (Status-Code 404). Das Datum der letzten Aktualisierung lässt sich nach Bereinigung des Satzes darstellen (ca. ab Minute 13:00).

5. Bulk Google PageSpeed Check

In der nächsten Analyse geht es darum herauszufinden, welche Seiten auf Basis von Google Analytics und der Google PageSpeed API schlechte Ladenzeiten haben. Ziel ist es, Unterseiten mit einer schlechten Performance zu identifizieren, damit diese optimiert werden können.

Der erste Schritt führt hierbei wieder über Configuration -> API Access -> Google Analytics, um eine Verbindung zwischen Screaming Frog und Google Analytics herzustellen. Wenn alles verbunden ist und die zu analysierende Site ausgewählt wurde, dann müssen unter Metrics die Informationen zu Site Speed ausgewählt werden (siehe ab Minute 14:40). Alle anderen Informationen spielen keine Rolle, da uns hier bei diesem Beispiel nur die Geschwindigkeit interessiert.

Tipp: Die Site Speed Stichprobe bei Google Analytics per setSiteSpeedSampleRate() erhöhen, denn die Standardeinstellung von 1 % liefert oft zu wenige und zu ungenaue Ergebnisse, da als Site-Speed nur 1 % aller Besucher als Berechnungsgrundlage genutzt werden. Besser ist es, den Wert auf 5 oder 10 % zu setzen.

Nun lässt man Screaming Frog crawlen. Als Ergebnis erhält man wieder eine Liste (ab Minute 15:42) mit URLs, und den durchschnittlichen Ladezeiten pro Seite (average page load time). Zusätzlich werden auch weitere Informationen ausgelesen, wie Anzahl der Sessions, Bounce Rate, Redirection Time etc. In Excel kann man diese Liste nun auf- oder absteigend sortieren, bzw. mit der Mittelwertfunktion in Excel kann man analysieren, welche URLs im Mittel liegen, und welche darüber bzw. darunter performen.

Diese Domains nimmt man nun in den URLProfiler. Der URLProfiler ist weiteres Tool (das nichts mit Screaming Frog zu tun hat). Doch es ist ideal, um API-Daten anzuzapfen, um so weitere Informationen zu URLs zu bekommen. Als Ergebnis bekommt man nun eine finale Liste mit den Mobile Speed Score, Usability Score und Desktop Speed Score zu jeder einzelnen URL (ab Minute 16:46).

Diese Liste hilft auf ideale Weise dabei, um zu bestimmen, welche Seiten überarbeitet und optimiert werden müssen.

6. Bulk Structured Data Markup Check

Diese Analyse zeigt, auf welchen Seiten es Schema.org Einbindungen vorhanden sind, und ob es gegebenenfalls Fehler bei der Einbindung gibt.

Vor den Crawls wird zuerst eine Custom Search in Screaming Frog eingerichtet (ab Minute 17:28). Hierbei wird als Filter „Schema.org“ eingesetzt, um im Quellcode der einzelnen HTML-Seiten nach diesem Begriff zu suchen. Lässt man nun Screaming Frog crawlen, dann erhält man als Ergebnis eine Liste (ab Minute 17:59) mit einer Häufigkeits-Aufstellung der gefundenen Begriffe.

Diese Liste wird nun als Datenbasis für das Structured Data Testing Tool von Google genutzt. Dadurch lassen sich zum Beispiel Fehler in der Struktur leicht aufdecken.

Die Abfrage funktioniert hierbei über …

  • https://search.google.com/structured-data/testing-tool#url=

Nach dem Gleichzeichen muss die zu prüfende encodete URL (hier ggf. nach einem Encoding-Tool suchen) platziert werden. Wie schon bei der Chache-Analyse, kann man hier in Excel mit VERKETTEN eine entsprechende Liste erstellen.

Hinweis: Bitte darauf achten, dass das JavaScript-Rendering eingeschaltet ist, da Structured Data Testing Tool auf JavaScript basiert, und ansonsten ggf. URLs nicht korrekt funktionieren bzw. die Extraktion fehlschlägt. (Aktivierung unter Spider -> Rendering -> JavaScript Rendering)

Nun ruft man eine URL auf (ab Minute 20:10), um dann im Google Structured Data Markup Tool den Bereich zu finden, den wir extrahieren wollen. Das ist der Bereich, in dem die Fehler, Warnungen und Elemente ausgegeben werden. Im Anschluss kopiert man wieder mit den Entwickler-Tools den entsprechenden CSSPath, um diesen dann im Custom Extractor zu hinterlegen, so dass als Ergebnis beim Crawlen der entsprechende Text extrahiert wird.

Nun werden die zuvor generierten URLs im List-Mode eingefügt (ab Minute 20:37), und man startet das Crawlen. Als Ergebnis erhält man einen Bericht mit einzelnen URLs und den jeweiligen Ergebnissen. Aus diesen Ergebnissen lassen sich jetzt ganz konkret die Fehler und Warnungen herauslesen.

7. JSON-LD Schema.org Einbindungen

Schema.org Einbindungen lassen sich nicht nur über HTML einbinden, sondern auch über JSON-LD. Deshalb ist es sinnvoll herauszufinden, auf welchen Unterseiten es Schema.org JSON-LD Einbindungen gibt, und welchen Inhalt diese Einbindungen haben. Dadurch lassen sich Unterseiten mit bestimmten Markups, aber auch redundante oder fehlerhafte Schema.org Einbindungen identifizieren.

Bei der Ausführung der Crawls muss hier ein anderer, sinnvollerer Weg gegangen werden, denn wir wollen hier den kompletten JSON-LD Code extrahieren. Hierzu nutzt man Regex in der Custom Extraction (ab Minute 21:54).

Ganz wichtig hierbei ist, dass auch hier das JavaScript-Rendering aktiviert ist, denn oft werden die JSON-LD Schema Einbindungen über den Google Tag Manager gehandhabt. Ist dann das JavaScript-Rendering nicht aktiviert, dann wird die entsprechende Aktion nicht ausgelöst, so dass keine bzw. falsche Ergebnisse geliefert werden.

(Ab Minute 22:45) Als Ergebnis bekommt man wieder eine Liste mit den jeweiligen Einbindungen, die man anschließend nach dem Export in Excel nach Typen sortieren und auswerten kann.

8. Broken Linkbuilding

Links, Inlinks und Backlinks sind für die eigene Reputation und das Ranking einer Website extrem wichtig. Deshalb kann es sich lohnen, auf Links und Inlinks zu achten, und mehr noch nach sogenannten Broken Links bei bestimmten Suchbegriffen zu suchen.

Hierbei handelt es sich zum Beispiel um Links, die als Ergebnis einen 404- oder 410-Fehler ausgeben, bzw. ein „no response“ zurückgegeben werden. Diese Links lassen sich zum Beispiel für eine eigene Top-100 Liste an Suchbegriffen analysieren, um den Betreibern der entsprechenden Websites passenden neuen Content für die Verlinkung anzubieten.

Ziel ist es also, inaktive oder nicht korrekt funktionierende Links zu identifizieren, um dann eigenen Content als Alternative zur Verlinkung anzubieten.

Als Tools braucht man hier unter Mac OS X den Simple SERP Scraper oder für Windows ScrapeBox, um beim Crawlen nach bestimmten Keywords (entweder die eigenen, oder aber auch Keywords der Konkurrenz) die entsprechenden Suchergebnisse zu bekommen (ab Minute 24:40).

Als Ergebnis erhält man wieder eine Liste, die im Screaming Frog über Mode -> List eingefügt wird. Hierbei muss noch der Crawler entsprechend konfiguriert werden (ab Minute 25:14). Damit nur die URLs geprüft wird, die in der Liste vorgegeben sind (Link Crawl Depth = 1).

Ist das Crawling gestartet, dann holt man sich über Bulk Export –> Response Codes die URLs mit den jeweils relevanten Response Codes (4xx, 5xx, no response). Über URLProfiler, LRT oder Majestic Bulk Checker überprüft man nun im nächsten Schritt die Links aus der generierten Liste (siehe ab Minute 26:10) und lässt diese „bewerten“. Danach noch die Listen sortieren, um ggf. Duplikate bzw. offensichtlich unpassende URLs zu entfernen.

Am Ende erhält man wieder eine Liste mit URLs, die man sich nach Anzahl der eingehenden Links sortieren lassen kann (Inlinks werden hierbei nicht berücksichtigt). Über diesen Weg lassen sich dann sinnvolle Seiten für eine Broken Linkbuilding Kampagne identifizieren.

9. Linkauditing

Beim Linkauditing gilt es, nicht nur eigene Links und Inlinks zu analysieren, sondern auch die Links unter die Lupe zu nehmen, mit denen andere Websites auf unsere eigene Website verlinken. Analysiert werden soll hierbei, auf welche Unterseiten verlinkt wird, welcher Linktext genutzt wird und ob dieser Link ggf. auf „nofollow“ gesetzt ist. Dadurch kann man das eigene Linkbuilding überwachen und erhält so wichtige Daten für eine Linkaufbau-Kampagne.

Es kann aber auch eine Liste mit Citation erstellt werden, um hier mit mehreren Crawls zu ermitteln, welche Seiten zwar den Firmen-, Marken- oder Produktnamen im Inhalt haben, ohne dabei zu verlinken. Hierzu kann man wieder, wie beim Broken Linkbuilding, zum Beispiel mit dem Simple SERP Scraper und bestimmten Keywords nach entsprechenden URLs suchen (siehe ab Minute 27:16). Die entsprechende Liste wird wieder unter Mode -> List eingefügt (ab Minute 27:47).

Danach muss unter Costum Extraction noch der Crawler konfiguriert werden, damit die Werte für href, Linktext und rel über XPath extrahiert werden (siehe ab Minute 28:04). Im Grunde genommen ist das ähnlich wie bei der Open Graph Analyse vom Anfang dieses Beitrags.

Als Ergebnis erhält man wieder eine Liste, auf welchen Seiten der Link vorhanden ist, auf welche Seite verlinkt wird und welcher Linktext genutzt wird, bzw. hier erfährt man auch, ob ein Link auf „nofollow“ gesetzt ist, wobei Inlinks hier wieder ignoriert werden (siehe ab Minute 28:40).

10. Identifikation von unbesuchten Unterseiten

In dieser Analyse geht es darum, die Unterseiten zu identifizieren, die über Google keine Besucher bekommen haben, bzw. die gar keine Besucher hatten. Dadurch lassen sich Karteileichen identifizieren, bzw. aber auch mögliche Trackingprobleme identifizieren.

Gerade bei großen Websites ist es sinnvoll, nach unbesuchten Seiten zu suchen. Mit Screaming Frog ist das möglich, indem man zuerst eine Verbindung zu Google Analytics herstelle (siehe ab Minute 29:52), und dann in den Einstellungen die entsprechenden Metriken und Zeiträume definiert. Idealerweise wählt man hier Session-Daten und die Page-Tracking bzw. Page-View-Daten. Zusätzlich sollte man auch eine Verbindung zur Google Search Console aufbauen, und auch hier sollte man einen möglichst langen Zeitraum, also 90 Tage, bzw. in der Beta-Version 12 Monate, wählen.

Zusätzlich wird nun im Custom Search noch der Google Analytics-Code bzw. der Google Tag Manager Code 1. als„ Contains“ und 2. als „Does Not Contain“ festgelegt. Dadurch werden die einzelnen Seiten durchsucht und festgestellt, ob die entsprechenden Tracking-Tags vorhanden sind (siehe ab Minute 30:51).

Nach dem Crawlen erhält man nun einen Report mit URLs und den jeweiligen Informationen aus Google Analytics. Auf Basis der Sessions aus Google Analytics kann man nun ersehen, welche Seiten die wenigsten bzw. gar keine Besucher haben. In diesem Fall ist dann zu überlegen, ob diese Seiten noch eine Existenzberechtigung haben, bzw. auf „no-index“ gesetzt werden sollten.

11. Review Snippets überprüfen

Nun geht es darum herauszufinden, auf welchen Unterseiten Reviews vorhanden sind, welche Bewertungen Unterseiten haben (aggregateRating) und wie diese Bewertungen in Suchergebnissen angezeigt werden. Ziel hierbei ist es, Unterseiten mit schlechten Bewertungen zu identifizieren, um diese dann inhaltlich zu verbessern oder für eine bessere CTR Snippetoptimierung zu betreiben.

Im Beispiel geht es um die Seite eatsmarter.de. Mittels der Entwickler-Tools kopiert man sich zuerst aus dem Quellcode den CSSPath für die durchschnittliche Bewertung und für die Gesamtzahl der Bewertungen (siehe ab Minute 34:13). Beide Inhalte werden im Custom Extractor hinterlegt (siehe ab Minute 34:19).

Als Ergebnis bekommt man wieder eine Liste, in diesem Beispiel sind es Rezepte, mit den jeweiligen URLs, den Bewertungen und der Anzahl von Bewertungen. Nun geht es darum herauszufinden, ob diese Bewertungen so auch in den Google Ergebnissen angezeigt werden.

Hierzu erstellt man wieder zu den einzelnen gefundenen URLs eine Site-Abfrage bei Google, am besten wieder mit der Hilfe von Excel und VERKETTUNGEN (siehe ab Minute 34:35). Achtung, auch hier muss das JavaScript-Rendering aktiviert werden (Configuration -> Spider -> Rendering). Für die Site-Abfrage wird folgender Link genutzt:

  • https://www.google.de/search?q=site:&gws_rd=cr

Hinter dem Doppelpunkt wird dann wieder die URL eingefügt. Die Ergänzung &gws_rd=cr ist ein wichtiger Ländercode, ohne den die Abfrage nicht korrekt funktioniert.

Die finale Liste für die Abfrage wird nun wieder im Mode -> List eingefügt. Unter Umständen kann es aber in diesem Falle zu Problemen bei den Crawls kommen, da Screaming Frog auf eine Chromium-Engine setzt (wichtig, ab Minute 35:48). Deshalb sollte man sich zusätzlich noch die Seite anschauen bzw. einen Screenshot rendern lassen, und wieder mit den Entwickler-Tools den Bereich kopieren, der für die Darstellung der Bewertungen zuständig ist. Dieser wird dann wieder im Custom Extractor hinterlegt (siehe ab Minute 37:26).

Als Ergebnis erhält man wieder eine Ergebnisliste, aus der sich Übereinstimmungen oder Abweichungen herauslesen lassen.

12. „Thin content“-Kategorieseiten identifizieren

In der letzten Analyse geht es darum zu analysieren, welche Kategorieseiten es im Online-Shop gibt, wie viele Produkte auf den jeweiligen Kategorieseiten angezeigt werden und wie viel Text auf einer Kategorieseite vorhanden ist. Ziel hierbei ist es, Kategorieseiten mit „thin content“, also zu wenig Content, zu identifizieren, bzw. einen Überblick über die Kategoriestruktur eines Online-Shops zu bekommen.

Im Beispiel geht es um die Seite www.peek-cloppenburg.de (sieh ab Minute 38:53). Im Detail sollen hierbei folgende Inhalte extrahiert werden:

  • Kategoriename
  • Produktzahl
  • Pagination
  • Breadcrumb
  • Text

Tipp: Idealerweise sollte man für Crawls von großen Websites den Crawling-Bereich eingrenzen über die Konfiguration der Spider Include URLs (siehe ab Minute 39:13).

Ansonsten werden hier auch wieder der jeweilige CSSPath für Kategoriename, Produktzahl, Pagination, Breadcrumb und Text aus dem Quellcode kopiert, um diesen im Custom Extractor zu hinterlegen.

Eine Ausnahme, bzw. in diesem Fall eine Besonderheit, ist die Produktzahl. Wenn diese nicht direkt vorliegt, dann muss man diese selbst berechnen. Das passiert, indem man die Produktboxen, über die CSS-Class und Custom Search, zählt (siehe ab Minute 40:14). Dadurch erhält man einen guten Annäherungswert.

Am Ende erhält man wieder eine Liste, die man in Excel auswerten kann (siehe ab Minute 40:45). Hierbei findet man in den jeweiligen Spalten die URL, die Kategorienüberschrift, den Kategorientext, die Textlänge und alle weiteren abgefragten Informationen.

Anmerkung: Das Keywords Inlinks hat im gesamten Webinar keine Rolle gespielt. Trotzdem habe ich versucht, dieses an halbwegs passenden Stellen mit einzuarbeiten.