Website im Griff: Gefahren erkennen und abwehren

Beschreibung zum kostenlosen Online Marketing Webinar

Deine Website wurde gehackt? Aus Versehen etwas für Suchmaschinen gesperrt oder gegen die Google-Richtlinien verstoßen? Es gibt viele Möglichkeiten, wie man durch innere und äußere Einflüsse Probleme in Bezug auf die organischen Rankings bekommen kann. Diese Gefahren müssen natürlich möglichst frühzeitig erkannt und dann auch schnell abgewehrt werden.

In diesem Webinar erklären wir:

  • Welche Gefahren gibt es von außen und innen?
  • Wie und mit welchen Tools kann man sich vor Gefahren schützen?
  • Wie oft sollten welche Aspekte geprüft werden, um nichts zu übersehen?

 

Webinar Termin:

16.06.2016

10:00 Uhr - 11:00 Uhr

Das wirst Du nach dem Webinar erreicht haben:

  • Du kennst alle möglichen Gefahren, die Deiner Website in Bezug auf SEO schaden können
  • Du bist in der Lage, einen „Schutzwall“ um Deine Website zu errichten, um diese Gefahren frühzeitig erkennen und abwehren zu können

Zielgruppe

  • Marketingverantwortliche
  • SEO-Einsteiger

Webinar Termin:

16.06.2016

10:00 Uhr - 11:00 Uhr

Website im Griff: Gefahren erkennen und abwehren

So schützt du deine Website vor inneren und äußeren Gefahren

Allzu häufig machen Websiten-Betreiber Fehler, die sie vermeiden könnten. Die Fehler stellen Gefahren für den Betreiber und die User dar. Unterschieden wird dabei zwischen inneren und äußeren Gefahren. Wie du deine Website vor solchen Gefahren schützen kannst, erfährst du in diesem Artikel.

Innere Gefahren

Innere Gefahren treten häufig durch nicht erreichbare Server auf. Das kann beispielsweise durch fehlerhaftes Routing passieren. Ein probates Mittel, um sich gegen solche Ausfälle zu schützen beziehungsweise um im Ernstfall über Downtimes informiert zu werden, eignen sich die Dienste von www.pingdom.com und www.uptimerobot.com. Bei einer geplanten Downtime oder Wartung, sollte der Server 503-Fehlercodes ausliefern.

Eine weitere Gefahr stellen die Ladezeiten dar. Lädt eine Seite zu lange, verlässt der potentielle User oder Kunde die Seite. Potentiale zum Optimieren der Ladezeiten lassen sich durch die Google Search Console und Google Analytics ausfindig machen. Beide Dienste geben Hinweise über langsame Ladezeiten. Außerdem eignet sich zur Optimierung von Ladezeiten der Page Speed von Google. Oftmals geben solche Dienste allerdings auch unnötige Optimierungen heraus. Daher ist hier gegebenenfalls zwischen den Optimierungsvorschlägen abzuwägen. Optimieren lassen sich vor allem CSS- und JavaScript-Dateien, die häufig bereits im Header geladen werden. Auch eine Minifizierung (Minify) solcher Dateien ist sinnvoll.

Seltener kommt der Verlust einer Domain vor. Allerdings ist das selbst Google schon passiert. Daher solltest du bei deiner Website darauf achten, dass sich der Nutzungszeitraum deiner Domain automatisch verlängert.

Wichtig ist zudem der Schutz durch ein SSL-Zertifikat. Let’s Encrypt verteilt auch kostenlose SSL-Zertifikate, daher ist mittlerweile jeder Websiten-Betreiber in der Lage, seinen Kunden und Lesern Schutz durch eine SSL-Zertifizierung zu bieten. Um kostenpflichtige Zertifikate zu erwerben, gibt es den Service von www.digicert.com.

URL Testmengen und Änderungen am Seitentitel

Um sich vor Änderungen am Seitentitel, der Meta Description oder bei Textblöcken zu schützen, eignet sich die Google-Suche hervorragend.

Auch die Änderungen von URLs sollte unter Beobachtung stehen. Bei größeren Websites werden sogenannte URL-Testmengen erstellt. Man bildet zwei URL-Mengen. In die Berechnung fließen die Startseite inklusive 20 Seiten pro Seitentyp ein. Bei einem Online-Shop sind das unter anderem die Rubriken und Produkt-Detailseiten. Hilfe bekommt man zusätzlich von der Google Search Console. Hier bedient man sich den 500 populärsten URLs und zieht diese in die Berechnung ein. Danach werden die URLs gemischt. Das Ergebnis stellen die URLs dar, die beobachtet werden sollten.

Das Ganze lässt sich auch mit dem kostenpflichtigen Service von www.url-monitor realisieren. Der Dienst arbeitet mit Soll- und Istwerten. Sollte sich zum Beispiel die Meta Description oder der Seitentitel ändern, erfährt der Nutzer von url-monitor umgehend von diesen Änderungen.

Ein weiteres interessantes Tool ist SEO Tools for Excel. Das kostenpflichtige Plugin fügt ein paar Funktionen in Microsoft Excel hinzu. In der linken Spalte befindet sich beispielsweise der Referenztitel. Rechts daneben gibt es eine zweite Spalte, in der das Tool den aktuellen Titel hinzufügt. Das geschieht voll automatisch, nachdem die betroffene URL hinzugefügt wurde. Schutz vor 404-Fehlerseiten oder anderen Fehlercodes bietet die Spalte mit dem HTTP Status. Du erhälst dadurch eine hilfreiche Übersicht über die funktionstüchtigen und fehlerhaften URLs. Achtest du nicht auf die Fehlercodes, laufen potentielle Leser und Kunden Gefahr, auf einer fehlerhaften Seite zu landen. Websiten-Betreiber sollten dringend auf die Zugänglichkeit und Barrierefreiheit ihrer Website achten.

SEO Tools for Excel verfügt zudem über eine Scraping-Funktion. Befindet sich auf deiner Website ein Button, lässt sich mittels XPath-Programmiersprache prüfen, ob der Button noch existiert. XPath prüft dann zum Beispiel, ob es eine Klasse mit dem Namen btn (für Button) gibt. Diese Funktion eignet sich nicht nur für Buttons, sondern für zahlreiche weitere Abfragen.

Mit dem Screaming Frog SEO Spider lässt sich ebenfalls scrapen. Es gibt allerdings keinen Vergleich zwischen Soll- und Istzustand.

Den Screaming Frog SEO Spider gibt es in einer kostenlosen und kostenpflichtigen Variante. Mit der kostenlosen Version lassen sich zum Beispiel nur 500 URLs crawlen. Bei besonders großen Projekten wird man daher an die Grenzen der kostenlosen Variante stoßen. Für die kostenpflichtige Version verlangt die Screaming Frog Limited einen Preis ab 149 britischen Pfund.

Wird meine Seite richtig gecrawlt? – Google Search Console

Um festzustellen, ob Google die Seite korrekt herunterladen und rendern kann, ist das einzige probate Mittel die Google Search Console. In dieser findest du die Rubrik “Abruf wie durch Google”.

Abruf wie durch Google

Um fehlerhafte Darstellungen deiner Website zu vermeiden, solltest du mindestens einmal im Monat die wichtigsten Seitentypen auf Fehler prüfen. Dazu gehört unter anderem die Startseite sowie Produkt- und Rubrikenseiten. Auch die unterschiedlichen Sprach- und Länderversionen – falls vorhanden – sollten einer regelmäßigen Prüfung unterzogen werden.

Es besteht immer die Gefahr, dass dein Provider Einstellungen ändert oder Updates durchführt, die zu einem unvorhergesehenen Verhalten deiner Website führen können.

Um Seiten auf Fehler zu prüfen, gehst du in der Google Search Console auf Abruf wie durch Google. Hier hast du die Möglichkeit, entweder die Desktop-Seite oder deine mobile Website zu prüfen. Einzelne URLs lassen sich über Abrufen und Rendern ebenfalls eintragen und prüfen.

Blockierte Ressourcen

Ein weiterer wichtiger Punkt sind die Blockierten Ressourcen. In der Google Search Console findest du diese unter Google-Index. Hier könnten sich Probleme finden, die das Rendering der Seite verhindern. Inhalte zu sperren, ist vollkommen legitim. Allerdings sollte nichts gesperrt werden, was das Rendering betrifft. Das heißt, Tracking Scripte zu sperren, ist vollkommen in Ordnung. Bei Bildern sollte das Sperren jedoch vermieden werden.

Suchanfragen

Die Rubrik Suchanfragen eignet sich vor allem, um eine Suchanalyse deiner Website abzurufen und die interne Verlinkung zu prüfen. Darüber hinaus gibt es in diesem Menü den Reiter Nutzerfreundlichkeit auf Mobilgeräten. Google zeigt hier insbesondere Seiten auf, die Flash nutzen, sowie Inhalte breiter als der Bildschirm. Zusätzlich bemängelt Google anklickbare Objekte, die möglicherweise zu dicht beieinanderliegen. Tatsächlich müssen all diese Dinge nicht zwingend eine Gefahr für deine Website darstellen, eine Optimierung kann dennoch ratsam sein.

Standort und Internationalisierung

Damit Suchmaschinen wie Google feststellen können, welche Sprache du bei deinen Beiträgen verwendest, gibt es den sogenannten hreflang-Tag. Dieser befindet sich unscheinbar im Quellcode deiner Website. Fehler sind oftmals nicht gravierend.

hreflang.ninja

Ob sich ein hreflang-Tag im Quellcode deiner Website befindet, lässt sich über das Tool von hreflang.ninja prüfen. Im Suchfeld lässt sich eine Seite eingeben. Der hreflang-Ninja kontrolliert daraufhin, ob alles korrekt ist. Falls vorhanden, spuckt die Seite noch Fehlermeldungen aus und gibt Hinweise, wie die Probleme zu lösen sind. Bei einigen Einstellungen ist das Tool allerdings überkritisch. Sobald kein Sprachencode gefunden wird, gibt es eine Fehlermeldung. Selbst Google stört sich nicht an einem fehlenden Sprachencode.

Google Search Console

Die internationale Ausrichtung ist auch eine Rubrik in der Google Search Console und befindet sich unter Suchanfragen. Gibt es keinen hreflang-Tag auf deiner Website, informiert dich die Google Search Console in diesem Menü darüber. Sobald hreflang-Tags gefunden sind, listet Google alle Seiten mit solch einem Tag auf. Häufig zeigt Google Fehler auf, die im Grunde gar keine sind. Oft finden sich dort Synchronisationsfehler.

Sitelinks und Snippets

Hin und wieder kann es vorkommen, dass Sitelinks auf Suchergebnisseiten unschön aussehen. Bei optischen Problemen lassen sich die Sitelinks in den Snippets einfach durch Anpassung des Seitentitels oder der Meta Description ändern und korrigieren.

Die Google Search Console verfügte über ein Feature, mit dem sich Sitelinks für 90 Tage abwerten ließen. Dieses Feature hat Google jedoch entfernt. Stattdessen sollten Websiten-Betreiber auf klare Seitenstrukturen achten und durch Ankertexte besonders relevante interne Links kennzeichnen.

Unpassende Suchvorschläge

Du solltest regelmäßig nach unpassenden Suchvorschlägen googeln und dir folgende Frage stellen: Existieren unpassende Suchvorschläge zu meiner Domain? Ranke ich für die Suchvorschläge auf Platz 1?

Zwei Tools sorgen dafür, dass du passende Suchvorschläge zu deinen Keywords erhältst. Zum einen ist das www.hypersuggest.com von einem deutschen Programmierer. Zum anderen gibt es www.keywordtool.io. Die Suchvorschläge beider Tools ähneln sich. Bei keywordtool.io lassen sich allerdings zusätzlich Keywords beziehungsweise Suchvorschläge für Amazon, eBay und dem App Store abrufen. Hilfreich ist das vor allem für Händler. Mit der kostenpflichtigen Version Keyword Tool Pro lassen sich zusätzlich Daten von Google AdWords und Cost-per-Click-Beträge (CPC) abrufen. Hypersuggest liefert dafür auch W-Fragen aus – ähnlich wie answerthepublic.com.

Die Tools liefern auch unpassende oder unschöne Suchvorschläge aus. Unpassende Suchvorschläge können zum Beispiel “Insolvenz” oder “pleite” sein. Bevor eine andere Seite für solche Suchvorschläge rankt, solltest du gegebenenfalls eine eigene Seite erstellen und auf diese Keywords optimieren. So kannst du auf deiner Seite Gerüchte klarstellen und “reinen Tisch machen”.

In der Google Search Console lässt sich nach der eigenen Marke suchen. So kannst du direkt feststellen, ob du für deine eigene Marke auf Position 1 der Suchergebnisse rankst. Bei Online-Shops verhält es sich ähnlich. Häufig werden hinter den Namen der Shops Suchbegriffe wie “Gutscheine” oder “Erfahrungen” ausgegeben. Möglicherweise ist es sinnvoll, für solche Suchbegriffe zu ranken und eigene Seiten zu erstellen, auf denen die Suchenden landen. Dadurch lässt sich gegebenenfalls auch Geld sparen, falls zum Beispiel Affiliate Netzwerke für solche Suchergebnisse ranken.

Google Index

Befinden sich alle Seiten im Google Index? Um das zu kontrollieren, sind Sitemaps ideal. Über die Google Search Console lässt sich einsehen, wie viele Seiten im Google Index gelandet sind. Unter dem Menüpunkt “Google-Index” (Indexierungsstatus) stehen alle indexierten URLs. Etwas genauer sind die Angaben unter “Crawling” (Sitemaps). Hier kannst du auf einen Schlag sehen, wie viele Seiten deiner Sitemap(s) von Google indexiert wurden. Allerdings fehlen die Angaben zu den URLs, die es nicht in den Google Index geschafft haben. Hilfreich sind jedoch unterschiedliche Sitemaps für deine verschiedenen Post Types oder Seiteninhalte (Produkte, Artikel etc.). Dadurch lässt sich die Fehlersuche deutlich einschränken.

Crawling Fehler

Direkt unter dem Reiter Crawling findest du die Crawling-Fehler deiner Seite. Nicht immer sind diese gerechtfertigt. Eine hilfreiche Übersicht stellen sie jedoch allemal dar. Neben den vermeintlich fehlerhaften URLs stellt Google nämlich noch Fehlercodes zur Verfügung. Gibt es eine hohe Anzahl von 404-Fehlern, sollten diese eine besonders hohe Priorität genießen und korrigiert werden.

Änderungen an der robots.txt

Mit der robots.txt Datei ist Vorsicht geboten. Änderungen können sich negativ auf die Seite auswirken und eine Gefahr für deine Website darstellen. Es kann schnell passieren, dass durch den Befehl “Disallow: /” unabsichtlich Inhalte für den Google Searchbot verborgen werden.

Um ungewollte Änderungen an der robots.txt Datei zu verhindern, eignet sich das Tool von www.robotto.org. Das Tool teilt dir Änderungen an deiner robots.txt mit. Mit www.changedetection.com ist das ebenfalls möglich. Außerdem kannst du direkt über die Google Search Console auf deine robots.txt Datei zugreifen. Der Punkt befindet sich auch unter dem Reiter “Crawling”. Hier lässt sich testen, ob die verschiedenen Bots von Google ohne Weiteres deine Seite besuchen und crawlen können.

Markups und Structured Data

Strukturierte Daten helfen Google, Produkte und Artikel auseinander zu halten und diese mit zusätzlichen Features innerhalb der Suchergebnisse attraktiv zu gestalten. Dabei bedient sich Google unter anderem dem Markup von schema.org. Allerdings stehen auch Markups von data-vocabulary.org und microformats.org zur Verfügung. Es lassen sich beispielsweise Markups für Breadcrumbs, Produkte und Artikel hinterlegen. Sollten die strukturierten Daten Fehler beinhalten, findest du diese in der Google Search Console unter “Darstellung in der Suche” (Strukturierte Daten).

Canonical Tag

Kanonische Tags oder Canonical Tags sind ein bewährtes Mittel, um die Website vor Duplicate Content zu schützen. Die Gefahr besteht allerdings darin, die Kanonisierung falsch durchzuführen. Manche Websites haben es erfolgreich geschafft, die Inhalte auf die Startseite zu kanonisieren.

Eine Prüfung der kanonischen URLs ist über die Google Search Console leider nicht möglich. Google hält sich aus dem Thema weitestgehend heraus. Eine Möglichkeit bietet jedoch der Screaming Frog SEO Spider. Über die erweiterte Funktion lassen sich kanonische URLs ausschließen. Der Screaming Frog stellt daraufhin fest, welche Seiten über ein Canonical Tag verfügen und wo das Canonical Tag überhaupt greift. Außerdem listet der Frog die Seiten auf, wo das Canonical Tag fehlt. Die beiden letzten Fälle sind die Interessantesten.

Gefahren von außen

Es gibt verschiedene Ansätze, um Gefahren von außen zu erkennen. Gewinner- und Verlierer-Listen von Tool-Herstellern sollte man eher nicht in Betracht ziehen, da man oftmals falsche Trugschlüsse ziehen könnte. Das gilt vor allem bei Monatslisten. Langfristig können solche Analysen allerdings hilfreich sein.

Eine bessere Lösung ist, sich kritisch mit den Anforderungen zu beschäftigen. Die Search Quality Guidelines von Google schaffen dabei Abhilfe. Diese Guidelines werden ständig aktualisiert und umfassen etwa 160 Seiten. Über diesen Link lässt sich das PDF-Dokument herunterladen. Nicht alle Guidelines aus dem Bericht müssen auch befolgt werden, sie geben jedoch einen guten Überblick über die Anforderungen, die Google an Seiten stellt.

Algorithmische Änderungen

Regelmäßig solltest du eine Web-Analyse deiner Website durchführen. Dadurch kannst du feststellen, ob Google bestimmte Seitentypen nicht mehr gefallen. Sinnvoll ist diese Web-Analyse nur, wenn der richtige Zeitraum gewählt wird. Ein halbes Jahr ist beispielsweise ein sinnvoller Zeitraum für solch eine Analyse. Das Suchvolumen ist ein wichtiger Indikator bei der Web-Analyse, da es durchaus vorkommt, dass das Suchvolumen zu einem bestimmten Zeitpunkt einfach niedriger war. Dann liegt es möglicherweise nicht an der Website, sondern an dem niedrigen Suchvolumen.

Wettbewerber sollten unter regelmäßiger Beobachtung stehen. Hier stellt sich die Frage: “Haben meine Wettbewerber meine Rankings geklaut?” Da Google seine Algorithmen ständig anpasst, ist es wichtig, die Keywords und Wettbewerber zu beobachten. Ein Unternehmen, das vor einem Jahr noch unter den Top 10 Suchergebnissen stand, kann heute schon in der Versenkung verschwinden.

Richtlinien für Webmaster

In den Richtlinien für Webmaster findest du wichtige Hinweise, um Google beim Finden deiner Seite zu unterstützen. Die Richtlinien für Webmaster aktualisiert Google in unregelmäßigen Abständen. Eine aktuelle Version dieser Richtlinien findest du unter diesem Link.

Unterschieden wird zum Beispiel zwischen nice to have und must have. Ein Rankingfaktor ist mittlerweile zum Beispiel der Einsatz von https. Google macht sich in diesem Bereich sehr stark und bevorzugt sichere Seiten, die über ein SSL-Zertifikat verfügen oder Dienste wie Let’s Encrypt nutzen.

Eine Abstrafung oder Abwertung deiner Website droht bei Bad Links (negative Links). Um Bad Links zu vermeiden, sollte man beispielsweise die Links, die per User Generated Content auf deinem Blog erscheinen, mit nofollow kennzeichnen. Für Content Management Systeme wie WordPress gibt es zudem gute Plugins, um Spam und Bad Links zu vermeiden – wie beispielsweise Anti Spam Bee.

Um interne Links ausfindig zu machen, eignet sich wieder der Screaming Frog SEO Spider. Zunächst lassen sich alle nofollow-Links ausschließen. Die interessieren in diesem Fall nicht. Unter dem Tab “External” findest du alle Links, auf die du oder deine User verlinkt haben.

Hacking und Spyware

Hacking ist aktueller denn je. In der Google Search Console gibt es dafür einen eigenen Menüpunkt. Unter dem Link “Sicherheitsprobleme” erstellt Google eine Liste mit den möglichen Sicherheitsproblemen. Auf Wunsch schickt Google auch E-Mails, sobald Probleme auftreten.

Eine weitere Möglichkeit, um herauszufinden, ob eine Seite möglicherweise schädliche Inhalte bietet, sind die Google Alerts. Für negative Begriffe lassen sich Google Alerts einrichten. Sollte es Inhalte mit diesen negativen Wörtern auf deiner Website geben, informieren dich die Alerts in vorher definierten Zeitintervallen darüber.

Negative SEO

Nicht immer ist der Websiten-Betreiber an negativen Links schuld. Oftmals kommt es auch durch negatives SEO zu Problemen oder Abwertungen seitens Google. So schalten zum Beispiel Wettbewerber massiv minderwertige Links auf ominösen Websites.

Um solche Links zu finden, eignet sich beispielsweise das Tool von Majestic: https://de.majestic.com/ Über Majestic lässt sich auch die Ankertext-Verteilung abrufen. Allerdings ist dafür eine (kostenlose) Registrierung vonnöten.

Broken Links

Eine weitere Gefahr für deine Website sind Broken Links. Sobald ein externer Link auf eine Seite verlinkt, die nicht mehr existiert, gibt der Server einen 404-Fehler aus. Auch hier schafft Majestic Abhilfe. Über Majestic lassen sich Seiten mit 404-Fehlern herausfiltern. Für solche Fehlerseiten sollten 301-Weiterleitungen erstellt werden. Diese 301-Weiterleitungen lassen sich über WordPress-Plugins regeln. Manuelle Einträge in der .htaccess-Datei sind ebenfalls möglich und einfach einzurichten.

Eine 301-Weiterleitung sieht in der .htaccess-Datei beispielsweise so aus:
Redirect 301 /kategorie/dokument.html http://www.domain.de/dokument2.html

Sobald ein Leser auf den Link /kategorie/dokument.html klickt, wird dieser zu dokument2.html weitergeleitet.

Duplicate Content

Duplicate Content trifft häufiger auf als man denkt. Um internen und externen Duplicate Content ausfindig zu machen, gibt es das Tool von www.copyscape.com. Für bestimmte Inhalte eignen sich auch hier wieder die Google Alerts.

Google Analytics

Mit Google Analytics lassen sich benutzerdefinierte Benachrichtigungen erstellen. Im Dashboard findest du diesen Menüpunkt unter “Benutzerdefinierte”. Innerhalb der Verwaltung können neue Benachrichtigungen erstellt werden. Google Analytics benachrichtigt über nahezu jedes Ereignis. So kannst du dich über die Seitenaufrufe benachrichtigen und über eine mögliche Zu- und Abnahme informieren lassen.

Fazit

Es gibt jede Menge Tools, die du monatlich oder jährlich einsetzen kannst, um Gefahren von innen und außen zu unterbinden und deine Website ein Stück sicherer zu machen.

Die Google Search Console eignet sich hervorragend, um einen Überblick über deine Website zu erhalten und Gefahren jeder Art zu erkennen. Sitelinks lassen sich dort zwar nicht mehr abwerten, dafür bietet die Google Search Console jede Menge andere Möglichkeiten. Wichtig sind an dieser Stelle die Funktionsweise deiner URLs. Sicherstellen solltest du, dass alle URLs zugänglich sind und keine 404-Fehler erzeugen.

Website im Griff: Gefahren erkennen und abwehren

So schützt du deine Website vor inneren und äußeren Gefahren

Allzu häufig machen Websiten-Betreiber Fehler, die sie vermeiden könnten. Die Fehler stellen Gefahren für den Betreiber und die User dar. Unterschieden wird dabei zwischen inneren und äußeren Gefahren. Wie du deine Website vor solchen Gefahren schützen kannst, erfährst du in diesem Artikel.

Innere Gefahren

Innere Gefahren treten häufig durch nicht erreichbare Server auf. Das kann beispielsweise durch fehlerhaftes Routing passieren. Ein probates Mittel, um sich gegen solche Ausfälle zu schützen beziehungsweise um im Ernstfall über Downtimes informiert zu werden, eignen sich die Dienste von www.pingdom.com und www.uptimerobot.com. Bei einer geplanten Downtime oder Wartung, sollte der Server 503-Fehlercodes ausliefern.

Eine weitere Gefahr stellen die Ladezeiten dar. Lädt eine Seite zu lange, verlässt der potentielle User oder Kunde die Seite. Potentiale zum Optimieren der Ladezeiten lassen sich durch die Google Search Console und Google Analytics ausfindig machen. Beide Dienste geben Hinweise über langsame Ladezeiten. Außerdem eignet sich zur Optimierung von Ladezeiten der Page Speed von Google. Oftmals geben solche Dienste allerdings auch unnötige Optimierungen heraus. Daher ist hier gegebenenfalls zwischen den Optimierungsvorschlägen abzuwägen. Optimieren lassen sich vor allem CSS- und JavaScript-Dateien, die häufig bereits im Header geladen werden. Auch eine Minifizierung (Minify) solcher Dateien ist sinnvoll.

Seltener kommt der Verlust einer Domain vor. Allerdings ist das selbst Google schon passiert. Daher solltest du bei deiner Website darauf achten, dass sich der Nutzungszeitraum deiner Domain automatisch verlängert.

Wichtig ist zudem der Schutz durch ein SSL-Zertifikat. Let’s Encrypt verteilt auch kostenlose SSL-Zertifikate, daher ist mittlerweile jeder Websiten-Betreiber in der Lage, seinen Kunden und Lesern Schutz durch eine SSL-Zertifizierung zu bieten. Um kostenpflichtige Zertifikate zu erwerben, gibt es den Service von www.digicert.com.

URL Testmengen und Änderungen am Seitentitel

Um sich vor Änderungen am Seitentitel, der Meta Description oder bei Textblöcken zu schützen, eignet sich die Google-Suche hervorragend.

Auch die Änderungen von URLs sollte unter Beobachtung stehen. Bei größeren Websites werden sogenannte URL-Testmengen erstellt. Man bildet zwei URL-Mengen. In die Berechnung fließen die Startseite inklusive 20 Seiten pro Seitentyp ein. Bei einem Online-Shop sind das unter anderem die Rubriken und Produkt-Detailseiten. Hilfe bekommt man zusätzlich von der Google Search Console. Hier bedient man sich den 500 populärsten URLs und zieht diese in die Berechnung ein. Danach werden die URLs gemischt. Das Ergebnis stellen die URLs dar, die beobachtet werden sollten.

Das Ganze lässt sich auch mit dem kostenpflichtigen Service von www.url-monitor realisieren. Der Dienst arbeitet mit Soll- und Istwerten. Sollte sich zum Beispiel die Meta Description oder der Seitentitel ändern, erfährt der Nutzer von url-monitor umgehend von diesen Änderungen.

Ein weiteres interessantes Tool ist SEO Tools for Excel. Das kostenpflichtige Plugin fügt ein paar Funktionen in Microsoft Excel hinzu. In der linken Spalte befindet sich beispielsweise der Referenztitel. Rechts daneben gibt es eine zweite Spalte, in der das Tool den aktuellen Titel hinzufügt. Das geschieht voll automatisch, nachdem die betroffene URL hinzugefügt wurde. Schutz vor 404-Fehlerseiten oder anderen Fehlercodes bietet die Spalte mit dem HTTP Status. Du erhälst dadurch eine hilfreiche Übersicht über die funktionstüchtigen und fehlerhaften URLs. Achtest du nicht auf die Fehlercodes, laufen potentielle Leser und Kunden Gefahr, auf einer fehlerhaften Seite zu landen. Websiten-Betreiber sollten dringend auf die Zugänglichkeit und Barrierefreiheit ihrer Website achten.

SEO Tools for Excel verfügt zudem über eine Scraping-Funktion. Befindet sich auf deiner Website ein Button, lässt sich mittels XPath-Programmiersprache prüfen, ob der Button noch existiert. XPath prüft dann zum Beispiel, ob es eine Klasse mit dem Namen btn (für Button) gibt. Diese Funktion eignet sich nicht nur für Buttons, sondern für zahlreiche weitere Abfragen.

Mit dem Screaming Frog SEO Spider lässt sich ebenfalls scrapen. Es gibt allerdings keinen Vergleich zwischen Soll- und Istzustand.

Den Screaming Frog SEO Spider gibt es in einer kostenlosen und kostenpflichtigen Variante. Mit der kostenlosen Version lassen sich zum Beispiel nur 500 URLs crawlen. Bei besonders großen Projekten wird man daher an die Grenzen der kostenlosen Variante stoßen. Für die kostenpflichtige Version verlangt die Screaming Frog Limited einen Preis ab 149 britischen Pfund.

Wird meine Seite richtig gecrawlt? – Google Search Console

Um festzustellen, ob Google die Seite korrekt herunterladen und rendern kann, ist das einzige probate Mittel die Google Search Console. In dieser findest du die Rubrik “Abruf wie durch Google”.

Abruf wie durch Google

Um fehlerhafte Darstellungen deiner Website zu vermeiden, solltest du mindestens einmal im Monat die wichtigsten Seitentypen auf Fehler prüfen. Dazu gehört unter anderem die Startseite sowie Produkt- und Rubrikenseiten. Auch die unterschiedlichen Sprach- und Länderversionen – falls vorhanden – sollten einer regelmäßigen Prüfung unterzogen werden.

Es besteht immer die Gefahr, dass dein Provider Einstellungen ändert oder Updates durchführt, die zu einem unvorhergesehenen Verhalten deiner Website führen können.

Um Seiten auf Fehler zu prüfen, gehst du in der Google Search Console auf Abruf wie durch Google. Hier hast du die Möglichkeit, entweder die Desktop-Seite oder deine mobile Website zu prüfen. Einzelne URLs lassen sich über Abrufen und Rendern ebenfalls eintragen und prüfen.

Blockierte Ressourcen

Ein weiterer wichtiger Punkt sind die Blockierten Ressourcen. In der Google Search Console findest du diese unter Google-Index. Hier könnten sich Probleme finden, die das Rendering der Seite verhindern. Inhalte zu sperren, ist vollkommen legitim. Allerdings sollte nichts gesperrt werden, was das Rendering betrifft. Das heißt, Tracking Scripte zu sperren, ist vollkommen in Ordnung. Bei Bildern sollte das Sperren jedoch vermieden werden.

Suchanfragen

Die Rubrik Suchanfragen eignet sich vor allem, um eine Suchanalyse deiner Website abzurufen und die interne Verlinkung zu prüfen. Darüber hinaus gibt es in diesem Menü den Reiter Nutzerfreundlichkeit auf Mobilgeräten. Google zeigt hier insbesondere Seiten auf, die Flash nutzen, sowie Inhalte breiter als der Bildschirm. Zusätzlich bemängelt Google anklickbare Objekte, die möglicherweise zu dicht beieinanderliegen. Tatsächlich müssen all diese Dinge nicht zwingend eine Gefahr für deine Website darstellen, eine Optimierung kann dennoch ratsam sein.

Standort und Internationalisierung

Damit Suchmaschinen wie Google feststellen können, welche Sprache du bei deinen Beiträgen verwendest, gibt es den sogenannten hreflang-Tag. Dieser befindet sich unscheinbar im Quellcode deiner Website. Fehler sind oftmals nicht gravierend.

hreflang.ninja

Ob sich ein hreflang-Tag im Quellcode deiner Website befindet, lässt sich über das Tool von hreflang.ninja prüfen. Im Suchfeld lässt sich eine Seite eingeben. Der hreflang-Ninja kontrolliert daraufhin, ob alles korrekt ist. Falls vorhanden, spuckt die Seite noch Fehlermeldungen aus und gibt Hinweise, wie die Probleme zu lösen sind. Bei einigen Einstellungen ist das Tool allerdings überkritisch. Sobald kein Sprachencode gefunden wird, gibt es eine Fehlermeldung. Selbst Google stört sich nicht an einem fehlenden Sprachencode.

Google Search Console

Die internationale Ausrichtung ist auch eine Rubrik in der Google Search Console und befindet sich unter Suchanfragen. Gibt es keinen hreflang-Tag auf deiner Website, informiert dich die Google Search Console in diesem Menü darüber. Sobald hreflang-Tags gefunden sind, listet Google alle Seiten mit solch einem Tag auf. Häufig zeigt Google Fehler auf, die im Grunde gar keine sind. Oft finden sich dort Synchronisationsfehler.

Sitelinks und Snippets

Hin und wieder kann es vorkommen, dass Sitelinks auf Suchergebnisseiten unschön aussehen. Bei optischen Problemen lassen sich die Sitelinks in den Snippets einfach durch Anpassung des Seitentitels oder der Meta Description ändern und korrigieren.

Die Google Search Console verfügte über ein Feature, mit dem sich Sitelinks für 90 Tage abwerten ließen. Dieses Feature hat Google jedoch entfernt. Stattdessen sollten Websiten-Betreiber auf klare Seitenstrukturen achten und durch Ankertexte besonders relevante interne Links kennzeichnen.

Unpassende Suchvorschläge

Du solltest regelmäßig nach unpassenden Suchvorschlägen googeln und dir folgende Frage stellen: Existieren unpassende Suchvorschläge zu meiner Domain? Ranke ich für die Suchvorschläge auf Platz 1?

Zwei Tools sorgen dafür, dass du passende Suchvorschläge zu deinen Keywords erhältst. Zum einen ist das www.hypersuggest.com von einem deutschen Programmierer. Zum anderen gibt es www.keywordtool.io. Die Suchvorschläge beider Tools ähneln sich. Bei keywordtool.io lassen sich allerdings zusätzlich Keywords beziehungsweise Suchvorschläge für Amazon, eBay und dem App Store abrufen. Hilfreich ist das vor allem für Händler. Mit der kostenpflichtigen Version Keyword Tool Pro lassen sich zusätzlich Daten von Google AdWords und Cost-per-Click-Beträge (CPC) abrufen. Hypersuggest liefert dafür auch W-Fragen aus – ähnlich wie answerthepublic.com.

Die Tools liefern auch unpassende oder unschöne Suchvorschläge aus. Unpassende Suchvorschläge können zum Beispiel “Insolvenz” oder “pleite” sein. Bevor eine andere Seite für solche Suchvorschläge rankt, solltest du gegebenenfalls eine eigene Seite erstellen und auf diese Keywords optimieren. So kannst du auf deiner Seite Gerüchte klarstellen und “reinen Tisch machen”.

In der Google Search Console lässt sich nach der eigenen Marke suchen. So kannst du direkt feststellen, ob du für deine eigene Marke auf Position 1 der Suchergebnisse rankst. Bei Online-Shops verhält es sich ähnlich. Häufig werden hinter den Namen der Shops Suchbegriffe wie “Gutscheine” oder “Erfahrungen” ausgegeben. Möglicherweise ist es sinnvoll, für solche Suchbegriffe zu ranken und eigene Seiten zu erstellen, auf denen die Suchenden landen. Dadurch lässt sich gegebenenfalls auch Geld sparen, falls zum Beispiel Affiliate Netzwerke für solche Suchergebnisse ranken.

Google Index

Befinden sich alle Seiten im Google Index? Um das zu kontrollieren, sind Sitemaps ideal. Über die Google Search Console lässt sich einsehen, wie viele Seiten im Google Index gelandet sind. Unter dem Menüpunkt “Google-Index” (Indexierungsstatus) stehen alle indexierten URLs. Etwas genauer sind die Angaben unter “Crawling” (Sitemaps). Hier kannst du auf einen Schlag sehen, wie viele Seiten deiner Sitemap(s) von Google indexiert wurden. Allerdings fehlen die Angaben zu den URLs, die es nicht in den Google Index geschafft haben. Hilfreich sind jedoch unterschiedliche Sitemaps für deine verschiedenen Post Types oder Seiteninhalte (Produkte, Artikel etc.). Dadurch lässt sich die Fehlersuche deutlich einschränken.

Crawling Fehler

Direkt unter dem Reiter Crawling findest du die Crawling-Fehler deiner Seite. Nicht immer sind diese gerechtfertigt. Eine hilfreiche Übersicht stellen sie jedoch allemal dar. Neben den vermeintlich fehlerhaften URLs stellt Google nämlich noch Fehlercodes zur Verfügung. Gibt es eine hohe Anzahl von 404-Fehlern, sollten diese eine besonders hohe Priorität genießen und korrigiert werden.

Änderungen an der robots.txt

Mit der robots.txt Datei ist Vorsicht geboten. Änderungen können sich negativ auf die Seite auswirken und eine Gefahr für deine Website darstellen. Es kann schnell passieren, dass durch den Befehl “Disallow: /” unabsichtlich Inhalte für den Google Searchbot verborgen werden.

Um ungewollte Änderungen an der robots.txt Datei zu verhindern, eignet sich das Tool von www.robotto.org. Das Tool teilt dir Änderungen an deiner robots.txt mit. Mit www.changedetection.com ist das ebenfalls möglich. Außerdem kannst du direkt über die Google Search Console auf deine robots.txt Datei zugreifen. Der Punkt befindet sich auch unter dem Reiter “Crawling”. Hier lässt sich testen, ob die verschiedenen Bots von Google ohne Weiteres deine Seite besuchen und crawlen können.

Markups und Structured Data

Strukturierte Daten helfen Google, Produkte und Artikel auseinander zu halten und diese mit zusätzlichen Features innerhalb der Suchergebnisse attraktiv zu gestalten. Dabei bedient sich Google unter anderem dem Markup von schema.org. Allerdings stehen auch Markups von data-vocabulary.org und microformats.org zur Verfügung. Es lassen sich beispielsweise Markups für Breadcrumbs, Produkte und Artikel hinterlegen. Sollten die strukturierten Daten Fehler beinhalten, findest du diese in der Google Search Console unter “Darstellung in der Suche” (Strukturierte Daten).

Canonical Tag

Kanonische Tags oder Canonical Tags sind ein bewährtes Mittel, um die Website vor Duplicate Content zu schützen. Die Gefahr besteht allerdings darin, die Kanonisierung falsch durchzuführen. Manche Websites haben es erfolgreich geschafft, die Inhalte auf die Startseite zu kanonisieren.

Eine Prüfung der kanonischen URLs ist über die Google Search Console leider nicht möglich. Google hält sich aus dem Thema weitestgehend heraus. Eine Möglichkeit bietet jedoch der Screaming Frog SEO Spider. Über die erweiterte Funktion lassen sich kanonische URLs ausschließen. Der Screaming Frog stellt daraufhin fest, welche Seiten über ein Canonical Tag verfügen und wo das Canonical Tag überhaupt greift. Außerdem listet der Frog die Seiten auf, wo das Canonical Tag fehlt. Die beiden letzten Fälle sind die Interessantesten.

Gefahren von außen

Es gibt verschiedene Ansätze, um Gefahren von außen zu erkennen. Gewinner- und Verlierer-Listen von Tool-Herstellern sollte man eher nicht in Betracht ziehen, da man oftmals falsche Trugschlüsse ziehen könnte. Das gilt vor allem bei Monatslisten. Langfristig können solche Analysen allerdings hilfreich sein.

Eine bessere Lösung ist, sich kritisch mit den Anforderungen zu beschäftigen. Die Search Quality Guidelines von Google schaffen dabei Abhilfe. Diese Guidelines werden ständig aktualisiert und umfassen etwa 160 Seiten. Über diesen Link lässt sich das PDF-Dokument herunterladen. Nicht alle Guidelines aus dem Bericht müssen auch befolgt werden, sie geben jedoch einen guten Überblick über die Anforderungen, die Google an Seiten stellt.

Algorithmische Änderungen

Regelmäßig solltest du eine Web-Analyse deiner Website durchführen. Dadurch kannst du feststellen, ob Google bestimmte Seitentypen nicht mehr gefallen. Sinnvoll ist diese Web-Analyse nur, wenn der richtige Zeitraum gewählt wird. Ein halbes Jahr ist beispielsweise ein sinnvoller Zeitraum für solch eine Analyse. Das Suchvolumen ist ein wichtiger Indikator bei der Web-Analyse, da es durchaus vorkommt, dass das Suchvolumen zu einem bestimmten Zeitpunkt einfach niedriger war. Dann liegt es möglicherweise nicht an der Website, sondern an dem niedrigen Suchvolumen.

Wettbewerber sollten unter regelmäßiger Beobachtung stehen. Hier stellt sich die Frage: “Haben meine Wettbewerber meine Rankings geklaut?” Da Google seine Algorithmen ständig anpasst, ist es wichtig, die Keywords und Wettbewerber zu beobachten. Ein Unternehmen, das vor einem Jahr noch unter den Top 10 Suchergebnissen stand, kann heute schon in der Versenkung verschwinden.

Richtlinien für Webmaster

In den Richtlinien für Webmaster findest du wichtige Hinweise, um Google beim Finden deiner Seite zu unterstützen. Die Richtlinien für Webmaster aktualisiert Google in unregelmäßigen Abständen. Eine aktuelle Version dieser Richtlinien findest du unter diesem Link.

Unterschieden wird zum Beispiel zwischen nice to have und must have. Ein Rankingfaktor ist mittlerweile zum Beispiel der Einsatz von https. Google macht sich in diesem Bereich sehr stark und bevorzugt sichere Seiten, die über ein SSL-Zertifikat verfügen oder Dienste wie Let’s Encrypt nutzen.

Eine Abstrafung oder Abwertung deiner Website droht bei Bad Links (negative Links). Um Bad Links zu vermeiden, sollte man beispielsweise die Links, die per User Generated Content auf deinem Blog erscheinen, mit nofollow kennzeichnen. Für Content Management Systeme wie WordPress gibt es zudem gute Plugins, um Spam und Bad Links zu vermeiden – wie beispielsweise Anti Spam Bee.

Um interne Links ausfindig zu machen, eignet sich wieder der Screaming Frog SEO Spider. Zunächst lassen sich alle nofollow-Links ausschließen. Die interessieren in diesem Fall nicht. Unter dem Tab “External” findest du alle Links, auf die du oder deine User verlinkt haben.

Hacking und Spyware

Hacking ist aktueller denn je. In der Google Search Console gibt es dafür einen eigenen Menüpunkt. Unter dem Link “Sicherheitsprobleme” erstellt Google eine Liste mit den möglichen Sicherheitsproblemen. Auf Wunsch schickt Google auch E-Mails, sobald Probleme auftreten.

Eine weitere Möglichkeit, um herauszufinden, ob eine Seite möglicherweise schädliche Inhalte bietet, sind die Google Alerts. Für negative Begriffe lassen sich Google Alerts einrichten. Sollte es Inhalte mit diesen negativen Wörtern auf deiner Website geben, informieren dich die Alerts in vorher definierten Zeitintervallen darüber.

Negative SEO

Nicht immer ist der Websiten-Betreiber an negativen Links schuld. Oftmals kommt es auch durch negatives SEO zu Problemen oder Abwertungen seitens Google. So schalten zum Beispiel Wettbewerber massiv minderwertige Links auf ominösen Websites.

Um solche Links zu finden, eignet sich beispielsweise das Tool von Majestic: https://de.majestic.com/ Über Majestic lässt sich auch die Ankertext-Verteilung abrufen. Allerdings ist dafür eine (kostenlose) Registrierung vonnöten.

Broken Links

Eine weitere Gefahr für deine Website sind Broken Links. Sobald ein externer Link auf eine Seite verlinkt, die nicht mehr existiert, gibt der Server einen 404-Fehler aus. Auch hier schafft Majestic Abhilfe. Über Majestic lassen sich Seiten mit 404-Fehlern herausfiltern. Für solche Fehlerseiten sollten 301-Weiterleitungen erstellt werden. Diese 301-Weiterleitungen lassen sich über WordPress-Plugins regeln. Manuelle Einträge in der .htaccess-Datei sind ebenfalls möglich und einfach einzurichten.

Eine 301-Weiterleitung sieht in der .htaccess-Datei beispielsweise so aus:
Redirect 301 /kategorie/dokument.html http://www.domain.de/dokument2.html

Sobald ein Leser auf den Link /kategorie/dokument.html klickt, wird dieser zu dokument2.html weitergeleitet.

Duplicate Content

Duplicate Content trifft häufiger auf als man denkt. Um internen und externen Duplicate Content ausfindig zu machen, gibt es das Tool von www.copyscape.com. Für bestimmte Inhalte eignen sich auch hier wieder die Google Alerts.

Google Analytics

Mit Google Analytics lassen sich benutzerdefinierte Benachrichtigungen erstellen. Im Dashboard findest du diesen Menüpunkt unter “Benutzerdefinierte”. Innerhalb der Verwaltung können neue Benachrichtigungen erstellt werden. Google Analytics benachrichtigt über nahezu jedes Ereignis. So kannst du dich über die Seitenaufrufe benachrichtigen und über eine mögliche Zu- und Abnahme informieren lassen.

Fazit

Es gibt jede Menge Tools, die du monatlich oder jährlich einsetzen kannst, um Gefahren von innen und außen zu unterbinden und deine Website ein Stück sicherer zu machen.

Die Google Search Console eignet sich hervorragend, um einen Überblick über deine Website zu erhalten und Gefahren jeder Art zu erkennen. Sitelinks lassen sich dort zwar nicht mehr abwerten, dafür bietet die Google Search Console jede Menge andere Möglichkeiten. Wichtig sind an dieser Stelle die Funktionsweise deiner URLs. Sicherstellen solltest du, dass alle URLs zugänglich sind und keine 404-Fehler erzeugen.