SEO Auslese April 2019
Im April hatten viele Website-Betreiber mit Googles Deindexierungs-Fauxpas zu kämpfen. Auch jetzt bekommen wir die Nachwirkungen noch zu spüren, denn die Search Console weist eine nicht wiederherstellbare Datenlücke von über zwei Wochen auf. Daneben haben wir für euch das aktuelle Google Webmaster Hangout, ein paar nerdige Tipps zur Verbesserung der Seitenladezeit und weitere spannende Neuigkeiten aus der Branche in unserer SEO Auslese zusammengefasst.
News der Suchmaschinen
Indexierungs- und Datenprobleme in der Google Search Console
Anfang April berichteten viele Website-Betreiber, dass ihre Seiten weder per site-Abfrage noch über die Search Console als indexiert angezeigt wurden. Daraufhin stellte sich heraus, dass zahlreiche Seiten versehentlich aus dem Google-Index entfernt wurden, die Wiederherstellung des ursprünglichen Zustands nahm eine Woche in Anspruch. Am 15. April gab Google bekannt, dass die Daten in der Search Console aufgrund des Indexierungsproblems noch hinterherhängen.
Damit war die Geschichte aber nicht zu Ende. Google gab am 16. April über Twitter bekannt, dass nun auch bei vereinzelten Google News Seiten Indexierungsprobleme aufgetreten sind. Allerdings sollte dieses Problem nichts mit dem bereits gelösten Indexierungsproblem zu tun haben. Einen Tag später konnte Google das ganze wieder beheben.
Kürzlich hat Google allerdings eingeräumt, dass alle Daten zwischen dem 9. und 25. April vollständig verloren sind. Einzig der Performance-Bericht zu Klicks, Impressionen usw. ist nicht von der Datenlücke betroffen.
Zusammenfassung zum Google Webmaster Hangout vom 2.5.
Noindex + viele interne Links
Wenn es eine Seite gibt, die auf noindex gestellt ist, aber gleichzeitig sehr viele interne Links erhält, verwirrt das Google. Google folgt natürlich der Anweisung noindex und nimmt die Seite aus dem Index. Die vielen internen dofollow-Links sagen aber gleichzeitig, dass die Seite ja wichtig zu sein scheint. Deshalb schaut sich der Crawler diese auch wieder an, nimmt die Seite aber nicht wieder in den Index auf (die noindex-Angabe ist stärker).
Paginierung + Archive
Ein wichtiges Thema war die Paginierung von großen Archiven. Wenn erreicht werden soll, dass alle Artikel in einem Archiv gefunden werden sollen, dann müssen diese irgendwo verlinkt werden: also idealerweise mithilfe einer Paginierung. Hier sollten die einzelnen Seiten mit dofollow verlinkt und auf index gestellt sein, damit der Crawler sie berücksichtigt. Es gilt hier ein bisschen die Einstellung „den Crawler einfach mal machen lassen“.
Da das Thema aber viele Webmaster verwirrt, arbeitet Google gerade an einer Best Practise-Anleitung für eCommerce-Seiten, was den Umgang mit Kategorien, Archiven und der Paginierung betrifft.
Google News / Discover Feed
Ob es von Google perspektivisch unterschiedliche Referrer für Google News, Discover Feed etc. in Analytics geben soll, ist noch offen. Laut Müller kann es sein, dass diese Quellen unter einem Referrer zusammengefasst werden. Discover wird aktuell nicht mehr separat ausgewiesen.
Interne Seiten mit Pflichtangaben
Interne Seiten, die auf jeder Seite verlinkt sind (z.B. Impressum) wertet Google nicht als wichtigste Seiten. Google ist bewusst, dass solche Seiten vorhanden sein müssen und erkennt, dass auf diesen Informationen nicht der Fokus der Website liegt. Diese Links müssen also nicht auf besondere Art und Weise markiert werden.
Das komplette Webmaster Hangout ist bei YouTube zu finden.
Bilder-Optimierung nicht vernachlässigen
Website-Betreiber sollten der Optimierung ihrer Bilder viel Beachtung schenken, denn Berichten von SEO-Tools zufolge ist im April der Anteil an Bilder-Suchergebnissen deutlich angestiegen. Im Januar hatte John Müller erklärt, dass Bildern dieses Jahr eine hohe Relevanz zukommen wird. Der Anstieg könnte die Bestätigung für diese Aussage sein. Webmaster können zusätzliche Klicks über die Bildersuche generieren, „weil die Bilder-OneBoxen meist unter den Top-3 der Rankings angezeigt werden, kann eine Platzierung dort für zusätzliche Klicks sorgen.“
Hilfreiche Befehle für die Google-Suche
Google hat zwei neue Suchparameter vorgestellt: before + after. Damit lassen sich gezielt Ergebnisse anzeigen, die vor oder nach einem bestimmten Datum veröffentlicht wurden. Die beiden Parameter lassen sich auch kombinieren. Die Suchanfragen müssen in eckige Klammern gesetzt werden:
- [a star is born before:2019-03-05]
- [a star is born after:2019-03-01]
- [a star is born after:2019-03-01 before:2019-03-05]
Benötigt wird entweder eine Angabe YYYY-MM-DD oder nur die Jahreszahl.
Wenn man Google dazu zwingen möchte, ein unpersonalisiertes und aktuelles Ergebnis (also nicht aus dem Cache stammend) anzuzeigen, sollte man dies an die Suchergebnis-URL anfügen: &pws=0&no_sw_cr=1
pws=0 sagt Google dabei: Nutze keine Personalisierung!
no_sw_cr=1 zwingt Google, wirklich den aktuellen Index abzubilden. Google zeigt sonst gerne Ergebnisse aus dem Cache an.
Google startet Serie zum Thema strukturierte Daten
Dass strukturierte Daten ein wichtiges Thema für Google sind, ist allseits bekannt, daher gibt es nun eine Serie dazu. Den Auftakt macht eine Einführung, die erklärt, was strukturierte Daten sind und zu was diese sinnvoll sind. So können beispielsweise die Sichtbarkeit der Marke gestärkt oder Inhalte und Produktinformationen hervorgehoben werden. Google weist auch auf das sogenannte Codelab hin, in dem die Integration strukturierter Daten gelernt und ausprobiert werden kann. Im nächsten Beitrag soll es um die Nutzung der Google Search Console zur Auswertung der Daten gehen.
News der Suchmaschinen kurz & knapp
- Google hat eine kurze Nachricht herausgegeben, dass das Custom Search Mobile Layout aktualisiert wurde. Konkret wurde die Darstellung der Suchbox und deren Verfeinerung geändert, Thumbnails vergrößert und die Paginierung vereinfacht.
- Die Search Console listet nun auch die Performance im Google Discover-Feed auf. Website-Betreiber können unter anderem sehen, wie oft ihre Seite in Discover angezeigt wird und wie viel Traffic sie erhalten.
- Google verdeutlichte mit einer Änderung im Dokument zum Thema Crawl-Budget, dass sich der Einsatz von AJAX auf das Crawl-Budget einer Seite auswirkt.
- AMP Seiten können jetzt mit der Publisher-URL statt mit der Google-URL angezeigt werden.
- Google bietet mit Chrome 75 bald ein natives „lazy loading“ von Bildern an. Dazu kann man das Attribut loading=“lazy“ angeben. Chrome 75 soll im Mai bereitstehen.
- Scheinbar findet zurzeit endlich die Aktualisierung des Google Bots auf eine modernere Chrome-Version Zumindest laut eines Beitrags von DeepCrawl wurde beobachtet, dass Google nun auch weitere Dinge rendern kann, die mit Chrome 41 (die aktuell noch genutzte Version) nicht gerendert werden können.
Local SEO News
Gibt es bald Google My Business Premium?
Google spielt mit dem Gedanken, für Google My Business einige Premium-Features einzuführen, die dann auf Basis einer monatlichen Gebühr ermöglicht werden. Dazu hat Google eine Umfrage verschickt, in der abgefragt wird, welche Premium-Features sich Webmaster wünschen. Dazu gehören:
- Google customer support
- Verified reviews
- Call reports and recordings
- Promoted map pin
- Automated response for reviews
- Google Guarantee
- Remove ads from your business profile
- Video on your business profile
- “Book” button on your business profile
Also durchaus auch Punkte, die die Sichtbarkeit erhöhen können oder mehr Trust bringen. Wir sind gespannt, ob und was Google am Ende wirklich umsetzt.
Short-URLs in Google My Business
In Google My Business wird die Möglichkeit der Short Names & URLs ausgerollt. Damit können Nutzer die Short-Name-URL in die Browsersuchleiste eingeben und gelangen dann direkt zum GMB Eintrag. In Deutschland ist die Funktion noch nicht verfügbar.
Grund für diese Neuerung ist, dass man so einfach das eigene Profil teilen kann, um bspw. Bewertungen einzuholen. Statt eine URL mit Zahlenkombinationen zu teilen, wird es zukünftig eine sprechende URL sein. Aktuell kann man aber auch schon von GMB eine URL generieren lassen, die einen direkt zum Bewertungsformular schickt.
Local SEO in der Versicherungsbranche
Ein Artikel aus einem Magazin für Risiko- und Kapitalmanagement betrachtet die aktuelle Lage der lokalen Sichtbarkeit für Versicherungen. Insgesamt sieht es nicht so gut aus, denn 70 Prozent der untersuchten Versicherungsunternehmen sind bei lokalen Suchanfragen so gut wie nicht auffindbar. Zu den 30 Prozent sichtbaren Versicherungen gehören die großen Marken wie AXA, ERGO und HUK. Hier gibt es also noch Potential für Versicherer, sich intensiv mit dem Thema zu beschäftigen.
Allgemein verschiebt sich die Suche nach Versicherungen immer weiter in den digitalen Raum. Empfehlungen von Bekannten und Vertretern sind zwar noch sehr wichtig, aber in den letzten Jahren suchten vermehrt Nutzer über Google und Bewertungsportale nach Versicherungen.
Infografik zur Einrichtung von Google My Business
Headway Capital hat eine schicke Infografik zur Einrichtung von Google My Business veröffentlicht. Von der Relevanz lokaler Suchanfragen über die Anmeldung des Standorts bis hin zur Verifizierung und Optimierung des Standorts wird alles kurz und übersichtlich erklärt.
Branchen Insights
Nachwirkungen des Google Core Updates
Martin Mißfeldt beschäftigt sich weiterhin mit dem Core Update und vermutete bei der Analyse, dass irgendwas mit den Zahlen in der Search Console nicht stimmen kann (unabhängig vom technischen Problem, das Google mit der Indexierung hatte).
Er hat für Suchbegriffe die angezeigte durchschnittliche Position mit der tatsächlichen Position (ein paar Tage in den Suchergebnissen geschaut) verglichen und kam auf unterschiedliche Erkenntnisse. So wurden Suchbegriffe auf Position 1,4 bewertet, aber in Realität kam das Suchergebnis nicht über Position 6 hinaus.
In den Kommentaren hat sich dann Markus Hövener mit einer Vermutung zu Wort gemeldet. Wenn nämlich auf Position 0 ein Bild von der Seite angezeigt wird (Knowledge Graph), dann bezieht Google das mit in die Bewertung der durchschnittlichen Position ein.
Konkret ging es um das Keyword „Lymphozyten“.
Wertvolle Tipps zur Beschleunigung der Seitenladezeit
Bei MOZ stellt Patrick Curtis von Wall Street Oasis verschiedene Möglichkeiten vor, wie die Seitenladezeit sowohl im Backend als auch im Frontend verbessert werden kann. Das Unternehmen war mit seinen PageSpeed Maßnahmen bisher sehr erfolgreich und teilt daher seine Best Practices, die teils auch sehr tief ins technische Verständnis gehen. Hintergrundinfo: Die Website basiert auf dem CMS Drupal und läuft über einen Server mit LAMP Stack.
Optimierungsmöglichkeiten im Backend
- Sicherstellung, dass ein Reverse Proxy konfiguriert wurde. Wall Street Oasis nutzt Varnish. Die ganze Seite wird dafür im Cache gespeichert, um sie dem Nutzer schnellstmöglich auszuliefern.
- Erweiterung der TTL (Time to live) dieses Caches (insbesondere für Seiten mit großer Datenbank und mehr als 10.000 URLs, deren Inhalte sich nicht sehr häufig ändern).
- Cache-Warmup nutzen, um Seiten bereits vor Aufruf durch einen Nutzer oder den Google Bot im Cache zwischen zu speichern.
- Optimierung der Datenbank. Für MySQL Nutzer werden folgende Skripte empfohlen: https://github.com/major/MySQLTuner-perlund https://github.com/mattiabasone/tuning-primer
Optimierungsmöglichkeiten im Frontend
- JavaScript am Ende einer Seite oder inline einbinden sowie asynchron laden.
- Bilder-Optimierung: WebP nutzen (das CDN Cloudflare nutzt das beispielsweise automatisch), Bilder in der richtigen Größe einbinden, Lazy Loading verwenden.
- CSS inline einbinden, CSS-Dateien minimieren, CSS-Dateien kombinieren, Toolempfehlung für CSS-Probleme: https://jonassebastianohlsson.com/criticalpathcssgenerator/
- Schriftarten: Für Symbol-Schriftarten Inline SVG nutzen, Fontello verwenden, um Schriftart-Dateien zu generieren, Unicode-Range nutzen, um gewünschte Zeichen zu wählen, woff2 nutzen, weil es bereits komprimiert ist.
- Externe Ressourcen (z.B. Facebook Pixel) auf den eigenen Server verschieben, um die Ablaufzeiten selbst zu steuern.
- Verwendung eines Content Delivery Networks (Cloudflare wird hier empfohlen).
- „Service Worker“ nutzen (Skripte, die der Browser im Hintergrund ausführt, unabhängig von der Website). Wall Street Oasis nutzt diese Möglichkeit zum Aufbau eines intelligenteren Caching-Systems.
Branchen News kurz & knapp
- Strukturierte Daten lassen sich bei WordPress nun einfacher umsetzen: das meist genutzte SEO-Plugin von Yoast bietet nun auch die Einbindung von schema.org-Markups an. Auch Local SEO-Aspekte werden berücksichtigt (vermutlich nur für einen allgemeinen Standort, nicht für mehrere Standorte). Dazu gibt es noch Erweiterungen für Google News-Optimierung und WooCommerce-Optimierungen.
- Passend dazu es bei Business 2 Community ein Video, das zeigt, wie man strukturierte Daten für Local SEO auf Webseiten anlegt. Das Ganze wird am Beispiel einer WordPress-Website erklärt. Dafür wird der Structured Mark Up Helper von Google genutzt, um den Code für die lokalen strukturierten Daten zu nutzen. Der Code kann ganz einfach kopiert und auf der jeweiligen Seite hinzugefügt werden.
- Ganz spannend: durch Sicherheitslücken kann auf Websites bekanntlich alles Mögliche eingeschleust werden. Dazu zählt auch JavaScript, mit dem sich Inhalte gezielt nur für den Google-Bot anpassen lassen. Der Nutzer/Webmaster merkt also nichts, sondern nur der Bot, da dieser das JavaScript ausführt. Wie ein Experiment beweist, zeigt Google diese manipulierten Inhalte sogar in den Suchergebnissen an.
- seobilty übernimmt das OnpageDoc Tool. Mitte Juni wird die Software als eigenständiges Produkt eingestellt.
- Xovi fasst 5 wichtige SEO-Trends für 2019 zusammen.
- Search Engine Watch gibt fortgeschrittene Tipps für YouTube SEO.
- Was ist Amazon SEO? Welche Phasen gibt es und wie kann die Sichtbarkeit beeinflusst werden? Bei UPLOAD Magazin gibt es einen netten Beitrag mit direkten Tipps. Wer das Ranking seiner Produkte optimieren möchte, kann bei GrowthUp ein paar Empfehlungen nachlesen.
- Bei ryte gibt es einen sehr ausführlichen Beitrag zur Einrichtung der Google Search Console.