SEO-News

CrawlerGoogle hat seinen Crawler für Smartphones aktualisiert. Man kann das am geänderten User Agent-String erkennen. Für die meisten Webseiten sollte das keine Auswirkungen haben, aber zur Sicherheit empfiehlt sich ein Test.

 

Google hat in dieser Woche den User Agent für Smartphones aktualisiert. Im Grunde handelt es sich nur um kleine Änderungen, doch können sich unter ungünstigen Umständen negative Effekte für gecrawlte Webseiten ergeben, und zwar vor allem dann, wenn dort selektiv nur bestimmte User Agents zugelassen werden.

Der neue Googlebot für Smartphones hat den folgenden User Agent-String:

Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P)

AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.96

Mobile Safari/537.36 (compatible; Googlebot/2.1;

+http://www.google.com/bot.html)

Dieser User Agent ist seit dem 18. April im Einsatz. Im Gegensatz zum vorherigen User Agent hat sich vor allem das Betriebssystem geändert, und zwar von iPhone auf Android. Der alte User Agent-String sah so aus:

Mozilla/5.0 (iPhone; CPU iPhone OS 8_3 like Mac OS X)

AppleWebKit/600.1.4 (KHTML, like Gecko) Version/8.0

Mobile/12F70 Safari/600.1.4 (compatible; Googlebot/2.1;

+http://www.google.com/bot.html)

Google passt nach eigener Aussage die User Agents ständig an, um aktuelle Entwicklungen widerzuspiegeln. Der jüngste Wechsel ist vor dem Hintegrund zu sehen, dass Googles Renderer, also die Einheit, die zur Berechnung der Darstellung von gecrawlten Webseiten dient, eher einem Chrome- als einem Safari-Browser entspricht.

Google empfiehlt die Techniken der Feature Detection und des Progressive Enhancements, um Webseiten auf möglichst vielen Browsern darstellbar zu machen. Feature Detection dient zur Erkennung der Befehle, die ein Browser ausführen kann. Progressive Enhancement ermöglicht das Zuschalten weiterer Funktionen je nach Fähigkeit des verwendeten Browsers.

Wer sichergehen möchte, dass die eigene Webseite auch für den neuen Crawler richtig dargestellt wird, kann in der Google Search Console die Funktion "Abruf wie durch Google" nutzen. Auch die Developer-Tools in Google Chrome bieten sich dazu an.

 

Titelbild © AKS - Fotolia.com

 

Verwandte Beiträge

Eine aktuelle Studie zeigt, dass die Crawler verschiedener KI-Tools mit JavaScript nicht umgehen können. Hier hat Google noch große Vorteile.

Die Vorstellung, dass Google URLs direkt crawlt, auf deren Link der Googlebot stößt, ist falsch. Vielmehr werden die URLs zuvor gesammelt und später besucht.

Wenn Google eine Website plötzlich deutlich mehr crawlt, sollte man prüfen, ob ein Problem die Ursache dafür ist. Darauf wies jetzt Gary Illyes von Google hin.

 

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen Digitaleffects

Online Solutions Group

Farbentour

Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px