SEO-News

Suchmaschinenbot

Das Verwenden von 'Crawl-delay' in der robots.txt kann in bestimmten Fällen dazu führen, dass Google die komplette Website nicht mehr crawlen kann.

 


 Anzeige

Google berücksichtigt die Anweisung "Crawl-delay" in der robots.txt nicht. John Müller erklärte in einer früheren Ausgabe von "SEO Snippets", die Angabe bestimmter Zeitintervalle zwischen Requests ergebe keinen Sinn. Webserver können heute viele Requests pro Sekunde bearbeiten. Zudem seien Webserver sehr dynamisch, so dass ein bestimmter Wert ebenfalls nicht sinnvoll sei.

Das Nicht-Berücksichtigen von "Crawl-delay" durch Google kann in ungünstigen Fällen dazu führen, dass Google eine komplette Website nicht mehr crawlen kann. Dazu muss in der robots.txt eine bestimmte Reihenfolge der Direktiven und der User Agents angegeben sein. Ein Beispiel dafür teilte ein Nutzer auf Twitter. Er schrieb, dass eine alte Website plötzlich komplett für die Suche blockiert war.


 Anzeige

In der betreffenden robots.txt ist zunächst die für alle User-Agents gültige Anweisung "Crawl-delay: 2" zu finden. Darunter folgt eine Direktive, die nur für den Mozbot gilt, für den die gesamte Website blockiert ist.

 

Googlebot geblockt wegen Nicht-Berücksichtigung von 'Crawl-delay'

 

Weil nun Google das "Crawl-delay" ignoriert, wendet es das "*", das alle User Agents anspricht, auf das "Disallow: /" an, was bedeutet, dass das Crawlen der Website für alle User Agents verboten ist. Offenbar ignoriert Google die Nennung des Mozbots komplett.

Sicherlich ist das ein Spezialfall, aber es zeigt, dass manchmal gravierende Probleme mit der robots.txt bestehen können, die nicht auf den ersten Blick sichtbar sind.

Danke für dieses Fundstück an Glenn Gabe.

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Crawler bzw. Bots, die auf einer Website zugelassen sind, sollte man laut John Müller von Google nicht fragen, ob sie ein Bot sind, sondern ihnen einfach die gewünschten Inhalte zeigen.

Kurz nach der Bereitstellung einer Möglichkeit zum Aussperren von ChatGPT per robots.txt machen bereits einige Websites Gebrauch davon.

Vor dem Hintergrund von KI-Technologien und Generative AI hat Google dazu aufgerufen, Alternativen zur robots.txt zu entwickeln. Das Protokoll entspricht nicht mehr den Anforderungen der zukünftigen...

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden

 

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen sedo

SEO Agentur aus Darmstadt

SEO-Vergleich

Online Solutions Group


Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px