SEO-News

SuchmaschinenbotWer Seiten per 404 oder 410 aus dem Google-Index entfernen möchte und die betreffenden URLs gleichzeitig per robots.txt sperrt, kann lange warten, denn Google kann den HTTP-Status von gesperrten URLs nicht erkennen.

Eine Möglichkeit, URLs aus dem Google-Index zu entfernen, ist, bei deren Aufruf den HTTP-Status 404 oder 410 zu senden. Beim nächsten Crawlen durch den Googlebot werden die entsprechenden URLs dann gelöscht.

Einzelne Webmaster möchten aber anscheinend besonders sichergehen und sperren unerwünschte URLs zusätzlich per robots.txt. Das aber funktioniert nicht, denn in diesem Fall kann Google den HTTP-Status der betreffenden URLs nicht mehr auslesen.

Um einen solchen Fall ging es gerade auf Twitter. Ein Nutzer beschwerte sich darüber, dass für einige seiner URLs in der Google Search Console noch Warnungen angezeigt würden ("Indexiert, obwohl per robots.txt gesperrt"). Dabei würde für die betreffenden URLs bereits seit sechs Monaten der Status 410 gesendet.

Johannes Müller antwortete, wenn eine URL per robots.txt blockiert sei, könne Google den Statuscode nicht abrufen:

 

Google kann HTTP-Status nicht auslesen, wenn eine URL per robots.txt gesperrt ist

 

So ähnlich verhält es sich ürigens auch in einem anderen Fall: Wer Seiten mit dem Meta Robots Tag "noindex" aus dem Index entfernen möchte, darf die betreffenden URLs auch nicht per robots.txt sperren, denn das würde verhindern, dass der Googlebot die Seiten abrufen und die Tags auslesen kann.

 

Titelbild: Copyright Patrick Daxenbichler - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

Crawler bzw. Bots, die auf einer Website zugelassen sind, sollte man laut John Müller von Google nicht fragen, ob sie ein Bot sind, sondern ihnen einfach die gewünschten Inhalte zeigen.

Kurz nach der Bereitstellung einer Möglichkeit zum Aussperren von ChatGPT per robots.txt machen bereits einige Websites Gebrauch davon.

Vor dem Hintergrund von KI-Technologien und Generative AI hat Google dazu aufgerufen, Alternativen zur robots.txt zu entwickeln. Das Protokoll entspricht nicht mehr den Anforderungen der zukünftigen...

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen sedo

SEO Agentur aus Darmstadt

SEO-Vergleich

Online Solutions Group


Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px