SEO-News

Googlebot

Indexierte URLs, die per robots.txt gesperrt sind, werden von Google irgendwann aus dem Index entfernt. Das ist zum Beispiel dann wichtig, wenn große Mengen an URLs auf einmal per robots.txt ausgeschlossen werden.


 Anzeige

Eigentlich gilt die Empfehlung: Wenn man URLs aus dem Google Index entfernen möchte und diese auf "noindex" setzt, dann sollten diese URLs crawlbar sein, dürfen also nicht per robots.txt gesperrt sein. Denn ansonsten kann Google das "noindex" auf den Seiten gar nicht erkennen.

Doch was ist, wenn man große Mengen von indexierten URLs per robots.txt sperren möchte, um Crawl-Budget zu sparen? In diesem Fall kann man darauf warten, dass Google die betreffenden URLs dennoch irgendwann aus dem Index entfernt. Das erklärte Gary Illyes auf LinkedIn im Zusammenhang mit Googles Empfehlungen zur facettierten Navigation auf Websites. Er antwortete auf die Frage, was passiere, wenn man diesen Empfehlungen folge und dann Millionen von URLs im Index habe, die per robots.txt gesperrt sind. Illyes schrieb, die URLs fallen irgendwann aus dem Index, wenn Googles Systeme sie als nutzlos erachten. Er fragte außerdem nach Beispielen und empfahl, John Müller direkt anzuschreiben und nachzufragen.

 

Google: Indexierte URLs, die per robots.txt gesperrt sind, fallen irgendwann aus dem Index 

 

Generell ist es so, dass Google indexierte URLs, die per robots.txt gesperrt sind, bei normalen Suchanfragen nicht anzeigt, sondern nur dann, wenn gezielt per "site:" nach diesen URLs gesucht wird.

Schon im September hatte John Müller darauf hingewiesen, dass per robots.txt gesperrte URLs im Index normalerweise kein Problem sind.

Verwandte Beiträge

Es ist keine gute Idee, die robots.txt einer Website dynamisch zu ändern, um zum Beispiel die Serverlast durch das Crawlen zu steuern.

Auf der Google Search Central in Zürich wurden für die Zukunft häufigere Core Updates angekündigt. Auch die Bedeutung der robots.txt und von strukturierten Daten wurde betont.

Die KI-Suchmaschine Perplexity respektiert die robots.txt von Websites. Allerdings gibt es eine kleine Ausnahme.

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden

{loadpositon anzeige-unter-newsletter}

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen Digitaleffects

Online Solutions Group

Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px