SEO-News

SuchmaschinenbotIn der robots.txt bestimmt nicht die Reihenfolge, welche Regel von Google und anderen Suchmaschinen befolgt wird, sondern es gilt: Eine spezifischere Regel sticht eine allgemeinere Regel.

Manche robots.txt-Dateien sind recht komplex aufgebaut. Neben Sonderbehandlungen für verschiedene User Agents enthalten sie auch Regeln für unterschiedliche Pfade und unterschiedliche URLs, zum Teil erweitert um reguläre Ausdrücke, um unterschiedliche Konstellationen abzudecken.

Dabei kann es leicht unübersichtlich werden. Häufig weiß man dann nicht mehr genau, welche Direktive zur Anwendung kommt und welche nicht. In der Folge kann es zu ungewünschten Folgen kommen, zum Beispiel, dass URLs blockiert werden, die eigentlich gecrawlt werden sollen.

Für solche Fälle gibt es in der Google Search Console den Robots.txt-Tester. Damit kann man pro URL prüfen, ob diese durch eine robots.txt gesperrt ist oder nicht.

Hilft auch dieses Tool nicht weiter, so bleibt als weitere Möglichkeit, sich direkten Rat bei Google zu besorgen. So war es in einem aktuellen Fall, in dem ein Nutzer eine Anfrage an Johannes Müller stellte. Es ging dabei um das Blockieren bzw. Nicht-Blockieren von URLs, die den Term "robots.txt" enthalten.

In diesem Zusammenhang gab Müller einen interessanten Tipp: Nicht die Reihenfolge der Regeln innerhalb der robots.txt ist entscheidend, sondern die jeweils speziellste Regel greift. Das zeigt das folgende Beispiel:

Allow: /*/*/blob/master sticht

Disallow: /*/*/blob/*.

 

Google: Bei robots.txt sticht die jeweils spezifischere Regel

 

Das muss beim Erstellen von Regeln für eine robots.txt berücksichtigt werden.

Generell sollte man die robots.txt so kurz und übersichtlich wie möglich halten und so wenige URLs wie möglich sperren und dies auch nur dort, wo es wirklich notwendig ist. Damit reduziert man das Risiko unnötiger Fehler.

 

Titelbild: Copyright Patrick Daxenbichler - Fotolia.com

 

Verwandte Beiträge

Die KI-Suchmaschine Perplexity respektiert die robots.txt von Websites. Allerdings gibt es eine kleine Ausnahme.

Wenn Google Seiten indexiert hat, die per robots.txt gesperrt sind, ist das normalerweise kein Problem.

Eine robots.txt bietet keinen ausreichenden Schutz von Inhalten vor nicht berechtigten Zugriffen. Daran erinnerte jetzt Gary Illyes von Google.

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen InternetX

SEO Agentur aus Darmstadt

Better sell online

Online Solutions Group

Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px