Normalerweise tauchen Seiten, die per robots.txt gesperrt sind, für normale Suchanfragen nicht in den Suchergebnissen von Google auf. Passiert dies doch, sollte man sich Gedanken über die Qualität der wichtigen Seiten machen.
Google kann Seiten, die per robots.txt gesperrt sind, zwar nicht crawlen. Dennoch ist es möglich, dass betreffende URLs ohne Inhalt indexiert werden und damit in den Suchergebnissen erscheinen können - etwa dann, wenn es Links gibt, die auf diese Seiten zeigen. Normalerweise erscheinen solche Seiten aber nicht in den Suchergebnissen von Google. Ausnahme sind Site-Abfragen, mit denen gezielt nach bestimmten URLs gesucht wird.
Sucht zum Beispiel jemand nach einem Produkt, das auf einer Website angeboten wird, prüft Google nicht, ob es auf der Website auch andere Seiten gibt, die per robots.txt blockiert sind, weil es bereits gute Seiten auf der Website gibt, die Google crawlen und indexieren kann. Das erklärte John Müller in den Google Search Central SEO Office Hours vom 4. Februar.
Sollte Google dennoch per robots.txt gesperrte Seiten für normale Suchanfragen in den Ergebnissen anzeigen, etwa für Suchanfragen nach wichtigen Produkten eines Onlineshops, dann sei das ein mögliches Zeichen dafür, dass etwas mit den Inhalten der Seiten der Website nicht stimme, die eigentlich für diese Suchanfragen wichtig und relevant sind. Die Inhalte der betreffenden Seiten seien dann möglicherweise nicht ausreichend, um von Google als relevant für die Suchanfragen betrachtet zu werden, so Müller weiter.
Daher sollte man prüfen, ob Nutzerinnen und Nutzer per robots.txt gesperrte Seiten für normale Suchanfragen zu sehen bekommen. Ist das der Fall, sollte der Fokus auf möglichen inhaltlichen Problemen der für die Suchanfragen relevanten Seiten liegen.
Titelbild: Copyright Patrick Daxenbichler - Fotolia.com
SEO-Newsletter bestellen