Google weist jetzt darauf hin, dass bei einer manuellen Maßnahme wegen Site Reputation Abuse die betreffenden Seiten nicht per robots.txt gesperrt werden sollten.
Nachdem Google auch in Deutschland einige Websites wegen Site Reputation Abuse mit einer manuellen Maßnahme belegt hatte, gab es einzelne Seiten, die kurze Zeit später wieder in den Suchergebnissen erschienen waren - und das, obwohl sie auf "noindex" gesetzt waren. Eine mögliche Erklärung: Die betreffenden Seiten waren gleichzeitig per robots.txt für das Crawlen gesperrt worden. Die manuelle Maßnahme war offenbar aufgrund des "noindex" aufgehoben worden, während Googles Systeme dieses Meta Tag wegen des "disallow" in der robots.txt nicht auslesen konnten.
Sie benötigen SEO-Beratung für Ihre Website?
Um solche Tricks zukünftig auszuschließen, hat Google jetzt die Empfehlungen zu manuellen Maßnahmen im Zusammenhang mit Site Reputation Abuse erweitert. Dort heißt es nun, um sicherzustellen, dass die Noindex-Regel greife, sollte man die betreffenden Inhalte nicht per robots.txt sperren.
Das Sperren per robots.txt bei einer manuellen Maßnahme wegen Site Reputation Abuse - ob mit oder ohne "noindex" - ist also keine Alternative, um die manuelle Maßnahme wieder loszuwerden.