SEO-News

Original und KopieDas Sperren von URLs per robots.txt verhindert, dass Google Duplicate Content erkennen kann. Stattdessen sollte man zum Verhindern von Duplikaten in der Suche auf Canonical-Links setzen.

Es ist keine gute Idee, zur Vermeidung von Duplicate Content in den Google-Ergebnissen auf das Blockieren von URLs per robots.txt zu setzen. Zwar kann man dadurch bestimmte Pfade für Crawler wie den Googlebot sperren, doch verhindert man auf diese Weise auch, dass die Suchmaschine mögliche Duplikate erkennt und diese entsprechend behandelt.

Das zeigt ein aktuelles Beispiel: Ein Nutzer hatte per Twitter angefragt, ob er URL-Parameter per robots.txt blockieren solle, wenn gleichzeitig Canonical-Links gesetzt sind.

John Müller riet davon ab. Das Blockieren per robots.txt verhindere das Erkennen von Duplikaten. Besser sei es, den Suchmaschinen alle Inhalte zur Verfügung zu stellen und jeweils einen Canonical-Link zu setzen:

 

Google: Das Sperren von URLs per robots.txt verhindert das Erkennen von Duplicate Content

 

In diesem Fall sollte also auf Transparenz gegenüber Gooogle und anderen Suchmaschinen geachtet werden. Google ist inzwischen sehr gut dazu in der Lage, Duplicate Content zu erkennen und jeweils die URL mit der höchsten Relevanz anzuzeigen.

Unterstützten kann man dies durch die zusätzliche Angabe der bevorzugten URLs in der XML-Sitemap sowie durch eine saubere interne Verlinkung.

 

Titelbild © tumsasedgars - Fotolia.com

 

Verwandte Beiträge

Es ist keine gute Idee, die robots.txt einer Website dynamisch zu ändern, um zum Beispiel die Serverlast durch das Crawlen zu steuern.

Indexierte URLs, die per robots.txt gesperrt sind, werden von Google irgendwann aus dem Index entfernt. Das ist zum Beispiel dann wichtig, wenn große Mengen an URLs auf einmal per robots.txt...

Auf der Google Search Central in Zürich wurden für die Zukunft häufigere Core Updates angekündigt. Auch die Bedeutung der robots.txt und von strukturierten Daten wurde betont.

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen Digitaleffects

Online Solutions Group

Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px