SEO-News

KopiererZur Vermeidung von Duplicate Content ist die robots.txt laut Google ungeeignet. Ein 'Disallow' in der robots.txt ist sogar noch ungünstiger als ein 'Noindex' per Meta-Robots-Tag.

Duplicate Content auf einer Webseite vermeidet man am besten mit Hilfe von Canonical-Links. Wenn es Inhalte gibt, die unter mehreren URLs erreichbar sind, lässt sich per Canonical definieren, welche URL Google indexieren soll. Weitere Signale für bevorzugte URLs liefern Sitemaps, interne Links, Redirects oder auch hreflangs. Diese Signale sollten einheitlich sein und einander nicht widersprechen.

Allerdings werden vielfach auch andere Methoden zur Vermeidung von Duplicate Content genutzt, so zum Beispiel Meta-Robots-Tags und die robots.txt. Dass sich Meta-Robots-Tags nicht dazu eignen, hatte Google bereits mehrach erklärt, so zum Beispiel im April dieses Jahres.

Noch ungünstiger ist es allerdings, als Ersatz für Canonicals einzelne URLs per 'disallow' in der robots.txt zu sperren. Wie Johannes Müller jetzt auf Reddit erklärt hat, führt das nämlich dazu, dass Google, anders als bei 'noindex' nicht einmal erkennen kann, ob die Inhalte unter der betreffenden URL den Inhalten unter einer anderen URL entsprechen. Generell seien 'noindex' und 'disallow' keine klaren Signale für die Bevorzugung bestimmter URLs.

Müller wiederholte außerdem seinen Rat, Canonicals nicht mit anderen Signalen wie 'noindex' zu vermischen - vor allem dann nicht, wenn diese einander widersprechen. Man sollte sich laut Müller nicht darauf verlassen, dass automatische Skripte erkennen, was man gerne möchte. Man sollte vielmehr darauf achten, so genau wie möglich mitzuteilen, was die Skripte zu tun haben. Dies sie die Aufgabe der SEOs.

 

Titelbild © fotofabrika - Fotolia.com

 

Verwandte Beiträge

Wenn Google Seiten indexiert hat, die per robots.txt gesperrt sind, ist das normalerweise kein Problem.

Wenn es auf einer Website viele Seiten mit 'noindex' oder Links mit 'nofollow' gibt, dann ist das für Google kein Zeichen schlechter Qualität.

Wenn etwas mit einer bestimmten Seite oder URL in den Suchergebnissen von Google nicht so läuft wie gewünscht, kann das zu viel Arbeit führen. Manchmal lohnt es sich aber nicht, zu viel Zeit in eine...

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen InternetX

SEO Agentur aus Darmstadt

Better sell online

Online Solutions Group

Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px