SEO-News

CanonicalUm die Anzeige bevorzugter URLs in den Suchergebnissen von Google zu forcieren, kann man notfalls auch die nicht gewünschten URLs per robots.txt sperren - auch dann, wenn diese bereits indexiert sind.


 Anzeige

Wenn es die gleichen Inhalte auf einer Website unter verschiedenen URLs gibt, ist es wichtig, Google klare Signale darüber zu senden, welche URL in den Suchergebnissen erscheinen soll. Zur Festlegung der Canonical URL verwendet Google verschiedene Signale wie zum Beispiel interne Links, Weiterleitungen oder auch Canonical-Links.

Eine weitere Möglichkeit, bestimmte URLs in der Suche gegenüber anderen URLs zu bevorzugen, ist, die ungewünschten URLs per robots.txt zu sperren. Das funktioniert sogar dann, wenn die betreffenden URLs bereits indexiert sind.

Interessant kann diese Variante zum Beispiel dann sein, wenn es auf einer Website bestimmte Inhalte sowohl als HTML-Seite als auch als PDF-Datei gibt und man die PDF-Datei nicht in den Suchergebnissen sehen möchte.

John Müller wies per Twitter auf diese Möglichkeit hin. Wenn es andere crawlbare Inhalte auf einer Website gebe, die anstelle der per robots.txt gesperrten URL ranken könnten, dann sei es sehr selten, dass Google die gesperrte URL anzeige:

"Sure, robots.txt is fine there. Especially when you have other crawlable content on the site that could rank instead, it would be pretty rare that we'd show a robotted URL. (You might see it with site:-queries though)"

 

Google: Robots.txt ist eine Alternative, um Canonical zu bestimmen

 

Diese Option kann zum Beispiel dann sinnvoll sein, wenn ein "noindex" oder das Setzen eines Canonical-Links im HTTP-Header von PDF-Dateien aus technischen Gründen nicht oder nur schwierig umzusetzen ist.

 

Titelbild: Copyright fotomek - Fotolia.com

 

Verwandte Beiträge

Die KI-Suchmaschine Perplexity respektiert die robots.txt von Websites. Allerdings gibt es eine kleine Ausnahme.

Wenn Google Seiten indexiert hat, die per robots.txt gesperrt sind, ist das normalerweise kein Problem.

Eine robots.txt bietet keinen ausreichenden Schutz von Inhalten vor nicht berechtigten Zugriffen. Daran erinnerte jetzt Gary Illyes von Google.

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen InternetX

SEO Agentur aus Darmstadt

Better sell online

Online Solutions Group

Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px