SEO-News

Android-BotsEs kann Situationen geben, in denen es sinnvoll ist, wenn bestimmte Besucher einer Webseite mehr Informationen zu sehen bekommen als Besucher aus der organischen Suche oder der Googlebot. Für Google ist das grundsätzlich in Ordnung.

Normalerweise gilt der Grundsatz: Der Googlebot sollte dieselben Informationen auf einer Webseite finden wie die Besucher der Webseite. Abweichungen können sich negativ auf die Rankings auswirken - insbesondere dann, wenn die Unterschiede so groß sind, dass dies als Cloaking gewertet wird.

Es kann aber Situationen geben, in denen eine Variantion der Inhalte sinnvoll und auch für Google in Ordnung ist. Ein solcher Fall wurde gerade auf Twitter diskutiert. Es ging dabei um eine Seite, die, je nachdem, woher die Besucher kommen, mehr oder weniger Informationen enthält. Nutzer, die über einen Klick auf eine AdWords-Anzeige auf die Seite kommen, erhalten gegenüber Besuchern aus der organischen Suche zusätzliche Informationen. Dies sei laut Betreiber wichtig, weil sich das Verhalten und das Informationsbedürfnis der Nutzergruppen unterscheide. Der Betreiber der Webseite wollte wissen, ob dies für Google grundsätzlich in Ordnung sei.

Johannes Müller machte den Vorschlag, für die Anzeigenkunden eine separate Landing Page zu erstellen und diese auf "noindex" zu setzen. Es sei aber grundsätzlich in Ordnung, Nutzern aus anderen Quellen andere Informationen anzuzeigen als dem Googlebot, wenn die Grundaussage gleich sei.

 

Google: kein Problem, wenn Nutzer mehr Informationen sehen als der Googlebot

 

Wichtig ist in solchen Fällen tatsächlich, sich zunächst Gedanken über das Informationsbedürfnis der Nutzer zu machen und dann die Landing Pages entsprechend zu gestalten. In vielen Fällen kann es sinnvoll sein, die Landing Page für AdWords-Besucher anders zu gestalten als die Landing Page für organische Nutzer. In solchen Fällen muss aber darauf geachtet werden, die AdWords Landing Page auf "noindex" zu stellen.

 

Verwandte Beiträge

Damit Google eine Website crawlen kann, muss der Webserver die richtige HTTP-Antwort an den Googlebot senden. Ansonsten kann es zu Problemen kommen.

Google hat angekündigt, das Crawl Limiter Tool, mit dem sich die Crawl-Rate des Googlebots manuell reduzieren lässt, zum 8. Januar einzustellen.

Google hat einen neuen Crawler eingeführt, der für das URL Inspection Tool und den Rich Results Test verwendet wird. Der Name: Google-InspectionTool. Dient das dem Schutz von Websites mit...

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen InternetX

SEO Agentur aus Darmstadt

Better sell online

Online Solutions Group

Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px