SEO-News

Google Glaswand

Auf der Google Search Central in Zürich wurden für die Zukunft häufigere Core Updates angekündigt. Auch die Bedeutung der robots.txt und von strukturierten Daten wurde betont.


 Anzeige

Auch in diesem Jahr lud wieder auf die Search Central in Zürich ein. Dabei bot sich für die Teilnehmerinnen und Teilnehmer die Gelegenheit, in direkten Austausch mit dem Search Relations Team zu treten und aktuelle Informationen zur Entwicklung zur Suche zu erhalten.

Sie benötigen SEO-Beratung für Ihre Website?

Jetzt unverbindlich anfragen

Eine wichtige Botschaft in diesem Jahr lautete, dass Google zukünftig noch mehr Core Updates ausrollen wird. Was das genau bedeutet, wurde nicht gesagt. Möglich ist, dass es anstatt der bisher etwa vier Core Updates pro Jahr fünf oder sechs Updates dieser Art geben könnte. Möglich ist aber auch eine deutliche Steigerung - zum Beispiel auf monatlicher Basis. Das wird abzuwarten sein.

Google ging angesichts der zunehmenden Nutzung von Daten aus dem Web durch KI-Tools auch auf die Bedeutung der robots.txt ein. Hier komme es darauf an, sich zu entscheiden, welche Bots man zulasse und welche nicht.

Strukturierte Daten haben für Google noch immer eine große Bedeutung. Es wurde empfohlen, sich mehr damit zu beschäftigen und diese zu testen. Das gilt insbesondere im Zusammenhang mit Google Shopping. Hier bieten sich inzwischen zahlreiche Möglichkeiten für den Einsatz unterschiedlicher strukturierten Daten - zum Beispiel für Reviews oder für Produktvarianten. Trotz der Fortschritte im Bereich der KI scheint Google also immer noch auf die Unterstützung durch strukturierte Daten angewiesen zu sein.

 

Google: mehr Core Updates, auf robots.txt achten, strukturierte Daten testen. Google Search Central Zürich

 

Außerdem wurde eine bekannte Empfehlung wiederholt: Man sollte die Core Web Vitals nicht überbewerten.

Danke für die Infos an Maximilian Wenzel

Verwandte Beiträge

Indexierte URLs, die per robots.txt gesperrt sind, werden von Google irgendwann aus dem Index entfernt. Das ist zum Beispiel dann wichtig, wenn große Mengen an URLs auf einmal per robots.txt...

Die KI-Suchmaschine Perplexity respektiert die robots.txt von Websites. Allerdings gibt es eine kleine Ausnahme.

Wenn Google Seiten indexiert hat, die per robots.txt gesperrt sind, ist das normalerweise kein Problem.

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen Digitaleffects

Online Solutions Group

Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px