Auf der Google Search Central in Zürich wurden für die Zukunft häufigere Core Updates angekündigt. Auch die Bedeutung der robots.txt und von strukturierten Daten wurde betont.
Auch in diesem Jahr lud wieder auf die Search Central in Zürich ein. Dabei bot sich für die Teilnehmerinnen und Teilnehmer die Gelegenheit, in direkten Austausch mit dem Search Relations Team zu treten und aktuelle Informationen zur Entwicklung zur Suche zu erhalten.
Sie benötigen SEO-Beratung für Ihre Website?
Eine wichtige Botschaft in diesem Jahr lautete, dass Google zukünftig noch mehr Core Updates ausrollen wird. Was das genau bedeutet, wurde nicht gesagt. Möglich ist, dass es anstatt der bisher etwa vier Core Updates pro Jahr fünf oder sechs Updates dieser Art geben könnte. Möglich ist aber auch eine deutliche Steigerung - zum Beispiel auf monatlicher Basis. Das wird abzuwarten sein.
Google ging angesichts der zunehmenden Nutzung von Daten aus dem Web durch KI-Tools auch auf die Bedeutung der robots.txt ein. Hier komme es darauf an, sich zu entscheiden, welche Bots man zulasse und welche nicht.
Strukturierte Daten haben für Google noch immer eine große Bedeutung. Es wurde empfohlen, sich mehr damit zu beschäftigen und diese zu testen. Das gilt insbesondere im Zusammenhang mit Google Shopping. Hier bieten sich inzwischen zahlreiche Möglichkeiten für den Einsatz unterschiedlicher strukturierten Daten - zum Beispiel für Reviews oder für Produktvarianten. Trotz der Fortschritte im Bereich der KI scheint Google also immer noch auf die Unterstützung durch strukturierte Daten angewiesen zu sein.
Außerdem wurde eine bekannte Empfehlung wiederholt: Man sollte die Core Web Vitals nicht überbewerten.
Danke für die Infos an Maximilian Wenzel