Sind XML-Sitemaps noch zeitgemäß, oder werden sie zukünftig von anderen Instrumenten abgelöst? Um diese und andere Fragen ging es in einer neuen Ausgabe von Googles SEO-Podcast "Search Off the Record".
XML-Sitemaps haben zwei wichtige Funktionen: Sie helfen Suchmaschinen wie Google dabei, alle wichtigen URLs einer Website zu finden, und sie geben außerdem Auskunft darüber, welche Seiten sich wann geändert haben.
Doch sind XML-Sitemaps noch zeitgemäß? Immerhin gibt es das Sitemaps-Protokoll schon seit 2005, ohne dass sich seither viel daran geändert hat.
Über mögliche Nachfolger der XML-Sitemaps haben jetzt Lizzi Sassman, Gary Illyes und John Müller in einer neuen Ausgabe von Googles SEO-Podcast "Search Off the Record" gesprochen.
John Müller meinte dazu, XML sei einerseits ein altes Format, so dass es ein wenig merkwürdig sei, dieses weiter zu verwenden. Auf der anderen Seite funktioniere es aber einfach für diesen Zweck, insbesondere, um Suchmaschinen und alle, die es interessiert, darüber zu informieren, welche Seiten eine Website habe:
"Yeah, I don't know. I kind of feel, on the one hand, XML is really ancient format, so it's kind of weird to keep using, but it kind of just works for this purpose, especially about informing search engines or anyone who's interested in a website what the pages are on the website."
Er wisse nicht, wie die Zukunft aussehe, so Müller weiter. Es gebe zum Beispiel die Initiative "'IndexNow' von Bing und Yandex, mit der man selbst Seiten bei Suchmaschinen einreichen könne. Zudem gebe es Googles Indexing API:
"I don't know what the future will be. There's the initiative, I think, from Bing and some other search engines about index now, where you submit individual pages, There's the indexing API from our site, where you also submit individual pages."
Anmerkung Red.: Google prüft derzeit IndexNow, unterstützt das Protokoll allerdings nicht. Über die Google Indexing API kann man derzeit nur Seiten der Typen BroadcastEvent und JobPosting einreichen.
Möglicherweise würden sich die Dinge irgendwann in diese Richtung entwickeln, so Müller weiter. Er halte den Prozess des Crawlens von Websites weiterhin für nützlich, um diese etwas besser zu verstehen. Er wolle nicht zu einem Modell wechseln, in dem die Menschen nicht wissen, wie ihre Website aussieht, wenn sie gecrawlt werde, und in dem sie einfach immer dann Seiten einreichen, wenn sie denken, dass bestimmte Seiten interessant seien:
"Maybe it's some point things will transition in that direction, but I don't know, I still kind of find the process of crawling websites useful to understand the websites a little bit better. So I don't want to move to a model people don't understand what their website is actually like when it's crawled, and they just submit pages whenever they think this page is interesting."
Crawlbarkeit sollte weiterhin gegeben sein und zu dem passen, was die Nutzerinnen und Nutzer sehen. Denn wenn eine Website crawlbar sei, dann können die Nutzer herumklicken und die Inhalte finden. Das sei der wichtige Teil. Man führe die Menschen zu einem Teil der Website, und sie sollten in der Lage sein, von dort in die Tiefe zu gehen.
"It should still be something that is crawlable and that kind of maps to what users see as well. Because if the website is crawlable, then users can also click around and find the content. And that's ultimately kind of the important part. You guide people to a part of a website and they should be able to dig deeper from there and find out more."
In der Zukunft seien zwei Entwicklungen denkbar: Entweder werden die URLs einer Website in Form einer einfachen Textdatei eingereicht. Die andere Möglichkeit wäre, dass die Betreiberinnen und Betreiber von Websites ihre Seiten selbst einreichen - zusammen mit Informationen, wo die Seiten zu finden sind. Das füge aber eine zusätzliche Komplexitätsebene hinzu, was dann zu Problemen führen könne, wenn man etwas einreiche, es aber auf der Website aus bestimmten Gründen anders aussehe:
"On the one hand, you could just submit a text file of the URLs from your site, where basically we say, all of these attributes have been super useful. You should just give us a list of the URLs and that might be one approach. The other approach--that I don't know if index now uses this or indexing API--could be what you actually submit the pages themselves kind of directly. So it's not that search engine would have to crawl your web page to find the information there, but rather that the information is together with the submission. My feeling is that will be trickier, because it adds an extra layer of complexity, and it's easier to get those two sites out of sync. You submit something to a search engine, and you have something different on your website for accidental reasons, or for spammy reasons, or whatever, but kind of that disconnect feels kind of tricky."
Wohin die Reise für das Crawlen und das Einreichen von Seiten bei Google und anderen Suchmaschinen geht, ist also offen. Es liegen verschiedene Alternativen vor. Möglich ist auch, dass es zumindest vorübergehend mehrere Möglichkeiten geben wird, die je nach Vorlieben verwendet werden können.
Titelbild: Copyright Teguhjatipras - stock.adobe.com
SEO-Newsletter bestellen