Auch Seiten, die auf 'noindex' gesetzt oder per robots.txt blockiert sind, können in den Chrome User Experience Report einfließen und damit die Bestimmung der Google Core Web Vitals beeinflussen.
Wenn die Google Core Web Vitals im kommenden Jahr zum Rankingfaktor werden, ist entscheidend, wie diese Kennzahlen in der Realität bei den Nutzerinnen und Nutzern ausfallen. Google greift dazu auf reale Nutzerdaten zurück, die aus dem Chrome User Experience Report stammen. Darin werden Stichproben von realen Websitebesuchen gesammelt.
In den Chrome User Experience Report können auch Leistungsdaten von Seiten einfließen, die auf "noindex" gesetzt oder per robots.txt gesperrt sind. Das bestätigte John Müller in den deutschsprachigen Office Hours vom 15.Oktober. Wenn man einen sehr großen Anteil von Seiten habe, die auf "noindex" gesetzt oder per robots.txt gesperrt sind, könne es sein, dass diese in den aggregierten Daten enthalten seien.
Google versuche, aus den bewerteten URLs Muster abzuleiten, um zu sehen, welche Seiten zusammengehören. Aus diesen Mustern würden dann die Rankingsignale abgeleitet.
Das sei insbesondere für neue Seiten relevant, denn der Chrome User Experience Report aggregiere Daten für ungefähr einen Monat. Neue Seiten seien dementsprechend noch nicht enthalten. Google müsse dann aus den aggregierten Daten auf die Werte für die neuen Seiten schließen.
Auf diese Weise können also auch nicht indexierte oder per robots.txt gesperrte Seiten Einfluss auf die Bewertung der Core Web Vitals einer Website nehmen.
Um Google bei einer möglichst präzisen Bestimmung der Core Web Vitals zu unterstützen und um zu vermeiden, dass langsame Seiten die Bewertung schnellerer Seiten beeinflussen, sollte auf eine deutliche Abgrenzung verschiedener Websitebereiche geachtet werden, indem man zum Beispiel Unterverzeichnisse und Subdomains verwendet.