Google begrenzt den Suche-Traffic nicht für Websites, die auf einem langsamen Server laufen. Auch für Google Discover gibt es eine solche Begrenzung nicht. Auswirkungen kann die Leistungsfähigkeit eines Webservers aber auf das Crawlen haben.
Wenn der Server einer Website beim Crawlen Probleme bekommt, kann Google die Anzahl der gecrawlten URLs reduzieren. Das gilt jedoch nicht für den Suche-Traffic bzw. die Darstellung einer Website in Google Discover. Wie John Müller in den Google Search Central SEO Office Hours vom 22. Januar erklärte, gebe es bei Google keine generellen Limits für den Suche-Traffic. Das gelte auch für Discover. Die optimale Situation sei es doch, wenn Google eine gute Website erkenne und diese dann alle zur Verfügung stellen könne. Wenn sich eine Website verlangsame, dann könne sich aber auch das Crawlen verlangsamen, der Rest sollte aber gleich bleiben, so Müller weiter.
Hohe Ladezeiten allerdings ungünstig auf die Darstellung in der Suche auswirken. Zwar ist die Ladezeit ein vergleichsweise schwacher Rankingfaktor, aber sie kann den Ausschlag über eine bessere oder schlechtere Platzierung geben, wenn die übrigen Faktoren in etwa gleichwertig sind.
Titelbild: Copyright WDnet Studio - stock.adobe.com