Bei der Bewertung der Ladezeit einer Webseite (Page Speed) sollte man zwischen den Besuchern einerseits sowie dem Crawlen und Indexieren andereseits trennen. Darauf hat Google in einem Webmaster-Hangout hingewiesen.
Die Ladezeit von Webseiten ist seit der Ankündigung von Googles Speed Update in der vergangenen Woche wieder in den Fokus der Aufmerksamkeit gerückt. Ab Juli wird Google die Ladezeit als Rankingfaktor in der mobilen Suche nutzen.
Dazu passend gab es im Webmaster-Hangout von 12. Januar die folgende Frage eines Nutzers: Google crawlt bekanntlich aus den USA heraus. Könne es dann nicht von Nachteil für die gemessene Ladezeit sein, wenn eine Webseite außerhalb der USA gehostet werde?
Johannes Müller wies in seiner Antwort darauf hin, dass man zwischen dem Crawlen und Indexieren auf der einen Seite und den Ladezeiten auf der anderen Seite unterscheiden müsse. Beim Crawlen und Indexieren könne sich Google flexibel auf die Zahl der Seiten einstellen. Zwar sei das schnelle Crawlen und Indexieren von Vorteil, aber Google könne die Seiten auch nach und nach arufen, um auf dem aktuellen Stand zu sein.
Auf der anderen Seite versuche Google zu erfassen, wie sich die Ladezeit für die Nutzer auswirke. Dabei fließen verschiedene Faktoren ein: So sei der Gebrauch von Content Delivery Networks (CDN) verbreitet. Dabei werden Webseiten nicht mehr an einem einzigen Ort gehostet, sondern über ein Netz aus international verteilten Servern ausgeliefert. Das kann dazu führen, dass eine Seite auch für den Googlebot besonders schnell verfügbar sei - etwa dann, wenn sich ein Server des CDNs in Kalifornien befinde. Das müsse aber nicht unbedingt bedeuten, dass die Seite auch für bestimmte Nutzer schnell lade.
Zu beachten sei auch, dass es bei der Ladezeit nicht nur auf das Abrufen der Seiten vom Server ankomme. Zusätzlich müssen auch Bilder, JavaScript, CSS-Dateien und mehr verarbeitet und die Seite gerendert werden. All dies dauert in der Regel deutlich länger als das bloße Abrufen der HTML-Seite.
Trotz der von Müller angesprochenen Trennung zwischen Ladezeit und dem Crawlen und Indexieren gilt: Es gibt viele Optimierungsmöglichkeiten, die sich positiv auf alle Aspekte auswirken können. Dazu gehören neben der angesprochenen Verwendung von CDNs auch der Einsatz von Cachning und komprimierter Übertragung für statische Dateien wie CSS und JavaScript, der Einsatz eigener, dedizierter Webserver anstelle von Shared Hosting sowie die Optimierung des Codes, indem zum Beispiel nicht benötigte Skripte und Dateien entfernt werden.
Titelbild: Google