Skip to main content
SEO-News

Crawlen: Google erklärt das 2-MB-Limit und das 15-MB-Limit

Christian Kunz
01. April 2026
Zuletzt aktualisiert: 01. April 2026
Googlebots

Google erklärt die verschiedenen Limits beim Crawlen und warum Webseiten immer größer werden.

 Anzeige

Im Laufe der Jahre ist das Web spürbar gewachsen, und damit auch der Datenumfang der einzelnen aufgerufenen Seiten. Während im Jahr 2015 die durchschnittliche mobile Startseite noch etwa 845 Kilobyte an Daten umfasste, stieg dieser Medianwert laut dem Web Almanac bis Juli 2025 auf 2,3 Megabyte an.

Für Suchmaschinen wie Google ist das eine Herausforderung, denn es gibt immer mehr Dokumente, die gecrawlt werden müssen. Wenn diese Dokumente zusätzlich stetig wachsen, kann das die Crawling-Infrastruktur an ihre Grenzen bringen.

In einer neuen Folge von Search Off the Record, dem SEO-Podcast von Google, erklären Gary Illyes und Martin Splitt von Google, welche Datenmenge der Googlebot abruft und wie sich die Limits zusammensetzen.

SEO-Beratung: Wir sind Ihre Experten

Wir bringen gemeinsam Ihre Website nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Christian Kunz
Christian Kunz
SEO Experte
David Wulf
David Wulf
SEO Experte
Sven Häwel
Sven Häwel
Offpage-Experte

Was genau versteht man unter der Dateigröße einer Seite?

Der Begriff der Seitengröße oder des “Page Weight” wird je nach Kontext ganz verschieden interpretiert. Für manche beschreibt er nur den Umfang des reinen HTML, während andere Ressourcen wie Bilder, Stylesheets und weitere Medien in diese Berechnung einbeziehen, weil all diese Elemente heruntergeladen werden müssen, damit eine Seite dargestellt werden kann. 

Auch die Ebene der Datenübertragung spielt eine wichtige Rolle, denn zum Beispiel durch Komprimierung auf Netzwerkebene kann eine Seite während des eigentlichen Transfers deutlich weniger Datenvolumen beanspruchen. Beispiele aus der Praxis zeigen, dass allein das reine HTML-Dokument stark anwachsen kann, etwa wenn Bilder direkt in Textform in den Quellcode eingebettet werden, was zu sehr großen HTML-Dateien von bis zu 50 Megabyte führt.

Die 15-Megabyte-Grenze beim Crawlen durch Suchmaschinen

Aus der Perspektive von Suchmaschinen und deren Crawlern ist die Größe einer Webseite ein wichtiger technischer Faktor. Laut Dokumentation von Google ruft der Googlebot standardmäßig genau 15 Megabyte an Rohdaten von einer spezifischen URL ab und bricht den Lesevorgang danach ab. Wichtig dabei ist, dass diese Begrenzung jeweils pro URL gilt. Wenn ein HTML-Dokument also auf weitere Dateien verweist, haben diese referenzierten Inhalte ihr jeweils eigenes Limit von 15 Megabyte.

Das 2-MB-Limit

Passend dazu hat Google eine neue Dokumentation zum Crawlen und zum Googlebot veröffentlicht. Demnach ruft der Googlebot bis zu 2 MB pro individueller URL ab (mit Ausnahme von PDF-Dateien). Das bedeutet, es werden nur die ersten 2 MB einer Ressource gecrawlt. Dazu gehört auch der HTTP-Header. Für PDF-Dateien liegt das Limit bei 64 MB.

Crawle für Bilder und Videos haben normalerweise eine große Bandbreite an Grenzwerten. Das hängt von dem abgerufenen Produkt ab. So hat zum Beispiel ein Favicon ein nur geringes Limit. In der Bildersuche ist das dagegen anders.

Für Crawler ohne spezifisches Limit liegt die Standard-Obergrenze bei 15 MB, und das unabhängig von der Art der Inhalte.

Das alles hat verschiedene Konsequenzen:

  • Wenn eine HTML-Datei größer als 2 MB ist, lehnt der Googlebot diese nicht ab, sondern bricht den Abruf nach exakt 2 MB ab. Auch HTTP Request Header werden hier eingerechnet.
  • Die heruntergeladenen Daten, also die ersten 2 MB, werden an die Indexierungssysteme und den Web Rendering Service (WRS) weitergegeben, und zwar so, als handele es sich um die komplette Datei.
  • Bytes, die nach den 2 MB folgen, werden komplett ignoriert. Sie werden nicht abgerufen, gerendert oder indexiert.
  • Jede verbundene Ressource im HTML mit Ausnahme von Mediendateien, Fonts und einigen weiteren Dateien werden vom WRS per Googlebot wie das übergeordnete HTML abgerufen. Hier gibt es jeweils eigene Zähler auf URL-Basis, die nicht zur größe der übergeordneten Seite hinzugerenchtet werden.
  • Für die überwiegenden Mehrheit der Seiten im Web reichen die 2 MB an HTML Payload problemlos aus. Wenn allerdings Inline-Images per Base64, große Blöcke von JavaScript oder CSS oder riesige Menüs enthalten sind, kann das den Rahmen sprechen. Das kann auch dann passieren. Dann ist es möglich, dass wichtige Informationen wie strukturierte Daten nicht abgerufen werden.

Unsichtbarer Ballast und die Auswirkungen auf die Nutzererfahrung

Unsichtbarer Ballast kann den Quellcode einer Seite erheblich vergrößern. Insbesondere strukturierte Daten, die ausschließlich für Maschinen und Suchmaschinen gedacht sind und von menschlichen Besuchern niemals gesehen werden, können eine Seite bei übermäßigem Einsatz stark aufblähen. Zwar kaschieren moderne, schnelle Internetverbindungen die Datenmengen oft, sodass die Ladezeit für viele Nutzer kaum ins Gewicht fällt, doch für Menschen in Regionen mit schlechter Netzabdeckung oder auf teuren, volumenbasierten Verbindungen bleibt das gestiegene Datenvolumen ein großes Problem.

Schnellere Webseiten führen zu einer deutlich besseren Nutzerbindung und höheren Konversionsraten. Deshalb lohnt es sich für Entwickler nach wie vor, den Umfang der gesendeten Daten kritisch zu prüfen und wo möglich zu reduzieren.

Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden

Verwandte Beiträge

Anzeige

rnkeffect

Premium-Partner (Anzeige)

 


 

Anzeigen

Generative Engine Optimization 2026 Buch

 


Farbentour

 

Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar