LOAD "INTERNETZ 2026",8,1
Google hat heimlich an seiner Doku gedreht. Diesmal betrifft es das File Limit beim Crawling. Die bisherige Grenze von 15 MB fĂźr HTML-Dateien wurde drastisch eingedampft. Ab sofort ist bei 2 MB Schluss.
Mein erster Gedanke war: "𤡠Na, reicht ja auch. Wat is da los? Steigen die Festplatten-Preise?". Wenn man ein wenig weiter drĂźber nachdenkt, fällt mir mal wieder das Thema AI-Crawler-Labyrinthe ein und ich sehe dies als sinnvolle VerteidigungsmaĂnahme seitens Google.
Dennoch haben wir uns dazu einmal vertiefende Gedanken gemacht und vor allem getestet, ob es nur ein Doku-Update oder âReal Shitâ ist. Solltest Du Dir Sorgen machen? Ist die Durchschnittsseite zu groĂ? Was passiert nach dem Cut? Näht der Doktor wenigstens wieder zu oder reicht ein Pflaster? Fragen Ăźber Fragen im grellen OP-Lampenlicht. Also haben wir einen Abstrich gemacht und das mal ins Wingmen-Labor ĂźberfĂźhrt.
Was genau bedeutet die 2-MB-Grenze?
Nach der AnkĂźndigung schwirrten sofort die ersten Fragen durch die SEO-Bubble. Wir konnten die wichtigsten Unklarheiten bereits fĂźr Dich auflĂśsen:
- Zählt das ZIP-Archiv? Nein. Es geht um das entpackte HTML. Die Komprimierung (Gzip/Brotli) spielt fßr dieses Limit keine Rolle.
- Was passiert bei Ăberschreitung? Wenn die 2 MB erreicht sind, zieht der Googlebot den Stecker. Der Abruf wird gestoppt und nur der Teil, der bis dahin geladen wurde, geht weiter in die Verarbeitung.
- Was ist mit dem Shadow DOM? Auch das zählt dazu. Es geht schlicht um die Anzahl der Zeichen im HTML.
****Bildquelle: Web Almanac
Ein Sturm im Wasserglas?
Unser Wingmensch Philipp McFly hat direkt den Web Almanac gezßckt, um das Ganze einzuordnen. Der durchschnittliche Impact dßrfte nämlich gegen Null gehen:
- Mobile: Ă 22 KB HTML-Ressourcen
- Desktop: Ă 22 KB HTML-Ressourcen
Ja, das ist nur der Durchschnitt, aber zwischen 22 KB und 2.000 KB (2 MB) liegt eine ganze Welt. Wer also nicht gerade versucht, die gesamte Wikipedia auf einer einzigen URL zu rendern, sollte sicher sein.
Grau ist alle Theorie, deshalb haben wir unsere Website fßr Dich einmal kaputtgemacht und auf wngmn.com einen Artikel kßnstlich aufgebläht, um zu sehen, wie Google reagiert. Ein Spam-Pups quasi. Wir wollten wissen, ob das Limit nur fßr das statische HTML gilt oder auch fßr das, was JavaScript nachträglich baut?
Test 1 (Stumpfes Aufblasen)
Wir haben den Artikel per HTML-Kommentar im Quelltext auf Ăźber 2 MB gepusht.
Test 2 (JS-Spam)
Das HTML blieb klein (< 2 MB), aber ein JavaScript hat beim Laden einen massiven Kommentar-Block (35.000 Wiederholungen) in den DOM injiziert.
Nach jeder Ănderung haben wir die Indexierung Ăźber die GSC manuell angestoĂen (was Ăźbrigens fast instant funktionierte).
Das Ergebnis: Die Vermutung hat sich bestätigt!
- HTML > 2 MB: Der Artikel wurde von Google abgeschnitten und war unvollständig im Index.
- HTML < 2 MB + JS-Bloat: Der Artikel wurde vollständig verarbeitet.
Das 2-MB-Limit greift also beim initialen Fetch der Datei. Wenn Dein HTML schlank ist, aber durch JavaScript-Rendering im Browser (oder beim Googlebot-Rendering) massiv anwächst, scheint das Limit (noch) nicht zu greifen.
Jetzt bist Du gefragt!
Man muss nicht jede Google-Doku als gottgegebenes Gesetz hinnehmen, sondern sollte die Grenzen des Systems selbst austesten. Nur so verstehen wir wirklich, wie die Maschine tickt. Was hast Du in letzter Zeit getestet? Wo hast Du tiefer gegraben, als es die offiziellen Guides empfehlen? Schreib uns Deine Ergebnisse oder schick uns Deine Test-Ideen.
Let's test!