Google hat den Parameter &num=100 abgeschaltet. Früher lieferte er die Top 100 statt der Top 10 Ergebnisse. Das Feature kommt (wahrscheinlich) nicht zurück.
Das hat Folgen für die SEO-Welt:
SERP-Provider
- kriegen (und liefern) nur noch 10 Ergebnisse pro Request,
- Workflows, die auf 100er-Daten basieren, brechen weg,
- 10x mehr Requests sind nötig für Paginierung, daher steigen die Kosten.
SEO-Tools
- Sichtbarkeitsindizes verlieren an Vergleichbarkeit,
- Rankings ab Position 11 werden lückenhaft,
- historische Daten und neue Daten sind nicht mehr konsistent vergleichbar.
Google Search Console
- Wir wussten, dass Rank-Tracker teilweise in den Reports aufgetaucht sind &
- Zumindest teilweise haben wir beim Anstieg der Impressions dieses Jahr den JavaScript-Zwang von Google als Ursache vermutet
Daher hat die Umstellung Folgen für die GSC:
- Drop der Impressions (teilweise massiv, insbesondere Desktop, weil Scraper Desktop default arbeiten)
- Dadurch: Weiterer Anstieg des Mobile-Anteils der Impressions
- Dadurch: Gestiegene CTR
- Steigende Durchschnittsposition (weil weniger Impressions auf hinteren Positionen), aber dieser Metrik schenkst Du in der Aggregation hoffentlich ohnehin keine Aufmerksamkeit
Rankingvergleiche und Archive
- SERP-Archive sind weniger tief,
- Backtests und Studien basieren auf dünnerer Datenlage,
- historische Vergleiche verzerren sich.
KI-Systeme und SERP-APIs
- Chatbots wie ChatGPT, die SERP-APIs nutzen, arbeiten mit weniger Daten,
- Long-Tail-Ergebnisse fehlen → schwächere Basis,
- Gemini bleibt unbetroffen (direkter Zugriff auf Google).
Kaum Auswirkungen auf User
- keine 100er-Ergebnisse mehr per Klick &
- manuelle Rankingchecks langsamer und mühsamer
Mögliche Auswirkungen auf Traffic?
Eigentlich™ sollte die Umstellung nur Auswirkungen auf Impressions und Positionen haben. Nicht auf Klicks (abgesehen von ein paar Idioten, die der Meinung waren, dass Klickmanipulation auf hinteren Seiten etwas bringen könnte).
Dennoch ist mittelbarer Impact vorstellbar. Wenn die Scraper in der GSC gelandet sind, dann ist es nicht unwahrscheinlich, dass die Fake-Impressions auch bei der Kalkulation von Navboost und anderen CTR-Signalen eine Rolle gespielt haben. Fallen die Fake-Impressions jetzt weg, steigt die CTR für alle übrigen Treffer. Das könnte einen Einfluss auf das Ranking haben. Wahrscheinlich wird der Einfluss aber nur gering sein, weil Treffer 1 weiterhin mehr Klicks erhält als Treffer 2.
Aber: Möglicherweise steigt die Wahrscheinlichkeit, dass Treffer von Position 7 nach vorn rutschen, wenn sie relativ gute CTR haben.
Weniger Daten und höhere Kosten.
Nicht nur für Sistrix, SEMrush und ahrefs oder die Toolanbieter, sondern auch für die Chat-Tools.
Nach der Aktivierung des JavaScript-Crawlings Anfang des Jahres ist das der zweite Schlag. Entweder hat Google erst abgewartet, wie die Auswirkungen des JS-Crawling-Blocks sind, oder darauf, dass ChatGPT auf die Ergebnisse von Google angewiesen ist.
Tools und Workflows müssen sich jedenfalls neu aufstellen.