Nichts geht mehr, so berichteten einige SEO-Toolanbieter in der vergangenen Woche. Woran liegt das? Deaktiviere mal in der Google-Suche Dein JS (z. B. in den DevTools oder per Web Developer Extension), dann siehst Du folgenden Screen:
Was ist passiert? Google setzt ab sofort JS voraus, um die Google-Suche zu nutzen. Dadurch funktionieren viele Third-Party-Tools nicht mehr (richtig).
Warum geht Google diesen Schritt? Und was könnten andere, als die öffentlich angegebenen Gründe für dieses Verhalten sein? Lasst uns mal zusammen nachdenken.
Warum setzt Google ab jetzt JS voraus?
Gegenüber TechCrunch hat Google folgendes kommuniziert:
“Enabling JavaScript allows us to better protect our services and users from bots and evolving forms of abuse and spam, and to provide the most relevant and up-to-date information.”
Es geht also um:
- Den Schutz des eigenen Produkts und
- die Nutzererfahrung,
beide womöglich durch Bots, Spam & anderen Schabernack negativ beeinflusst. Klingt nach einer relativ generischen (aber logischen) Begründung.
Logisch, denn SEO Tools haben ein Geschäftsmodell, das gegen die Guidelines von Google verstößt (und den Suchgiganten viel Geld kostet):
“Machine-generated traffic (also called automated traffic) refers to the practice of sending automated queries to Google. This includes scraping results for rank-checking purposes or other types of automated access to Google Search conducted without express permission.
Machine-generated traffic consumes resources and interferes with our ability to best serve users. Such activities violate our spam policies and the Google Terms of Service.”
Ich glaube nicht, dass es DEN einen Grund gibt, sondern dass sich hier unterschiedliche Aspekte stauen, die diesen Schritt begründbar machen.
Blockieren und Einschränken von SERP Rank Tracking Tools
Zum einen verstößt man, wie gesagt, gegen die Nutzungsbedingungen. Davor hat Google schon vor fast 10 Jahren gewarnt – ehrlicherweise habe ich mich schon lange gefragt, warum sie hier keine deutlichen Schritte gehen.
Der Druck war möglicherweise nicht groß genug. Daher denke ich auch, dass die offizielle Begründung wahr ist, aber viel Interpretationsspielraum offen lässt. So sind wir es von Google gewohnt.
Kostenreduktion
Ein weiterer Grund könnte das Reduzieren von Kosten sein. Sowohl von traditionellen SERP Trackern als auch von LLM Crawlern.
Über das Jahr (2024) haben wir unter anderem beobachtet, dass ByteDances Crawler (wofür sie den langfristig einsetzen möchten, ist unklar) extrem hohe Zugriffszahlen erzeugt und so den Server belastet.
Oder OpenAI, deren Crawler wie eine DDoS-Attacke eine kleine Website offline gekegelt hat. Von Malte Landwehr habe ich auf LinkedIn noch die “AI Overview”-These aufgenommen.
Diese Ansicht teile ich nur bedingt. AI Overviews sind teurer als normale SERPs, keine Frage. Aber die Zahlen (AI Overviews seien “10x so teuer”) sind, glaube ich, veraltet. Zu SGE-Zeiten hat Google nahezu nichts gecached.
Das ist mittlerweile nicht mehr so. Im Earnings Call von Q3 in 2024 hat Sundar Pichai folgendes gesagt:
“For example, we shared that since we first began testing AI Overviews, we’ve lowered machine costs per query significantly. In eighteen months, we reduced costs by more than 90% for these queries through hardware, engineering, and technical breakthroughs, while doubling the size of our custom Gemini model.”
– Sundar Pichai (CEO von Alphabet & Google)
Sie können durch den JS-Zwang Kosten reduzieren, ich glaube aber nicht, dass das nur durch AI Overviews zu begründen ist.
LLM Crawler klauen Google Inhalte
Vor einigen Monaten war mir aufgefallen, dass Perplexity (als Beispiel) verdächtig ähnliche Informationen in lokalen Ergebnissen darstellt, wie die von Google.
Hier mal ein Beispiel einer legendären Pizzeria in Bielefeld:
Perplexity
Das kam mir komisch vor. Und witzigerweise scheint bei Perplexity beim Scrapen oder in der Darstellung etwas nicht zu funktionieren, denn Toni hat nicht nur bis 14 Uhr geöffnet. :D
Der beste Weg, LLMs vom Scrapen abzuhalten? Google sagt JS. Bis auf Gemini können LLM Crawler kein JS und damit ist der Weg vorerst verschlossen.
Gesteigerter Regulierungsdruck
Die These hat Malte in seinem Post ebenfalls aufgemacht und hier stimme ich zu. Wenn Du keine, weniger oder ungenaue Third-Party-Daten hast, ist es schwieriger, Googles Monopolstellung deutlich zu machen.
Keine Zahlen = kein Zwang für Google, interne Zahlen offenzulegen, die die Third-Party Zahlen entkräften könnten.
Ich denke aber, dieser Aspekt ist eher ein netter Nebeneffekt. Wer Zahlen gegen Google finden und erheben möchte, der/die wird das auch schaffen – wenn es sein muss, auch mit JS.
Was sind die Konsequenzen vom JS-Zwang in der Google-Suche?
Wie direkt am Anfang verkündet: Manche Tools haben es schwerer oder funktionieren nicht mehr.
Große Tools wie Similarweb, Ahrefs und Semrush scheinen das Problem aber bereits schnell in den Griff bekommen zu haben.
Was ich auf jeden Fall erwarte, sind Kostensteigerungen für die bekannten Tools. JS auszuführen kostet Geld und langfristig wird man diese Kosten direkt oder versteckt an uns Endkunden weitergeben.
Ein anderes Thema, was mir im Kopf herumschwirrt, ist Barrierefreiheit. Screenreader werden besser im Rendern von JS. Aber nicht alle können das oder es gibt Einschränkungen, z. B. kann Macs Voice Over JS aus iFrames nicht vorlesen. Mal gucken, wie Google sich hier versucht rauszureden.
Letzter Gedanke: Habe eine kritische Haltung gegenüber den Daten, die in den letzten und nächsten Tagen aus Deinem SEO-Tool der Wahl purzeln – möglicherweise sind die Zahlen Quatsch.
Falls es Neuigkeiten gibt, halten wir Dich auf dem Laufenden!