Der Kartellrechts-Prozess U.S. and Plaintiff States v. Google LLC [2020] um Googles Monopol im Suchmarkt (nicht zu verwechseln mit dem Fall U.S. and Plaintiff States v. Google LLC [2023] der sich um Googles Monopol im Online-Anzeigengeschäft dreht) geht weiter mit dem Remedies Hearing. Was die Remedies genau werden ist noch längst nicht ausdiskutiert. Während Firefox Sorgen äußert, was mit der Browserwelt passiert, wenn Google die Mozilla-Foundation nicht mehr für die default Auswahl der Suchmaschine bezahlt (Spoiler: Mozilla geht pleite und Chromium wird ein Browser-Monopol. Wenn ich darüber geschrieben hätte, wäre der Artikeltitel irgendwas mit Monopol und Hydra gewesen… Aber zurück zum eigentlichen Thema:), stürzen SEOs sich auf die neuen Prozessdokumente, die im Mai veröffentlicht wurden, und wühlen darin nach den Informationsschnipseln, um sie mit den Puzzleteilen aus Leaks und Experimenten zusammenzusetzen.
Wenn Du tiefer einsteigen willst, aber nicht bis in die Abgründe der öffentlichen Liste der Prozessdokumente einsteigen willst, empfehle ich Dir die Artikel von Search Engine World und Search Engine Journal zu den aktuellen Dokumenten.
Aber ein paar SEO-Insights sind schon ausgegraben worden:
“hand-crafted” Signals
Die Ranking-Algorithmen von Google sind nach wie vor zu großen Teilen Handarbeit. Eigentlich wenig überraschend, aber schön, es mal offiziell bestätigt zu bekommen.
Das bedeutet LLMs, AI, Machine Learning und co werden zwar für die Optimierung eingesetzt, gehen aber nicht alle direkt in den Algorithmus, sondern es werden Faktoren, Thresholds etc daraus berechnet, die in den eigentlichen Algorithmus einfließen. (Stichwort Core Updates)
Google kocht also auch nur mit Wasser, aber halt in größeren Kochtöpfen als die anderen Suchmaschinen.
Der Google-Entwickler, der die entsprechenden Aussagen tätigte, hat darauf hingewiesen, dass Bing die Machine-Learning-Algorithmen direkt einsetzt und entsprechend große Probleme beim Debugging hat.
Das macht Sinn. Außerdem dürften solche händischen Ranking-Faktoren erheblich schneller zu berechnen sein als komplexe AI-Modelle. Das spart Zeit und Ressourcen.
Mich hat die Aussage außerdem an den Yandex Source Code Leak vor ein paar Jahren erinnert. Dort hatte sich bei der russischen Suchmaschine Ähnliches gezeigt. Ob es bei Google auch soweit geht, dass Wikipedia einen spezifischen Score hat, der die Wikipedia-Artikel zu informationellen Queries nach vorne schiebt, will ich nicht spekulieren.
Das Ranking ABC
- A wie Anchors, also die Quell-URLs eines Links
- B wie Body, also der Inhalt des Dokuments
- C wie Clicks, also Nutzersignale aus der Suche
Dieses ABC ist ein Unterpunkt der “hand-crafted” Signals. Und sie sind ein wichtiger Bestandteil der Bewertung, wie relevant ein Ergebnis für eine Query ist.
Selbst wenn man dem guten alten TF*IDF noch eine Annäherung, was Google unter dem B-Signal versteht, schaffen würde, dann würden A- und C- Signale das Ergebnis völlig verändern. Insofern kannst Du TF*IDF-Optimierungen aus deinem SEO-Werkzeugkasten herausholen und ganz tief in die SEO-Mottenkiste stopfen.
Dass Ankertexte relevant sind und (organische/interne) Verlinkung von thematisch relevanten Inhalten sinnvoll ist, ist jetzt keine Überraschung.
Dass der Inhalt relevant ist, überrascht höchstens Link-Zaren.
Dass Google auf Nutzersignale guckt, ist auch keine Neuheit. Aber es wird hier spezifisch gesagt, dass für die Nutzersignale die Kombination aus Query und Dokument erfasst und ausgewertet wird. Macht auch Sinn. Wenn das Ergebnis nicht zur Query passt, wird es nicht passender, weil es zu anderen Queries passt.
Diese Aussage bedeutet aber natürlich nicht, dass Nutzersignale nicht auch an anderer Stelle ausgewertet werden.
The Big Table
Wo wir gerade bei Nutzersignalen sind: Navboost.
Navboost ist kein komplexer Algorithmus, sondern eine große Datenbank, in der aggregierte Informationen stehen, wie häufig ein Dokument zu einer Query geklickt wurde. Quasi eine Zweitverwertung der GSC-Daten. Oder andersrum… Vielleicht ist die GSC hier eher die Zweitverwertung…
Laut den Dokumenten auf Basis der letzten 13 Monate. Dazu noch nicht näher definierte “extra data”, und Zack, fertig ist das Ranking-Signal.
Vermutlich wird es ein bisschen schlaue Mathematik geben, um zu der Kombination aus Dokument und Query einen schönen Faktor zu berechnen. Aber eben kein Machine-Learning-Hokuspokus, sondern eher ein wenig gute, alte Statistik.
🐄⭐
Q* ist der Wert für die Qualität eines Dokuments (oder einer “site”). Die Qualität eines Dokuments ist ein Faktor, der unabhängig von der Relevanz in die Ranking-Berechnung einfließt.
Die spannendsten Details sind natürlich geschwärzt. Aber diese Aussage aus einem der Interviews fand ich aufschlussreich:
Q* (page quality (i.e., the notion of trustworthiness)) is incredibly important. If competitors see the logs, then they have a notion of "authority" for a given site.
Es geht wohl nicht nur um Qualität bei Q*, sondern auch explizit um “trustworthiness” und “authority”. Implizit also auch um “expertise” und “experience”.
Außerdem könnte man aus der Vokabel “site” lesen, dass zumindest Teile von Q* sich nicht auf ein einzelnes Dokument beziehen, sondern auf eine Domain oder Seitenbereiche oder Ähnliches.
Außerdem ist Q* zwar generell nicht abhängig von der spezifischen Query und “static across multiple queries”, aber bestimmte Aspekte von Queries können dieses Qualitätssignal beeinflussen. Als Beispiel genannt sind Queries mit sehr technischer Intention, die zu Ergebnissen die entsprechend technisch sind führen sollen.
Außerdem ist der PageRank eines der Inputsignale für den Q*.
Fazit
Lange Rede kurzer Sinn. Mario Fischer muss seinen Google Workflow Starschnitt nicht komplett über den Haufen werfen. Aber wenn Du ihn Dir in DIN-A1 ausgedruckt und an die Bürowand getackert hast, ist es vielleicht an der Zeit, mit dem Bleistift ein paar Annotationen vorzunehmen.
Ich hab mir noch längst nicht alles durchgelesen, aber einiges Spannendes ist in den Dokumenten, das hilft die Black Box Google zu verstehen.