Zum Hauptinhalt springen

Mit Tick, Trick und Track Lars, Behrend und Johan hatte ich das Vergnügen, am Tech SEO Summit in Hamburg teilzunehmen, das vom Audisto-Team wieder ganz vorzüglich organisiert und kuratiert wurde. Das hatte nicht nur den Vorteil, dass ich mich einen Tag lang im Kino sitzend, Popcorn essend von echten SEO-Cracks aufschlauen und auf einem Schiff verköstigen lassen konnte. Es gab auch hinreichend Gelegenheit, abwechselnd Sabine und Lars zu beleidigen, von Dans Humor schachmatt gesetzt zu werden, Roxana abzufeiern, Anett endlich mal persönlich zu treffen und mit Alin liebevoll über Telefonbuchspam zu schweladronieren.

Mark Williams-Cook auf dem Tech SEO Summit in Hamburg im April 2025 präsentiert "Conceptual models, video games & eexploits". Live und auf der Slide mit Monkey Island T-Shirt.

Mark Williams-Cook hatte die neueste Version seines Vortrags dabei, den einige auf der Insel bereits auf der SearchNorwich (Video) oder auf der Brighton SEO (Slides) genießen durften. Der Titel in Hamburg:

Conceptual models, video games, and Google exploits” – An exploration into understanding how Google's algorithms fit together, based on new axioms from a Google exploit which revealed parameters and values used by Google, wrapped in a protocol buffer, in the framework of your favourite video game.”

Sowohl bei Videospielen als auch in der SEO stellte Mark fest, dass er oft schlechter abschnitt als andere, obwohl er die Spielanleitung in- und auswendig konnte.

”I got beat by players ignoring 90 % of the manual. They did simple strategies.”

“Read the fucking manual” garantiert den Erfolg also nicht. Was tun? Es gibt viele Quellen, um zu verstehen, wie Google funktioniert. Informationen von Google wie:

Wenn Du nun versuchst, diese durchaus widersprüchlichen Informationen mit der eigenen Erfahrung in Einklang zu bringen, dann hilft es, Dir bewusst zu machen, dass Systeme wie Google genauso wie Anbieter von Videospielen durchaus konträre Interessen verfolgen.

  • Die Gaming-Realität bewegt sich zwischen den wirtschaftlichen Interessen der Anbieter und dem Ziel, ein Spiel zu bauen, das den Leuten Spaß beim Zocken bringt. Bestimmtes Gaming-Verhalten hat wiederum zur Folge, dass die Spieleanbieter die Spiele verändern müssen, um Schlagseite zu verhindern.

  • So ist es auch mit Google:

"Ranking reality" liegt zwischen den zwei Zielen "Good SERP" und "Making ungodly amounts of money""Ranking reality" ist ein Zickzackkurs zwischen Google Updates

Die Frage, die wir uns SEOs bei Axiomen wie “Google belohnt Brands” oder “Google belohnt Topical Authority” oder “Google belohnt High Quality/Useful Content” immer stellen müssen, ist: Wie kann Google das messen?

Sitewide Signals: Es zählt nicht das einzelne Content Piece. Die Beziehung zu Google unterhältst Du mit Deiner ganzen Domain

Googles Vertrauen ist binär. Google vertraut den Angaben Deiner Domain oder eben nicht. Wenn Du Dein “Lastmod Date” häufig ohne “Significant Update” angepasst hast, gibt es für Google keinen Grund, Deinen Settings zu glauben.

In seinem Protobuf-Exploit stieß Mark zu seiner großen Überraschung auf einen “quality_score”. Beim Mapping der Scores verschiedener Domains hat er eine Normalverteilung vorgefunden. Der Score geht von 0 bis 1. Es tauchen ausschließlich Websites in SERP-Features wie Featured Snippets oder People Also Ask auf, die mindestens einen Quality Score von 0,4 haben.

Die besten Domains/Hosts waren aber nicht die größten, bekanntesten oder meistverlinkten. Sondern diejenigen, die verhältnismäßig am meisten nachgefragt waren. Gemessen wie?

Zum Glück gibt es Patente (Site Quality Score, Predicting Site Quality):

  • Wie häufig suchen Leute explizit nach Deiner (Sub-)Domain zusammen mit weiteren Begriffen?
  • Wie häufig wählen Menschen Deine Website aus, selbst wenn Du nicht auf Position 1 rankst?
  • Wie häufig erscheint Deine Marke oder Deine Website im Ankertext von Links im Netz?

Wenn es zu Deiner Website noch keine Daten gibt, dann schaut Google bei digitalen Zwillingen nach, wie sich Deine Website schlagen könnte und sortiert Dich entsprechend ein, bis es valide Daten gesammelt hat.

Helpful Content” und “Topical Authority” können zwei besonders frustrierende Konzepte von Google sein. Mark hat die Dungeons-&-Dragons-Domain deathsave.com aufgebaut. Aus der Community kam Fanpost, wie grandios und hilfreich die Inhalte seien. Google sah es anders:

Search Console Zeitverlauf Impressions und Clicks steigen rasand an und brechen dann abrupt ab.

Kaum postete Mark den Content via Linkedin, war er plötzlich auch in Googles Augen wieder hilfreich und rankte auf Top-Positionen. ¯\_(ツ)_/¯

Umgekehrt durfte eine Website des Vatikan führend bei den Rankings zu [best cbd gummies] oder eine ehemalige Schul-Domain top für Casino-Suchbegriffen sein.

Die Lösung? Beide letztgenannten Domains waren gehackt, hatten aber über ihre Historie einen hohen Quality Score aufgebaut. Nur die Startseiten waren gegen Spam ausgetauscht, der Rest der alten Inhalte war bestehen geblieben. Mit einem solchen Profil konnten die Spam-Projekte direkt nach oben durchstarten.

Konsens-Klassifizierer

Google versucht, einzelne Textpassagen als dem Konsens zustimmend, widersprechend oder neutral einzustufen und vergibt für Dokumente einen “consensus_score”.

Zudem hat Mark in seinem Exploit Klassifizierer gefunden, die Suchanfragen als “debunking” – ja oder nein – einordnen. [ist die erde eine scheibe] wird als “debunking” (Fehlinformationen entlarvend) eingestuft. Hier gibt es nur Antworten in der SERP, die dem wissenschaftlichen Konsens (“Nope, eher eine Sphäre”) entsprechen.

Mark Williams-Cook präsentiert eine Suchergebnisseite zur Frage "What type of government is best" und markiert Ergebnisse, die dem Konsens zustimmen, neutral sind oder widersprechen

Weichere Themen, bei denen wir gesellschaftlich ein größeres Spektrum der Meinungsvielfalt abdecken, werden von Google zu einer SERP kuratiert, die verschiedene Standpunkte abbildet. Die gängigste und prominenteste Ansicht taucht dann vielleicht nicht nur weiter oben, sondern auch häufiger in der SERP auf, aber weiter unten werden andere Perspektiven beigemischt.

Vielleicht ist Dein Content auf Platz 5 viel besser als der auf Platz 4 und auch die Site-wide Signals Deiner Domain mögen bessere sein. Aber Dein Standpunkt ist derselbe wie auf den Plätzen 1 bis 3. Wenn Du die nicht schlagen kannst (zum Beispiel über Information Gain), gibt es für Google keinen Grund, Deinen Inhalt zu servieren. Das erinnert stark an das Prinzip, das Thomas Mindnich vor einigen Jahren schon zum treffen der Suchintention betont hat.

Spammer foppen mit der Rank Transition Function

Google ist bereit, Katz und Maus mit Spammern zu spielen, um ihnen ein enttarnendes Verhalten abzulocken. Wie sieht das aus?

Wenn an einer Domain Änderungen vorgenommen werden, die steigende Rankings versprechen, kann es sein, dass Google die Seite für eine gewisse Zeit schlechter rankt. Wenn Blackhat-SEOs auf die schlechteren Rankings reagieren, indem sie die Änderungen zurückrollen, schließt Google daraus Folgendes: Offenbar wurden die Maßnahmen nicht zum Vorteil für Nutzer:innen gemacht, sondern um Rankings zu beeinflussen. Die Seite kriegt einen Spam-Stempel und hat es in der Folge schwer, sich gute Rankings zu erarbeiten.

Änderungen an einer Website zu testen und anhand der Resultate ist nicht per se eine Spamtaktik. Googles Mausefalle scheint nicht für alle möglichen Arten von Änderungen zu gelten. Aber wenn es um Keyword-Stuffing, weißen Text auf weißem Hintergrund oder Linkmanipulationen geht, wird Google hellhörig.

Weitere Quellen: Passende Folgen vom Search With Candour und dem SEO Patent Podcast

Wenn Du Mark über die oben verlinkten Quellen hinaus zu den Konzepten des Vortrags sprechen hören möchtest oder Dir Google-Patente mit Google Notebook LLM in zehn Minuten erläutern lassen willst, gibt es hier mehr Futter:

Marks Tech-SEO-Tipp-Zugabe: Content Gaps und Intent Switch skaliert erkennen

Inhaltliche Wettbewerbsanalyse und das Aufdecken von thematischen Lücken ist ziemlich zeitaufwändig. Mark, der auch der Kopf hinter dem Tool Also Ask ist, hat einen schönen Workflow entwickelt, mit dem sich KI so einsetzen lässt, dass sie nicht halluziniert, sondern tatsächlich nützlich ist.

Wie das funktioniert, hat er in diesem Artikel dargelegt. Die wesentlichen Schritte sind aber:

  1. Custom JavaScript im Screaming Frog konfigurieren
  2. Content-URLs crawlen mit dem Screaming Frog
  3. KI den Inhalt der Seiten analysieren lassen
  4. Automatisiert die PAA- (People Also Ask)-Fragen zum Thema (=H1) abrufen
  5. Ausgeben lassen, welche Fragen im Inhalt bislang nicht beantwortet wurden.

Screaming Frog Settings > Custom > Custom JavaScript > AlsoAsk-Plugin aus der Library

Das hilft bei der Content-Erstellung auf mehreren Ebenen:

  • Lücken werden aufgedeckt.
  • Da PAA ein Live-Feature ist, bekommst Du relevante Themen, die in Keyword-Daten eventuell noch nicht mit dem passenden Suchvolumen abgebildet sind.
  • Aus demselben Grund können wir so auch mitschneiden, wenn sich die Suchintention einer Query verändert.

Und das war nur der Beitrag von Mark auf dem Tech SEO Summit. Es gab noch viele weitere schlaue Gedanken. Wenn Du also überlegst, beim nächsten Summit dabeizusein, es lohnt sich!

Du hast Fragen zum Artikel, zum Thema oder brauchst einen Tipp für Deine nächsten Schritte? Hier kannst Du Dir einen unverbindlichen Termin in meinem Kalender buchen. Ich freue mich auf Dich!
15-Minuten-Termin mit Jolle reservieren
Das ist ein Artikel aus unserem Newsletter. Wenn Du jeden Dienstag Morgen schlauer werden möchtest, melde jetzt kostenfrei für den SEO-Newsletter an

Kurze, praxisnahe SEO-Tipps – maximal 1× pro Woche. Keine Werbung, kein Spam.

Deine Daten sind bei uns in guten Händen und werden ausschließlich für diesen Newsletter genutzt.