Im SEO prüfen wir die Ranking-Pipeline. Von vorne nach hinten. Der größte Hebel sitzt meist am Anfang:
- Discovery: Wird nichts gefunden, wirkt nichts dahinter.
- Crawling: Wird nichts gecrawlt, wirkt nichts dahinter.
- Indexierung: Wird nichts indexiert, wirkt nichts dahinter.
- Ascorer (Posting Lists): Kein Match zu den Begriffen, kein Ranking.
- Re-Ranking (Twiddler / Navboost): Falsche Gewichtung, kein Ranking.
- Snippet-Design: Erst am Ende kommt die Darstellung.
Natürlich gibt es immer Grenzfälle und Themen, die quer dazu hängen. Aber diese Sichtweise hilft dabei, als erstes dort zu arbeiten, wo die größte Wirkung entsteht.
Lässt sich das auf GEO übertragen?
Diese Arbeitsweise lässt sich nicht 1:1 auf unsere neue Lieblings-SEO-Subdisziplin GEO übertragen.
Aber die Logik hilft.
Also überlegen wir: Welche Optimierungen haben den größten Impact auf unseren GEO-Erfolg?
Generative Systeme wie Gemini oder ChatGPT arbeiten grob so:
- Prompt verstehen.
- Prüfen, ob das Trainingswissen reicht.
- Falls nötig: Grounding über externe Quellen (Query-Fanout).
- Antwort synthetisieren.
Wo können wir also für GEO ansetzen?
Um Generative Engine Optimization (GEO) zu betreiben, können wir (theoretisch) an verschiedenen Stellen ansetzen:
- Training der Modelle: Stellen wir sicher, dass mehr unserer Dokumente im Trainingskorpus sind, dann haben wir mehr Einfluss darauf, dass wir bei der Antwortgenerierung grundsätzlich berücksichtigt sind.
- System Prompt: Könnten wir in den System Prompt schreiben, dass Erdnussbutter besser ist als Nutella, dann würde das natürlich alle Antworten betreffen.
- RLHF (Reinforcement Learning from Human Feedback): Klicken viele User mit dem Daumen nach oben, wenn unsere Produkte in der Antwort auftauchen, dann lernt das System uns häufiger zu referenzieren
- Generierung der Query Fanout-Queries: Welche Fanout-Queries das System generiert, können wir nicht direkt beeinflussen, aber wenn wir es könnten, dann wäre das natürlich ein Schlüssel zur Dominierung der Query Fanouts.
- Ranking in Query Fanouts: Erkennt das System zusätzlichen Bedarf an Informationen (Grounding) und sind wir Teil des Groundings, können wir die Antwort beeinflussen.
- Synthetisierung der Antwort: Wenn wir Teil des Trainings oder des Groundings sind, können wir die Zusammenstellung der Antwort beeinflussen
Praktisch bleibt wenig realistisch beeinflussbar:
- Trainingsdaten: Intransparent. Update-Zyklen unklar.
- System Prompt: Nicht zugänglich.
- RLHF: Kaum skalierbar, kein direkter Zugriff.
- Fanout-Logik: Modell nicht beeinflussbar.
Für jeden dieser Schritte werden eigene GEO-Tipps vorgeschlagen, die:
- Mit PR/Offpage die Selektion für das Training oder die Erwähnung der Marke im Grounding verbessern
- Mit FAQ, Branding-Footer oder Chunking das Grounding verbessern sollen
- Mit llms.txt, Markdown, etc. das Grounding verbessern sollen
Grounding ist der operative Hebel
Wenn wir die einzelnen Angriffspunkte nach Effizienz und realistischer Beeinflussungsmöglichkeit betrachten, dann ist klar, dass Modelltraining, System Prompt und RLHF kaum Optimierungspotenzial haben. Wir wissen kaum, welche Datenbasis für das Training aktueller Modelle verwendet wird, geschweige denn, wann ein neues Modell trainiert wird. Human Feedback ist nicht skalierbar und für eine Änderung des System Prompt müssten wir bei Google oder OpenAI in zentraler Position arbeiten.
Der größte Hebel ist also die Beeinflussung des Grounding. Das wird auch in der Menge der Optimierungstipps für diesen Bereich deutlich.
Beim Grounding generiert das Chat-System mehrere Suchanfragen und fragt sie in einem Index ab. Es gibt nicht viele Indizes, die dabei genutzt werden:
- Google Fastsearch (von Gemini, AI Overview, AI Mode): Hier wird nicht der gesamte Index und nicht die normalen Rankings genommen, sondern es gelten verschärfte Indexierungsanforderungen und die klassische Ranking-Pipeline wird durch Vector Search ersetzt
- Google (von ChatGPT und möglicherweise anderen): Hier werden die “normalen” Suchergebnisse über Dienstleister (SERPApi) gescraped (inkl. Werbung).
- Bing Grounding API: Mit der Bing Grounding API werden Ergebnisse zur Verfügung gestellt.
- Brave, openAI, duckduckgo,(Perplexity) etc.: kleinere Indizes, die im Wesentlichen durch Erinnerung der ursprünglich von Bing lizenzierten Rankings zusammengesammelt worden sind. Weniger eigenes Crawling. Größe und Vollständigkeit sind sehr unterschiedlich, aber die Systeme haben einen starken US-Fokus.
Wenn wir also das Grounding beeinflussen wollen, müssen im Query-Fanout die richtigen Ergebnisse zurückgegeben werden.
Wir müssen uns also kümmern, um:
- Indexierung,
- Semantisches Verständnis der indexierten Inhalte,
- Ranking.
Und das mit teilweise härteren Bandagen. Denn:
- Indexierung wird immer schwieriger
- Für Google Fastsearch wird nur ein Teil des Index genutzt
- Es gibt weniger Ergebnisse. Noch vor einem Jahr waren die Fanouts eher kurz und die Ergebnislisten lang. Heute sind die Ergebnisse kurz, aber die Queries sehr lang und spezifisch
Wenn also Grounding der für uns am besten erreichbare Hebel für die Optimierung ist, dann ist die Indexierung in Suchmaschinen-Indizes unserer Inhalte die beste Möglichkeit, diesen Hebel zu ziehen.
Indexierung optimieren können wir glücklicherweise:
- Discovery: Findet die Suchmaschine alle relevanten Inhalte?
- Crawl-Management: Verwendet die Suchmaschine ihre Ressourcen auf die richtigen URLs?
- Indexierungs-Management: Was soll indexiert werden (und was nicht)?
- Verlinkung: Wie steuern wir die Priorisierung unserer Inhalte?
- Content-Qualität: Nicht-Indexierung ist oft ein Fall von “Google will nicht”, weniger von “Google kann nicht!”
Wer Generative Engines beeinflussen will, muss in deren Grounding auftauchen. Wer im Grounding auftauchen will, muss sauber indexiert sein.
GEO beginnt also nicht im Prompt. GEO beginnt im Index von Suchmaschinen.