Zum Hauptinhalt springen

1975 erfand Kodak die erste Digitalkamera. Statt damit die Welt zu erobern, hat man sie erneut in die Schublade verfrachtet, weil man die neue Technologie mit Denkmustern und Metriken der alten, analogen Welt bewertet hat.

“Eine Digitalkamera verkauft keine Filme”. Was Kodak falsch verstanden hat: Menschen kaufen in der Zukunft keine Filme mehr. Damit haben sie verbaselt, das neue Spiel mit den neuen Regeln zu spielen.

So ähnlich kann man das auf SEO, AI und GEO übertragen. Wir neigen dazu, neue Technologien mit alten Glaubenssätzen zu verbinden – dass das nicht geht, hat Kevin Indig bereits 2024 auf dem Digital Olympus gesagt und ich habe mehrfach vor den gleichen Fehlern aus der Vergangenheit gewarnt.

Meine Beobachtungen:

  • Wir jagen dem falschen Ziel hinterher – wie Kodak, die Fotopapier verkaufen wollten.
  • Wir schauen auf die falsche Konkurrenz – wie Kodak, die auf Fujifilm, aber nicht auf Sony geschaut haben.
  • Wir kennen unser Spielfeld nicht richtig – wie Kodak, die in Fotolaboren, aber nicht am PC unterwegs waren.
  • Wir nutzen trügerische Instrumente – wie Kodak, die sich an geschossenen Fotos orientiert und das mit “verkauften Filmen” gleichgesetzt haben.
  • Wir ignorieren die Realität der User – wie Kodak, die davon ausgingen, dass alles beim Alten bleibt.

Wir müssen die Zukunft bauen, anstatt die Vergangenheit zu verteidigen. Das gilt auch für ein gescheites Prompt Monitoring und was wir daraus ableiten.

So jagst Du das richtige Ziel

Du willst vor allem Kaufentscheidungen durch Erwähnungen beeinflussen und nicht Fußnoten (Citations) und Traffic sammeln (auch wenn wir dazu nicht Nein sagen).

Auch in der alten SEO-Welt ging es primär darum, Business-Ziele zu unterstützen bzw. zu erreichen. Der Proxy dafür war vor allem (relevanter) Traffic.

Noch im Mai 2025 habe ich in meinem Vortrag auf dem Nordic SEO Summit eine Rechnung aufgemacht, wie man sich Budgets sichern kann, wenn man logisch erklärt, wie die Zielerreichung und relevanter Traffic auf relevante Seiten zusammenhängen.

In der AI-Welt funktioniert das nicht.

Diese Systeme sind nicht gebaut, um Traffic zu senden – laut einer regelmäßigen TollBit-Auswertung liegt die CTR bei unter einem Prozent.

Es ist ein Trugschluss, Kanäle hinsichtlich ihres Traffics zu vergleichen und davon abzuleiten, wie wichtig der Kanal ist und wie viel Geld man ihm beisteuern sollte.

Was zu erwarten ist: Websites sind an bestimmten Stellen nicht mehr primärer Teil der Customer Journey und ein Teil der Beeinflussung verschiebt sich z. B. in das Interface Deines AI Chatbots oder Agents.

Hier möchten wir dann visuell präsent und namentlich erwähnt sein, anstatt als eine (oder eine von vielen) Zitierung(en) unterzugehen.

Eine beispielhafte Darstellung für einen Chat mit dem Prompt "was ist die beste kaffeemaschine". Es werden 3 Marken genannt und jeweils mit Quellenhinweisen unterfüttert. Hervorgehoben ist, wie präsent die Marken und wie wenig sichtbar die Quellenhinweise sind.

Wenn Dein Geschäftsmodell auf Reichweite ausgerichtet ist, hast Du eine andere Zielstellung, klar.

Aber in Zeiten von AI liegen Reichweitenmodelle, die sich durch “Augen auf austauschbare Inhalte” finanzieren, im Sterben.

So schaust Du auf die richtige Konkurrenz

Du musst wissen, wie intensiv der Wettbewerb ist und mit welchem Wettbewerb Du Dich vergleichen willst und musst.

Das galt auch schon in der SEO: Es langt nicht, wenn ich mich mit jemandem vergleichen will, wenn der eigentliche Wettbewerb in den SERPs ein anderer ist. Daher muss ich auf beides schauen.

Mike Sonders hat 2 Dinge untersucht:

1. Wie viele Brands zitiert ChatGPT in 100 Abfragen?

Wie viele Brands ChatGPT im Durchschnitt bei 100 Antworten nennt. Es sind ca. 44, bei einfachen Prompts fast 46, bei feineren Prompts 42, bei kompetitiven Nischen fast 60 und bei Nischenkategorien nur 30.

In kompetitiven Branchen sind es deutlich mehr als in Nischen – das ist erwartungsgemäß.

2. Wie viele Brands schaffen es, regelmäßig 80% (oder weniger) in ihrer Sichtbarkeit zu erhalten?

Es ist einfacher in AI sichtbar zu sein, wenn die Kategorie weniger kompetitiv ist. Nur wenige Marken schaffen 80% und mehr Sichtbarkeit in umkämpften Nischen.

Je größer der Wettbewerb, desto schwieriger ist es, eine dominante Marke zu sein (und dadurch Kaufentscheidungen zu den eigenen Gunsten zu beeinflussen).

Wenn wir in unseren Prompt Monitoring Tools diese beiden Aspekte nicht sehen können, dann schauen wir im Worst Case auf den falschen Wettbewerb. Daher sind auch Metriken wie “Share of Voice” oft verzerrt, wenn wir nur Ergebnisse für “definierte Wettbewerber” sammeln.

2 Tools, die wir uns intensiv angeschaut und grundsätzlich für gut befunden haben, sind Peec AI und Rankscale. Was ich Dir empfehlen würde, hängt davon ab, ob Du

  • es einfach und übersichtlich (Peec AI) oder
  • flexibel und komplex (Rankscale) möchtest.

Peec AI sagt Dir aber nicht, wie viele Marken regelmäßig in einem bestimmten Zeitraum aufgetaucht sind (und vergleicht Dich immer nur mit denen, die Du ausgewählt hast).

Rankscale jagt Dir hingegen oft mehr um die Ohren, als Du brauchst. Es braucht einen Mittelweg.

Idealerweise kann ich beides in einem Tool sehen.

Was natürlich immer geht: Umständlich in den Exporten, mit denen man manchmal auch zu kämpfen haben kann, eine eigene Lösung bauen.

So kennst Du das richtige Spielfeld

Du musst das beeinflussbare Spielfeld kennen – nur so kennst Du Deinen wahren Handlungsspielraum.

In allen Projekten, die ich bisher hinsichtlich AI Readiness und Prompt Monitoring gemacht habe, war die eigene Domain immer nur ein Bruchteil für Zitierungen verantwortlich (gerne 15% und weniger).

Und mindestens ein Teil der Prompts hat keine Websuche ausgelöst. Der direkte Handlungsspielraum für diese Prompts wäre also ein anderer, als wenn es eine Websuche bzw. Grounding gäbe.

Wenn man sich das bildlich vorstellen möchte, sieht das in etwa so aus:

Nur ein Teil der Grounding-URLs sind beeinflussbar. Es ist eine beispielhafte Darstellung zu sehen, wie sich die Anteile der Zitierungen auf die eigene Domain und andere (nicht beeinflussbare) Domains verteilen.

Es ergibt sich also ein Bild aus

  • im Grounding nicht beeinflussbar weil keine Websuche (grau),
  • Deine Domain, die Zitierungen gewinnt,
  • Drittzitierungen, also nicht Deine Domain, in denen Du erwähnt bist, die Du (nicht) beeinflussen kannst),
  • beeinflussbare Drittzitierungen, die Dich noch nicht erwähnen und
  • Drittzitierungen, die Du nicht beeinflussen kannst (und die Dich noch nicht erwähnen).

So weißt Du direkt, wo Du überhaupt Wirkung erzielen könntest.

Ahrefs hat dazu bzgl. ChatGPT auch eine Auswertung gemacht und grob feststellen können, dass ca. ⅔ der Top-Zitierquellen nicht beeinflussbar sind. Wie immer gilt: Untersuche das für Dein eigenes Prompt Set und verlasse Dich nicht auf generische Durchschnitte.

Eine Zitierung, die nicht dafür sorgt oder dabei unterstützt, dass ich erwähnt werde, hat wenig Wert.

Tauche ich hingegen in relevanten Drittzitierungen inhaltlich auf, die beeinflussen, dass die Empfehlungswahrscheinlichkeit für meine Marke steigt, dann sind sie wertvoll. Häufiger im Inhalt der Zitierungen aufzutauchen steigert die Chance, dass ich erwähnt werde.

Mit diesem Blick kann ich auch mich mit direkten Konkurrenten vergleichen und prüfen, welche Inhalte mir fehlen, also Content Gaps aufdecken.

So nutzt Du die richtigen Instrumente (richtig)

Du musst wissen, was Du wie misst und welche Einschränkungen es gibt, um einen begründeten Proxy für die Realität zu haben, der besser ist als zu raten.

Es gibt große Unterschiede zwischen den Ergebnissen im gleichen AI Chatbot in Abhängigkeit von:

  • API (mit oder ohne Websuche)
  • User Interface
    • Nicht eingeloggt
    • Eingeloggt und Free User
    • Eingeloggt und Paid User

Zwischen API und User Interface variieren bspw.

  • die Antwortlänge,
  • die Anzahl getriggerter Websuchen,
  • die Quellenangaben und
  • die Erkennung von Marken.

Zwischen (nicht) eingeloggt und Free/Paid User gibt es Varianz

  • bei den Modellen, die im Hintergrund laufen und
  • bei der Wahrscheinlichkeit, dass es zu einer Websuche kommt (oder nicht).

Was ebenfalls zu bedenken ist:

  • Eingeloggte (echte) User erfassen geht nicht.
  • Je nachdem, wann man die Prompts regelmäßig abfragt, kommt es zu unterschiedlichen Antworten (da zu Peak-Zeiten ggf. “schwächere” Modelle zum Einsatz kommen).
  • Wenn wir eine Websuche erzwingen, spiegeln wir ein unrealistisches Bild der User wider.

Zum letzten Punkt: ChatGPT hat mittlerweile 900 Mio. User – davon sind aber nur rund 5,5% zahlende Privatkonsumenten. Bei bezahlten Usern kommt es häufiger zu Websuchen als bei (nicht eingeloggten) Gratis-Usern.

Gedanklich kurz zurück zu Tools: Du musst auch wissen, ob Dein Tool “hidden links” als Zitierung misst oder nicht. Damit sind Quellen im Grounding gemeint, die ChatGPT zwar im Hintergrund ansteuert, aber nicht in den Quellen ausgibt. So was gibt es auch beim AI Mode und AI Overviews.

Rankscale erfasst sie bei ChatGPT, zählt sie aber nicht bei den Citations, da sie im User Interface nicht sichtbar sind.

Wenn Dein Tool-Anbieter Dir das nicht sagen kann oder die API trackt, ist das meiner Meinung nach der Holzweg.

Ist Prompt Monitoring also Quatsch, weil wir die Realität nicht genau abbilden können?

Natürlich nicht. Die organische Suche war nie deterministisch. Wir haben bisher immer mit Proxies gearbeitet. Rankings in SEO Tools und Suchvolumina sind nie 100% genau und alles hat Schattenseiten (auch die Daten in der GSC).

Wichtig ist, dass wir uns den Einschränkungen, Unterschieden und dem Ausdruck “Annäherung” bewusst sind.

Dein Prompt Monitoring wird übrigens viel besser, wenn Du Dich mit Deiner Zielgruppe direkt beschäftigst.

So berücksichtigst Du die Realität Deiner Zielgruppe

Du musst mit Deiner Zielgruppe und echten Usern sprechen, weil AI an vielen Stellen eine Blackbox ist (und das betrifft nicht nur “Prompt-Volumen”).

Es klingt banal, aber im Online Marketing haben wir viel zu selten einen direkten Draht zu den Menschen, die unsere Kunden sind (und werden könnten).

“Wir wissen nicht, wie häufig etwas dort eingegeben wird.”

Faires Argument, Suchvolumina sind aber auch nur eine Annäherung. Prompt-Volumen, wie man es von bekannten Tools (u.a. Profound) kennt, ist irreführend.

Es scheint unmöglich, dass ein langer Prompt ein deutlich höheres Volumen als ein klassisches kurzes Keyword in der organischen Suche bei einem Thema haben soll. Da keiner der Anbieter transparent damit umgeht, wie die Volumina entstehen, würde ich mich darauf nicht verlassen.

Theorie: Es sind eingekaufte Clickstream-Daten, die man auf unterschiedliche Wege aggregiert und hochrechnet. Keiner möchte verraten wie, sonst könnte ein Konkurrent das nachbauen. Buuuuh.

Als Annäherung können wir auf bekannte Datenquellen zurückgreifen (GSC, BWT, klassisches Suchvolumen aus SEO Tools und Google Keyword Planner). Das ist aber nur ein Teil des Weges, denn der Kanal wird, wie gesagt, anders verwendet.

Bing hat die AI Insights gelauncht, Cleo berichtete. Das ist gut. Wir wissen aber nicht genau, wie die Grounding Queries gruppiert sind und zumindest in ein paar Properties sehen ein paar davon nach “Prompt Monitoring” aus – sind (vermutlich) also keine echte Nachfrage.

Das, was fehlt, ist eine Zielgruppenbefragung (qualitativ und/oder quantitativ). Dabei würde ich z. B. herausfinden wollen:

  • wie und ob die Zielgruppe AI (regelmäßig) verwendet,
  • in welcher Phase welche Kanäle eine Rolle spielen (z. B. in einer Vorab-Recherche, Finden von Produktinformationen, Vergleiche von Marken(produkten), etc.),
  • welche AI Chatbots und Technologien die größte Rolle spielen (ChatGPT, Google Search, Gemini, etc.),
  • ob es Unterschiede nach Produktsegmenten, Altersgruppen und den Geschlechtern gibt und
  • was Menschen wirklich in AI-Systeme eingeben und wir mit vorhandenen Datenquellen nicht ableiten können.

Ein Teil des Ergebnis kann dann wie bei Omniscient (im B2B-Software-Bereich) aussehen – leider kein Link, da nur aus einem E-Mail Newsletter gefischt:

Eine Auswertung von Omniscient und Wynter. Es ging um den Kaufprozess im B2B-Softwarebereich. Abgebildet sind die Stufen des Kaufprozesses und die Gewichtung, welcher Kanal wie viel Anwendung pro Stufe fand. LLMs und Google spielen am Anfang dieser Reise eine große Rolle, fallen dann stark ab. Private Gruppen, Anbieter-Websites und Empfehlungen von Dritten hingegen gewinnen während der Reise deutlich an Bedeutung.

AI ist nur ein Kanal. Es geht nicht um “klassische Suche” vs. AI Chatbot vs. Social. Es geht um die Art und Weise, wie unsere Kunden unsere Lösung finden und welcher Kanal dabei an welcher Stelle eine Rolle spielt. Und die klassische Silodenke hält uns dabei auf, weil es am Ende um die Erreichung unternehmerischer Ziele geht, nicht den individuellen Erfolg eines Kanals.

OpenAI hat bei ChatGPT übrigens festgestellt, dass Menschen Produkte hierüber finden, aber nur selten kaufen und daher aktuelle Bemühungen rund um den Checkout, ACP & Co. eingestellt.

Öffentliche Daten können ebenfalls Aufschluss geben. Der ARD und ZDF haben kürzlich die Medienstudie 2025 veröffentlicht und sagen z. B. dass Tools wie ChatGPT

  • bei jüngeren Zielgruppen (14-29) zu 57%
  • und älteren Zielgruppen (30+) zu 24% und weniger

mindestens einmal die Woche im Einsatz sind.

Ja, das ist nur eine Umfrage (selbst erinnertes Verhalten != reales Verhalten).

Und nur weil 24% und weniger nach “wenig” klingt, muss es das nicht sein. Wenn das aus der Altersgruppe genau die Leute sind, die Du ansprechen möchtest, dann ist die Relevanz trotzdem hoch.

Aber das kannst Du nicht wissen, wenn Du nicht fragst. Eine Kinderserie hat uns damals schon gesagt, dass wir neugierig sein müssen, damit wir nicht dumm bleiben.

Lass uns gemeinsam Dein Prompt Monitoring besser machen

Wie schaffen wir es zu vermeiden, dass wir wie Kodak enden? Indem wir mit der Zeit gehen, sonst gehen wir mit der Zeit.

Ich empfehle Dir also folgende Dinge:

  1. Überlege Dir, in welchen Kontexten Du Erwähnungen und (sinnvolle) Zitierungen gewinnen kannst.
  2. Betrachte jegliche, relevante Konkurrenz und nicht nur die, mit der Du Dich vergleichen willst.
  3. Schaue auf das richtige Spielfeld und finde heraus, wo Du Einfluss ausüben kannst.
  4. Verwende die korrekten Instrumente richtig – sei Dir bewusst, was Du wie misst.
  5. Sprich mit Deiner Zielgruppe und finde Dinge heraus, die Dir kein Tool verrät.

Falls Du über das eine oder andere Thema bisher nicht nachgedacht hast oder Dir durch die vielen Neuerungen der Kopf brennt (don’t worry, mir geht es oft genauso), können wir über Deine AI-Bestrebungen und Dein Prompt Monitoring sprechen – gerne bei LinkedIn oder per Mail.

Ansonsten habe ich hier brandheißen Lesestoff zu AI-Themen im Gepäck:

  1. Was es mit Grounding Pages auf sich hat
  2. Wie Du vermeidest, “GEO-Mythen” auf den Leim zu gehen
  3. Ob User bald nur noch in und mit AI entscheiden
  4. 5 Dinge, die Du unbedingt über AI Readiness wissen musst
  5. Warum relevante Inhalte auch in einer AI-Welt notwendig sind
Du hast Fragen zum Artikel, zum Thema oder brauchst einen Tipp für Deine nächsten Schritte? Hier kannst Du Dir einen unverbindlichen Termin in meinem Kalender buchen. Ich freue mich auf Dich!
15-Minuten-Termin mit Philipp reservieren
Das ist ein Artikel aus unserem Newsletter. Wenn Du jeden Dienstag Morgen schlauer werden möchtest, melde jetzt kostenfrei für den SEO-Newsletter an

Kurze, praxisnahe SEO-Tipps – maximal 1× pro Woche. Keine Werbung, kein Spam.

Deine Daten sind bei uns in guten Händen und werden ausschließlich für diesen Newsletter genutzt.