Vor zwei Wochen hatte ich Dir gezeigt, wie Du Deine Inhalte bei Google organisch indexieren lassen kannst, aber gleichzeitig für Training von Gemini und Darstellung in AI Overviews verbieten kannst.
Ich hatte schon darauf hingewiesen, dass es in dem Artikel erstmal um die Möglichkeit ging.
Die Frage, ob das sinnvoll ist, ist sehr individuell.
Konsequenterweise hat Katrin (und andere) direkt gefragt:
Warum sollte ich meine Inhalte ausschließen – ich würde doch davon profitieren, wenn meine Antworten (wenn möglich plus Brand) in den Ergebnissen erscheinen, oder?
In der vergangenen Woche hatte ich jetzt 2 Beispiele gesehen, die nochmal deutlich zeigen, dass der Umgang mit AI-Overviews keine Geschichte von schwarz und weiß ist, sondern auch innerhalb einer Domain Graustufen verlangt.
Will ich Plus-Artikel im AI-Overview haben?
Auf dem Weg zur Campixx gerieten Nils und ich in Diskussion, ob es denn richtig sei, dass meine Hausstrecke von Ahrensburg nach Hamburg tatsächlich die Strecke mit den meisten Verspätungen sei.
Da wir nicht mehr in den 90ern sind, haben wir nicht diskutiert, sondern sofort den Joker gezückt.
Da der Joker aber nicht mir recht gegeben hat, konnte ich dem AI-Overview nicht glauben.
Natürlich ist meine Strecke die mit den meisten Verspätungen. Etwas anderes kommt gar nicht in Frage.
Im Beispiel muss also Google die Kieler Nachrichten falsch zitiert haben, oder einen Fehler beim Auslesen gemacht haben. Also wollte ich die Quellen prüfen. Aber leider handelt es sich um einen Plus-Artikel.
Ich kann also leider gar nicht validieren, ob die Fakten stimmen.
Auf der anderen Seite ist meine Motivation, ein Abo bei den Kieler Nachrichten abzuschließen, selten so hoch gewesen wie in diesem Moment. Schließlich brauchte ich doch diesen Artikel, um zu beweisen, dass ich recht habe.
Der dahinter liegende Gedanke ist aber natürlich richtig:
- Welche Inhalte sind so schützenswert, dass ich sie den AI-Overviews entziehen möchte?
- Welche Inhalte bringen mir mehr, wenn sie in AI-Overviews stehen?
Diese Frage wird natürlich extra spannend, wenn es darum geht, dass ein bestimmter Fakt nur auf der eigenen Seite abgedeckt wird.
Glaube niemals einem LLM-Output ungeprüft.
Einen anderen Case hatte ich direkt danach.
Jemand fragte mich, wie viel wir denn für die Nachmittagsbetreuung in der offenen Ganztagsschule zahlen würden. Um sicher zu gehen, wollte ich einen Blick in die Gebührensatzung werfen.
Auf die Suche hin habe ich ein toll aufbereitetes AI-Overview bekommen. Mit Tabelle und Informationen.
Nur kamen mir die Regelungen komisch und die Preise zu niedrig vor.
Ursache: Der AI-Overview hatte 3 Quellen:
- Die WABE (Betreuungseinrichtung in Ahrensburg)
- Eine Seite vom Land NRW
- Caritas Gelsenkirchen
Zwei der 3 Quellen hatten aber überhaupt nichts mit dem gewünschten Ergebnis zu tun.
Die erste Quelle war grundsätzlich genau richtig. Aber auf dem Stand von vor 4 Jahren.
Das war ein sehr schönes Beispiel für „klingt gut, ist aber keine wahrheitsgemäße Antwort auf meine Frage“ und ein perfekter Reminder für: Wenn Fakten wichtig sind, dann musst Du die Overviews validieren!
Das Spannende aber: Ich habe dann mehrere Suchanfragen dazu ausgeführt. Ein wenig links- und rechtsherum abgefragt und heute sieht der AI Overview so aus:
Google hat also durch mein üppiges Query Refinement gemerkt, welche Aspekte des Overviews nicht passten. Und hat den Overview entsprechend überarbeitet.
Auf Mobile sieht der AI Overview zum gleichen Thema anders aus.
Das stimmt allerdings nicht für alle Schulen.
Eine der Quellen dafür ist dann angeblich die Seite der OGS an der Friedrich-Ebert-Schule in Elmshorn. Also einer ganz anderen Stadt.
Wirklich spannend ist aber, dass sich Google im Weiteren eine neue Schule ausgedacht hat. Es gibt in Ahrensburg keine Erich-Kästner-Schule. (Aber auch an Ahrensburger Schulen werden Bücher von Erich Kästner gelesen).
Was möchte ich Dir also mit auf den Weg geben?
- Niemals nehmen wir den Output von LLMs ungeprüft als Wahrheit an
- Auch nicht bei AI Overviews
- Auch nicht, wenn der Overview überarbeitet wurde
- Möglicherweise können wir durch Query Refinement eine Anpassung der AI Overviews triggern (Testreihe dazu gerade in Arbeit, Input willkommen)