Oder: Warum wir aufhören müssen, an die Messbarkeits-Illusion zu glauben
Mit KI kommen neue Tools, neue Reports – und natürlich: neue KPIs!
Zumindest steht das überall.
Und dann kommt sie: die Slide mit den „23 KPIs, die Du jetzt brauchst“.
Du schüttelst den Kopf. Und wir auch.
Denn:
Eine KPI ist ein (!) aggregierter Faktor aus mehreren Metriken, der Orientierung gibt.
KPI im Plural? Ist wie „Alleinstellungsmerkmale“.
Wer mehrere KPIs pro Kanal hat, hat den KPI-Grundsatz nicht verstanden.
Wir schütteln weiter den Kopf.
Denn:
Wie kann Dir jemand eine KPI empfehlen, der Deine Ziele, Projekte, Strategie und Situation nicht kennt?
Metrik? Okay.
Leading Indicator? Vielleicht.
Aber KPI? Niemals! (Hier Braveheart-Meme vorstellen bitte)
Daten sind eine Illusion
Als ich mit SEO begann, habe ich geglaubt:
Online können wir alles messen. Also treffen wir datenbasierte Entscheidungen.
Schön wär’s.
Aber diese Illusion kostet jedes Jahr Geld.
Und sie ist doppelt falsch:
- Wir können nicht alles messen – und das, was wir messen, ist oft falsch.
- Wir glauben, wir könnten auf Basis dieser Daten sicher entscheiden.
Was wir eigentlich wissen wollen:
Nehmen wir mal die Basisformel:
Indexierte Seiten × Rankings × Suchvolumen = Impressions
Impressions × CTR = Traffic
Traffic × CR × Warenkorb = Umsatz
Klingt einfach. Aber um gezielt zu optimieren, müssen wir den Ist-Zustand dieser Werte kennen. Und da wird’s haarig.
Indexierung: Nicht mal das Einfachste klappt
Wie viele Seiten sind indexiert?
Die grobe Antwort geht.
Aber: Welche Seiten? → ab 2.000 URLs wird’s hässlich.
- GSC zeigt max. 1.000 URLs je Bericht, mit 3–5 Tagen Delay.
- Live-Check via API? Ja, aber nur 2.000 URLs pro Property.
- Vertical-Indizes wie Google Scholar, Shopping, News? Keine Chance.
Als Hilfsgröße können wir für Web, Image oder News die Impressions heranziehen. Eine URL mit Impressions muss ja indexiert sein. Aber:
- Klickdaten ≠ Indexierungsdaten
- Kein Query → keine Messung → keine Daten → keine Entscheidung
Aber immerhin Clicks können wir messen
Jetzt sagen manche: Ja, das gilt für die Indexierung, aber ja nicht für den Traffic. Denn die GSC reported alle Klicks und Impressions.
Aber auch das stimmt nicht. Wir haben das Problem:
- der Anonymisierung,
- dass nicht die Daten aller Such(maschinen) von Google in die GSC einlaufen
- und umgekehrt, dass wir ein organisches Ranking und ein Ranking über die Bildersuche der Universal Search nicht auseinanderhalten können
- Wir haben die tageweise Auflösung der Daten, die Schwankungen innerhalb des Tages nicht auflösbar macht (zugegeben für die letzten 10 Tage ist das mit den 24h Daten besser geworden. Die gibt es aber wieder nicht im BigQuery Datenexport)
Und selbst wenn wir die Daten in BigQuery haben und alle Clicks auswerten können und die Ungenauigkeiten akzeptieren, dann fehlt zu unserer Erhebung noch das Verhalten auf der eigenen Seite:
Und selbst, wenn wir das Problem lösen und ein eigenes Server-Side-Tracking auf unserem eigenen Server haben ohne die Daten anonymisieren zu müssen, weil sie bei Drittparteien gespeichert werden, gibt es Lücken:
- User, die keinen Referer übergeben
- Die das Tracking anderweitig unterbinden
- AI Agents, die als User getrackt werden
- Interner Traffic, der nicht ausgeschlossen wird, weil die Mitarbeiter im HomeOffice arbeiten und niemand daran gedacht hat die Logik “interner Mitarbeiter = Firmen-IP” zu hinterfragen
Und auch wenn wir diese Themen lösen und die Conversions sauber erfassen, dann müssen wir noch die Retouren, gescheiterten Zustellungen und stornierten Zahlungen lösen.
Aber mal angenommen wir haben das alles sauber aufgesetzt:
Können wir dann SEO sauber messen?
Was ist denn mit:
- Bing?
- DuckDuckGo? Brave? Ecosia?
- Web.de Suche?
- Traffic über CoPilot?
Und auch da wieder die Frage nach Indexierung? Keywords? Traffic?
Und natürlich hast Du Recht: Das ist alles gar nicht so schlimm, weil das ja alles Daten der Vergangenheit und für vergangene Performance sind. Das hilft uns gar nicht so sehr bei der Gestaltung der Zukunft.
Aber wie planen wir Zukunft?
- Mit Suchvolumina von Einzelkeywords, die diese Keywords in der Vergangenheit in Google hatten?
- Mit Suchvolumina, die massiv verzerrt, politisch zensiert und für Ad-Umsatz optimiert sind?
- Mit A/B-Tests in Google, bei denen kaum jemand den Zeitpunkt der (Neu)-Indexierung beachtet und damit massive Verschiebungen in den Tests hat?
- Mit dem Ergebnis von limitierten Tests in Google, deren Aussagekraft durch die oben genannten Schwierigkeiten kaum belegbar ist?
- Mit der Annahme, dass Suchvolumen der Zukunft sich so verhält, wie Suchvolumen der Vergangenheit?
Interessanterweise scheinen of die, die sagen, dass sich alles ändert und die, die sagen, dass alles messbar ist, die gleichen zu sein.
Natürlich braucht es bei großen Investitionen einen Business Case.
Natürlich muss am Ende eine positive Entwicklung stehen.
Aber die Illusion, dass alles messbar ist, die müssen wir endlich aufgeben, damit wir mit den Daten, die wir haben, vernünftig arbeiten können.