*Wortspiele mit Namen waren schon immer doof.
Daniel Weisberg ist Head of Google Search Console (inhaltlich. Das ist nicht sein Job-Title) und haut gerade eine Batterie an „Features“ raus.
Für mich ist das leider Blendwerk. Nett, aber für eine professionelle Seite irrelevant.
- AI-generierte Brand-Query-Filter (GSC-Brand-Filter-Ankündigung)
- Filterkonfiguration mit AI bringt nichts, wenn die Daten nach dem Filtern weiterhin Müll sind. (GSC-AI-Feature-Ankündigung)
- Vergleich von Monats- oder Wochenwerten bringt nichts, wenn die Daten beim Filtern Müll sind. (GSC-Date-Aggregation-Feature-Ankündigung)
- Social-Profile bringen nichts, wenn ich sie nicht selbst konfigurieren kann und den meisten Usern nicht freigeschaltet sind. Die Daten sind bestimmt interessant, aber der Praxiswert gering. (GSC-Social-Feature-Ankündigung)
Falls Du Dich fragst, was ich mit kaputten Filtern meine:
Mach einmal den Katzen-Test:
- Du merkst Dir die Gesamt-Klicks laut GSC Performance-Bericht.
- Du filterst nach Keywords, die “ewrtzjksaewretrterwfqdsacdvs” (irgendwas, was nicht in einem Query enthalten ist. Behrend und ich nennen das „Katze läuft über die Tastatur“). Du erhältst 0 Klicks. Logisch.
- Du drehst den Filter um und vergleichst die Zahl mit den Gesamt-Klicks.
Die Erwartung wäre, dass die Zahlen identisch sind, da:
- Gesamt-Klicks
- Minus 0 Klicks mit Katzenfilter
- = Klicks ohne Katzenfilter
Die Gleichung geht aber nicht auf, weil Anonymisierung, Filterung und Sampling dafür sorgen, dass nur noch ein Bruchteil Deines Traffics im GSC-Interface sichtbar bleibt. (Wir kennen Properties, bei denen 20% noch sichtbar sind).
Im Zweifel basieren also alle Deine Filterungen im Interface auf solchen Filterungen.
Aktuell ist ja die Zeit überzogene Wünsche auf Zettel zu schreiben („kriegt Kinder“ haben sie gesagt. „Sie geben so viel zurück“ haben sie gesagt.). Motiviert von Caner kommt jetzt also:
Meine Wunschliste zu Weihnachten an die GSC für 2026
- Eine Anzeige, dass die Daten gefiltert sind und wie groß der Anteil nicht ausgewerteter Daten ist, damit Menschen weniger falsche Entscheidungen auf Basis falscher Daten treffen;
- Außerdem sollte immer angezeigt werden, ob die angezeigten Daten aus dem byPage- oder byProperty-Datentopf kommen, insbesondere dann, wenn der Graph und die Tabelle sich dabei unterscheiden.
- Und in Tabellen mit Vergleich zwischen 0 und nicht verfügbar unterscheiden. Es macht einen Unterschied, ob es tatsächlich 0 Klicks sind oder ob die Query/Page es lediglich nicht unter die Top 1000 der jeweiligen Filterung geschafft hat.
- Eine Möglichkeit, nach allen Einblendungen in der GSC zu Ein- und Ausschluss-Filtern (News-Box, Image-Box, KnowledgeGraph, AI Overview, Sitelinks etc.), damit man endlich vernünftige Aussagen machen kann, wenn das Geschäftsmodell etwas komplexer als B2B branded Traffic 10 Blue Links ist.
- Die Möglichkeit, alle Verticals zu filtern, nicht nur Images, News, Videos. Was ist mit Shopping? AI-Mode? Produkte? Produktwebsites? Foren? Orte? Kurz-Videos? Websites zu Orten? Flüge? …? Dürfen wir das nicht haben, weil es keiner nutzt? Oder weil es zu viele nutzen?
- Die Möglichkeit Gemini, Lens und andere Quellen auszuwerten.
- Mehr Details für Discover-Appearance: Kleines Bild? Großes Bild?
- Index-Report: Filter nach URL-Mustern (RegEx!), damit man sich nicht 1000 Folder-Properties anlegen muss.
- Index-Report: Mehr Verlässlichkeit und häufigere Aktualisierung (>20 Tage keine Daten sind teilweise wirklich ein kritisches Problem. Kein Update der Indexierung bei größerer Migration ist mehr als ärgerlich. Wirklich!)
- Index-Report wollen wir nicht sortieren nach “Wann hat Google die URL kennengelernt”. Durch die aktuelle Sortierung sieht es so aus, als ob URLs in Crawled not indexed fälschlich reported sind, weil der manuelle Check im Sample immer indexierte URLs ausgibt.
- URL Inspection: Wenn Weiterleitungen (oder Canonicals) gefolgt wird, dann ausgeben, dass die stattgefunden haben. Muss ja nicht die ganze Kette sein, aber eine URL als Blocked by Robots zu reporten, weil eine URL in der Weiterleitungskette blockiert ist, ist mindestens irreführend.
- URL-Removals: UX könnte hier Usern mehr Sicherheit geben, was wann passiert. Und auch deutlich machen, dass die Inhalte nicht aus dem Index entfernt werden, sondern nur verhindert wird, dass sie auf der SERP angezeigt werden.
Ich glaube nicht, dass auch nur einer dieser Wünsche 2026 Realität wird. Vielleicht könnte es was mit Nummer 7 werden. Eventuell mit Nummer 10.
Wir können natürlich mit der Nutzung der Feedback-Funktion in der GSC die Wahrscheinlichkeit erhöhen, dass wir vielleicht doch beschenkt werden.
Wer mir den Screenshot mit der schönsten Feature-Wunsch-Einreichung bei Google schickt, der bekommt von mir übrigens eine einstündige GSC-Review-SEO-Strategie-Session geschenkt. Screenshot der Einreichung machen und per Mail an [email protected]. Die ersten drei Einsendungen gewinnen.
Alles andere würde mich sehr überraschen und umso mehr freuen!