Die wohl wichtigsten Daten, die wir aktuell in der GSC zur Verfügung gestellt bekommen, sind Performance-Daten aus der Google Suche (& Discover). Die Daten werden nicht in Gänze ausgegeben, sondern aufbereitet und aggregiert. Das funktioniert insgesamt sehr gut (auch wenn neulich noch ein paar Verbesserungswünsche bei Google abgegeben wurden).
Ein paar Details zu der Aggregation rückt Google in diesem Google Search Central Blog-Beitrag aus letztem Oktober heraus: A deep dive into Search Console performance data filtering and limits.
"This post explains in detail the data available and how Google processes it, including privacy filtering and other limitations related to serving latency, storage, and processing resources."
Die 4 Metriken des Performance Reports kannst Du als SEO sicher im Schlaf aufzählen:
-
Klicks
-
Impressionen
-
CTR
-
Position
Wie genau sie berechnet werden, wird übrigens in diesem Artikel im Detail aufgedröselt. Also zum Beispiel: Wann genau wird eine Impression gezählt? Was gibt es zu beachten, was die Agreggationsformen "by property" und "by page" betrifft? Zu diesem Thema empfehle ich auch immer gerne Behrends Wissensbeitrag (auch wenn der an ein paar Stellen schon wieder überarbeitet werden sollte \hust\)
Diese Metriken werden durch die Dir sicherlich ebenfalls geläufigen Dimensionen zur Betrachtung ergänzt:
-
Queries
-
Pages
-
Countries
-
Devices
-
Search Appearance
So weit, so klar. Jetzt wird es aber spannend, also Ohren spitzen:
"Both the data in the report interface and the data exported are aggregated and filtered in different ways."
Wenn man das nicht weiß oder vergisst, kann es passieren, dass man vor den Daten steht und sich auf vermeintliche Anomalien und Widersprüche keinen keinen Reim machen kann. Happens to the best of us, daher kann man es gar nicht oft genug nochmal ins Bewusstsein rufen. (Hier nochmal der freundliche Hinweis auf den oben referenzierten Artikel von Behrend, denn doppelt gemoppelt hält besser ❤️)
Außerdem werden die Daten durch zwei Faktoren eingeschränkt: Privacy Filtering (zu deutsch "Datenschutzfilterung") und das Daily Data Row Limit (aka das dezent behördlich klingende "Tageslimit für Datenzeilen").
Privacy Filtering
Weil einige Suchanfragen extrem selten sind, sind sie nicht Teil der Search Console Daten. So soll die Privatsphäre der Suchenden geschützt werden (und die Datenbank von Google vor zu rechenaufwändigen Filtern, aber Datenschutz klingt halt besser). Diese Suchanfragen werden als "Anonymized Queries" bezeichnet.
"Anonymized queries are those that aren't issued by more than a few dozen users over a two-to-three month period."
Die Anonymized Queries werden in der GSC generell mitgezählt. Aber sobald Du auf Queries filterst oder Dir die Keywords ausgeben lässt, fliegen sie aus den Daten. Das bedeutet, dass die Summe aus Brand und Non-Brand Queries niedriger ist, als das ungefilterte Gesamtergebnis.
Ein konkretes Beispiel: Für einen bestimmten Zeitraum werden für diese Property 157 Klicks reportet. Wenn wir einen Filter anwenden, der einen Query einschließt, bekommen wir für den Betrachtungszeitraum 15 Klicks. Drehen wir den Filter um und schließen den Query aus, sind es 27 Klicks. Summieren wir beide Filter-Werte auf, kommen wir auf 15 + 27 = 42 Klicks. Zu den 157 Klicks, die wir initial ohne Filter gesehen haben, beträgt die Differenz 115 Klicks. Diese 115 Klicks sind die anonymisierten Suchanfragen, die zwar in die Gesamtsumme mit eingehen, in der Filter-Ansicht aber nicht.
Je nachdem wie Longtail-lastig Dein Traffic ist, können diese Queries auch der Großteil Deines Traffics sein. Das bedeutet nicht, dass die Daten falsch sind, aber es ist natürlich ein blinder Fleck. Du kannst aber davon ausgehen, dass die Anonymized Queries der Longtail sind und wahrscheinlich sind es spezifische Varianten der bekannten Keywords.
Daily Data Row Limit
Aus verschiedenen Gründen stellt uns Google in der GSC nur 1.000 Zeilen zur Verfügung.
"Due to limitations related to serving latency, storage, processing resources, and others, Search Console has a limit on the amount of data that can be displayed or exported."
Über die API bekommst Du bis zu 50.000 Zeilen. Aber auch das reicht nicht immer aus. Bei großen Properties kann es sein, dass nicht der komplette Traffic darüber ausgegeben werden kann. Mittels verschiedener Subfolder-Properties ist es möglich, noch mehr Daten zu bekommen. Aber das kann sehr umständlich sein, und es sind nur Keywords und Seiten mit dem geringsten Traffic betroffen. Wichtige To Dos identifiziert man so eher selten.
Mach Dir einen Reim auf Ungereimtheiten
Wenn Du Dich also das nächste Mal durch GSC-Daten wühlst und Dir etwas merkwürdig vorkommt, dann denk daran: Vielleicht sind es die Logiken by property und by page, die Dir hier einen kleinen Streich spielen. Oder die Anonymized Queries stiften Ninja-artig Verwirrung. Falls diese fiesen Fallen keine Erklärung für Deine Fragezeichen liefern - nicht verzagen, gerne bei uns nachfragen! Bisher haben wir jedes Mysterium ergründen können.