Zum Hauptinhalt springen

Nachdem Google den SEOs in der GSC pünktlich zu Weihnachten einen hübschen Graphen über die stündlichen Daten der letzten 24h unter den Weihnachtsbaum gelegt hat (Nils hat darüber berichtet), folgt nun zu Ostern die nächste Überraschung. Zwischen Schoko-Osterhasen und eiförmigen Schnapspralinen versteckt Google ein API-Update. Jetzt sind die stündlichen Daten auch via API verfügbar. Und das nicht nur die letzten 24 Stunden, sondern die letzten 10 Tage!

Für Publisher, bei denen im News-Rennen häufig schon Minuten den Ausschlag geben, ist es natürlich spannend, schon am laufenden Tag zu sehen, welche Artikel Google Traffic bringen.

Und jetzt können sie die Daten der aktuellen Top-Artikel in ein stündlich aktualisiertes Redaktions-Dashboard flanschen, anstatt immer in die GSC zu gucken. Allerdings sind die Daten auch nicht live, sondern hatten in meinen Tests eine Verzögerung von 9h. Aber ich stell mir das sowieso auf einem 120”-Display im Newsroom vor, die beeindruckend aussehen, wenn man Gäste durchs Verlagsgebäude führt, aber sonst kaum beachtet werden.

Das eigentlich Interessante in der News-SEO-Praxis ist es, für unterschiedliche Themen die Tageszeiten auszuwerten, um Veröffentlichungszeitpunkte zu optimieren. Dafür kann man sich jetzt die Datenbasis gut aufbauen.

Für die meisten SEOs dürfte es kaum einen Unterschied machen, ob der Traffic um 13:00 Uhr oder um 14:00 Uhr vorbeikommt. (Non-News-)SEO ist ein Dauerlauf, der sich über Monate abspielt.

Trotzdem sind die Daten nicht völlig uninteressant, auch wenn Dein SEO-Game nicht ganz so hektisch ist wie bei News-Publishern. Die Daten können helfen, Deine Zielgruppe besser zu verstehen.

Ändert sich die Art, wie nach Deinen Produkten gesucht wird, abhängig von der Tageszeit? Vielleicht Top-of-the-Funnel-Suchanfragen eher am Sonntagnachmittag und conversion-nahe Queries Montagmorgens?

Auch das macht für Dein SEO kaum einen Unterschied. Die Landingpage ist ja immer online, 24/7 (falls nicht, hast Du gerade vermutlich Wichtigeres zu tun). Aber Deine SEO- und Social-Media-Kollegen finden die Info dafür vielleicht umso spannender.

Ich habe mir mal angeguckt, was da für Daten aus der API purzeln und inwiefern sie von den tageweisen Daten abweichen:

Der Blick auf den Timestamp

Das Format sieht so aus: 2025-04-10 21:00:00-07:00

Die Zeitzone ist aktuell die Pacific Daylight Time (7 Stunden hinter der UTC). Also ist die angegebene Uhrzeit 9 Stunden hinter unserer. Der Timestamp wäre umgerechnet auf unsere lokale Zeit (mitteleuropäische Sommerzeit, MESZ) 2025-04-11 06:00+02:00.

Die Zeitzone ist übrigens generell die Zeit, in der die GSC läuft. Nur falls Du Dich mal wunderst, wenn ein Traffic-Peak am frühen Morgen laut GSC schon gestern begonnen hat.

Zur nächsten Zeitumstellung sehen wir dann auch, wann die GSC von Sommerzeit auf Winterzeit umschaltet. Bist Du auch so gespannt wie ich? (Also nicht, dass ich wirklich doll gespannt wäre, aber es interessiert mich genug, dass ich mir eine Kalendererinnerung für den Herbst gemacht habe, dass ich dann mal nachgucke, wann es von den -07:00 für PDT auf die -08:00 für PST (Pacific Standard Time) umstellt).

Für den Hausgebrauch reicht es vermutlich aus, sich der Zeitzone bewusst zu sein oder von Deinem Datenanalyse-Tool die Uhrzeit automatisch umrechnen zu lassen.

Wie genau sind die Daten?

Ich habe mir einmal ein kleines Testset (von einer hier nicht genannten GSC-Property und in den Plots bewusst zensierten Y-Achsen) gezogen und die aktuell verfügbaren Stundendaten (2025-04-01T09:00:00-07:00 bis 2025-04-11T01:00:00-07:00) auf den ganzen Tag aggregiert und mit den normalen tageweisen Daten (2025-03-31 bis 2025-04-10) verglichen.

Es gibt ein paar aufschlussreiche Abweichungen. Falls Dich Details interessieren, habe ich aufgeschlüsselt, was ich mir angeguckt habe und wo die Unterschiede in den Daten liegen. Falls beim Angucken Dein innerer Monolog von technischen Rauschen übertönt wird, kannst Du getrost bis “Was bedeutet das” weiterscrollen

Hier die Details:

byProperty

Wenn ich die Daten ungefiltert angucke und nicht nach Page oder Query filtere, sind diese nahezu gleich. An den unvollständigen Tagen (2025-04-01 und 2025-04-11) sind die Stundendaten natürlich zu niedrig, da jeweils nur ein Bruchteil des Tages in den Daten ist:Tageweise Zeitreihe der GSC-Metriken byProperty als Liniendiagramme.
Je ein Graph für Clicks, Impressionen, CTR und Position.
Abgesehen von den ersten Tagen und dem letzten Tag überschneiden sich die hourly und daily Daten weitestgehend. an den Rand-Tagen ist sind die Werte für Clicks und Impressionen signifikant geringer.

byProperty ohne anonymized Queries

Wenn man anonymized Queries herausfiltert, kommt es aber zu Abweichungen:

  • Die Hourly-Daten haben minimal mehr Klicks (außer an den unvollständigen Tagen).
  • Die Impressionen sind signifikant weniger in den Hourly-Daten.
  • Die CTR ist natürlich entsprechend ungenau.
  • Die durchschnittliche Position scheint weiterhin gut zu passen.

Tageweise Zeitreihe der GSC-Metriken byProperty, ohne Anonymized Queries, als Liniendiagramme.
Je ein Graph für Clicks, Impressionen, CTR und Position.
Clicks und Position stimmen wieder überein, Impressionen sind aber in den Hourly Daten niedriger, CTR entsprechend höher. Am letzten vollständigen Tag gleichen sich die Daten für CTR und Impression an.

byPage

Wenn man die Daten auf byPage umstellt (sprich nach URLs filtert), zeigt sich Folgendes:

  • Die Klickdaten passen nahezu 1:1.
  • Aber: wir haben massiv mehr Impressionen als die gleiche Filterung in den Daily-Daten!
  • Die CTR ist entsprechend natürlich wieder ungenau.
  • Die Positionsdaten weichen massiv ab.

Tageweise Zeitreihe der GSC-Metriken byProperty, ohne Anonymized Queries, als Liniendiagramme.
Je ein Graph für Clicks, Impressionen, CTR und Position.
Clicks stimmen überein, Impressionen in den Hourly-Daten sind höher als die Daily-Daten. Positionen sind Signifikant Niedriger.

byPage ohne anonymized Queries

Wenn wir bei den byPage-Daten die anonymized Queries herausfiltern, sehen wir Folgendes:

  • Die Klickdaten passen weiterhin gut.
  • Aber: jetzt sind es ohne die anonymized Queries plötzlich wieder weniger Impressions!
  • Die CTR ist entsprechend natürlich wieder ungenau.
  • Dafür sind die Positionsdaten wieder einigermaßen passend.

Tageweise Zeitreihe der GSC-Metriken byProperty, ohne Anonymized Queries, als Liniendiagramme.
Je ein Graph für Clicks, Impressionen, CTR und Position.
Clicks und Positionsdaten stimmen wieder überein. Impressionen sind hier wieder niedriger, CTR weicht entsprechend auch ab. Am letzten vollständigen Tag gleichen sich die Daten für CTR und Impression an

Einzelne Keywords

Geht die Abweichung auf einzelne Keywords zurück oder weichen alle ein bisschen ab? Ich habe mir dazu nochmal angeguckt (aber ohne das zu plotten, also ohne buntes Bild ¯\_(ツ)_/¯ ), wie sich die Daten zum Keyword "seo newsletter" (auf einer weiteren, hier nicht genannten GSC-Property) verhalten haben. Das war aber auch langweilig. Die Daten haben 1:1 gepasst. Außer in den letzten zwei Tagen. In dem Zeitraum, in dem es Preliminary-Daten gab, gab es minimale Abweichungen (in Summe zwei Impressionen).

Das hat sich auch bei einer (sehr) kleinen Stichprobe anderer Keywords auf anderen Properties so bestätigt.

Was bedeutet das alles?

Dieser Artikel ist jetzt keine umfangreiche Analyse, sondern ein am Freitagnachmittag vor Feierabend hingelunztes Datengedengel mit Stichprobengröße n=1. Die aggregierten Effekte können sich je nach Keyword-Ausrichtung stark verändern. Wenn Deine Domain ein sehr Longtail- oder Shorthead-lastiges Keywordset hat, sieht es vielleicht anders aus. Also nagel mich nicht darauf fest (Falls Du mit mir auf Deine Daten schauen willst, um das doch zu tun, melde Dich gern). Mit dem Disclaimer vorweg treffe ich folgende Aussagen:

Die Daten gehen vermutlich auf die gleichen Datensätze zurück wie die Preliminary-Daten.

Bei aggregierten Impressionen muss man ein wenig aufpassen. Wenig gesuchte Longtail-Keywords sind noch nicht verarbeitet. Ich vermute, selten abgefragte Keywords werden in den Hourly- und Preliminary-Daten eher anonymisiert als in den endgültigen Daten. Das würde die geringeren Impressionen erklären, sobald wir anonymized Keywords herausfiltern.

Die zu viel reporteten Impressionen im byPage-Datensatz sind vermutlich auf noch nicht abgeschlossene Deduplizierungs- oder vielleicht Bot-Filter-Prozesse zurückzuführen.

Du kannst auf jeden Fall mit den Daten arbeiten. Im Trend sind die Daten sehr gut vergleichbar, und Traffic-Peaks für Deine Top-Landingpages oder -Keywords zu identifizieren, reicht es allemal.

Das ist ein Artikel aus unserem Newsletter. Wenn Du jeden Dienstag Morgen schlauer werden möchtest, melde jetzt kostenfrei für den SEO-Newsletter an

Kurze, praxisnahe SEO-Tipps – maximal 1× pro Woche. Keine Werbung, kein Spam.

Deine Daten sind bei uns in guten Händen und werden ausschließlich für diesen Newsletter genutzt.