Zum Hauptinhalt springen

Die Entwickler der Google Search Console (GSC) waren mal wieder fleißig und haben in den letzten Tagen zwei relevante Updates rausgehauen:

Users and permissions

Die User Permissions wurden angepasst. Zugegeben, das bringt Dir jetzt keine spannenden neuen Insights für Deine SEO-Aktivitäten, aber es ist relevant. Es ist nun nicht nur möglich, die Nutzer mit Zugriff und deren Rolle einzusehen, sondern es gibt auch eine History und eine Auflistung der Verification-Tokens, die eventuell noch rumfliegen.

Nicht wenige Properties sind aus unterschiedlichen Gründen mehrfach authentifiziert. Da gibt es bespielsweise die Accounts dieser generischen Performance Marketing Agentur, die seit Jahren nicht mehr mit Deinem Unternehmen zusammenarbeitet. Dein Vorgänger hatte vielleicht vergessen, deren Zugriff auf Eure GSC abzuklemmen. Das hast Du vielleicht bereits nachgeholt, als Du den Posten übernommen hast. Jetzt kannst Du in der GSC aber auch sehen, dass von denen immer noch ein GSC-Verification HTML im Root Deiner Domain vor sich hin oxidiert.

Guck Dir also die neuen Berichte über Nutzer und Berechtigungen Deiner GSC-Properties mal an. Vielleicht gibt es da was aufzuräumen. Auch wenn es ein langweiliges Thema ist.

Big Query Bulk Export

Für die meisten Properties reicht das GSC-Frontend mit seinen 1.000 Zeilen nicht aus, um die Details des Performance Reports auszuspucken. Mit viel Filter-Mühe bekommt man im Zweifel das meiste geklärt.

Aber die GSC-API ist da schon ein Game Changer. Damit kann man zügig ein komplettes Bild abfragen. Außer die Property ist wirklich groß. Dann läuft man in das Daily-data-row-limit. Das ist zwar selten ein Problem. Aber es gibt dann doch Properties, wo das einen signifikanten blinden Fleck hinterlässt...

Doch nun gibt es Abhilfe: Die Big Query Bulk data exports. Sobald das Feature für Deine Property ausgerollt ist, kannst Du Dir die Search Console Daten in ein Big Query Projekt pumpen lassen. Und dann ohne das Daily-data-row-limit. Als einzige Begrenzung bleiben die anonymized Queries...

Aber nicht nur das. Die Dokumentation für die GSC Big Query Tables zeigt einige interessante Details. Neben ein paar praktischen Dimensionen wie "is_anonymized_query", um Filtern zu erleichtern (und sparsamere Big Query Abfragen bauen zu können).

Und last but not least: in Deinem Big Query Projekt, bestimmst Du, wie lange Du die Daten speicherst. 16 Monate wie in der GSC, 24 Monate, um volle Year-over-Year-Vergleiche machen zu können, für immer und ewig oder einfach nur 3 Monate, weil Du Dich nostalgisch nach den einfacheren Zeiten der alten Search Console sehnst Budget für Big Query möglichst gerin halten willst.

Denn bei all der Freude über viele Daten solltest Du natürlich bedenken, dass die Auswertung nicht ganz trivial ist und BigQuery im Gegensatz zur GSC durchaus Geld kostet. Je nach Anwendungsfall sind Tools wie Ryte – wir sind übrigens sehr freiwillig Ryte-Partner, die ebenfalls mehr GSC-Daten bieten, eine mögliche Alternative.

Wenn man die Abfragen geschickt gestaltet und Big Query Best Practices einhält, lässt sich das Preisschild aber durchaus in einem vertretbaren Rahmen halten. Mir juckt es auf jeden Fall in den Fingern, die ersten Auswertungen zu starten.

Das ist ein Artikel aus unserem Newsletter. Wenn Du jeden Dienstag Morgen schlauer werden möchtest, melde jetzt kostenfrei für den SEO-Newsletter an

Kurze, praxisnahe SEO-Tipps – maximal 1× pro Woche. Keine Werbung, kein Spam.

Deine Daten sind bei uns in guten Händen und werden ausschließlich für diesen Newsletter genutzt.