Ich habe mir nach langer Zeit mal wieder intensiv die Search Quality Evaluator Guidelines (SQEG) von Google angeschaut. Im internationalen Raum kam das Thema durch Cyrus Shepard zwischenzeitlich wieder auf. Nach den Schlagzeilen ist es dann schnell wieder still geworden.
Im Gegensatz zu den Leaks sind die SQEG seit Jahren frei verfügbar und beschreiben, wie Google durch (bisher) Menschen die Suchergebnisse und Websites/Inhalte bewerten lässt.
Im Kern drücken die SQEG aus, was Google gut findet, was nicht und wo sie hinmöchten. Die Ergebnisse der Rater fließen ins Machine Learning der Algorithmen ein.
Die SQEG sind der "kleine hässliche Bruder der Google Leaks", weil wir seit Jahren gesagt bekommen, was wir tun müssen. Aber irgendwie halten wir uns nicht daran oder sagen, dass Google sich undeutlich ausdrückt. Das sehe ich anders.
Aufwand und Originalität als wichtige Zutaten für hochwertige Inhalte
Google spricht unterschiedliche Punkte (relativ) direkt an. Zum Beispiel, welche Rolle "Effort", also Aufwand bei der Erstellung von Inhalten spielt (das tauchte auch im Leak auf):
"[...] automatic creation of thousands of pages by running existing freely available content through existing translation software without any oversight, manual curation, etc., would not be considered to have human effort."
Hast Du also eine reine KI-Content-Maschine, dann ist dieses Projekt langfristig vielleicht nicht die sicherste Plattform, auf der Du stehst.
Ein gutes Gegenbeispiel ist die Pflanzen-App Greg, zu der ich bereits einen Artikel geschrieben habe. Allerdings geht es auch hier seit dem Core Update bergab.
Google ist auch wichtig, dass Du einen MEHRwert bietest – etwas, was die anderen nicht haben. Sie nennen es "Originality" in den SQEG (per Definition passt dazu auch Information Gain):
"[...] Originality: Consider the extent to which content offers unique, original content that is not available on other websites. [...]"
Wenn man von außen schnell erkennt, dass Du Dir keine Mühe gibst, oder anderen nur nachplapperst, dann wirst Du weder Deine User begeistern, noch Google.
Also lieber
- gute, einzigartige Inhalte zaubern,
- die sich aus den Wellen des KI-Ozeans abheben und
- Dir Mühe geben, da Schwierigkeit ein Burggraben ist.
Saskia hat zum Thema Information Gain letztens auf dem SEO Meetup Hamburg einen Vortrag gehalten und mit Björn Darko im SEOPresso Podcast gesprochen.
Programmatic SPAM und zusammenkopierter Müll
Auto-generated Content = oft Spam, zumindest laut der Evaluator Guidelines.
Programmatic SEO hat in einer Prüfung, ob es sich um hochwertige Inhalte handelt, auf jeden Fall mehr Steine im Weg liegen als andere Inhalte. Abseits vom angesprochenen Effort schreiben sie unter anderem Folgendes:
"Pages and websites made up of auto-generated content with no editing or manual curation, and no original content or value added for users, should be rated Lowest."
Wenn man sich dabei also keine Mühe gibt, ist die Page Quality Lowest – erwartungsgemäß. Aber treffen einzelne Kriterien zu, ist die Seite ebenfalls nicht von höchster Qualität.
Bei kopierten Inhalten ist schwer zu sagen, ab wann das Fass übergelaufen ist. Spätestens, wenn man sich selbst die Frage stellt, ist der Fall vermutlich eingetreten.
"The Lowest rating is appropriate if all or almost all of the MC on the page (including text, images, or videos) is copied, embedded, or reposted with little or no effort, talent, skill, manual curation, or added value for users.
Such pages should be rated Lowest, even if the page assigns credit for the content to another source."
Das ist jeweils ein "oder" in der Aufzählung für das, was Page Quality Lowest bedeutet:
- "\[...\] copied, embedded, or reposted \[...\]" und
- "with little or no effort, talent skill, manual curation, or added value for users"
Auch die Angabe einer Quelle der kopierten Inhalte hilft Dir nicht weiter. Es werden auch explizit "öffentlich verfügbare Daten" angesprochen.
Heißt: Wenn Deine Programmatic SEO-Strategie nicht auf eigenen Daten (= proprietary data) fußt, ist Dein Fundament auf Wasser gebaut.
So viele Ads sind zuviel
Die Frage kommt immer wieder bei uns an - vor allem bei Publishern: Wie viele Ads sind zu viel? Auch hier sage ich: Wenn Du die Frage stellst, ist das Fass vermutlich schon übergelaufen.
Schau' in die SQEG rein und vergleiche Deine Inhalte mit den Beispielen für Highest, Lowest und alles was dazwischen ist. Aber ganz wichtig: Die Ads alleine sind nicht dafür verantwortlich, dass Deine Inhalte insgesamt als Lowest eingestuft werden.
Der Zweck der Seite, der Typ der Seite, die Qualität des Main Content, der Seitentitel, die Reputation der Website und des Creators, sowie weitere Aspekte spielen auch eine Rolle.
Helpful Content ist gar nicht so schwierig zu verstehen
Wenn man sich die SQEG durchliest und die Dokumentation von Google zu Themen wie Helpful Content, dann verstehe ich nicht, wieso viele SEOs immer noch sagen "Helpful Content? Das ist ein schwammiger Begriff".
Die Evaluierungsfragen finde ich gut und in den SQEG gibt es viele Beispiele, die man mit den eigenen Inhalten vergleichen kann. Es soll auch helfen, wenn man seine Inhalte mal unvoreingenommenen Menschen aus der Zielgruppe serviert und sich Feedback einholt.
Oder direkt Feedback in den Inhalten abfragen. Ein gutes Beispiel liefert REI bei den Ratgebern:

Eine zweite Idee: Bryan Casey hat auf Twitter vor einer Weile berichtet, dass IBM für lange Zeit den NPS von Inhalten erfasst hat.
Viele positive Rückmeldungen zu den Inhalten = der Inhalt ist hilfreich. Dafür muss man nur fragen, wie in der Sesamstraße.
Inwiefern kommt Helpful (Content) in den SQEG vor? Das erste Mal auf Seite 103 – da wo das Thema Needs Met beginnt. Needs Met beschreibt mehr oder weniger, wie gut die Suchintention, also der "Need" erfüllt wurde.
Wie kann eine Maschine das messen? Vermutlich nur über Nutzersignale. Davon hat Google jede Menge und über die Zeit einen guten Maßstab, was eine "befriedigte Suche" ist und was nicht.
Die Rater sind in der Hinsicht – meine Vermutung – lediglich als Richtschnur nützlich, was grundlegend eine hilfreiche SERP oder Suchergebnis sein könnte, denn Needs Met bezieht sich nicht nur auf URLs, sondern auch auf SERP Features.
Wir müssen unsere Gier nach Messbarkeit loslassen
Ich empfehle Dir, Dich mit den SQEG vertraut zu machen. Falls schon geschehen, gerne ein zweiter Blick. Vor einigen Wochen habe ich Dir erklärt, warum wir Dinge tun sollten, wenn sie sich richtig anfühlen und logisch sind. Das trifft hier erneut zu, daher drei wichtige Gedanken als Abschluss:
- Nur, weil Google heute etwas nicht messen kann, heißt das nicht, dass sie es morgen nicht messen können.
- Nur weil wir heute nicht glauben, dass Google etwas messen kann, heißt das nicht, dass sie es nicht jetzt schon messen können.
- Nur weil Google etwas nicht misst, heißt das nicht, dass dies keinen Einfluss auf Deine SEO haben kann.
Es ist also völlig egal, ob wir WISSEN, dass Google etwas misst oder nicht misst, weil Google versucht das zu spiegeln, was die meisten User gut finden. Wenn Du darauf setzt, dann jagst Du nicht den Algorithmus, der sich bereits morgen ändern könnte, sondern das, was langfristig Bestand hat, nämlich zufriedene Nutzer und Nutzerinnen.