Zum Hauptinhalt springen

Am Wochenende war Tesla-Gründer Elon Musk wegen einer angeblichen Affäre mit der damaligen Frau von Google-Gründer Sergey Brin in die Schlagzeilen geraten. Und damit in die Schlagzeilen-Box. Soweit so irrelevant für SEO und die Wingmenschen.

Brisanz bekommt das Ganze durch den Umstand, den Barry Schwartz in seinem Tweet festgehalten hat:

![Barry Schwartz: "So Google thinks @elonmusk has affair with Sergey Brin".](https://lh6.googleusercontent.com/Irq5458Su9Mmpk640DgrNjWsOvpKQ10Dq6Mw2n1TnkCrYUjvgjkhiG7AYZiN-FTXEQaHKFF0xNo2JwHbKBwAqZFQkzvRYPMmsni5VRUlrefqFgEItJkVyi08BGMstVw6ByascyXd5asuEChGJ796Nd8 "Barry Schwartz: "So Google thinks @elonmusk has affair with Sergey Brin".")

Google verdreht die Fakten und befeuert Gerüchte: In den Suchergebnissen zu "elon musk" fasst Google die einzelnen News aus der Schlagzeilen-Box falsch zusammen und dichtet Elon Musk und Sergey Brin eine gemeinsame Affäre an. Das ist auf vielen Ebenen problematisch.

So genannte "Fake News" sind online aufgrund der Reichweiten und Multiplikation in Echtzeit ein noch größeres Problem als in analogen Medien. Google und andere dominierende Such- und Entdeck-Plattformen wie Facebook (Meta) haben aufgrund der Netzwerkeffekte eine noch größere Verantwortung, was die Korrektheit der Fakten und das Vermeiden der Verbreitung von Falschinformationen betrifft.

Eigene Ansprüche: Hohe Anforderungen an die Korrektheit von Informationen

Google stellt deshalb besonders hohe Anforderungen an Verlage und Nachrichtenseiten, wenn diese in Google News oder Google Discover ausgespielt werden möchten. Stichwort E-A-T (Expertise, Authoritativeness & Trustworthiness):

Gemäß der Quality Rater Guidelines von Google sind Webseiten mit der niedrigsten Qualitätsstufe zu bewerten, wenn sie "eindeutig falsche Informationen enthalten, die sich leicht widerlegen lassen". Als Beispiel wird eine falsche Behauptung über Celebrity Miley Cyrus' angeblichen Tod genannt.

!["This is a factually inaccurate article on a website called "Now 8 News". It falsely claims Miley Cyrus is dead." - "Harmfully Misleading Information, Untrustworthy. Contains clearly inaccurate information that can easily be refuted by straightforward and widely accepted facts"](https://lh3.googleusercontent.com/gU4-vGw1yYNlm7KFU4SbXD7L5rTDCqG80Tzc7tdKl8N8nuVEYyUwpkJcHAV4C_sIB4J8KWRYxwpN6s9pS__xyHpfF5tXN7fI0Dek9lBAiMnvXYl-j_zmDY_Kk36wLi9WVqsUaVt6N2wVSdl3zNdr6sU ""This is a factually inaccurate article on a website called "Now 8 News". It falsely claims Miley Cyrus is dead." - "Harmfully Misleading Information, Untrustworthy. Contains clearly inaccurate information that can easily be refuted by straightforward and widely accepted facts""")

Über das Liebesleben von Tech-Gründern sind wir hier in Hamburg vielleicht nicht immer auf dem richtigen Stand, aber dass die Schlagzeilen falsch zusammengefasst wurden, hat das menschliche Auge schnell erfasst, sofern es mit seinem kongenialen Pupillen-Partner in der Grundschule die Hürde "sinnerfassendes Lesen" genommen hat.

Offiziell sind automatisch generierte Texte gegen Googles Richtlinien

Google selbst verbittet sich automatisch generierte Inhalte auf Webseiten, sofern sie in der Google-Suche ranken sollen. Diese Richtlinie sollte ursprünglich stumpfes Spinning von Texten anhand von Mustern und Synonymen verhindern. Google-Sprecher John Müller lässt in den SEO Office Hours vom 01.04.2022 (ab Min 22:20) allerdings erahnen, dass die Identifikation von KI-Inhalten zunehmend schwieriger werden könnte.

Google selbst setzt aber Machine Learning und Künstliche Intelligenz nicht nur für das Verstehen von Websites, Indexierungs- und Rankingprozesse ein, sondern offenbar auch für Textzusammenfassungen in den Suchergebnissen.

Nuancen besser verstehen seit BERT

Während sogenannte "Stop-Wörter" wie "und", "zu", "auf" und "von" in klassischen "Information Retrieval Systemen" ignoriert werden, brüstet sich Google seit BERT (Bidirectional Encoder Representations from Transformers) damit, die Feinheiten, die diese Worte der menschlichen Sprache mitgeben, viel besser zu verstehen.

So macht es schon einen Unterschied, ob ich ein Visum brauche, wenn ich aus Brasilien in die USA reise – oder umgekehrt. Dieses 3-Minuten-Video zeigt weitere beeindruckende Beispiele.

![Before and after BERT results for the search query "2019 brazil traveler to usa need a visa"](https://lh6.googleusercontent.com/a0dhqdD1irMWueIGvXpDzIGQLfyiT1BcLc53kAlO1XS6sduLCVFDrDUORy_cL5syJp6yQ499W4C0h1HL_Ynv7Wa8w1m3lorMSIt3SZb2f2ow1i6eC3LiPBGkoz_M2UTrvcan08oAsWSjT7-r5DvdzYk "Before and after BERT results for the search query "2019 brazil traveler to usa need a visa"")

Doch offenbar kommt Googles KI schon bei einer Klatsch-Schmonzette mit drei Personen gehörig durcheinander.

Dass mit Sergey Brin selbst ein Google-Gründer nicht vor dieser Falschdarstellung gefeit ist, bietet zwar Anlass zur Häme, sollte uns aber nicht beruhigen. Die meisten Fehler werden einem größeren Publikum verborgen und längere Zeit unkorrigiert bleiben.

Das ist ein Artikel aus unserem Newsletter. Wenn Du jeden Dienstag Morgen schlauer werden möchtest, melde jetzt kostenfrei für den SEO-Newsletter an

Kurze, praxisnahe SEO-Tipps – maximal 1× pro Woche. Keine Werbung, kein Spam.

Deine Daten sind bei uns in guten Händen und werden ausschließlich für diesen Newsletter genutzt.