Google und andere Internetriesen stehen gerade vor dem US-amerikanischen Verfassungsgericht, wo Section 230 des Communication Decency Acts von 1996 verhandelt wird (Gonzalez vs. Google, Twitter, Inc. vs. Taamneh).
Angehörige von Opfern von Terrorismusanschlägen machen Empfehlungsalgorithmen sozialer Medien wie Youtube, Facebook oder Twitter mitverantwortlich dafür, dass sich Menschen im Netz zu Terrorist:innen radikalisieren.
Section 230 hat viele Jahre lang Internetplattformen in die Situation eines Mischwesens versetzt. Einerseits genossen sie die Vorteile reiner Hostinganbieter, bei denen Nutzer:innen Inhalte posten konnten, für die die Plattformen selbst nicht zur Verantwortung gezogen werden konnten.
Andererseits durften die Unternehmen durchaus Spam, Gewalt und sonstige unerwünschte Inhalte nach eigenen Regeln moderieren und entfernen, ohne dass sie dadurch automatisch als Medienunternehmen mit redaktioneller Verantwortung für ihre Inhalte klassifiziert wurden.
Der gesellschaftliche Wunsch nach Verantwortung
Während wir Zeitungen zur Rechenschaft ziehen, auf Unterlassung verklagen und zur Gegendarstellung bringen können, wenn diese ihrer journalistischen Sorgfaltspflicht nicht nachkommen, haben wir bei obszönen Falschmeldungen und extremen Verschwörungserzählungen in sozialen Medien keine griffige Handhabe.
Obwohl Internetfirmen aus dem Eigeninteresse heraus, ein ziviles Produkt als angenehme Umgebung für Werbeeinnahmen zu bauen, schon viel Anstößiges löschen, sperren und moderieren, sind die Rufe nach mehr Verantwortung gerade nach live gestreamten Terrorakten groß. Schärfer eingreifen, fordern die einen. Zensur und Verstoß gegen die Meinungsfreiheit die Anderen.
Maschinelle Redaktion?
Bislang konnten sich die Plattformen darauf zurückziehen, lediglich die Infrastruktur für die Beiträge der Nutzer:innen zu stellen, selbst aber keine Inhalte zu publizieren.
Neu in der Argumentation der zwei Gerichtsverfahren, die hier vom Guardian skizziert sind, ist Folgendes: Die Algorithmen, die vorschlagen, welche Videos man sich als nächstes ansehen könnte, lassen sich nicht mehr als User Generated Content (UGC) bezeichnen. Sie sind vergleichbar mit der redaktionellen Entscheidung, welche Themen es in eine Zeitung schaffen und welche nicht.
Das leuchtet ein. Die Auswirkungen auf das Ökosystem Internet, wenn Section 230 gekippt würde, lässt sich allerdings kaum überschätzen. Man muss sich vor Augen führen, dass vermutlich mehr als 90 Prozent aller Inhalte im Internet Schrott, Spam und Betrug sind. Stellt man die Internetplattformen vor die Wahl, entweder gar nicht auszusieben und alles durchwinken oder aber für alles, was noch gepostet werden darf, die volle Verantwortung zu übernehmen, gibt es zwei Optionen:
-
Eine Welt mit noch mehr Mist, bei dem man selbst kaum noch zu den Perlen, die man gerne konsumieren möchte, finden würde.
-
Oder eine Welt, in der übervorsichtig viel zu viel gelöscht würde.
"Horror-Show" vs. "Truman Show", wie der Google-Anwalt es ausdrückte. Ohne Twitter wären die Besorgnisse von Virologen nach dem Covid-19-Ausbruch vermutlich erst wesentlich später in die öffentliche Sphäre gelangt. Videos von Polizeigewalt würden es ohne soziale Medien mit Section-230-Schutz vermutlich nicht geben.
Wettbewerbshindernisse für die Kleinen
Beide Extremszenarien würden außerdem kleineren Plattformen das Leben schwerer machen als den großen Playern. Mit ungefilterten Schrottinhalten wird es kaum möglich sein, sich am Markt zu etablieren. Unsummen in ein ausreichend funktionierendes Content-Filtering zu investieren, kann sich dagegen eine aufstrebende Plattform vermutlich kaum leisten.
Der Supreme Court scheint sich der Verantwortung bewusst zu sein – auch wenn Richterin Elena Kagan zugab:
"You know, these are not like the nine greatest experts on the internet."
Was hat das mit SEO zu tun
Nun, das Internet ist das Ökosystem, in dem wir alle Inhalte auf Webseiten und sozialen Medien publizieren. Algorithmen, nach denen Player wie Google "entscheiden", welche Inhalte gesehen werden und welche nicht, sind die Basis, von der wir unsere Handlungsempfehlungen ableiten.
Wie siehst Du das? Sind Algorithmen wie redaktionelle Entscheidungen? Oder gerade kein menschliches Abwägen im Einzelfall? Wie könnte eine Kompromisslösung aussehen, wonach wir als Gesellschaft Regeln aufstellen wollen, die eingrenzen, was online verfügbar sein und priorisiert gezeigt werden sollte und was nicht?