Der Guardian meldet: ChatGPT nutzt Elon Musks "Grokipedia“ als Quelle. (SEOs wissen natürlich, dass das an der steigenden Sichtbarkeit der Plattform in der Suche liegt.) Die Empörung ist groß. Musk, der Desinformations-Verbreiter, verseucht unseren Chatbot.
Die Aufregung war vorhersehbar. Wahrscheinlich sogar das Ziel des Artikels.
Aber die Aufregung ist falsch. Sie ist zu klein.
Dass ChatGPT Quellen nutzt, die wir ablehnen, ist ein Symptom. Für die eigentlichen Fragen müssten wir tiefer gehen.
Ich nutze ChatGPT und Gemini viel – genau wie Cursor AI und die ganzen APIs da draußen.
Aber mir ist es wichtig, mir erst selbst Gedanken zu machen, die Qualität des Outputs zu sichern und zu challengen. Zu häufig sehe ich, wie sich Menschen mit AI Content blamieren. Aber auch das ist nur die Spitze des AIsbergs (Pun intended!).
Wir diskutieren über Inhalte, dabei verändert das Werkzeug selbst unser Denken und sogar unsere Kommunikation.
Früher oder später verändert AI unsere Realität. Über die guten Seiten wird viel gesprochen und über manche gefährliche auch (zum Beispiel in diesem tollen Artikel von Philipp). Aber mich treibt um, was die KI für unsere Gesellschaft und Demokratie bedeutet. Und ich möchte Dich herzlich einladen, Dir mit mir die Fragen zu stellen, auf die ich keine eigene Antwort habe und auch keine KI-generierte Antwort haben möchte:
1. Sind wir vorbereitet auf die Diktatur der Wahrscheinlichkeit und das Sterben der Fakten?
Das Problem ist nicht nur, dass KI falsche Meinungen übernimmt. Das Problem ist, wie KI Wahrheit definiert.
Für ein Sprachmodell ist wahr, was wahrscheinlich ist. Und wahrscheinlich ist, was oft vorkommt. Wenn Millionen von KI-generierten Spam-Seiten behaupten, die Erde sei eine Scheibe, ändert sich die statistische Gewichtung im Modell. Wahrheit wird zur (beeinflussbaren) Mehrheitsentscheidung.
Fakten lösen sich auf. Sie werden nicht widerlegt, sie werden überstimmt. Ein "Modellkollaps“ der Realität. Wenn wir diesen statistischen Raum nicht schützen, wird die Lüge zur Wahrheit, nur weil sie lauter ist. Wir erleben den Inzest der Intelligenz: Mit jeder Verarbeitung von AI durch AI stirbt ein kleines bisschen Wahrheit und verkrümelt sich in die statistische Wahrscheinlichkeit.
Wir haben kein Konzept, die Wahrheit zu retten. Wir SEOs reden von einer Welt ohne Webseiten, in der unsichtbare Maschinen miteinander verhandeln. Eine solche Welt ist antidemokratisch, weil sie den Diskursraum verengt, Menschen von Diskussionen ausschließt und die größten Aggregatoren Fakten definieren lässt (und da sind wir wieder bei Grokipedia).
2. Akzeptieren wir den kulturellen (K)Imperialismus?
Eine KI braucht Regeln. Die Trainingsdaten haben einen inhärenten Bias, einen starken US-Fokus. Einen Fokus auf bestimmte Quellen und Quellentypen.
Die Regeln des "System Prompt“ sollen das zum Teil korrigieren. Sie definieren, wie sich das Chat-System verhalten soll. Wie kommunizieren? Was ist "gut“ und was ist "böse“? Der System Prompt definiert, ob ChatGPT Dir sagt, wie man eine Bombe baut, oder Anlage-Tipps geben darf oder zu politischen Themen antworten darf. Ob die Qualität einer Quelle eingeordnet wird, oder alle Quellen gleichberechtigt sind.
Für jede Entscheidung im Prompt gibt es gute und richtige Argumente.
Aber: Wer schreibt den System Prompt? Ein kleines Team im Silicon Valley? Wir kennen den Prompt nicht. Wir können nur versuchen Fragmente zu "hacken“ (bspw. ChatGPT, ChatGPT, Claude).
Wir wissen nicht, wer an der Entscheidung beteiligt war, den Prompt so zu formulieren und welche Argumente für und gegen einzelne Anweisungen getroffen wurden. Zusätzlich gilt dieser Prompt weltweit. Trotz regional unterschiedlicher Wertvorstellungen.
In Deutschland ist die Befürwortung der Todesstrafe eine Minderheitenposition. In den USA die Mehrheit. Dagegen ist Nacktheit dort ein Tabu und hier gibt es FKK. Gewalt in Medien ist weitgehend akzeptiert und Free Speech erlaubt alles zu sagen, während wir uns aus guten Gründen in beiden Fällen für gesellschaftliche und legale Grenzen entschieden haben.
Ein US-zentriertes Modell zensiert nach amerikanischen Maßstäben. Unsere lokale Moral – unsere Vorstellung von Würde, Freiheit und Grenze – wird überschrieben. Wir importieren ein fremdes Wertesystem durch die Hintertür. Wir lagern die Ethik unserer Assistenten und Berater an Konzerne aus, deren Motive und Weltanschauung wir nicht kennen, aber schon allein aufgrund gesellschaftlicher Mehrheiten andere Auffassungen haben.
Was ist, wenn ChatGPT in einer Diktatur nur verbreitet werden kann, wenn demokratische Vorstellungen zensiert werden? Sind wir bereit, mit einem System zu arbeiten, das einen Handel Reichweite gegen Demokratie eingeht? Wie groß wäre der Opportunismus dann an anderer Stelle? Egal, ob bewusst oder unbewusst, der System Prompt wird immer einen Bias beinhalten. Genau wie die Trainingsdaten und das User-Feedback. Das hat Einfluss auf unsere Meinungsbildung, Wertvorstellungen und Demokratie.
Sind wir bereit, das zu akzeptieren? Und was könnten wir tun?
Man kann den eigenen System Prompt in den Einstellungen nutzen, um bestimmte Entwicklungen zu korrigieren. Aber nur die, die uns auffallen und die eigene Einstellung wird nicht die globale Einstellung überschreiben.
3. Ist die KI das Ende der Reibung?
KI ist höflich. Sie ist darauf trainiert, hilfreich und harmlos zu sein. Das ist förderlich für die Nutzerbindung und den wirtschaftlichen Erfolg.
Die KI bügelt Konflikte glatt. Sie liefert die plausible Antwort, die Antwort der Mitte.
Das klingt bequem. Es ist bequem. Und es macht träge.
Es ist Gift für die Demokratie. Demokratie braucht den Streit (im Sinne von Wettstreit der Ideen, nicht im Sinne von Geschrei), die abweichenden Meinungen und Kanten. Wenn wir uns an die glattgeschliffenen Antworten der Maschine gewöhnen, verlernen wir Kritik. Kritik zu geben, Kritik anzunehmen und Informationen kritisch zu konsumieren.
Wir verlernen den Umgang mit dem Widerstand. Eine Gesellschaft ohne Reibung ist keine Gemeinschaft, sondern eine widerspruchsfreie Echokammer.
4. Ist die KI der Totengräber der Neugier?
Die KI liefert Antworten, bevor wir die Frage richtig durchdacht haben. Das Ergebnis klingt immer plausibel, immer kompetent. Das ist oft ausreichend für uns. Das ist gefährlich.
Wer sofort eine gute Antwort bekommt, hört auf zu suchen. Die Neugier stirbt an der schnellen Befriedigung. Wir dringen nicht mehr in die Tiefe der Probleme vor. Wir werden zu Konsumenten von Wissen, nicht zu dessen Erzeugern. Dinge zu verstehen ist ebenso anstrengend, wie Dinge zu erklären. Und die schnelle Antwort lässt die Anstrengung des Verstehens entfallen.
Doch ohne Anstrengung keine Bildung. Das gilt nicht nur für meine Kinder, die dieser Versuchung der Bequemlichkeit ihr ganzes Leben ausgesetzt sein werden. Sondern auch für mich (und Dich!). Geben wir der Bequemlichkeit nach, produzieren und veröffentlichen wir Ergebnisse, können aber den Weg dorthin nicht mehr allein gehen.
Wir können eine Lösung aufschreiben. Aber wir können sie nicht mehr selbst prüfen. Wir werden es kaum noch versuchen. Denn je geschliffener die Antwort, desto anstrengender ist es, die Gegenposition zu finden.
5. Was macht kommunikatives Falschgeld mit uns?
Wir führen Gespräche mit einer Maschine. Das fühlt sich echt an, ist es aber nicht.
Menschliche Kommunikation basiert auf Verantwortung. Wer spricht, bürgt für sein Wort. Wer lügt oder Unsinn redet, verliert sein Gesicht oder seinen Ruf. Es gibt ein soziales Risiko.
Der KI ist das egal. Sie hat kein Gesicht, das sie verlieren kann. Sie hat kein Gewissen. Sie simuliert Bedeutung, ohne etwas zu meinen.
Wir fluten unseren Raum mit diesem "kommunikativen Falschgeld“. Texte, hinter denen keine Absicht steht. Wenn wir uns daran gewöhnen, dass Sprache keine Konsequenz für den Sprecher hat, verliert das Wort seinen Wert. Wir verlernen den Unterschied zwischen einer Aussage, für die jemand gerade steht, und einer statistischen Wortkette.
Ohne Konsequenz keine Aufrichtigkeit. Lügen führt nicht zu Sanktionen.
Und wenn wir uns erstmal daran gewöhnt haben, von der KI so behandelt zu werden, ist es nur eine Frage der Zeit, bis wir das auch in der Gesellschaft normalisieren. Und natürlich gab es unredliche Kommunikation auch vor KI. Aber die KI ist hier massiver Beschleuniger.
6. War früher alles besser?
KI lernt aus Daten der Vergangenheit. Sie kann nur neu kombinieren, was schon da war.
Das bedeutet: Die Vergangenheit regiert die Zukunft. Neue, radikale Ideen, die noch nie dagewesen sind, haben statistisch keine Chance. Sie sind Anomalien. Das Modell bügelt sie weg.
Wir riskieren eine Gesellschaft, die in einer Endlosschleife des "schon mal Gesagten“ gefangen ist. Innovation braucht den Bruch mit den Daten, nicht deren ewige Wiederholung.
Denn die Wiederholung wird immer mehr von KI Content gefüttert. KI Content hat (oder wird?) menschlichen Content mengenmäßig überholen. Das verschärft das Problem, indem Fakten und Kanten immer weiter abgeschliffen werden. Das Neue ist statistisch eine "Anomalie" (ein Fehler) und wird wegoptimiert.
Und wenn die KI von der KI lernt und dafür unendliche Mengen Content zur Verfügung stellt? Wie setzt sich dann der innovative menschliche Gedanke gegen die Übermacht des Mittelmaßes durch? Wie soll das funktionieren?
Wir müssen Fragen stellen, die tiefer gehen
Manchmal regen wir uns über die falschen Dinge auf. Teilweise sind wir schon auf dem Weg in die richtige Richtung, aber zu kurz gesprungen:
Wir regen uns auf über Fake News: "Hat Elon Musk falsche Infos eingeschleust?“ Aber wir sollten uns Fragen stellen, ob die KI uns generell ein neues Verhältnis zur Wahrheit beschert und wie die KI überhaupt Wahrheit lernen und erkennen soll. Und: Wie kann die KI ein Incentive zur Verbreitung der Wahrheit bekommen?
Wir regen uns darüber auf, dass KI Biases reproduziert und Minderheiten benachteiligt werden. Aber wir sollten uns fragen, ob die Chat-Modelle unsere eigene Identität überschreiben und inwieweit eine bewusste Korrektur des Bias nicht vielleicht wieder falsche Wahrheiten produziert (Papst of Color).
Wir regen uns darüber auf, dass Schüler KI nutzen, um Abkürzungen zu nehmen. Aber wir sollten uns fragen, ob wir das Denken verlernen, wenn wir das Schreiben und das Nachdenken an die KI auslagern.
Wir regen uns darüber auf, dass die KI unsere Texte / Bilder / Videos klaut (und damit Geld verdient). Aber wir sollten uns vielmehr fragen, ob es überhaupt noch einen Autor gibt, wenn die KI formuliert und wie wir als Gesellschaft damit umgehen wollen. Was ist die Sanktion für nicht gekennzeichnete KI-Texte? Wie viel KI darf in einem Text stecken, um noch menschlich zu sein?
Wir regen uns darüber auf, dass die KI uns die Jobs wegnimmt. Aber wir sollten uns viel mehr fragen, was von uns als Mensch bleibt, wenn die Maschine alles besser kann.
Lasst uns aufhören die nächsten lustigen KI-Bildchen durchs Dorf zu jagen („Hey Gemini, schau Dir alle unsere Interaktionen an und zeichne ein Bild davon, wie wir zusammenarbeiten oder ich Dich sehe“). Oder das nächste Tool zu probieren, das uns alle Arbeit abnehmen soll, aber uns arbeitslos macht, weil die Sicherheitslücken noch größer sind als meine Fantasie.
Das Werkzeug KI verändert, wie wir denken, wie wir streiten und was wir für wahr halten.
Wir sind darauf null vorbereitet.
Fangen wir an, die richtigen Fragen zu stellen, bevor wir aufhören, überhaupt kritische Fragen zu stellen.
(Dieser Artikel wurde zu 71,23% von einem Menschen erstellt.)
(Natürlich gibt es europäische Modelle, Open Source, etc. aber die lösen weder die grundsätzlichen Systemprobleme, noch ist erwartbar, dass sie gegen ChatGPT und Gemini bestehen.)
(Ich habe in diesem Artikel häufig ChatGPT als Synonym für die gesamte Klasse an Chat-Systemen verwendet. Die Punkte beziehen sich grundsätzlich aber auf alle Modelle.)