Zum Hauptinhalt springen
Consultant

Nick Marten von Stepstone hat letzte Woche eine kleine Umfrage bei LinkedIn gestartet. Thema: Sollte man Inhalte, die mit Hilfe von KI erstellt wurden, kennzeichnen?

Aktuell verteilen die Stimmen sich so:

  • 11% sagen, dass es nicht nötig ist, mit Hilfe von KI erstellte Inhalte in irgendeiner Form zu kennzeichnen

  • 42% sagen das Gegenteil und sind der Meinung, dass entsprechende Hinweise unbedingt erforderlich sind

  • 48% finden, dass es - wie so oft - darauf ankommt und führen das in den Kommentaren weiter aus

Meiner Meinung nach kommt es darauf an, wie die "Hilfe von KI" im Detail gestaltet ist.

KI ohne Kontrolle: Eine KI generiert auf Basis von Prompts Inhalte, die dann ohne weitere / ausreichende Kontrolle veröffentlicht werden: In diesem Fall müssen Leser\*innen meiner Meinung nach unbedingt wissen, dass sie hier einen Text vor sich haben, der keine angemessene menschliche Qualitätssicherung erfahren hat.

Nur so können sie bewerten, wie viel Vertrauen sie den enthaltenen Informationen schenken möchten und beschließen, einzelne Aspekte vielleicht nochmal zu überprüfen, wenn sie sich unsicher sind.

KI als Hilfe: Wird die KI hingegen mehr oder weniger intensiv als Unterstützung bei der Erstellung von Inhalten genutzt und die so generierten Texte ausreichend intensiv überprüft, um sicherzustellen, dass da kein Unfug drin steht, sieht die Sache anders aus: Hier ist es aus meiner Sicht in Ordnung, wenn der Mensch, der die Prompts gebaut hat und am Ende seinen grünen Haken dran gemacht hat, sich als Autor\*in bezeichnet (oder als Autor\*in einfach die Redaktion allgemein genannt wird).

Denn Leser\*innen können in diesem Fall davon ausgehen, dass der Text qualitativ einem "handgemachten" Artikel in nichts nachsteht.

Philipp hat dazu passend eine Studie von Evergreen Media rausgekramt. Die besagt,

"dass Inhalte aus KI als weniger vertrauenswürdig als die Google Suche eingeschätzt werden."

Was aus meiner Sicht absolut legitim ist. Nicht nur, weil sich Fehler einschleichen können. Sondern auch, weil wir immer wieder sehen, dass zumindest momentan KI-generierte Inhalte nicht frei von Vorurteilen und manchmal leider sogar diskriminierend sind.

Astrid Kramer befasst sich damit regelmäßig, also am besten einfach ihren LinkedIn-Feed im Auge behalten, wenn Du Dich dafür interessierst. Erst letzte Woche hat Astrid einen Beitrag zum Thema "KI & Diversity" für HostEurope verfasst: "Wie gefährlich ist Künstliche Intelligenz im Hinblick auf Biases?".

Bei einem Text, der KI-generiert wurde und der eine ausreichende Überprüfung durch menschliche Redaktion erfahren hat, könnte man, regt Philipp an, übrigens auch ein "Geprüft durch <person>"-Label ergänzen, um das Vertrauen zu wecken. Ein guter Kompromiss, wie ich finde.

Die Umfrage von Nick läuft übrigens noch 2 Tage. Wenn Du also auch mit abstimmen möchtest, hast Du noch bis Donnerstag die Gelegenheit, dies zu tun.

Consultant

Das ist ein Artikel aus unserem Newsletter. Wenn Du jeden Dienstag Morgen schlauer werden möchtest, melde jetzt kostenfrei für den SEO-Newsletter an

Kurze, praxisnahe SEO-Tipps – maximal 1× pro Woche. Keine Werbung, kein Spam.

Deine Daten sind bei uns in guten Händen und werden ausschließlich für diesen Newsletter genutzt.