Ja... wieder was über AI ¯\\(ツ)\/¯
Diesmal das Thema Copyright/Urheberrechte und Privatsphäre. Damit das Thema nicht unendlich überhand nimmt, habe ich zwei Punkte zusammengetragen, die aus unserer Sicht für die Entwicklung des Themas (und Deinen Einsatz von AI-tools) relevant sind:
Chatbots sind Klatschtanten
Samsung ist vor ein paar Wochen darüber gestolpert, dass OpenAI den Input für das Trainieren der AI weiterverwendet. Doof, wenn die Ingenieure dabei Betriebsgeheimnisse der KI preisgeben (Siehe Artikelüberschrift)... und auch bei Salesforce scheint es, als würde ChatGPT aus dein Eingaben von Entwicklern lernen
Also pass auf, was Du der AI erzählst. Und wenn Du sensible Informationen mit AI verarbeiten willst, solltest Du Deine eigenen Modelle oder zumindest eigene Instanzen betreiben. Und dabei würde ich zumindest den AI-Herstellern nicht trauen, sie selbst zu hosten. Der Track-Record, was das Verwenden von Informationen aus Dingen wie Private Repositories oder Ähnlichem angeht, ist nicht sehr vertrauenerweckend.
Faustregel: Rede mit Chatbots, wie mit dem tratschenden Nachbarn, der die Gerüchteküche der Nachbarschaft am Laufen hält: Geh davon aus, dass, was er sagt, haltlose Gerüchte sind und verrate ihm niemals etwas, von dem Du nicht willst, dass es andere erfahren.
Wenn Chatbots nicht wissen, was sie gesagt haben, woher sollen wir wissen, was sie gesagt haben?
Ein Rodeo Instructor der Texas A&M University (scheinbar Teil des Lehrplans an texanischen Universitäten) hat versucht ChatGPT zu fragen, ob die Hausarbeiten der Studenten mit AI geschrieben wurden. ChatGPT hat natürlich keine Bewertung der Texte vorgenommen, sondern eine statistisch schlüssig klingende Antwort gegeben und behauptet, dass alle Texte mit KI geschrieben wurden. Doof für die Studenten, peinlich für die Uni, dass es den Dozenten nicht stutzig macht, dass wirklich keiner seiner Studenten ehrlich sein soll. Oder dass er nicht einmal versucht hat, statt ChatGPT ein dediziertes AI-Text-Erkennungstool zu verwenden. Vielleicht hat ihn die Falsch-Positiv-Rate davon abgeschreckt.
Das Erkennen von AI-Texten wird nicht möglich sein. Bei generierten Bildern hat man aktuell noch gute Chancen, typische Artefakte wiederzuerkennen. Auch wenn das mit menschlichem Auge irgendwann nicht mehr möglich ist, halte ich es für machbar, dass AI-generierte Bilder (oder ähnlich inzwischen recht gut generierte Stimmen/Musik) langfristig mit automatisierten Systemen erkennbar sind. Typische Muster von Algorithmen könnten algorithmisch identifizierbar sein. Vielleicht ist aber auch das in Zukunft einfach auszuhebeln. Zum Beispiel, indem man Bilder mit verschiedenen Bildformaten komprimiert, um erkennbare Muster mit Artefakten der Bildkompression zu überlagern.
Aber für Texte ist die Datenmenge zu gering, sodass die sichere Identifikation von AI-Content unrealistisch ist. Das ist ein Fakt, mit dem wir uns abfinden müssen. Und auch das Gerede von Wasserzeichen oder Ähnlichem ist kein Silberstreif am Horizont. Für jedes AI-Modell, das funktionierende Wasserzeichen in das Ergebnis baut, wird es dutzende geben, die das nicht tun, und vermutlich nochmal ein paar, die dazu da sind, die vorhandenen Wasserzeichen zuverlässig zu entfernen. Das scheint zumindest der Google Algorithmus so zu sehen.
![Screenshot der Google Suche nach "AI Watermark". Die Ergebnisse zeigen ausschließlich Tools zum automatischen Entfernen von Wasserzeichen aus Bildern wie:
"Watermark Remover
https://www.watermarkremover.io › ...
Entfernen Sie Wasserzeichen aus Ihren Bildern KOSTENLOS", "[AI] Watermark Remover Online Free", oder "Remove Image Watermark Online Free Using AI"](https://wngmn.de/nl-assets/u/2f6dbf650670ffacd854_creenshotderoogleuchenachatermark.png)