Unbrauchbaren Input kann auch die beste Verarbeitung der Welt nicht in wertvollen Output verwandeln. Was schon lange gilt, findet auch im Bereich der Algorithmen und des Machine Learning Anwendung. Gerade um letzteres gewinnbringend einsetzen zu können, werden Daten benötigt, aus denen die Maschine lernen kann - je mehr, desto besser - oder?
Wie schon der Microsoft Chatbot Tay und die darum rankenden Kontroversen gezeigt haben, sind auch oder womöglich gerade künstliche Intelligenzen anfällig für das Lernen problematischer Verhaltensweisen.
Diesbezüglich sorgte die nun ehemalige Mitarbeiterin und Co-Lead des Google Ethical AI-Teams Dr. Timnit Gebru kürzlich für Aufsehen. Als Co-Autor des Forschungspapiers “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” griff sie mögliche Risiken von großen Datensets für das Lernen künstlicher Intelligenzen auf.
Ein (englischsprachiger) Abriss über die Inhalte des Papiers und den daraus folgenden Auseinandersetzungen zeigt: Künstliche Intelligenz und deren Entwicklung steht nach wie vor vor großen Herausforderungen. Ebenso wie Fragen des ethisch korrekten Umgangs damit.
Die Kollegen von SearchEngineLand fassen die gesamte Thematik gut lesbar zusammen. Sollte die Zeit für nur einen Artikel zum Thema reichen, empfehlen wir Dir diesen.