MIT Technology Review 4/2023
S. 52
Titel
Ehtik
Illustration: Matthias Timm

Wie erziehe ich eine KI?

Generative KIs produzieren immer wieder toxische Aussagen und erfinden „Fakten“. Forschende versuchen, mit besseren Trainingsmethoden und neuen KI-Modellen gegenzusteuern.

Katja Scherer

Plagiate, diskriminierende Aussagen und Fake News: Solche Probleme treten beim Einsatz smarter Chatbots immer wieder auf. Beispiele dafür finden sich im Netz jede Menge. ChatGPT zum Beispiel produziert auf Anfrage Lobestexte über die Kommunistische Partei in China und liefert bei Bedarf den Code für die Verbreitung der Texte gleich mit. Er schmuggelt frei erfundene Fakten in sachliche Erklärungen und interpretiert Gedichte, die es gar nicht gibt.

So weit, so bekannt. Doch die schwierige Frage ist: Wie verhindert man das? Diese Frage wird immer dringlicher: Mitte März hat Google seinen KI-Chatbot Bard online gestellt, zunächst in den USA und in Großbritannien. In China bietet der Suchmaschinen-Gigant Baidu den Chatbot Ernie an. Der Einfluss der Bots wächst schnell.