Ethik für Maschinen: Wie erziehe ich ChatGPT und andere KI?

Generative KI-Systeme produzieren immer wieder toxische Aussagen und erfinden "Fakten". Forschende versuchen, mit besseren Trainingsmethoden gegenzusteuern.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 38 Kommentare lesen
Roboter

(Bild: Tatiana Shepeleva/Shutterstock.com)

Lesezeit: 12 Min.
Von
  • Katja Scherer
Inhaltsverzeichnis

Plagiate, diskriminierende Aussagen und Fake News: Solche Probleme treten beim Einsatz smarter Chatbots immer wieder auf. Beispiele dafür finden sich im Netz jede Menge. ChatGPT zum Beispiel produziert auf Anfrage Lobestexte über die Kommunistische Partei in China und liefert bei Bedarf den Code für die Verbreitung der Texte gleich mit. Er schmuggelt frei erfundene Fakten in sachliche Erklärungen und interpretiert Gedichte, die es gar nicht gibt.

KI-Schwerpunkt in MIT Technology Review

So weit, so bekannt. Doch die schwierige Frage ist: Wie verhindert man das? Diese Frage wird immer dringlicher: Mitte März hat Google seinen KI-Chatbot Bard online gestellt, zunächst in den USA und in Großbritannien. In China bietet der Suchmaschinen-Gigant Baidu den Chatbot Ernie an. Der Einfluss der Bots wächst schnell.

"Beim Einsatz von Chatbots, die auf großen Sprachmodellen basieren, kann Faktentreue von Antworten nicht garantiert werden. Wenn solche Modelle laufend weiter trainiert werden, kann dies zu einer echten Gefahr werden, da Fake News dann rasend schnell im Netz dominieren können", sagt Ute Schmid, Leiterin des Lehrstuhls für Kognitive Systeme an der Uni Bamberg. Forscher auf der ganzen Welt suchen daher nach Lösungen, wie man die Chatbots besser machen kann. Sie setzen dazu auf bereinigte Trainingsdaten, verfeinerte Lernverfahren und neue KI-Modelle.