Maschinenethiker: "Unmoralische Maschinen gehören zu meiner ethischen Arbeit"

Seite 2: "Ich wittere Zensur"

Inhaltsverzeichnis

Sie haben bereits sehr früh gewarnt. Und jetzt stehen große Sprachmodelle zur Verfügung, mit denen man Desinformationen verbreiten und Konflikte anheizen kann. Die Reaktion von Unternehmen wie Open AI oder jetzt auch Microsoft oder Google, die so was dann auch in Suchmaschinen einbauen wollen, ist dann einfach dafür zu sorgen, dass die Maschinen nichts Böses sagen. Ist das aus Ihrer Sicht als Ethiker eine Lösung?

Zunächst mal ja, weil das schließt ja genau an das an, was wir in der Maschinenethik eigentlich auch versucht haben, zumindest in bestimmten Kontexten. Wir deckeln Systeme. Wir versuchen zu vermeiden, dass sie bestimmte Dialoge überhaupt führen.

Wir haben uns damals alle lustig gemacht über Tay, die ganz schnell zur Rassistin wurde. Das war ein Social Bot von Microsoft auf Twitter, einem weiblichen Teenager nachempfunden. Und im Grunde haben wir jetzt den gleichen Fehler gemacht mit unserem neuesten Chatbot wie damals Microsoft. Wir haben ihn nicht gedeckelt und prompt hat ein unbekannter Benutzer eine Konversation über Hitler geführt. Der Benutzer hat unseren Latein-Chatbot nach der Adresse von Hitler gefragt, und er hat gesagt, die Adresse habe er nicht, aber die Telefonnummer. Wer weiß, wo das geendet hätte. Da müssen wir nachbessern.

Das Beispiel zeigt, es ergibt Sinn, bestimmte Dialoge zu vermeiden, vielleicht auch Hassreden zu vermeiden. Aber jetzt stören mich doch ein paar Dinge daran.

Welche?

Ich wittere Zensur, wenn ich bestimmte Texte nicht generieren darf. Denn andere schreiben mir vor, was ich zu generieren habe, ohne nach meiner Intention zu fragen. Und vielleicht möchte ich ja problematische Texte generiert haben, nicht um sie zu verbreiten, sondern um sie zu erforschen. Und das ist so kaum möglich.

Ich habe zum Beispiel mehrere Gedichtbände mit Haikus herausgegeben. Die waren bisher natürlich alle selber geschrieben. Und jetzt habe ich zum ersten Mal mit ChatGPT zusammengearbeitet.

ChatGPT sollte ein Haiku schreiben, in dem zwei Männer vorkommen sollten, die Sex miteinander haben. Eine Auskunft von ChatGPT war, das gehe nicht, weil das diskriminierend sei. Ich finde nichts Diskriminierendes daran. Ich habe den Prompt dann variiert. Auch dann kam ich nicht zum Erfolg. Aber eine neue Auskunft von ChatGPT war, es würde nichts Explizites machen. Das fand ich besser. Dann kann man argumentieren: Okay, das wäre jugendgefährdend oder die möchten einfach keine Pornografie-Produzier-Maschine betreiben.

Hier und dort kommen auf jeden Fall ganz komische moralische Vorstellungen ins Spiel. Und was ich zumindest fordern würde, ist, dass diese moralischen Vorstellungen offengelegt werden, dass die Unternehmen sagen, wonach sie sich richten, warum sie sich danach richten, sodass wir darüber diskutieren können. Das fände ich sehr, sehr hilfreich.

Weiterhin werden von diesen Systemen alle möglichen Informationen und Quellen halluziniert. Ich habe im Moment die Sorge, dass meine Studierenden solche Tools benutzen, zum Beispiel ChatGPT in Bing, und den Output – zum Beispiel über mich oder über andere Personen oder über Unternehmen – dann für bare Münze nehmen. ChatGPT und andere Tools, die ich zunächst mal mag, die ich unheimlich mächtig finde, die ich unheimlich interessant finde, werden also dazu beitragen, Falschinformationen zu streuen.

Ich verstehe ja, dass das technisch alles nicht so einfach ist, aber warum kann man das System nicht so konfigurieren, dass es sagt, wenn es etwas nicht genau weiß? Und dass es sich kurz hält, wenn es wenig weiß?

Ist denn so eine nicht absichtsvoll erfundene falsche Nachricht eine Lüge in Ihren Augen?

Ich habe damals den Begriff der Lüge verteidigt in Bezug auf den Lügenbot. Natürlich war es nicht wirklich seine Absicht zu lügen. Maschinen haben nie in diesem Sinne Absichten oder Ziele. Sie haben kein Bewusstsein, sie haben keinen freien Willen. Nichts davon. Aber wir übertragen unsere Vorstellungen auf die Maschine, und was unser Lügenbot gemacht hat, war immerhin, gezielt mit Hilfe von verschiedenen Strategien wahre Aussagen zu manipulieren. Bei ChatGPT bin ich mir nicht sicher. Das müsste man genauer untersuchen.