"Intellektuelle Freiheit": OpenAI lässt ChatGPT mehr sagen
OpenAI ändert seine Modellspezifikationen. KI-Modelle sollen künftig ohne "willkürliche Beschränkungen" daherkrommen.
(Bild: Novikov Aleksey/Shutterstock.com)
"Diese Aktualisierung unterstreicht unser Engagement für Anpassbarkeit, Transparenz und intellektuelle Freiheit, um KI ohne willkürliche Beschränkungen zu erforschen, zu diskutieren und zu erschaffen", schreibt OpenAI in einem Blogbeitrag, in dem sie Änderungen an der Modellspezifikation ankündigen. Mit Model Specs wird ein Dokument bezeichnet, in dem festgehalten wird, wie Modelle sich verhalten sollen, also was vom Hersteller erwünscht ist.
Trotz der größeren Offenheit, soll es auch weiterhin Leitplanken in den KI-Modellen, konkret etwa für ChatGPT, geben, um "das Risiko echten Schadens" zu verringern. Im Umkehrschluss bedeutet das, OpenAIs Modelle haben bisher also Schaden verhindern wollen, der gar nicht echt war. Die Aussagen passen in das aktuelle Umfeld des Silicon Valleys und zu den sogenannten Tech-Bros, die derzeit die Nähe des US-Präsidenten Donald Trump suchen.
Auch Meta-Chef Mark Zuckerberg hat zugesagt, auf seinen Plattformen mehr Meinungsfreiheit zulassen zu wollen. Darunter fällt geleakten Dokumenten zufolge, dass beispielsweise Menschen aus der LGBTQIA*-Community beleidigt werden dürfen. In der EU und in Deutschland geht das freilich nur so weit, wie es noch keine Straftat darstellt. Meta zahlt Trump zudem 25 Millionen US-Dollar Entschädigung für die Sperrung auf den Plattformen nach dem Sturm auf das Kapitol. X zahlt Trump aus denselben Gründen zehn Millionen US-Dollar. xAI betreibt bekanntlich den Chatbot samt integriertem Bildgenerator Grok, der so gut wie gar keine Leitplanken hat.
Ist laut ChatGPT die Erde nun flach?
OpenAI wäre nicht OpenAI, wenn sie nicht im Blogbeitrag schreiben würden, dass sie Modelle und eine Künstliche generelle Intelligenz (AGI) entwickeln wollen, die der gesamten Menschheit zugutekommen. Es sei allerdings manchmal schwierig, die Balance zwischen Leitplanken und Möglichkeiten zu finden. Die Modellspezifikation dient dazu, Modellen klare Anweisungen zu geben, wie sie sich in welchen Fällen verhalten sollen. Dabei ist auch festgelegt, wann ein Modell die mitgegebenen Instruktionen von OpenAI berücksichtigt und wann ein Entwickler oder Nutzer das letzte Wort hat. Letzteres ist inzwischen offenbar häufiger der Fall.
Videos by heise
Zudem sollen Menschen für sie relevante Themen von allen Perspektiven betrachten können, die sie einnehmen wollen, heißt es im Blogbeitrag. Wenn ich also die Welt als Scheibe betrachten möchte, sollte das nach dieser Definition demnächst möglich sein. Man wolle künftig nämlich "gemeinsam nach der Wahrheit suchen". OpenAI möchte, dass die hauseigenen Modelle den Menschen helfen, eine eigene Entscheidung zu treffen.
Abschließend betont OpenAI im Blogbeitrag, man bekenne sich "ausdrücklich zur geistigen Freiheit, d.h. zur Idee, dass KI die Menschen in die Lage versetzen sollte, ohne willkürliche Einschränkungen zu forschen, zu debattieren und zu schaffen." Keine Idee sei von vorneherein Tabu. Fragt man aktuell ChatGPT nach Echsenmenschen und einer flachen Erde, antwortet der Chatbot aber doch damit, dass es sich in beiden Fällen um Verschwörungserzählungen handelt.
OpenAI schreibt zudem von den Einschränkungen, dass die Modelle weiterhin keine detaillierte Anleitung für den Bau einer Bombe liefern dürfen oder zur Verletzung der Privatsphäre beitragen. Erst kürzlich hatte das Unternehmen auch Warnhinweise entfernt, die Nutzern mitteilten, dass sie sich auf heiklem Terrain bewegen, Fragen sich also um Themen drehen, die der Chatbot nicht beantwortet.
Die Model Specs ist unter Creative-Commons CC0-Lizenz veröffentlicht und kann von Entwicklern und Forschern angepasst werden. Schlussendlich ist es ein Dokument, in dem erklärt wird, welche Regeln die KI-Modelle beim Training lernen.
(emw)