KI-Definition: Vorwürfe gegen die Open-Source Initiative

Belästigungen, Beleidigungen: Psychisch belastend sei das Verfahren gewesen, um die Open-Source KI-Definition festzulegen.

In Pocket speichern vorlesen Druckansicht 15 Kommentare lesen
Ein rotes und ein blaues Netz.

Ein rotes und ein blaues Netz.

(Bild: issaro prakalung / Shutterstock.com)

Lesezeit: 3 Min.

Der LinkedIn-Beitrag eines langjährigen Mitglieds der Open-Source Initiative (OSI) stößt derzeit auf viel Beachtung. Julia Ferraioli kündigt darin ihren Austritt aus der Initiative an. Grund dafür sei das Verhalten einiger anderer Mitglieder und der Umgangston beim Prozess, die Definition für Open-Source-KI festzulegen. Das Ergebnis ist eine eng gefasste Definition, die beispielsweise auch keinen Spielraum für offene KI-Modelle von etwa Meta oder Google lässt, da diese unter anderem ihre Trainingsdaten nicht öffentlich verfügbar machen. Auch die KI-Anbieter sind nicht alle einverstanden mit der Definition.

Ferraioli betitelt ihren Beitrag mit der "Inhalts-Warnung: mentale Gesundheit, Open Source KI und Schikane." Darin schreibt sie, für viele sei der Prozess herzzerbrechend gewesen. Es habe an Transparenz gefehlt, verzerrte Narrative und trügerische Argumente gegeben. Mehr aber noch beklagt sie den Umgang mit den Teilnehmern. Ferraioli sagt, sie sei als Lügnerin beschimpft worden, als Feind von Open-Source und ihr sei gesagt worden, dass sie leise sein solle.

Die Befürchtung von Ferraioli ist, dass Unternehmen ihre Technologie als Reaktion noch weniger frei verfügbar machen. "Es geht um die eigentliche Bedeutung von Open Source und die Beharrlichkeit der OSI, sie auf technischer und kultureller Ebene zu untergraben." Unter den Kommentaren zum Beitrag finden sich viele Menschen, die Ferraiolis Sorgen und Erfahrungen teilen.

Und auch an anderer Stelle wird Kritik an der Definition selbst laut. Die Lager spalten sich vor allem an der Entscheidung, ob die Trainingsdaten frei zugänglich gemacht werden müssen. Während viele Befürworter der herausgegebenen Definition es als Pflicht sehen, damit KI-Modelle in Gänze nachgebaut werden können, sagen andere, die Daten seien nicht so wichtig. Sie stünden etwa zum Teil unter strengen Datenschutzregeln: Das Urheberrecht ist dabei das eine, das andere sind sensible Daten, wie sie beispielsweise für das Training von medizinischen KI-Systemen genutzt werden. Ein Argument pro Offenlegung der Trainingsdaten lautet dann wiederum, dass sonst auch Open-Source das Monopol der großen KI-Anbieter stütze. Wohingegen manche sagen, kleinere Anbieter hätten selbst mit den Daten nicht die ausreichende Rechenleistung zur Verfügung, um damit irgendetwas zu tun.

Zu den Kritikern gehört freilich auch Meta, die ihre KI-Modell-Familie Llama bisher als Open-Source deklariert hatten. Das trifft nach der neuen Definition nicht zu. Eine Sprecherin sagte auf Nachfrage von heise online, dass man nicht einverstanden sei mit der Definition – wie viele andere auch. "Es gibt keine allein gültige Definition von Open-Source-KI, und eine Definition ist eine Herausforderung, da frühere Open-Source-Definitionen die Komplexität der heutigen, sich schnell entwickelnden KI-Modelle nicht abdecken." Man wolle dennoch weiterhin mit der OSI zusammenarbeiten. Anders, als es Ferraioli und ihr Gleichgesinnte ankündigen und ihre Mitgliedschaften beenden wollen. Meta sagt zudem: "Wir stellen Llama kostenlos und offen zur Verfügung, und unsere Lizenz und Nutzungsbedingungen tragen mit einigen Einschränkungen dazu bei, die Menschen zu schützen."

(emw)