Microsoft verlangt Notbremsen und Exportkontrolle für Künstliche Intelligenz

Seite 2: Verantwortung für KI kann nicht abgegeben werden

Inhaltsverzeichnis

Das bedeutet aber nicht, dass Microsoft die Verantwortung nach Washington, DC, abgeben möchte. "Ich glaube, wir tragen die allererste Verantwortung, (KI) richtig hinzubekommen, und werden sie immer tragen." Microsoft setze stark auf interne Kontrolle, was aber nicht ausreiche. Jeder, der KI baut oder nutzt, müsse sich im Klaren darüber sein, dass auch dabei das Recht gelte. "Herr Richter, eine Maschine hat mich dazu gebracht", sei keine gültige Ausrede.

Rechtlich sollten jene haften, die Entscheidungen treffen und Kontrolle ausüben. Das könnten je nach Konstellation jene Firma sein, die ein KI-Modell programmiert hat, die es anwendet oder auch der Betreiber der Infrastruktur, auf der es läuft.

Microsofts enger KI-Partner OpenAI ist nicht unbedingt auf derselben Linie. Diese Firma spricht bereits von "KI-Überregulierung" und droht mit der Einstellung von ChatGPT in der EU.

Zu den neuen Vorschriften gehört nach Microsofts Vorstellung auch Exportkontrolle. Mindestanforderung dabei sei, sicherzustellen, dass KI-Modelle nicht dazu genutzt werden, bestehende Exportbeschränkungen zu umgehen. Das gehe nicht ohne KY3C – ein neues Akronym in Anlehnung an KYC ("Know Your Customer"), das im Bankenbereich Geldwäsche erschwert.

Wie Geldinstitute müssten auch Anbieter von KI ihre Kunden identifizieren; außerdem müssten sie ihre Cloud gut kennen und die darauf vorhandenen Inhalte (Englisch Content). Also "Know Your Cloud, Know Your Customer, Know Your Content": KY3C.

Viertens pocht der Datenkonzern auf Transparenz. Es müsse stets öffentlich gekennzeichnet werden, wenn etwas durch KI geschaffen wurde. Das schütze gegen Verfälschung echter Daten und Inhalte ebenso wie gegen Deepfakes. Große Sorgen machen Smith ausländische Beeinflussungen (foreign cyber influence operations). "Sie laufen bereits von den Russen, den Chinesen, den Iranern. Die Öffentlichkeit muss wissen, ob Inhalte KI-erzeugt oder -verfälscht sind."

Doch Smith denkt bei Transparenz noch größer: Forscher und die Öffentlichkeit müssten stets Zugang zu KI haben. Microsoft selbst werde jährlich einen KI-Transparenzbericht schreiben. Klar sei aber, dass wissenschaftliche Analyse von KI mehr Rechenkraft erfordere, als viele bislang zur Verfügung haben.

"Ich unterstütze vehement die Einrichtung einer nationalen KI-Forschungs-Ressource, die Colleges und Universität für vielerlei Forschung, darunter zu KI selbst, zur Verfügung steht", unterstrich Smith. Die Finanzierung solle aus Steuermitteln erfolgen. Noch besser wäre natürlich eine internationale KI-Forschungs-Ressource. "Ein öffentliches Gut für das Gemeinwohl", wo sowohl Kosten als auch Nutzen international geteilt würden.

Fünftens ventiliert Microsoft neue Public-Private-Partnerships, die sich den durch KI ausgelösten gesellschaftlichen Herausforderung widmen sollen. Durch Zusammenarbeit und Innovation "glaube ich, dass wir KI einsetzen können, um Menschen zu schützen, als Schild, das stärker sein wird, als jedes KI-Schwert, das jemand entwickeln kann", sagte Smith, "Das muss unser Ziel sein. Setzen wir (KI) gegen alle unterschiedlichen Weisen ein, auf die KI von unseren Gegnern als Waffe genutzt werden könnte."

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(ds)