Kommentar zum AI Act: Es droht das Aus für ChatGPT in der EU

Deutschland und die EU droht, sich durch Ängste und Überregulierung vom Hightech-Standort zum Industriemuseum zu entwickeln, befürchtet Patrick Glauner.

In Pocket speichern vorlesen Druckansicht 289 Kommentare lesen
Lesezeit: 3 Min.
Von
  • Prof. Patrick Glauner

ChatGPT schickt sich an, vielerorts erhebliche Produktivitätssteigerungen zu ermöglichen, unter anderem durch die automatisierte Generierung von Berichten oder Quellcode. Ohne Frage sind die generierten Texte teils fehlerbehaftet oder problematisch. Wie soll man damit umgehen? Sind die Ängste vor ChatGPT berechtigt? Zweifelsfrei sollten Anwender hier zuallererst – wie bei allen Technologien – die Nutzung kritisch hinterfragen.

Ein Kommentar von Patrick Glauner

(Bild: 

Deutscher Bundestag

)

Prof. Dr. Patrick Glauner ist Professor für KI an der TH Deggendorf und hat als Sachverständiger die Parlamente von Deutschland, Frankreich und Luxemburg zu den sich aus KI ergebenden politischen und rechtlichen Fragestellungen beraten.

Seit April 2021 finden auf europäischer Ebene Beratungen rund um den AI Act statt, der den Einsatz von künstlicher Intelligenz in der EU in rechtliche Bahnen lenken soll. In einem zuletzt geleakten Entwurf wurde dabei die Liste der sogenannten “Hochrisiko-Anwendungen” um textgenerierende KIs erweitert: Falls der generierte Text für einen von Menschen erstellten, authentischen Text gehalten werden könnte, gilt die KI nun als Hochrisiko-Anwendung. Dies ist nur dann nicht der Fall, wenn der erzeugte Text von Menschen überprüft und eine Person oder Organisation rechtlich dafür verantwortlich ist.

Damit droht zwar zunächst kein generelles Verbot von ChatGPT. Allerdings gibt es für die insgesamt nur unscharf abgegrenzten und vage beschriebenen Hochrisiko-Anwendungen eine Vielzahl an Auflagen, wie die Qualität der Trainingsdaten, Qualitätsberichte und Konformitätsbewertungen. Diese Anforderungen sind entweder sehr teuer oder aus technischer Sicht teilweise unerfüllbar. Dies führt schlussendlich dann doch effektiv zu einem Verbot von vielen Hochrisiko-Anwendungen. Hiervon wäre beispielsweise auch ChatGPT betroffen, das dann in der EU nicht mehr verwendet werden dürfte.

Dabei kann man gar nicht oft genug betonen, wie ChatGPT überhaupt funktioniert: ChatGPT lernt aus (gegebenenfalls leider fehlerhaften) Daten eine Wahrscheinlichkeitsverteilung von Wortfolgen. Basierend auf den zuvor generierten Wörtern sagt ChatGPT dann das am wahrscheinlichsten folgende Wort voraus. Nicht mehr. Es ist also eben gerade keine außer Kontrolle geratene “Superintelligenz”.

Der sehr ungenau geschriebene und auf über 100 Seiten aufgeblähte AI Act macht viele KI-Innovationen in der EU unmöglich. Das wird insbesondere KMUs und Start-ups wegen des Mangels an Ressourcen zum Erfüllen der Auflagen betreffen. Für Prüfungsgesellschaften und Kanzleien hingegen entsteht ein großes, neues Geschäftsmodell. Testate à la Wirecard wird es dann wohl aber auch regelmäßig geben.

Anstatt KI durch den AI Act horizontal und unpraktikabel zu regulieren, sollten bestehende vertikale Regulierungen von Anwendungsfällen und -bereichen implementierungsunabhängig angepasst oder erweitert werden. Dieser Ansatz lässt sich auch auf den Umgang mit rechtswidrigen Inhalten und Handlungen übertragen.

Der AI Act wird die weltweite KI-Entwicklung nicht bremsen – er verlagert die Wertschöpfung lediglich weiter in die USA oder nach China; Europa wird technologisch noch stärker abhängig. Die EU muss KI endlich als große Chance sehen und den Wandel und die Weiterentwicklung der KI aktiv mitgestalten. Andernfalls wird sie vom Hightech-Standort zum Industriemuseum transformiert. Insbesondere müssen Forschung, Entwicklung, Ausbildung und Erstellung von besseren Trainingsdaten gestärkt werden.

(jvo)