Microsoft-Manager: Politik soll helfen, Social-Media-Debakel bei KI zu vermeiden
Es gelte, sich bei KI viel früher mit den Problemen auseinandersetzen als bei sozialen Medien, fordert Wolfgang Dierker aus der Geschäftsleitung von Microsoft.
Wolfgang Dierker, Mitglied der Geschäftsleitung von Microsoft Deutschland, hält ein "sicheres Geländer" für die weitere Entwicklung von Systemen mit Künstlicher Intelligenz (KI) für unerlässlich. Er appellierte am Dienstag beim Forum "Trustworthy AI" des Tagesspiegels in Berlin an Vertreter aus Politik, Zivilgesellschaft, Forschung und Wirtschaft, sich bei der Schlüsseltechnologie "viel früher mit den Problemen" auseinanderzusetzen als es bei den sozialen Netzwerken. Diese hätten im Arabischen Frühling zwar eine "tragende Rolle" gespielt. Doch seitdem häuften sich die darüber verbreiteten Falschinformationen, wie sich etwa aktuell nach dem Angriff der islamistischen Hamas auf Israel zeigt.
"Wir müssen das verhindern, was wir hier erlebt haben", betonte Dierker mit Blick auf das eine oder das andere Social-Media-Debakel. Neue Techniken wie einst auch die Druckerpresse seien ambivalent und könnten immer als "Werkzeug und Waffe zugleich" gebraucht werden. Dies gelte auch für Künstliche Intelligenz. Microsoft sehe dabei insbesondere Spielarten wie generative KI zwar prinzipiell als "durchweg positiv" an, da sie den Arbeitsalltag verbesserten und Unternehmen produktiver machten. Der Softwarekonzern arbeite daher mit OpenAI zusammen und habe ChatGPT als "Co-Pilot" bereits in diverse eigene Produkte integriert. Das alles erfolge aber auf Basis der erstmals 2018 abgegebenen Selbstverpflichtung, KI verantwortungsvoll zu entwickeln: "Maschinen müssen einer wirksamen Kontrolle unterliegen."
Gefahren von KI bannen
Erst im Juli habe Microsoft zusammen mit sechs anderen Unternehmen gegenüber dem Weißen Haus versichert, gesellschaftliche Risiken von KI-Systemen besser zu erforschen und damit generierte Inhalte kenntlich zu machen, berichtete der Chefmanager für Unternehmens-, Außen- und Rechtsangelegenheiten. Generative Systeme wie ChatGPT könnten durchaus "überwältigend" sein, räumte er ein: "Wir wissen heute nicht, was wir in zwei Jahren mit KI in Händen haben." Microsoft wolle hier aber "nicht frei von Regeln arbeiten" und setzte etwa bei Bing Chat darauf, Vorurteile zu verhindern beziehungsweise zumindest "möglichst stark in die richtige Richtung zu bringen".
Zugleich begrüßte Dierker den Appell der Bundesregierung, den Fokus bei der geplanten europäischen KI-Verordnung "auf Produktregulierung" zu legen und die Innovation nicht aus Augen zu verlieren. "Wir werden ein riesiges Ökosystem großer Sprachmodelle sehen", prognostizierte er. Teils stellten aber vor allem die EU-Abgeordneten schon jetzt Anforderungen an solche Techniken, "die gar nicht erfüllt werden können". Die Entwickler wüssten ja noch gar nicht, für welche Dienste ein Modell einmal verwendet werde. Hohe Auflagen dürfe es daher allenfalls für fortgeschrittene "Foundation Models" geben, bestenfalls aber auch hier im Rahmen einer Selbstverpflichtung. Dierker wandte sich vor allem gegen die vom EU-Parlament geforderte Pflicht, Urheberrechtsinformationen bei Trainingsdaten zu veröffentlichen. Microsoft habe für den Co-Piloten schon selbst ein Versprechen gegenüber Kunden abgegeben, diese bei Copyright-Klagen wegen generierter Inhalte zu schützen.
Frank Engelhardt, Transformationsstratege für Mitteleuropa bei Salesforce, warb ebenfalls für eine "zielgerichtete risikobasierte Regulierung". Generative KI sei vergleichsweise "mächtig". Daher müsse die Maxime lauten, "von vornherein Toxizität zu verhindern". Bei Salesforce würden Daten im Unternehmen daher etwa zunächst maskiert, bevor sie in einschlägige KI-Systeme eingespeist werden dürften. Eine eigene Ethikbeauftragte für diesen Bereich achte darauf, dass eigene Prinzipien für vertrauenswürdige Technik eingehalten würden.
VertrauenswĂĽrdige KI als Wettbewerbsvorteil
"Wir müssen über die Risiken sprechen", erklärte Bundesforschungsministerin Bettina Stark-Watzinger. Manche Befürchtungen wie etwa die vom Ende des Rechtsstaats seien aber "so typische German Angst". KI werde nicht alle Ärzte, Richter und Journalisten ersetzen, sondern entlasten. Die FDP-Politikerin mahnte: "Seien wir aktive Gestalter." Vertrauenswürdige KI sei ein Wettbewerbsvorteil. Wer sollte hier "die höchsten Maßstäbe setzen, wenn nicht wir?" Deutsche hätten schließlich die Steckdosen, das Auto, die Ampel, den Anschnallgurt und den Airbag erfunden. Da KI aber so grundlegend sei wie die Elektrizität, stünde der KI-Verordnung eine Regulierung mit Augenmaß gut zu Gesicht.
Deutschland habe jedenfalls die "große, historische Chance, auch mitzugestalten", erläuterte die Ministerin. Wichtige Komponenten wie Professoren, Nachwuchsförderung, die nötige Infrastruktur, Kompetenzzentren, Supercomputer und Rechenkapazität stünden zur Verfügung. Sie müssten aber noch stärker auch für Start-ups geöffnet werden. Die Grundlagenforschung hierzulande sei so toll, dass "viele unserer Spitzenforscher" mittlerweile "im Silicon Valley zu finden" seien. Mit dem KI-Aktionsplan erhöhe die Regierung noch einmal die Schlagzahl, wobei die entscheidenden Ressorts ihre Ziele untereinander absprächen und Ressourcen bündelten. Ein Runder Tisch sei zu wenig: "Es müssen Ergebnisse rauskommen."
Kirsten Rulf, Partner bei der Boston Consulting Group, mahnte, "die Riesen-Zivilgesellschaft stärker einzubeziehen, um Anwendungsweltmeister zu werden". Von Hackathons & Co. könnte eine "Energiewelle" auch bei KI ausgehen, wie zuvor in der Pandemie. In der deutschen Wirtschaft herrsche angesichts des kommenden AI Acts nicht der Katzenjammer wie vor dem Greifen der Datenschutz-Grundverordnung (DSGVO). Vielmehr fühlten sich alle wie "in einem großen Experiment". Vor allem die öffentliche Verwaltung müsse sich KI-Potenziale erschließen, hob Lena-Sophie Müller von der Initiative D21 hervor. Sie sollte angesichts des drohenden Mitarbeiterverlusts die Technik als Werkzeug in den Dienst von Effizienz, Erhalt der Leistungsfähigkeit und der Modernisierung des öffentlichen Sektors stellen".
(olb)