German Angst: Ängste vor KI verstehen, beheben und Chancen nutzen – Interview
Seite 3: BenutzerfĂĽhrung, Design, Dark Pattern, Trust-Elemente
Meinst du also, dass Open-Source-Software Ängste abbaut? Geht es dir um eine Demokratisierung von Technik?
Demokratisierung von Technik schafft etwas sehr Kostbares und Wesentliches fĂĽr den digitalen Vertrauensaufbau: Transparenz.
Aber reicht das bei KI schon, um Vertrauen zu entwickeln?
Nein, beschrieben habe ich gerade, was getan werden kann, um Ängste zu reduzieren. Um wirklich Vertrauen in eine der komplexesten Technologien entwickeln zu können, brauchen wir Menschen viel mehr, weil wir als selbsterklärte Krone der Schöpfung das erste Mal mit etwas konfrontiert sind, dass intelligenter ist als wir und wir auch wissen, dass je nach Kontext der Anwendung, der Datenbasis und der Algorithmik die Auswirkungen von KI fatal sein können.
Technikethiker warnen davor, KI überhaupt zu vertrauen, da durch das Machtgefälle zwischen konzerneigener Infrastruktur und Endnutzern keine Peer-to-Peer-Beziehung besteht. Ein gesundes Misstrauen könnte Professorin Johanna Bryson und anderen zufolge sogar hilfreich sein. Blindes Vertrauen hingegen scheint mir genauso unangemessen wie blinde Angst. Wie entscheiden wir, wann wir KI und Technik "guten Gewissens vertrauen" dürfen?
Einige große Technikkonzerne beherrschen inzwischen meisterhaft, wie sie bei den Nutzern kognitive Dissonanz erzeugen können, mit dem Ziel, die Lösungen eben nicht zu hinterfragen. Zum Einsatz kommt die intuitive Benutzerführung, das klare, komplexitätsreduzierende Design, Dark Patterns, gezielter Einsatz von Trust-Elementen und einiges mehr. Das Problem ist, dass unser Gehirn nicht gerne nachdenkt, weil das Energie kostet, und wann immer unser Gehirn die Chance hat, Energie zu sparen, wird es das tun. Das heißt, wir brauchen User-Interfaces, die uns motivieren, das Ergebnis einer KI-Nutzung infrage zu stellen, das wird auch unser Bedürfnis nach Selbstwirksamkeit steigern. Um eine KI einschätzen zu können, brauchen wir Transparenz über die Datenbasis und die Algorithmik. Weil nur wenige Nutzer entsprechende Texte lesen werden, sind hier glaubwürdige Prüf- und Testverfahren von wirklich unabhängigen Institutionen wie vom VDE erforderlich [Anm. Red.: VDE steht für Verband der Elektrotechnik, Elektronik, Informationstechnik e.V.]. Nötig sind Funktionen, die echtes Hinterfragen und bewusste kognitive Auseinandersetzung ermöglichen, damit die Nutzerinnen und Nutzer nicht in den Habitus der Externalisierung der Verantwortung oder in kognitive Dissonanz verfallen.
Pyramide der Vertrauensbildung
In deinem Vortrag bei der Rise of AI hatte ich eine inhaltlich dichte Grafik gesehen in Form einer Pyramide. Es ging um Daten und Vertrauensbildung. Mir kam vor, dass du darin ein Konzept von Technik, Angst und Vertrauensbildung auf den Punkt bringst. Stammt die von dir? Kannst du sie uns zeigen und kurz erläutern?
Ja, die Pyramide ist von mir. Ich habe auf dem Konzept der Maslowschen Bedürfnispyramide aufgesetzt und die Pyramide der Vertrauensbildung entwickelt, die bewusst Techniken wie Dark Patterns und gezieltes Generieren von kognitiver Dissonanz ausschließt, um die Nutzer zu befähigen, echtes Vertrauen zu entwickeln. Der Nutzen auf der Sachebene der KI-Lösung muss signifikant sein. Im nächsten Schritt sind korrekte, unverzerrte Daten wichtig, wie auch effiziente und effektive Prozesse.
(Bild:Â Dr. Katharina von Knop)
Viel Handlungspotenzial liegt in der inhaltlichen Gestaltung von Normen und verlässlichen wie auch glaubwürdigen Prüfsystemen. Deren Umsetzung sind in Teilen technisch noch ein großes Problem. Aus neuropsychologischer Sicht brauchen wir dringend Prüfsysteme, weil sie die enormen Komplexitäten reduzieren und Kontrollen durchführen, zu denen die Nutzer nicht in der Lage sind.
GlaubwĂĽrdige PrĂĽfsiegel
Denkst du in Richtung von Zertifizierungen und Gütesiegeln oder eher an Wasserzeichen für KI-generierte Inhalte? Hessen hat unlängst einen KI-Test-Hub eröffnet, bundesweit wohl den ersten.
Ja, das KI-Test-Hub ist eine großartige Institution und ein echter Meilenstein. Aufgrund der Komplexität und Dynamik der Systeme, der zeitlichen Verfügbarkeiten der Nutzer, brauchen wir glaubwürdige Prüfsiegel von unabhängigen Institutionen. AI Trust Lable des VDE ist ein solches Prüfsiegel.
Spannend finde ich den Punkt, dass Normen und Standardisierung offenbar Vertrauen schaffen. Forscher warnen teils auch vor Ăśberregulierung. Oder geht das unter einen Hut?
Wirksame, effiziente Normen und Prüf- und Kontrollsysteme von unabhängigen, glaubwürdigen Institutionen sind wichtig, weil sie die enormen Komplexitäten für die Nutzer reduzieren und sie zu einer Handlungsentscheidung befähigen. Auch befähigen glaubwürdige Prüfsysteme Unternehmen, Behörden und User, aus dem stetigen Kreislauf der Besorgnis herauskommen. Dieser Kreislauf ist von der einzelnen Person selbst kaum beeinflussbar.
Kreislauf der Besorgnis
Kreislauf der Besorgnis? Den Begriff höre ich zum ersten Mal. Was ist genau gemeint, ein Teufelskreis?
Dieser Kreislauf beginnt mit einem besorgniserregenden Gedanken, neuropsychologisch geschieht dabei das Folgende: Der orbitofrontale Kortex sendet dieses Signal an den dorsolateralen präfrontalen Kortex, der mit dem Thalamus kommuniziert. Und dieser leitet das Signal an das Striatum, das wiederum den orbitofrontalen Kortex informiert. Somit entsteht ein Besorgnis-Kreislauf in unserem Gehirn, der die Intensität der Besorgnis verstärkt. Jeder kennt das, wir alle waren schon mal unsicher, ob wir die Wohnungstür abgeschlossen oder den Herd ausgeschaltet haben. Statt dass sich der dorsolaterale präfrontale Kortex, der begründende Teil unseres Gehirns, einschaltet, mit der Botschaft:
"Du schließt immer die Tür ab, und selbst wenn sie jetzt nicht abgeschlossen ist, ist die Eintrittswahrscheinlichkeit eines Einbruchs sehr gering, auch weil man in zwei Stunden wieder da ist", gehen wir zurück und überprüfen die Tür oder den Herd. Ein Ausweg aus dem Besorgnis-Kreislauf tut sich auf, wenn dieser begründende Teil unseres Gehirns substanzielle Argumente auf der Sachebene hat, warum eine KI sicher ist oder das Ergebnis einer KI plausibel, oder wenn wir über die Gewissheit verfügen, dass wir nicht – gefangen in unserer eigenen Bequemlichkeit – inhaltlich manipuliert werden. Dieser Ausweg ist natürlich auch mit etwas Dokumentationsarbeit bezüglich von KI-Systemen verbunden.
Wie wir in der YouGov-Statisik gesehen haben, ist die Angst vor Manipulation durch Desinformation und verzerrte Informationen besonders ausgeprägt …
Deshalb ist es wichtig, in Diskussionen um KI innerhalb von Unternehmen und Behörden weniger zu meinen, glauben oder zu fühlen, sondern möglichst quantifizierte Messwerte zu heben und auch qualitative Daten zu quantifizieren und definierte Entscheidungsmethoden zu verwenden.
Was müssten KI-Anwendungen uns bieten, damit wir ihnen beim Nutzen vertrauen können?
Eine Menge. Ich definiere es so: Vertrauen ist eines der komplexesten Gefühle. Aus neuropsychologischer Sicht: die Befähigung, auf eine bewusste oder unbewusste Risiko-Chancen-Analyse zu verzichten in der Annahme, dass sich das System auf die erwartete zuträgliche Weise verhält und dem Interesse der Nutzerinnen und Nutzer dient.
Transparenz ist wichtig
Verstehe, daher also die Bedeutung von Normen, Auditierung und Prüfungen. Was wäre noch erforderlich?
Als Anbieter wäre es wichtig, die KI so transparent wie möglich in leichter Sprache zu erklären. Transparenz wäre auch auf der Ebene der Algorithmik wichtig. Die KI sollte von Externen auditierbar sein, über wirksames glaubwürdiges Prüfsiegel zu verfügen und den Nutzern ein Höchstmaß an Kontrollfähigkeit etwa auch in Bezug der eigenen Eingaben bieten. Ganz besonders wichtig, die Verlässlichkeit des Systems. Wichtig wäre je nach Anwendungsfall der KI, Neugierde beim Nutzer zu wecken.
Physiologisch passieren im Organismus fast identische Dinge: Die Atmung beschleunigt sich, die Herzfrequenz nimmt zu. Der einzige Unterschied zur Angst sind unsere Gedanken. Das Ziel wäre eine Änderung der Geisteshaltung von Angst hin zu Neugierde und Offenheit. Diese Neugierde sollte idealerweise so geframet sein, dass ich die Nutzer einlade, sich begeistert intensiv mit der Maschine und ihrer Arbeitsweise zu beschäftigen und konstruktiv auseinanderzusetzen.
Interessante Idee, Aufklärung durch Neugierde. Welche KI-Potenziale nutzen wir in Deutschland noch nicht ausreichend, welche Chancen siehst du?
Durch unser kulturhistorisch geprägtes Sicherheits- und Risikobedürfnis haben wir die große Chance, vertrauenswürdige und sichere KI sowie ein sicheres Ökosystem der sie begründenden Daten und Prozesse zu entwickeln – bezogen auf die KI-Modelle, die kommen werden. Die Qualität und Akzeptanz von KI-Systemen, die hohe ethische und technische Standards erfüllen, kann höher sein als bei Systemen, die wenig transparent sind.
Hier können wir unsere Prägung zu einer echten Stärke ausbauen und wir sind herzlich eingeladen, dabei auch schnell sein zu dürfen. Der Ansatz wäre: Lasst uns mit begeisterter Neugierde die neuesten KI-Modelle entwickeln und nutzen. Und gleichzeitig suchen wir nach Lösungen, wie wir diese vertrauenswürdig und sicher machen können. Das ist kein Widerspruch, sondern geht Hand in Hand.
Schönes Plädoyer für Neugier. Herzlichen Dank für die Einblicke!
Das Gespräch führte Silke Hahn, Redakteurin bei iX und heise Developer.
Fehlendes Wort wurde ergänzt: In den Absätzen nach der YouGov-Statistik mit der Frage nach den größten Ängsten der Deutschen vor KI (Jobverlust rangiert weit oben) geht es um die Erwerbstätigen in der Bevölkerung, nicht um die Gesamtheit aller Menschen in der BRD.
Der überarbeitete Abschnitt lautet: Der Zweite Weltkrieg ist aber schon zwei bis drei, für jüngere Menschen sogar vier Generationen her. Kaum einer, der heute hier erwerbstätig ist, hat diese Zeit durchgemacht. (...) Du siehst dennoch einen Bezug zu heute?
(sih)