German Angst: Ängste vor KI verstehen, beheben und Chancen nutzen – Interview

Woher stammt Technikphobie? Katharina von Knop geht ihr auf den Grund: Im Gespräch erklärt die Forscherin und CEO, wie man im digitalen Raum Vertrauen schafft.

In Pocket speichern vorlesen Druckansicht 67 Kommentare lesen

(Bild: Olesya Tseytlin / Shutterstock.com)

Lesezeit: 23 Min.
Von
  • Silke Hahn
Inhaltsverzeichnis

Ängste vor Künstlicher Intelligenz (KI) und eine gewisse Technikaversion gelten als der Grund, warum in Deutschland die Entwicklung von KI-Anwendungsfällen und deren Implementierung im internationalen Vergleich so schleppend vorwärtsgeht. Mithilfe neuropsychologischer Techniken kann es gelingen, den irrationalen Teil dieser Ängste abzubauen.

Dr. Katharina von Knop ist Philosophin, Softwareentwicklerin und ausgesprochen neugierig. Ursprünglich kommt sie aus der Sicherheitsforschung und hat zum Thema "Terrorismus, auf der Suche nach wirksamen Reduzierungsmöglichkeiten" promoviert. Das von ihr gegründete Unternehmen Digital Trust Analytics GmbH ist aus ihrer wissenschaftlichen Forschung zum Thema Aufbau von digitalem Vertrauen entstanden: Mit ihrem Team erstellt sie digitale Geschäftsmodelle und setzt vertrauenswürdige KI um. Bei der Fachkonferenz Rise of AI hielt sie einen Vortrag über Neuropsychologie, Angst und KI, der Anstoß bot für dieses Gespräch.

Interviewgast Dr. Katharina von Knop

Dr. phil. Katharina von Knop beschäftigt sich seit 2016 mit der Frage, wie der Aufbau von digitalem Vertrauen gelingt. Aus den wissenschaftlichen Erkenntnissen gründete sie ihr Unternehmen, die Digital Trust Analytics GmbH. Sie optimiert und baut digitale Lösungen und Geschäftsmodelle mit dem Ziel, "echtes digitales Vertrauen bei den Nutzern zu schaffen". Auch setzt sie zunehmend AI Trustworthiness um. Als zertifizierte Risikomanagerin hat sie während ihrer Zeit in der Strategieberatung das Risikomanagement von Banken optimiert und aufsichtsrechtliche Vorgaben implementiert. Nach erfolgreicher Entwicklung und Implementierung neuer digitaler Geschäftsmodelle für einen Konzern begann sie ihre Gründerzeit. Gemeinsam mit Vera Schneevoigt hostet sie den Podcast "Die Tech-Löwinnen". Sie ist Beirätin der Max Planck Academy, bei der German Scholar Organisation und beim Health-X dataLoft (hier wird ein Datenraum für Gesundheitsdaten geschaffen). Darüber hinaus ist sie Mentorin beim Cyberlab Karlsruhe.

Da zurzeit große Verunsicherung bezüglich des Potenzials Künstlicher Intelligenz sich breit macht und viele Menschen, auch Fachleute, teils mit Ängsten auf das Thema reagieren, haben wir sie um ihre Einschätzung gebeten. Das Gespräch führte Technikredakteurin Silke Hahn.

Silke Hahn: Menschen reagieren unterschiedlich auf Technik. Wir Redakteure stürzen uns oft mit Neugier und Begeisterung auf KI-Tools. Andere analysieren erst, wiederum andere reagieren mit angstgetriebener Ablehnung. Neuerdings warnen auch einige Fachleute. Das verunsichert weniger technikaffine Menschen deutlich. Woher stammt diese unterschiedlich ausgeprägte Neugierde, und woher rührt die Angst?

Katharina von Knop: Das, wovor wir Angst haben, und mit welcher Intensität wir die Angst wahrnehmen, gibt es in drei Ausprägungen: Ein Großteil unserer Ängste ist evolutionär bedingt. Wir haben im Zuge der Evolution gelernt, wovor es sinnvoll ist, Angst zu haben, um unser Überleben zu sichern. Genetisch bedingt, aber auch bewusst und unterbewusst gelernt ist der "Risiko-Appetit", also die Risikobereitschaft einer Gesellschaft oder Kulturregion. Die dritte Ausprägung ist das individuell spezifische bewusste und unterbewusste Lernen im Zuge der eigenen Biografie. Wenn wir möglichst früh und immer wieder im Laufe des Lebens gelernt haben, dass es sich lohnt, sich positiv neugierig mit unbekannten Dingen zu beschäftigen und uns diese möglichst selbstständig zu erschließen, werden wir weniger Ängste entwickeln. Wir haben dann gelernt, dass das Neue einen Nutzen hat, dass wir es beherrschen können und dass Risiken sich minimieren lassen, wenn wir uns kritisch damit auseinandersetzen.

Um Führungskräfte und Mitarbeiter in Richtung Digitalisierung und KI zu bewegen, beschäftigen Behörden und Unternehmen ganze Heerscharen von Beratern. Gemessen am Grad der Digitalisierung und des Einsatzes von KI im internationalen Vergleich scheinen diese Maßnahmen zwar viel zu kosten, aber wenig zu bringen. Woran liegt das?

Der Grund ist die evolutionäre Entwicklung des Gehirns, und in Folge kommunizieren nicht alle Teile des Gehirns in Gefahrensituationen so, dass wir schneller reagieren können. Der Neocortex als Teil des Großhirns ist unter anderem für die Sprache und komplexe Denkvorgänge zuständig. Angst wird von der Amygdala, einem Teil des limbischen Systems, gesteuert. Beide Gehirnareale interagieren nicht direkt miteinander. Die Amygdala kann nicht mit Sprache beeinflusst werden. Wenn Menschen bereits vor etwas wie KI Angst haben, können wir mit Sachargumenten in der aktuellen Situation deshalb kaum etwas erreichen. Deswegen bringen klassische Coachingmethoden hier nichts.

Wichtig wäre es, in den entscheidenden Positionen möglichst neugierige Menschen zu haben. Ob Menschen neugierig sind, sieht man rasch an dem Lebenslauf. Ängste können aber auch gut therapiert werden. Am wirksamsten ist bewusste, kontrollierte Konfrontation mit dem, was Angst macht. Bezogen auf KI böte das bewusste Arbeiten mit einem KI-System zugleich die Chance, etwas über diese Technologie sowie deren Prüf- und Kontrollsysteme zu lernen. Das Gehirn kann dann die KI-Lösung besser verstehen und die Amygdala lernt, dass Angst nicht nötig ist, weil der Neocortex die Lösung versteht. Ein Digital-, KI- oder Programmier-Lerntag pro Woche wäre eine sinnvolle Investition.

Wieso spielt Neugier dabei so eine große Rolle? An welche Positionen hättest du gedacht?

Positivistische Neugierde darauf, Technologien zu verstehen, motiviert Menschen, sich aktiv neue Themen zu erschließen, und Menschen lernen wahnsinnig gerne. Die Gehirne von neugierigen Menschen schütten verstärkt Dopamin aus – das Hormon, das uns motiviert, Dinge zu tun, wenn es etwas Technisches oder Neues zu verstehen oder ein Problem zu lösen gilt. Vereinfacht ausgedrückt sagen sie nicht: "Oh nein, ein Problem" oder "Oh nein, davon versteh‘ ich nichts", sondern "Oh cool, das weiß ich nicht – ich will das jetzt verstehen – wie geht das?". Unsere Gehirne haben eine unglaubliche Lust und Freude daran, Neues zu lernen.

Weil KI so rasant weiterentwickelt wird, ist es eigentlich nötig, dass auf jeder Position neugierige Menschen sind. Besonders gefordert ist das C-Level und das mittlere Management. Ich kann mich gut an eine Situation erinnern mit dem Leiter für Forschung und Entwicklung eines Technologie-Unternehmens, als wir Stunden in der Parkgarage vor dem Wagen des CEO auf diesen gewartet hatten, um ihm eine neue Entwicklung zu erklären, damit sie in Produktion geht. Wir durften dann mitfahren und hatten die Zeit, die Lösung zu erklären, und sie wurde ein Erfolg.

Angst ist eine Emotion und ein effizienter Impuls des Gehirns, schnell ins Handeln zu kommen, ohne erst aufwendig nachzudenken. Was könnte ein tieferes Verstehen der neuropsychologischen Vorgänge im Gehirn dazu beitragen, irrationale Ängste vor KI abzubauen?

Vieles, definitiv. Angst und Ängstlichkeit sind normale Reaktionen einer echten oder wahrgenommenen Bedrohung. Sie sind gekennzeichnet durch Sorge und Besorgnis, die je nach Ausprägung auch panische Züge haben können. Wenn wir Angst haben, fokussiert sich unsere Wahrnehmung auf das, wovor wir uns fürchten, alles andere blenden wir aus. Der Körper wird mobilisiert. Wir kennen die physischen Reaktionen wie komisches Bauchgefühl, erhöhter Herzschlag, Schwitzen. Das ist ein sehr effizienter Prozess, der uns befähigt, die richtige Reaktion innerhalb von Millisekunden auszuführen. Das Problem ist, dass dieser Angst-Mechanismus nicht sehr akkurat ist.

Weil wir in so einer instinktiven Reaktion nicht genauer abwägen können zwischen Chancen und Risiken? Ist das der Bezug zur KI?

Ja, genau – das Feuern der Amygdala lähmt die höheren Denkfunktionen und die Handlungsplanung. Wenn Menschen Angst haben, fällt es ihnen schwer, überlegt vorzugehen. Planvolles Handeln, insbesondere das rasche Treffen von Entscheidungen ist notwendig, da die Entwicklung gerade so rasant geschieht und wir als Gesellschaft Wissenschafts- und Wirtschaftsraum auch den Anschluss nicht verlieren dürfen. Insbesondere, wenn wir uns für den Einsatz von KI entscheiden wollen oder ihn in Erwägung ziehen.

Das Spektrum von Ängsten bezogen auf KI ist groß. Manche Menschen haben grundsätzlich vor Dingen, die Ihnen unbekannt sind, Angst. Manche haben keine Angst vor der KI, sondern vor möglichen Folgen, wie nicht mehr so relevant zu sein oder durch die Automatisierung im Beruf ersetzt zu werden. Andere haben Angst davor, sehr viel Neues lernen zu müssen, und sind damit überfordert. Sie können oder wollen diese Anstrengung nicht leisten, und diese kognitive Anstrengung lähmt sie. Andere haben Angst, die Kontrolle zu verlieren. Einige dieser Ängste sind auch sehr berechtigt, weil Menschen und Institutionen Schadwirkungen bewusst oder unterbewusst anwenden werden. Ich nehme an, dass dieser Kontrollverlust den meisten Menschen in Deutschland am meisten Angst macht, schließlich sind wir bekannt dafür möglichst aufwendige und langsame Bürokratien zu haben.

Umfrage: Die größten Befürchtungen der Deutschen in Bezug auf KI (Befragungszeitraum: 3.-5. Mai 2023)

(Bild: YouGov / Statista)

Lass uns mal einen Blick in die Statistik werfen. Laut einer aktuellen YouGov-Umfrage zu den Ängsten vor KI gaben die befragten Deutschen an, dass sie sich am meisten vor Desinformation und Fake News fürchten, weil sie dadurch die demokratische Ordnung gefährdet sehen. Fast genauso ausgeprägt war darin die Angst vor dem Jobverlust, beides stand für rund 30 Prozent der Befragten im Zentrum. Meinst du das mit Kontrollverlust?

Die Angaben verraten leider nicht, welche Interviewmethode angewendet worden ist und ob noch weitere Fragen gestellt worden sind, deshalb kann ich diese Antworten nicht einschätzen. Der Kern der Angst vor Desinformation und Jobverlust ist Kontrollverlust. Der Angst vor Desinformation kann man hervorragend mit dem Kauf und dem Lesen einer Qualitätszeitung begegnen. Wir erleben auf Sozialmedia nicht erst seit Neuestem einen Höhenflug von KI-Desinformation.

Man könnte als liberale Demokratie darüber nachdenken, allen Bürgern und Bürgerinnen ein kostenfreies Abo einer Qualitätszeitung oder eines Qualitäts-Nachrichtenportal frei nach Wahl zu finanzieren, wenn dieses gelesen wird und die Journalisten ihre Quellen und ihre Recherchemethoden kommunizieren. Bei investigativem Journalismus geht das natürlich nur begrenzt. Eine solche Förderung wäre zugleich eine wirksame Maßnahme gegen politische Radikalisierungen und Populismus. Auch der Angst vor Jobverlust kann man ausgezeichnet durch proaktive Selbst-Weiterbildung und Qualifizierung begegnen.

Meinst du also, dass in Deutschland viele "Kontrollverliebte" leben? Falls ja, ist das historisch begründet?

Die Deutschen haben zwei brutale Diktaturen erlebt und während dieser Zeit war das Leben einer direkten Selbstwirksamkeit nur eingeschränkt möglich. Man war in absoluter Abhängigkeit eines Regimes. Diese Erfahrungen haben uns als Gesellschaft sehr geprägt.

Der Zweite Weltkrieg ist aber schon zwei bis drei, für jüngere Menschen sogar vier Generationen her. Kaum einer, der heute hier erwerbstätig ist, hat diese Zeit durchgemacht. Viele Zugewanderte, die heute in Deutschland leben, haben keine Vorfahren, die Teil dieser Geschichte waren. Du siehst dennoch einen Bezug zu heute?

Solche Erfahrungen sind starke Traumata, die unterbewusst an die folgenden Generationen weitergegeben werden. Hinzu kommt, dass Millionen von Menschen während des Ersten und Zweiten Weltkrieges ums Leben gekommen oder umgebracht worden sind, viele wanderten aus. Darunter waren insbesondere Intellektuelle, Vordenker und Vordenkerinnen, Wissenschaftlerinnen und Unternehmer in den unterschiedlichsten Disziplinen – Menschen mit überdurchschnittlicher Risikobereitschaft und Selbstwirksamkeitserwartung.

Hier müsste die Kausalkette mehrere Generationen umspannen. Da bin ich etwas skeptisch, schließlich sind zwischenzeitlich neue Menschen geboren worden und hinzugekommen. Wir haben auch keinen so großen Männermangel mehr wie unmittelbar nach dem Zweiten Weltkrieg. Welche Gründe siehst du in der Gegenwart?

Hinzu kommt, dass jedes Jahr laut Statistischem Bundesamt aktuell etwa eine Million Menschen aus Deutschland auswandern. Zwar wandern mehr ein, aber von den Auswanderern sind viele hoch qualifiziert und sind eigentlich Innovationstreiber. Es gibt auch einige ziemlich harte Indikatoren, die hier gemessen werden können. Entwicklung der Verleihung von Nobelpreisen, Patentanmeldungen, innovative Unternehmensgründungen, Ausgründungen aus der Wissenschaft und Unicorn-Gründungen. Der Anteil der Menschen an der Gesamtbevölkerung, die risikobereiter sind und Innovationen vorantreiben, wird gemäß diesen Migrationsbewegungen mit jedem Jahr geringer. Das Ergebnis ist eine geringere Risikobereitschaft, eine ausgeprägte Sicherheitskultur und eine sehr starke Zurückhaltung bezüglich aller Lösungen und besonders digitaler Lösungen, die vom Staat, seinen Behörden und Körperschaften des öffentlichen Rechts kommen.

Halten wir fest: Die Sicherheits- und Risikokultur ist hierzulande stark ausgeprägt, sagst du. Das bringt Vorteile mit sich, lähmt uns aber gleichzeitig. Im Bereich Grundlagentechnik könnte das fatal sein. Manche meinen, dass wir uns totregulieren. Offenbar gibt es hier auch mentale Faktoren. Was können wir aus psychologischer Sicht tun, damit wir bei KI vorankommen und konkurrenzfähig mitspielen?

Wir brauchen eine andere Form, Regulatorik umzusetzen, die eher einen befähigenden Charakter hat und nicht unnötig Ressourcen bindet. Aus der Angstforschung wissen wir, dass die gezielte Konfrontation und Arbeit mit dem, was uns Angst macht, uns befähigt, diese Angst abzumildern. Der eigentliche Impuls wäre, in Angstsituationen wegzurennen – oder übersetzt in Konzern- und Behörden-Habitus: die Endlosschleife von Meetings, bei denen keine Entscheidung getroffen wird. Dadurch lernt aber die Amygdala, dass dieses Verhalten richtig ist und verstärkt zukünftig diese Angst, um uns zu befähigen, noch schneller wegzurennen oder noch mehr Meetings abzuhalten und noch mehr Menschen bei E-Mails in CC zusetzen und so dem Thema aus dem Weg zu gehen. Vermeidung verstärkt Angst.

Wenn wir uns dem Problem stellen, so viel wie möglich über die jüngsten KI-Modelle lernen und konstruktive, chancenorientierten Lösungen suchen, lernt verdichtet gesprochen, die Amygdala, dass die Angst unbegründet war, weil die Lösung verstanden wird, Risiken beherrscht werden können und sie wird abnehmen. Konfrontieren und konstruktives Auseinandersetzen lindert Angst. Um sich in einer Behörde oder in einem Unternehmen für ein KI-System entscheiden zu können, helfen Entscheidungsmethoden, in denen Kriterien definiert sind, die Risiken, aber auch die Chancen erheben. Wichtig ist auch die Einschätzung der Folgen einer Nichtanwendung der KI.

Welche Entscheidungsmethoden meinst du, was wäre ein konkretes Beispiel dafür?

Da gibt es eine ganze Fülle, die das Interview wirklich sprengen würden. Besonders wirksam und effizient ist folgendes Vorgehen: die Feststellung aller Entscheidungskriterien auf der Sachebene und möglicher Alternativen und Konsequenzen, auch jene bei Nicht-Entscheidung. Anonyme Beantwortung aller Kriterien, der Alternativen und Konsequenzen durch alle Teammitglieder. Terminierung, bis wann eine eindeutige Entscheidung getroffen werden muss.

Du bist Unternehmerin. Meine Vermutung ist daher, dass du eher zu den risikofreudigen Menschen hier in Deutschland gehörst. Was ist das Kernanliegen deines Unternehmens, Digital Trust? Und wie kamst du auf die Idee, zu gründen?

Ich bin nicht sonderlich risikofreudig, aber unglaublich neugierig, und ich liebe es, Probleme zu lösen, und Langsamkeit mag ich absolut gar nicht. Die Digital Trust Analytics ist aus meiner wissenschaftlichen Arbeit zum Thema „Aufbau des digitalen Vertrauens“ entstanden und während der Forschung kamen die ersten Aufträge, dann habe ich gegründet. Wir bauen und optimieren digitale Lösungen und Geschäftsmodelle mit dem Ziel, echtes digitales Vertrauen zu schaffen, denn das führt zu einer nachhaltigen Kunden- und Nutzergewinnung und -Bindung. Auch entwickeln wir AI-Trustworthiness-Lösungen. Inhaltlich habe ich in einem anderen Kontext noch viel vor.

Um Ängste der Bürger und Bürgerinnen bezogen auf Digitales und KI-Einsatz abzubauen, gilt es, sachlich aufzuklären und offen zu kommunizieren. Diesen Angstabbau muss sich der Staat beinhart erarbeiten: Einbindung der Open-Source-Community, der Safety- und Trust-Community, Systemsicherheit, Transparenz, Einbindung aller Stakeholder, zielgruppenspezifische Kommunikation, UX und UI Design und vieles mehr.

Meinst du also, dass Open-Source-Software Ängste abbaut? Geht es dir um eine Demokratisierung von Technik?

Demokratisierung von Technik schafft etwas sehr Kostbares und Wesentliches für den digitalen Vertrauensaufbau: Transparenz.

Aber reicht das bei KI schon, um Vertrauen zu entwickeln?

Nein, beschrieben habe ich gerade, was getan werden kann, um Ängste zu reduzieren. Um wirklich Vertrauen in eine der komplexesten Technologien entwickeln zu können, brauchen wir Menschen viel mehr, weil wir als selbsterklärte Krone der Schöpfung das erste Mal mit etwas konfrontiert sind, dass intelligenter ist als wir und wir auch wissen, dass je nach Kontext der Anwendung, der Datenbasis und der Algorithmik die Auswirkungen von KI fatal sein können.

Technikethiker warnen davor, KI überhaupt zu vertrauen, da durch das Machtgefälle zwischen konzerneigener Infrastruktur und Endnutzern keine Peer-to-Peer-Beziehung besteht. Ein gesundes Misstrauen könnte Professorin Johanna Bryson und anderen zufolge sogar hilfreich sein. Blindes Vertrauen hingegen scheint mir genauso unangemessen wie blinde Angst. Wie entscheiden wir, wann wir KI und Technik "guten Gewissens vertrauen" dürfen?

Einige große Technikkonzerne beherrschen inzwischen meisterhaft, wie sie bei den Nutzern kognitive Dissonanz erzeugen können, mit dem Ziel, die Lösungen eben nicht zu hinterfragen. Zum Einsatz kommt die intuitive Benutzerführung, das klare, komplexitätsreduzierende Design, Dark Patterns, gezielter Einsatz von Trust-Elementen und einiges mehr. Das Problem ist, dass unser Gehirn nicht gerne nachdenkt, weil das Energie kostet, und wann immer unser Gehirn die Chance hat, Energie zu sparen, wird es das tun. Das heißt, wir brauchen User-Interfaces, die uns motivieren, das Ergebnis einer KI-Nutzung infrage zu stellen, das wird auch unser Bedürfnis nach Selbstwirksamkeit steigern. Um eine KI einschätzen zu können, brauchen wir Transparenz über die Datenbasis und die Algorithmik. Weil nur wenige Nutzer entsprechende Texte lesen werden, sind hier glaubwürdige Prüf- und Testverfahren von wirklich unabhängigen Institutionen wie vom VDE erforderlich [Anm. Red.: VDE steht für Verband der Elektrotechnik, Elektronik, Informationstechnik e.V.]. Nötig sind Funktionen, die echtes Hinterfragen und bewusste kognitive Auseinandersetzung ermöglichen, damit die Nutzerinnen und Nutzer nicht in den Habitus der Externalisierung der Verantwortung oder in kognitive Dissonanz verfallen.

In deinem Vortrag bei der Rise of AI hatte ich eine inhaltlich dichte Grafik gesehen in Form einer Pyramide. Es ging um Daten und Vertrauensbildung. Mir kam vor, dass du darin ein Konzept von Technik, Angst und Vertrauensbildung auf den Punkt bringst. Stammt die von dir? Kannst du sie uns zeigen und kurz erläutern?

Ja, die Pyramide ist von mir. Ich habe auf dem Konzept der Maslowschen Bedürfnispyramide aufgesetzt und die Pyramide der Vertrauensbildung entwickelt, die bewusst Techniken wie Dark Patterns und gezieltes Generieren von kognitiver Dissonanz ausschließt, um die Nutzer zu befähigen, echtes Vertrauen zu entwickeln. Der Nutzen auf der Sachebene der KI-Lösung muss signifikant sein. Im nächsten Schritt sind korrekte, unverzerrte Daten wichtig, wie auch effiziente und effektive Prozesse.

Digitales Vertrauen aufbauen: Pyramide nach Maslow, abgewandelt durch Katharina von Knop

(Bild: Dr. Katharina von Knop)

Viel Handlungspotenzial liegt in der inhaltlichen Gestaltung von Normen und verlässlichen wie auch glaubwürdigen Prüfsystemen. Deren Umsetzung sind in Teilen technisch noch ein großes Problem. Aus neuropsychologischer Sicht brauchen wir dringend Prüfsysteme, weil sie die enormen Komplexitäten reduzieren und Kontrollen durchführen, zu denen die Nutzer nicht in der Lage sind.

Denkst du in Richtung von Zertifizierungen und Gütesiegeln oder eher an Wasserzeichen für KI-generierte Inhalte? Hessen hat unlängst einen KI-Test-Hub eröffnet, bundesweit wohl den ersten.

Ja, das KI-Test-Hub ist eine großartige Institution und ein echter Meilenstein. Aufgrund der Komplexität und Dynamik der Systeme, der zeitlichen Verfügbarkeiten der Nutzer, brauchen wir glaubwürdige Prüfsiegel von unabhängigen Institutionen. AI Trust Lable des VDE ist ein solches Prüfsiegel.

Spannend finde ich den Punkt, dass Normen und Standardisierung offenbar Vertrauen schaffen. Forscher warnen teils auch vor Überregulierung. Oder geht das unter einen Hut?

Wirksame, effiziente Normen und Prüf- und Kontrollsysteme von unabhängigen, glaubwürdigen Institutionen sind wichtig, weil sie die enormen Komplexitäten für die Nutzer reduzieren und sie zu einer Handlungsentscheidung befähigen. Auch befähigen glaubwürdige Prüfsysteme Unternehmen, Behörden und User, aus dem stetigen Kreislauf der Besorgnis herauskommen. Dieser Kreislauf ist von der einzelnen Person selbst kaum beeinflussbar.

Kreislauf der Besorgnis? Den Begriff höre ich zum ersten Mal. Was ist genau gemeint, ein Teufelskreis?

Dieser Kreislauf beginnt mit einem besorgniserregenden Gedanken, neuropsychologisch geschieht dabei das Folgende: Der orbitofrontale Kortex sendet dieses Signal an den dorsolateralen präfrontalen Kortex, der mit dem Thalamus kommuniziert. Und dieser leitet das Signal an das Striatum, das wiederum den orbitofrontalen Kortex informiert. Somit entsteht ein Besorgnis-Kreislauf in unserem Gehirn, der die Intensität der Besorgnis verstärkt. Jeder kennt das, wir alle waren schon mal unsicher, ob wir die Wohnungstür abgeschlossen oder den Herd ausgeschaltet haben. Statt dass sich der dorsolaterale präfrontale Kortex, der begründende Teil unseres Gehirns, einschaltet, mit der Botschaft:

"Du schließt immer die Tür ab, und selbst wenn sie jetzt nicht abgeschlossen ist, ist die Eintrittswahrscheinlichkeit eines Einbruchs sehr gering, auch weil man in zwei Stunden wieder da ist", gehen wir zurück und überprüfen die Tür oder den Herd. Ein Ausweg aus dem Besorgnis-Kreislauf tut sich auf, wenn dieser begründende Teil unseres Gehirns substanzielle Argumente auf der Sachebene hat, warum eine KI sicher ist oder das Ergebnis einer KI plausibel, oder wenn wir über die Gewissheit verfügen, dass wir nicht – gefangen in unserer eigenen Bequemlichkeit – inhaltlich manipuliert werden. Dieser Ausweg ist natürlich auch mit etwas Dokumentationsarbeit bezüglich von KI-Systemen verbunden.

Wie wir in der YouGov-Statisik gesehen haben, ist die Angst vor Manipulation durch Desinformation und verzerrte Informationen besonders ausgeprägt …

Deshalb ist es wichtig, in Diskussionen um KI innerhalb von Unternehmen und Behörden weniger zu meinen, glauben oder zu fühlen, sondern möglichst quantifizierte Messwerte zu heben und auch qualitative Daten zu quantifizieren und definierte Entscheidungsmethoden zu verwenden.

Was müssten KI-Anwendungen uns bieten, damit wir ihnen beim Nutzen vertrauen können?

Eine Menge. Ich definiere es so: Vertrauen ist eines der komplexesten Gefühle. Aus neuropsychologischer Sicht: die Befähigung, auf eine bewusste oder unbewusste Risiko-Chancen-Analyse zu verzichten in der Annahme, dass sich das System auf die erwartete zuträgliche Weise verhält und dem Interesse der Nutzerinnen und Nutzer dient.

Verstehe, daher also die Bedeutung von Normen, Auditierung und Prüfungen. Was wäre noch erforderlich?

Als Anbieter wäre es wichtig, die KI so transparent wie möglich in leichter Sprache zu erklären. Transparenz wäre auch auf der Ebene der Algorithmik wichtig. Die KI sollte von Externen auditierbar sein, über wirksames glaubwürdiges Prüfsiegel zu verfügen und den Nutzern ein Höchstmaß an Kontrollfähigkeit etwa auch in Bezug der eigenen Eingaben bieten. Ganz besonders wichtig, die Verlässlichkeit des Systems. Wichtig wäre je nach Anwendungsfall der KI, Neugierde beim Nutzer zu wecken.

Physiologisch passieren im Organismus fast identische Dinge: Die Atmung beschleunigt sich, die Herzfrequenz nimmt zu. Der einzige Unterschied zur Angst sind unsere Gedanken. Das Ziel wäre eine Änderung der Geisteshaltung von Angst hin zu Neugierde und Offenheit. Diese Neugierde sollte idealerweise so geframet sein, dass ich die Nutzer einlade, sich begeistert intensiv mit der Maschine und ihrer Arbeitsweise zu beschäftigen und konstruktiv auseinanderzusetzen.

Interessante Idee, Aufklärung durch Neugierde. Welche KI-Potenziale nutzen wir in Deutschland noch nicht ausreichend, welche Chancen siehst du?

Durch unser kulturhistorisch geprägtes Sicherheits- und Risikobedürfnis haben wir die große Chance, vertrauenswürdige und sichere KI sowie ein sicheres Ökosystem der sie begründenden Daten und Prozesse zu entwickeln – bezogen auf die KI-Modelle, die kommen werden. Die Qualität und Akzeptanz von KI-Systemen, die hohe ethische und technische Standards erfüllen, kann höher sein als bei Systemen, die wenig transparent sind.

Hier können wir unsere Prägung zu einer echten Stärke ausbauen und wir sind herzlich eingeladen, dabei auch schnell sein zu dürfen. Der Ansatz wäre: Lasst uns mit begeisterter Neugierde die neuesten KI-Modelle entwickeln und nutzen. Und gleichzeitig suchen wir nach Lösungen, wie wir diese vertrauenswürdig und sicher machen können. Das ist kein Widerspruch, sondern geht Hand in Hand.

Schönes Plädoyer für Neugier. Herzlichen Dank für die Einblicke!

Das Gespräch führte Silke Hahn, Redakteurin bei iX und heise Developer.

Update

Fehlendes Wort wurde ergänzt: In den Absätzen nach der YouGov-Statistik mit der Frage nach den größten Ängsten der Deutschen vor KI (Jobverlust rangiert weit oben) geht es um die Erwerbstätigen in der Bevölkerung, nicht um die Gesamtheit aller Menschen in der BRD.

Der überarbeitete Abschnitt lautet: Der Zweite Weltkrieg ist aber schon zwei bis drei, für jüngere Menschen sogar vier Generationen her. Kaum einer, der heute hier erwerbstätig ist, hat diese Zeit durchgemacht. (...) Du siehst dennoch einen Bezug zu heute?

(sih)