KI-Kongress-Themen auf der Learntec: Empathische KI und fehlende Integrität

Wie empathisch interagieren Chatbots mit Menschen und was für Probleme kann das auch im Bildungskontext mit sich bringen? Zwei Vorträge lieferten Denkanstöße.

vorlesen Druckansicht 1 Kommentar lesen
Blick auf den Schriftzug Learntec in der Messe Karlsruhe

(Bild: heise online/kbe)

Lesezeit: 8 Min.
Inhaltsverzeichnis

Während in den Hallen der Messe Karlsruhe Aussteller der Learntec vom 6. bis zum 8. Mai um die Aufmerksamkeit der Besuchenden buhlten, wurden im parallel stattfindenden Kongress aktuelle Forschungsergebnisse und Kontroversen der digitalen Bildungsbranche erörtert. Die genauere Analyse, wie sich der zunehmende KI-Einsatz auch in der Bildung auf die Lernenden und Lehrenden auswirken könnte, führte in zwei Vorträgen, die heise online besuchte, zu einem klaren Ergebnis: Je ununterscheidbarer KI-generierte Inhalte und Medien von menschlichen werden, desto wichtiger wird es, sie auch als solche zu kennzeichnen.

Prof. Dr. Kristina Schaaff referierte in ihrem englischsprachigen Vortrag "Anthropomorphism of Chatbots: Opportunities and Challenges in Learning Scenarios"
inwieweit Chatbots wie etwa ChatGPT in der Lage sind, empathische Reaktionen in der Interaktion zu simulieren und wie sich das auf die damit konfrontierten Menschen auswirkt. Dass Chatbots darauf trainiert werden, der emotionalen Verfassung des Nutzenden entsprechend zu antworten, erkläre sich unter anderem
dadurch, dass das individuelle Eingehen auf den Nutzenden das Vertrauen gegenüber einem Chatbot erhöhen kann und damit auch die Nutzererfahrung insgesamt besser wird. Zudem kann die nutzerzentrierte und emotional-ansprechende und nicht nur sachliche Abarbeitung von Prompts wieder zu passgenaueren Antworten führen, die von den Nutzenden besser aufgenommen werden kann. Dadurch kommt der Chatbot allerdings auch der menschlichen Beziehung zwischen Lernenden und Lehrenden näher.

Prof. Dr. Kristina Schaaff
Prof. Dr. Kristina Schaaff

Kristina Schaaff ist als Professorin für Digitale Transformation mit Schwerpunkt Künstliche Intelligenz an der IU Internationalen Hochschule tätig. Ihre Forschungsinteressen liegen hierbei vor allem auf der Mensch-Maschine-Interaktion.

Menschen schätzen die neuen digitalen Lernangebote mit Chatbots der Forschung zufolge fast zu 50 Prozent positiv ein. 13,6 Prozent meinten, dass diese Apps "sehr hilfreich" fürs Lernen seien, 34,4 "ziemlich hilfreich", 21 Prozent fanden sie "weniger hilfreich", 6 Prozent "gar nicht hilfreich", 25 Prozent konnten keine Aussage treffen. Anthropomorphismus beschreibt nun das Phänomen, dass Menschen unter anderem Technik menschliche Eigenschaften attribuieren können.
Das führt beispielsweise dazu, dass Menschen höflich mit einem Chatbot interagieren – Bitte und Danke sagen – weil sie nicht mehr nur eine plumpe Eingabemaschine wahrnehmen. Dieser Effekt wird auch beobachtet, wenn Roboter Menschen besonders ähnlich sehen, etwa ein Gesicht deutlich erkennbar wird.

Videos by heise

Wenn ChatGPT in Prompts Emotionen von Menschen erkennt und daran angepasste Antworten generiert, "weiß" das Large Language Model (LLM) auch zu 91,7 Prozent welche Emotion es gerade ausdrückt. In 70 Prozent der Fälle reagierte ChatGPT mit einer "parallelen Emotion" auf Nutzende, die Teil der affektiven (oder auch emotionalen) Empathie ist. Ein anderer Teil der affektiven Empathie ist die reaktive emotionale Antwort.
Die affektive Empathie unterscheidet sich von der kognitiven Empathie.

Anhand der Art wie ChatGPT in den Versionen 3.5 und 4 und die LLMs Dolly2, Bard und LLaMa 2 Emotionen spiegeln, zeigte sich auch, wie hoch der "Interpersonal Reactivity Index" (Index der zwischenmenschlichen Reaktivität
) für die einzelnen LLMs ist. Auch wurden die LLMs auf ihren Empathie-Quotienten (Emotionale Intelligenz) in Abgrenzung zum Autismus-Spektrum-Quotient geprüft. Die LLMs übersprangen alle die Marke von 70 Prozent für den Empathie-Quotienten. Schaaff fasste zusammen: LLMs können Emotionen zeigen, sie können empathisch reagieren – und Chatbots übertreffen in vielen Fällen sogar die menschliche Leistung
bei Erkennung und Reaktion.

Das bringe allerdings auch Probleme mit sich. Werden Chatbots immer besser darin, auch emotional adäquat oder sogar besser als Menschen auf Nutzende zu reagieren, können sich die Interaktionen zwischen Mensch und Mensch verändern bzw. zugunsten der Chatbots verschieben. Dabei sind sie immer noch keine Wahrheitsmaschinen, die auch faktisch falsche Antworten halluzinieren können. Die emotionale Bindung an Chatbots könnte hier ein Vertrauen schaffen, die ein Chatbot in dieser Form nicht verdient.

Was bedeutet das für die Lehre? Empathisch agierende Chatbots können zwar zu mehr Motivation führen, auch zu stärkeren Interaktionen der Lernenden, aber auch zu viel Vertrauen erhalten. Sie erlauben Lehrenden andere Aufgaben zu übernehmen, machen sie aber nicht überflüssig. Wichtig sei besonders, dass für Lernende weiterhin klar sein müsse, dass sie mit einer KI agieren, um das kritische Denken bezüglich der Antworten aktiviert zu halten. KIs in all ihren Ausprägungen, etwa auch als Avatare, die Menschen täuschend ähneln, müssten deshalb weiterhin als generiert zu erkennen sein.

Wie Schaaff referierte, gibt es derzeit aber noch einen weiteren Faktor, weshalb Chatbots einige Menschen besser durch ihre empathischen Fähigkeiten erreichen (und zu einem stärker ausgeprägten Anthropomorphismus verleiten) könnten als andere: Die sehr bekannten LLMs wurden vor allem im englischsprachigen Raum mit entsprechenden kulturell geprägten Daten trainiert. Dementsprechend können sich englischsprachige Nutzer adäquater angesprochen fühlen, als Menschen aus anderen Kulturkreisen und mit anderen Muttersprachen. Denn auch das habe sich in der Forschung gezeigt. Antworten LLMs falsch oder auch inadäquat, entsteht Frust bei den Nutzenden. Wie zufrieden sie momentan mit den Interaktionen und Antworten der LLMs sind, hängt also auch davon ab, woher sie stammen.

Dr. phil. Angelika Neudecker, wissenschaftliche Mitarbeiterin der Pädagogischen Hochschule Bern, beschäftigte sich in ihrem englischsprachigen Vortrag mit ethischen Fragen von KI im Schulalltag (Vortragstitel: "Beyond Digitalisation: Ethical Reflection on AI in Classroom Workflows"). Sie nahm in den Blick, welche neuen Workflows und Interaktionen aufgrund von KI-Anwendungen im Unterricht entstehen. Auch sie kam zu dem Schluss, dass insbesondere die Imitation des Menschlichen durch KI zu größeren Problemen führen kann und es Verdrängungseffekte gibt.

Dr. phil. Angelika Neudecker
Dr. phil. Angelika Neudecker

Dr. phil. Angelika Neudecker ist seit Mai 2023 wissenschaftliche Mitarbeiterin im Think-Tank Medien und Informatik (TTIM) der Pädagogischen Hochschule Bern. Von 2019 bis Juni 2023 lehrte und forschte sie im Bereich "Digitalisierung in der Bildung & postdigitale Entwicklung" an der Ruhr-Universität Bochum.

So könnte sich die Hierarchie im Klassenraum zu Ungunsten der Lehrkräfte verändern; sogar umdrehen. Während heute noch die Lehrkraft am oberen Ende der Hierarchie stehe, die Schülerschaft in der Mitte und die KI – etwa in Form eines Chatbots – ganz unten, könnte KI in der Wahrnehmung von Schülern bald oben stehen und die Lehrkraft unten. Es passiere bereits, dass eine Lehrkraft sagt: Die Antwort lautet A und der Chatbot sagt B. Schülerinnen und Schüler könnten so vor der Frage stehen: Von wem lerne ich etwas? Auf wen soll ich mich verlassen? Wem vertraue ich? Lehrkräfte müssten dann mit Vertrauensverlust und Überforderung kämpfen.

Neudecker referierte im Anschluss verschiedene Einschätzungen zu KI durch federführende Denker und Forschende. Douglas Rushkoff oder auch Roger Penrose sprechen etwa genau das an, was KI nicht leisten kann oder auch von Menschen noch nicht richtig verstanden wurde und damit (noch) nicht technisch adressiert werden kann. So weise etwa die Feststellung "Understanding is not computational" von Roger Penrose darauf hin, dass der Prozess des Verstehens, der für das Lernen so wichtig ist, noch nicht ganz verstanden ist, und auch nicht einfach technisch imitiert werden kann. Rushkoff macht auf die Vorgänge aufmerksam, die "Between the ticks of a clock"
(zwischen dem Ticken einer Uhr) passieren. Menschen würden sich gerade (technisch) auf das Ticken, aber nicht das wichtige Dazwischen konzentrieren. Unter anderem zitierte Neudecker auch Prof. Dr. Thomas Fuchs: "KI kann niemals Verantwortung übernehmen – die bleibt immer bei den Menschen."

Neben dem, was KI also gar nicht wie ein Mensch in Lernumgebungen leisten kann, seien im Bildungswesen auch ethische Werte wie Verantwortung oder auch Integrität wichtig – daraus bilde sich Vertrauen. Neudecker fragte deshalb, ob KI über ethische Werte verfüge oder Ethik-basiert arbeite und generiere. Sei das nicht der Fall, sei es weiterhin wichtig zu wissen, ob Lernende mit jemandem oder etwas interagieren, der oder das über Integrität mit all seinen inhärenten Werten – beispielsweise Ehrlichkeit – verfügt oder nicht.

Chat-GPT antwortete im Mai 2025 auf die Frage nach dem ethischen Wert Integrität: "Integrität ist der ethische Wert, in seinen Handlungen und Entscheidungen ehrlich, konsequent und moralisch aufrichtig zu sein." (übersetzt aus dem Englischen)

(Bild: Slide aus dem Vortrag von Angelika Neudecker, Learntec 2025)

Sie plädierte am Ende des Vortrags für einen weiterhin kritischen Umgang mit KI in Lernumgebungen und aufgrund der immer schwieriger werdenden Erkennung von KI-Leistungen für deren Kennzeichnung. KI-Tools sollten zwar im schulischen Kontext weiterhin eingesetzt und kennengelernt werden, aber es müsse auch bewusst KI-freie Räume geben, um auch die menschlichen Qualitäten in der Lehre nicht zu verlieren, die zwischen dem "Ticken der Uhr" liegen. Neudecker fragte bei dieser Konklusion fast etwas ängstlich, ob eine so kritische Aussage zum Einsatz von KI auf der Learntec überhaupt möglich oder erlaubt ist. Diese Frage wurde aber schnell von Learntec-Kongresskomiteemitglied Prof. Dr. Peter Henning bejaht: Genau hier müsse auch über die Risiken von KI gesprochen werden. Das sei eine Frage der Integrität – der Vortragenden, aber auch der Messe.

(kbe)