"Deskilling" – Kompetenzverlust durch KI wird zu wenig diskutiert

Auch an Hochschulen wird darĂĽber diskutiert, welche Auswirkungen KI auf das Lernen und Lehren haben kann. Eine kritischere Betrachtung wird gefordert.

In Pocket speichern vorlesen Druckansicht 142 Kommentare lesen
Education,Technology,Concept.,Edtech.,Ai,(artificial,Intelligence).

(Bild: metamorworks/Shutterstock.com)

Lesezeit: 7 Min.
Inhaltsverzeichnis

Verlassen wir uns zu viel auf entwickelte Techniken, verlernen wir sie womöglich selbst – und auch die Interaktion mit anderen Menschen könnte leiden, wenn Maschinen Aufgaben übernehmen, die normalerweise Menschen zufielen und die mehr Austausch von Mensch zu Mensch verlangen. Das gibt Prof. Dr. Gabi Reinmann von der Universität Hamburg in einem Diskussionspapier zum Thema "Deskilling durch künstliche Intelligenz?" im Hochschulkontext zu bedenken.

Reinmann bemängelt in ihrem Papier, dass in Debatten zur Nutzung Künstlicher Intelligenz der Fokus eher auf das Upskilling durch KI gelegt wird; der Annahme, dass Künstliche Intelligenz dazu führen wird, Menschen Arbeit abzunehmen, woraufhin diese "neue, meist breiter angelegte, Kompetenzen auf höherem Niveau aus[bilden]". Hingegen wird der Verlust von Kompetenzen – das Deskilling – deutlich weniger besprochen.

Wie die Professorin in ihrem Debattenbeitrag und in der Auseinandersetzung mit Äußerungen des Deutschen Ethikrates erklärt, sei das "Risiko von Kompetenzverlusten" nicht auf KI begrenzt, sondern ließe sich "bei nahezu allen Werkzeugen beziehungsweise technischen Mitteln beobachten, die Menschen heranziehen, um sich zu entlasten" (Deutscher Ethikrat, 2023a, S. 268). Tatsächlich werde Deskilling seit langem beschrieben und untersucht, etwa im Zuge der Industrialisierung. Bisher habe die technische Entwicklung und auch die Digitalisierung aber eher dazu geführt, dass die "Kluft zwischen gering qualifizierten Arbeitsplätzen zur Bedienung der Maschinen und hochqualifizierten Arbeitsplätzen zur Interaktion mit Maschinen und zur Festlegung ihrer Aufgaben [wächst]." Sogenannte Wissensarbeiter seien hiervon eher weniger betroffen gewesen. Dies könne sich aber mit generativer KI ändern.

Übernehme KI "zunehmend komplexe, kreative Leistungen erfordernde, Aufgaben" in allen Berufen, könnten "vermehrt und erstmals Wissensarbeitsplätze wegfallen und/oder die Rolle von Wissensarbeiterinnen könnte sich deutlich verändern", erklärt Reinmann. Damit könnten auch Menschen, die der Wissensarbeit nachgehen, nun potenziell "Deskilling-Kandidaten" werden.

Gefahren, die darin lauern, gibt Reinmann wie folgt an: Durchdringt KI gesellschaftliche und systemkritische Bereiche und übernimmt dort wichtige Aufgaben, müssen Menschen bei Nicht-Verfügbarkeit der Technik wieder einspringen. Das wird aber dann gesellschaftlich riskant, wenn Menschen dies nicht mehr adäquat können. Zudem müssten Menschen noch in der Lage sein, die Tätigkeit von KI zu überwachen, um im Bedarf eingreifen zu können. Auch deshalb könne nicht darauf verzichtet werden, "dass diese den jeweiligen Aufgaben- und Kompetenzbereich verstehen und selbst beherrschen". Im weitestgehend störungsfreien Fall könne aber auch hier die fehlende Einübung Fähigkeiten verkümmern lassen.

Auf das Individuum könne sich dies zusätzlich negativ auswirken, da dies "sukzessive Kontrolle über wesentliche Bereiche des Arbeitens (oder Lebens) an die Technik ab[gibt]". Laut deutschem Ethikrat könne "eine regelmäßige Delegation von Entscheidungen einen Effekt auf die Wahrnehmung des Selbst als Autor des eigenen Geschickes haben und sogar bürgerschaftliches Engagement reduzieren." Der Einschätzung von Reinmann zufolge könne der Einsatz generativer KI auch dazu führen, dass weniger "Austausch, Zusammenarbeit, gegenseitige Rückmeldung und Hilfestellung zwischen Personen" praktiziert werde, was einen negativen Effekt auf "die Erwartung an Kommunikation haben und Empathie, Geduld und Kompromissbereitschaft schmälern" könne. Menschen verlören also auch soziale Kompetenzen.

Im Kontext der Hochschulbildung liege die Aufmerksamkeit in der Debatte derzeit mehr auf dem Upskilling durch den Einsatz von KI. Dem hält Reinmann entgegen, dass der Begriff der in diesem Zusammenhang propagierten "Future Skills" weitestgehend inhaltsleer sei. Wolle man dem Deskilling durch KI im Hochschulkontext begegnen, müsse genauer festgelegt werden, wie KI einzusetzen ist. Zudem müssten etwa "KI-unabhängige Basiskompetenzen" ermittelt werden, die zu erlernen sind.

Um beispielsweise auch die Ergebnisse von KI-Systemen besser einschätzen zu können, müssten diese erklären, wie ein Ergebnis entstanden ist. Des Weiteren rät Reinmann eher zu einem Zusammenspiel von KI und Menschen, bei dem der Mensch noch Teil der Ergebnis-Erstellung bleibt – also Systemen, die den Menschen und seine Arbeit noch einbeziehen. Für die Einbeziehung des Menschen gebe es bereits genauere Klassifizierungen:

  • das Human-in-the-loop-System, kurz: HITL-System; KI arbeitet an der Seite des Menschen.
  • das Human-on-the-loop-System, kurz: HOTL-System; Menschen ĂĽberprĂĽfen das finale Ergebnis technischer Systeme/von KI.
  • das Human-out-of-the-loop-System, kurz: HOOTL-System: der Mensch ist an den technischen Systemen gar nicht mehr beteiligt, und das heiĂźt: KI arbeitet gänzlich ohne den Menschen.

Laut Reinmann sei Deskilling vor allem dann zu erwarten, wenn sich HOTL- und HOOTL-Systeme ausbreiten. Damit dies nicht geschehe, bedürfe es etwa einer KI-Literacy, wie sie bereits gefordert werde. So müssten auch an Hochschulen Grundkenntnisse zu KI vermittelt werden und an eine generelle Haltung gebunden werden, "sich durch Technik (auch auf subtile Weise) nicht kontrollieren und steuern zu lassen". Je nach Fach müsse auch in Abgrenzung zu KI festgelegt werden, welche Basiskompetenzen in die Curricula explizit aufgenommen werden sollten. Die genauere Betrachtung des Einsatzes von KI mithilfe der Klassifizierungen HITL-, HOTL- und HOOTL- könne zu mehr Reflexion führen.

Zugleich wird durch das Diskussionspapier von Reinmann klar, dass ein Teil der Verantwortung, Deskilling zu vermeiden, bei den Entwicklern von KI liegt. Sprachmodelle müssten ihre Ergebnisse und wie diese zustande kommen sowie herangezogene Quellen offenlegen. Des Weiteren müssten die Systeme auch Hinweise und Feedback von Menschen aufnehmen. So ergebe sich ein anderes Verhältnis in der Mensch-Maschine-Interaktion und eine sogenannte hybride Intelligenz mit einer ausgeglicheneren Mensch-Maschine-Dynamik sei eher zu erreichen.

Reinmann gibt in ihren Ausführungen an, dass im Zusammenhang mit KI oft noch nicht klar erwiesen sei, was zu vernachlässigende Routinearbeiten sind, und was nicht – was also gefahrlos an KI delegiert werden könne. Auch plädiert sie dafür, genauer zu hinterfragen, ob bestimmte Entwicklungen einfach als "alternativlos" hingenommen werden müssen.

Im letzten Teil ihres Diskussionspapiers wirbt sie für eine zwischenmenschliche Reaktion auf die stetige Technisierung und Verdichtung im Hochschulalltag. Die Aufwertung sozialer Beziehungen bzw. die Hinwendung zu einer "beziehungsreichen Bildung" könnten ein neues Gegengewicht bilden. In Sachen Prüfungskultur an Hochschulen rät sie zum Umdenken: "Stattdessen könnten und sollten wir die aktuelle Prüfungskultur an Hochschulen grundsätzlich hinterfragen: Wozu und für wen prüfen wir was? Was erwarten Anschlusssysteme von hochschulischen Prüfungen, was Lehrpersonen und was die Studierenden selbst? Ergibt es einen Sinn, auf der Basis umfassenden Misstrauens Prüfungen vor allem rechts- und betrugssicher zu machen?" Statt summativen Prüfungen wie gängigen Modulabschlussprüfungen wären formative Prüfungen, die Lernprozesse begleiten und den Lernfortschritt mit mehr persönlichem Feedback rückmelden, wünschenswerter.

Prof. Dr. Gabi Reimann ist Professorin für Lehren und Lernen an der Hochschule Hamburg und Leitung des Hamburger Zentrums für Universitäres Lehren und Lernen (HUL).

(kbe)