Schulanfang: Was Sie Ihrem Kind über KI erzählen sollten

ChatGPT & Co. prägen inzwischen auch das Bildungswesen. Medienkompetenz für den Nachwuchs ist gefragt. Hier fünf Tipps.

In Pocket speichern vorlesen Druckansicht 14 Kommentare lesen
Distance,Education,Online,Learning,Concept.,Robot,Teacher,,Abstract,Classroom,Interior

(Bild: Besjunior/Shutterstock.com)

Lesezeit: 8 Min.
Von
  • Rhiannon Williams
Inhaltsverzeichnis

Im vergangenen Jahr haben Kinder, Lehrer und Eltern dank des äußerst beliebten KI-Chatbots ChatGPT einen Crashkurs in künstlicher Intelligenz erhalten. Aber Kinder haben in der Schule und in ihrem Alltag nicht nur mit KI-Chatbots zu tun haben. KI ist zunehmend allgegenwärtig: Sie empfiehlt Sendungen auf Netflix, hilft Alexa bei der Beantwortung von Fragen, steuert jedermanns liebsten interaktiven Snapchat-Filter und die Art und Weise, wie sie ihre Smartphones entsperren.

Kinder sollten ermutigt werden, neugierig auf die Systeme zu sein, die eine immer wichtigere Rolle spielen. Hier sind die sechs wichtigsten Tipps von MIT Technology Review zum Beginn des neuen Schuljahres, wie Sie Ihrem Kind eine KI-Ausbildung ermöglichen können.

Chatbots sollen genau das Eine tun: chatten. Der freundliche, gesprächige Ton, den ChatGPT bei der Beantwortung von Fragen anschlägt, kann dazu führen, dass Schüler leicht vergessen, dass sie mit einem KI-System interagieren und nicht mit einer Vertrauensperson. Dies könnte dazu führen, dass die Menschen eher glauben, was diese Chatbots sagen, anstatt ihre Vorschläge mit Skepsis zu betrachten. Obwohl Chatbots sehr gut darin sind, wie ein sympathischer Mensch zu klingen, imitieren sie lediglich die menschliche Sprache anhand von Daten aus dem Internet, sagt Helen Crompton von der Old Dominion University in Norfolk im Bundesstaat Virginia, die sich auf digitale Innovationen im Bildungsbereich spezialisiert hat.

"Wir müssen die Kinder daran erinnern, dass sie Systemen wie ChatGPT keine sensiblen persönlichen Informationen geben sollten, da diese in einer großen Datenbank gespeichert werden", sagt sie. Wenn die Daten erst einmal dort sind, ist es fast unmöglich, sie wieder zu entfernen. Sie könnten verwendet werden, um Technologieunternehmen ohne Ihre Zustimmung mehr Geld zu bringen, oder sie könnten sogar von Hackern abgegriffen werden.

Große Sprachmodelle sind nur so gut wie die Daten, auf denen sie trainiert wurden. Das bedeutet, dass Chatbots zwar in der Lage sind, Fragen mit plausibel erscheinenden Texten zu beantworten, doch nicht alle Informationen, die sie liefern, sind korrekt oder zuverlässig. KI-Sprachmodelle sind auch dafür bekannt, dass sie Unwahrheiten als Fakten darstellen. Und je nachdem, wo die Daten gesammelt wurden, können sie Vorurteile und potenziell schädliche Stereotypen aufrechterhalten. Schüler sollten die Antworten von Chatbots so behandeln, wie sie jede Art von Information, die sie im Internet finden, behandeln sollten: kritisch.

"Diese Tools sind nicht repräsentativ für alle – was sie uns sagen, basiert auf dem, worauf sie trainiert worden sind. Nicht jeder ist im Internet und wird dann auch nicht reflektiert", sagt Victor Lee, ein außerordentlicher Professor an der Stanford Graduate School of Education, der kostenlose KI-Ressourcen für High-School-Lehrpläne entwickelt hat. "Schüler sollten innehalten und nachdenken, bevor wir klicken, teilen oder posten, und kritischer sein, was wir sehen und glauben, denn vieles davon könnte gefälscht sein."

Auch wenn es verlockend sein mag, sich bei der Beantwortung von Fragen auf Chatbots zu verlassen, so sind sie doch kein Ersatz für Google oder andere Suchmaschinen, sagt David Smith, Professor für Biowissenschaften an der Sheffield Hallam University in Großbritannien, der sich darauf vorbereitet hat, seinen Studenten bei der Nutzung von KI in ihrem eigenen Lernen zu helfen. Studenten sollten nicht alles, was große Sprachmodelle sagen, als unbestrittene Tatsache akzeptieren, sagt er und fügt hinzu: "Egal, welche Antwort es Ihnen gibt, Sie müssen sie überprüfen."

Es ist wichtig, Kindern zu erklären, wie Empfehlungsalgorithmen funktionieren, sagt Teemu Roos, Informatikprofessor an der Universität Helsinki, der einen Lehrplan über KI für finnische Schulen entwickelt. Technologieunternehmen verdienen Geld, wenn Menschen auf ihren Plattformen Werbung sehen. Deshalb haben sie leistungsstarke KI-Algorithmen entwickelt, die Inhalte wie Videos auf YouTube oder TikTok empfehlen, damit die Menschen süchtig werden und so lange wie möglich auf der Plattform bleiben. Die Algorithmen verfolgen und messen genau, welche Art von Videos sich die Nutzer ansehen, und empfehlen dann ähnliche Videos. Je mehr Katzenvideos man sich beispielsweise anschaut, desto wahrscheinlicher ist es, dass der Algorithmus davon ausgeht, dass man noch mehr Katzenvideos sehen möchte.

Diese Dienste neigen dazu, Nutzer zu schädlichen Inhalten wie Fehlinformationen zu führen, fügt Roos hinzu. Das liegt daran, dass die Menschen dazu neigen, bei seltsamen oder schockierenden Inhalten zu verweilen, etwa bei Fehlinformationen über die Gesundheit oder bei extremen politischen Ideologien. Es ist sehr leicht, in einer solchen Schleife stecken zu bleiben, daher ist es eine gute Idee, nicht alles zu glauben, was man online sieht. Sie sollten immer auch Informationen aus anderen zuverlässigen Quellen überprüfen.

Generative KI ist nicht nur auf Text beschränkt: Es gibt zahlreiche kostenlose Deepfake-Apps und Webprogramme, die innerhalb von Sekunden das Gesicht einer Person auf den Körper einer anderen Person übertragen können. Während die heutigen SchülerInnen wahrscheinlich über die Gefahren des Teilens intimer Bilder im Internet gewarnt wurden, sollten sie ebenso vorsichtig sein, wenn sie die Gesichter ihrer Freunde in gewagte Apps hochladen – vor allem, weil dies rechtliche Konsequenzen haben könnte. So haben Gerichte Jugendliche beispielsweise der Verbreitung von Kinderpornografie für schuldig befunden, weil sie explizites Material über andere Jugendliche oder sogar sich selbst verschickt haben.

"Wir sprechen mit den Kindern über verantwortungsbewusstes Online-Verhalten, sowohl zu ihrer eigenen Sicherheit als auch um andere nicht zu belästigen, zu doxxen [ihre persönlichen Details wie die Adresse zu veröffentlichen, Anm. d. Red.] oder einem Catfishing zu unterziehen [im Internet vorgeben, jemand anderes zu sein, um an Dates zu gelangen, Anm. d. Red.]. Aber wir sollten sie auch an ihre eigene Verantwortung erinnern", sagt Lee. "Ähnlich wie sich böse Gerüchte verbreiten, können Sie sich vorstellen, was passiert, wenn jemand beginnt, ein gefälschtes Bild in Umlauf zu bringen."

Es ist auch hilfreich, Kindern und Jugendlichen konkrete Beispiele für die Datenschutz- oder Rechtsrisiken bei der Nutzung des Internets zu geben, anstatt zu versuchen, mit ihnen über pauschale Regeln oder Richtlinien zu sprechen, betont Lee. Wenn man ihnen zum Beispiel erklärt, dass KI-Apps zur Gesichtsbearbeitung die hochgeladenen Bilder speichern können, oder sie auf Nachrichten über gehackte Plattformen hinweist, kann dies einen stärkeren Eindruck hinterlassen als allgemeine Warnungen wie "Sei vorsichtig mit deiner Privatsphäre", sagt er.

Es ist jedoch nicht alles schlecht und düster. Während sich viele frühe Diskussionen über KI im Klassenzimmer um ihr Potenzial als Schummelhilfe drehten, kann sie, wenn sie intelligent eingesetzt wird, ein enorm hilfreiches Werkzeug sein. Schüler, die Schwierigkeiten haben, ein kniffliges Thema zu verstehen, können ChatGPT bitten, es ihnen Schritt für Schritt zu erklären, es in Form eines Raps umzuformulieren oder die Rolle eines Biologieexperten zu übernehmen, um ihr eigenes Wissen zu testen. Er ist auch außerordentlich gut darin, schnell detaillierte Tabellen zu erstellen, um beispielsweise die Vor- und Nachteile bestimmter Hochschulen zu vergleichen, was sonst Stunden an Recherche und Zusammenstellung erfordern würde.

Weitere nützliche Anwendungen sind laut Crompton, einen Chatbot um Glossare zu schwierigen Wörtern zu bitten, vor einer Geschichtsarbeit Fragen zu üben oder einem Schüler bei der Bewertung seiner Antworten zu helfen. "Solange man sich die Voreingenommenheit, die Tendenz zu Halluzinationen und Ungenauigkeiten und die Bedeutung der digitalen Kompetenz vor Augen hält, ist es großartig, wenn ein Schüler sie auf die richtige Weise nutzt", sagt sie. "Wir finden es alle erst Schritt für Schritt heraus."

(jle)