New York City: Größter US-Schulbezirk sperrt Zugang zu ChatGPT

Die Sorge, dass bald massenhaft Schulaufgaben von KI-Helfern erledigt werden, ist vor allem in den USA groß. Nun ergreift der Schulbezirk New York Maßnahmen.

In Pocket speichern vorlesen Druckansicht 110 Kommentare lesen
Roboterhand tippt auf Tastatur

(Bild: JINOLD/Shutterstock.com)

Lesezeit: 3 Min.

Über den Internetzugang in den Schulen der US-Metropole New York und auf gestellten Geräten darf der KI-Textgenerator ChatGPT nicht mehr genutzt werden. Das berichtet das Branchenblatt Chalkbeat. Begründet werde das damit, dass die Technik "negative Auswirkungen auf das Lernen der Schülerinnen und Schüler" haben könne. Außerdem werden Sorgen über die Richtigkeit der automatisch erstellen Inhalte genannt. Zwar wäre das Werkzeug in der Lage, schnell und einfach Antworten zu liefern, aber es helfe nicht dabei, kritisches Denken und Problemlösungskompetenzen einzuüben, heißt es demnach noch. Beides sei aber "essenziell für akademischen und lebenslangen Erfolg".

Wie Chalkbeat erläutert, handelt es sich bei dem Schulbezirk der Stadt New York um den größten des Landes. Dort getroffene Entscheidungen sind als wegweisend. Die Sperre gilt demnach nur für Geräte und Netze, für die der Bezirk Regeln aufstellen kann. Einzelne Schulen können Ausnahmen beantragen, wenn sie sich der Technologie hinter ChatGPT widmen wollen. Gegenüber dem Magazin übt ein Geschichtslehrer Kritik an dem Verbot und erinnert daran, dass Menschen vor 15 oder 20 Jahren die gleichen Ängste angesichts von Google geäußert hätten, die sie jetzt vor ChatGPT haben. Den besten Weg, um Schüler und Schülerinnen davon abzuhalten, ChatGPT zu nutzen sei, sie zu beauftragen, die zu wissen es wert sei, meint Adam Stevens.

Der Schritt des Schulbezirks spiegelt aber die Ängste vor allem in den USA wider, dass Schüler und Schülerinnen den frei verfügbaren KI-Textgenerator nutzen werden, um geforderte Texte nicht mehr selbst zu schreiben. Auch OpenAI, das Unternehmen hinter ChatGPT hat bereits auf die Sorgen reagiert und angekündigt, dass die erstellten Texte mit einer Art Wasserzeichen erkennbar gemacht werden sollen, berichtet der Guardian. Für Menschen nicht erkennbar soll die Auswahl bestimmter Begriffe durch die KI so erfolgen, dass mit statistischen Methoden ermittelt werden könne, dass Texte nicht per Hand geschrieben wurden. Das funktioniere schon bei Texten, die nur wenige Hundert Wörter lang sind.

Auf ein Problem, das ChatGPT vor allem dann offenbart, wenn es ums akademische Schreiben geht, weist derweil der IT-Berater Martin Rademacher in seinem Blog hin: So kann das Programm auf Aufforderung zwar anscheinend korrekt zitieren und Quellen für gemachte Behauptungen auflisten. Bei genauerer Analyse stellt sich aber heraus, dass die teilweise erfunden werden und nur so aussehen, wie Quellen eben aussehen sollen. Die Gefahr sei deshalb nicht, dass KI-Textgeneratoren wie ChatGPT das akademische Schreiben übernehmen, sondern dass den Werkzeugen Fähigkeiten zugeschrieben werden, die sie gar nicht besitzen. Damit könnten sie gar zur Quelle von Fehlinformationen werden.

(mho)