KI-Update Deep-Dive: Wenn der KI-Vorwurf das Studium beendet

Die Nutzung von KI im Studium ist alltäglich, doch Studierende stehen vor einem Flickenteppich an Regelungen und riskieren im schlimmsten Fall ihren Abschluss.

vorlesen Druckansicht 3 Kommentare lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 5 Min.
Inhaltsverzeichnis

Künstliche Intelligenz ist aus dem Bildungsalltag nicht mehr wegzudenken. Eine aktuelle britische Studie zeigt: Studierende nutzen KI-Tools, um sich Konzepte erklären zu lassen, Material zusammenzufassen oder Ideen zu strukturieren. Doch während die Technologie längst Einzug in Hörsäle und Klassenzimmer gehalten hat, fehlen klare rechtliche Rahmenbedingungen. Die Folge: Ein regelrechter Flickenteppich an Regelungen – mit möglicherweise sogar gravierenden Konsequenzen für Betroffene.

„Wir haben unseren berühmten Föderalismus und damit einen Flickenteppich“, erklärt Sibylle Schwarz, Gründungspartnerin der Kanzlei elseschwarz in Wiesbaden und auf Beamten- und Bildungsrecht spezialisiert. „Das Bundesland entscheidet, wie das Schulgesetz beziehungsweise das Hochschulgesetz aussieht.“ Während manche Hochschulen KI in Prüfungen pauschal verbieten, schweigen sich andere komplett aus. Selbst innerhalb einer Universität können die Regeln variieren: „Es kann sogar einem Studierenden passieren, dass er gar nicht die Uni wechseln muss, sondern einfach nur seine Vorlesung. […] Der eine Prof verbietet es komplett, ein anderer erlaubt es vielleicht.“

Ende Februar fällte das Verwaltungsgericht in Kassel ein Urteil – das erste dieser Art in Deutschland. Ein Informatikstudent hatte seine Bachelorarbeit eingereicht, doch die Universität Kassel stufte die Arbeit als nicht bestanden ein. Begründung: Der Verdacht auf KI-Nutzung. Zudem wurde eine Wiederholungsprüfung ausgeschlossen. „Der Informatikstudent hat keinen Hochschulabschluss und den kann er auch nicht mehr erreichen“, sagt Schwarz.

Das Verwaltungsgericht bestätigte in seinem Urteil die Auffassung der Universität, dass KI als „fremde Hilfe“ zu werten sei. „Täuschung ist anzunehmen, wenn der Prüfling keine eigenständige Leistung abgegeben hat, sich also fremder Hilfe, der Hilfe eines Dritten oder unzulässiger Hilfsmittel bedient hat“, zitiert Schwarz die gängige Definition. KI werde dabei wie ein „Dritter“ behandelt – ähnlich wie ein Tischnachbar, von dem abgeschrieben wird. Das Verwaltungsgericht hat das Rechtsmittel der Berufung zugelassen.

Doch wie wird ein KI-Einsatz überhaupt nachgewiesen? Die Hochschulen setzen auf KI-Erkennungssoftware, die bekanntermaßen unzuverlässig ist. „Wenn man den KI-Output nimmt und ein bisschen menschlich ändert, dann springt der KI-Detektor nicht mehr an“, erklärt Schwarz. Daher dienen die Ergebnisse solcher Tools oft auch nur als erster Anhaltspunkt. Im nächsten Schritt prüfen Lehrende die Arbeiten manuell – etwa auf ungewöhnliche Formulierungen oder fachfremde Begriffe.

Die Beweisführung folgt dabei dem Prinzip des „ersten Anscheins“: „Wenn zwei Klassenarbeiten identisch sind, dann guckt man mal, wo haben die beiden Prüflinge denn gesessen, saßen die nebeneinander?“ Doch dieser Ansatz stößt bei KI an Grenzen. Im Fall des Kasseler Studenten ist noch nicht bekannt, wie die Universität den KI-Einsatz konkret nachwies. „Da werden wir die schriftliche Urteilsbegründung abwarten müssen“, sagt Schwarz.

Für Studierende ist die Situation prekär: „Wir haben jetzt März 2026 und wir haben ungefähr sechs Entscheidungen zur Schule als auch Hochschule. In allen hat der Prüfling verloren.“ Die Konsequenzen sind drastisch: Ohne Abschluss drohen schlechtere Jobchancen und existenzielle Nachteile. „Da kratzen wir ziemlich an dem Grundrecht auf freie Berufswahl“, warnt Schwarz.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Aktuell fehlt es an klaren Vorgaben. „Es müsste ausdrücklich formuliert werden, welche KI, welches Tool, vielleicht welchen Nutzungszweck wir eben nicht als Täuschung verstanden wissen wollen“, fordert Schwarz. Statt konkrete einzelne Tools wie ChatGPT zu benennen, plädiert sie für eine Regelung nach Nutzungszwecken: „Recherche, Rechtschreibkorrektur, Übersetzung, Ideenfindung, Lernunterstützung.“ So ließe sich etwa die Nutzung von KI für Übersetzungen oder Rechtschreibprüfungen explizit erlauben – während das Generieren kompletter Texte verboten bliebe.

Ein weiteres Problem sieht die Rechtsexpertin in der Ungleichbehandlung zwischen Lehrenden und Lernenden. „Wenn die Lehrkräfte […] KI-Tools nutzen, dann applaudieren alle. Wenn jetzt aber eine Schülerin oder ein Schüler […] ein solches Sprachmodell zu Hause nutzt, dann ist es Täuschung“, kritisiert Schwarz. Hier fehle ein ganzheitliches Konzept, wie KI sinnvoll in den Bildungsprozess integriert werden kann.

Letztlich liegt die Verantwortung bei der Politik. „Wenn etwas wesentlich für die Verwirklichung der Grundrechte ist, dann muss das das Parlament durch ein Gesetz klären“, betont Schwarz. Doch der Föderalismus erschwert einheitliche Lösungen: „16 Bundesländer, die Schulgesetze machen, 16 Bundesländer, die Hochschulgesetze machen.“ Bis dahin bleibt Studierenden nur, sich möglichst genau zu informieren – und im Zweifel lieber einmal zu viel nachzufragen.

Bis klare Regeln geschaffen sind, bleibt Studierenden nur eines: Transparenz. Wer KI nutzt, sollte dies offen kommunizieren – und sich im Idealfall die Erlaubnis der betreuenden Lehrkraft einholen. Denn eines zeigt der Fall aus Kassel deutlich: Ohne klare Regeln riskieren Studierende nicht nur schlechte Noten, sondern ihren gesamten Bildungsweg. (igr)