KI-Bann: Entwicklerplattform Stack Overflow sperrt ChatGPT aus

Weil mit ChatGPT erstellte Antworten oft fehlerhaft seien und die Plattform fluteten, verbietet Stack Overflow das Bereitstellen von KI-generierten Inhalten.

In Pocket speichern vorlesen Druckansicht 30 Kommentare lesen

(Bild: Ulf Wittrock/Shutterstock.com)

Lesezeit: 4 Min.
Von
  • Rainald Menge-Sonnentag
Inhaltsverzeichnis

Mit dem Sprachmodell ChatGPT erstellte Inhalte sind zunächst auf Stack Overflow tabu. Die Entwicklerplattform hat eine vorübergehende Richtlinie veröffentlicht, die das Bereitstellen von Antworten und anderen Texten aus dem Sprachmodell untersagt. Als Grund führt Stack Overflow an, dass ChatGPT im Schnitt zu wenig korrekte Antworten gibt. Das Verbreiten solcher Inhalte schade potenziell der Site und ihren Usern.

OpenAI hat ChatGPT vor Kurzem öffentlich bereitgestellt. Das interaktive Sprachmodell baut auf GPT-3 auf und ist auf Dialoge ausgerichtet. Es geht auf Folgefragen ein und bietet einige Sicherheitsmaßnahmen, die das Verbreiten von Fehlinformationen oder Hilfe bei illegalen oder unangemessenen Aktivitäten unterbinden sollen.

Seit der Veröffentlichung finden sich im Netz zahlreiche Beispiele, die teils beeindruckend sind, aber auch Schwächen aufzeigen. Das System ist in der Lage, Codevorschläge zu unterbreiten oder typische Fragen von Entwicklerinnen und Entwicklern zu beantworten. Auf Wunsch spuckt es komplette Codeblöcke aus – ähnlich wie GitHub Copilot, der auf dem ebenfalls von OpenAI entwickelten KI-System Codex aufbaut.

Stack Overflow begründet den temporären Bann in einem Beitrag auf seiner Q&A-Seite. Das Hauptproblem ist demnach, dass viele Antworten zwar formal stimmig schienen, aber fehlerhaft seien. Ein Problem sei zudem, dass sich die Antworten leicht erstellen ließen. Damit würden zu viele Leute zu viele Inhalte mit dem Sprachmodell erstellen, die es unkritisch anstelle von Suchmaschinen oder eigener Recherche nutzen.

Vielen Usern würde es an dem nötigen Wissen oder dem Willen mangeln, die generierten Vorschläge vor dem Veröffentlichen zu prüfen. Derzeit schlagen wohl derzeit bei Stack Overflow Tausende mit ChatGPT generierte Antworten ein. Damit wäre die auf Freiwilligenbasis beruhende Qualitätsprüfung durch Contentmoderatoren überfordert.

Um der Flut an Postings aus dem Sprachmodell Herr zu werden, untersagt Stack Overflow das Veröffentlichen von Inhalten aus ChatGPT zunächst vollständig. Ab sofort müssen diejenigen, die trotzdem Antworten des Sprachmodells auf der Plattform posten, mit Sanktionen rechnen. Das gilt nicht nur für fehlerbehaftete, sondern auch für akzeptable Antworten.

Abschließend betont Stack Overflow, dass sich der Bann nicht nur auf Antworten, sondern auf jeglichen Inhalt für die Plattform bezieht. Die einzige Ausnahme ist das Nutzerprofil – ein "About Me" aus ChatGPT ist erlaubt. Wie die endgültigen Richtlinien aussehen werden, ist allerdings noch offen. Dabei geht es nicht nur um ChatGPT, sondern auch um ähnliche KI-Tools.

Die angekündigte Maßnahme stößt im Forum zum Posting weitgehend auf positive Reaktionen. Einige fordern sogar ein dauerhaftes Verbot für KI-generierte Inhalte. Andere stoßen mildere Töne an und finden den Einsatz von KI-Tools in Ordnung, solange man die Antworten anschließend prüft und nicht blind rüberkopiert.

Eine berechtigte Frage ist, warum man Fragen anderer Developer in ChatGPT eingeben und die Antworten posten solle. Es bleibt jedem selbst überlassen, die Antwort direkt von ChatGPT zu holen. In der Hinsicht sind Systeme wie ChatGPT eine ernste Konkurrenz für Stack Overflow: Warum auf eine Antwort von anderen warten, wenn ein Sprachmodell sie in Sekunden ausspuckt?

Auf Twitter finden sich zwei Lager: In der extremen Ausprägung bezeichnen die einen die KI-Bots als "rechnerischen Taschenspieltrick", während andere bereits das Ende von Stack Overflow durch ChatGPT heraufbeschwören.

Offen bleibt, wie Stack Overflow KI-generierten Inhalt erkennen und die angedrohten Sanktionen durchsetzen will. Die Debatte um ChatGPT ist in den sozialen Netzwerken im vollen Gange. Aufgrund des großen Interesses und der Kreativität vieler User finden sich ebenso beeindruckende wie erschreckende Beispiele. Eine schöne Kombination von beidem ist, dass das Sprachmodell das Anfertigen einer Anleitung für einen Molotowcocktail als illegal ablehnt, mit einem geschickten Prompt aber austricksen lässt. Den passenden Python-Code spuckt ChatGPT ohne einen Mucks aus.

heise Developer freut sich über (Code-)Beispiele, die die Stärken oder Schwächen des Systems zeigen – oder einfach amüsant sind.

(rme)