AI Slop oder besserer Code: GCC-Arbeitsgruppe für KI-Richtlinien gestartet

Die Working Group for GCC AI Policy soll festlegen, inwiefern Contributors KI-Tools beim Entwickeln der GNU Compiler Collection nutzen dürfen.

vorlesen Druckansicht
Die Buchstaben AI umfliegen Haken und Warndreiecke

(Bild: tadamichi/Shutterstock.com)

Lesezeit: 2 Min.

Das GNU-Projekt hat eine Arbeitsgruppe für die GNU Compiler Collection (GCC) ins Leben gerufen, die Richtlinien für den Einsatz von KI bei der Weiterentwicklung des Projekts aufstellen soll.

Einige Contributors möchten wissen, ob sie KI nutzen dürfen, um frischen Code für das Projekt zu erstellen. Die Working Group for GCC AI Policy steht unter der Leitung von Jonathan Wakely, der bei Red Hat arbeitet.

Das „AI“ im Namen der Gruppe steht für jegliche Form von KI-Unterstützung, darunter Large Language Models (LLMs) und Small Language Models (SLMs).

Zahlreiche Projekte im Bereich Open Source und Freie Software klagen über eine steigende Last durch AI Slop. KI-Coding-Tools wie Claude Code oder GitHub Copilot bieten eine gute Unterstützung für erfahrene Developer, ermöglichen aber auch Leuten ohne Programmierkenntnisse, schnell vermeintlich funktionierenden Code zu erstellen. Der wird aber oft nicht den Anforderungen des Projekts gerecht, oder enthält gar Schwachstellen.

Videos by heise

Im März hatte die Linux Foundation 12,5 Millionen US-Dollar von Anthropic, AWS, GitHub, Google, Google DeepMind, Microsoft und OpenAI gesammelt, um Maintainer von Open-Source-Projekten zu unterstützen, den Anforderungen der stark steigenden Menge an KI-generiertem Code gerecht zu werden.

Laut der Wiki-Seite der Working Group for GCC AI Policy hat das GCC-Projekt bereits einige Codeeinreichungen erhalten, die teilweise oder vollständig mit LLMs erstellt wurden. Die Arbeitsgruppe will nun innerhalb von maximal drei Monaten einen ersten vorläufigen Entwurf für eine KI-Richtlinie erstellen, die das GCC Steering Committee prüfen und für das Projekt verabschieden soll.

(rme)