Anthropic stellt Multi-Agent-Code-Review fĂĽr Claude Code vor

Code Review für Claude Code prüft als Team von KI-Agenten Pull Requests parallel auf Fehler. Das soll menschliche Engpässe bei der Code-Prüfung auflösen.

vorlesen Druckansicht 1 Kommentar lesen
Lupe ĂĽber Code

(Bild: erzeugt mit KI durch iX)

Lesezeit: 2 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Anthropic hat ein neues Multi-Agent-System fĂĽr automatisierte Code-Reviews vorgestellt, das Entwicklerinnen und Entwickler insbesondere beim PrĂĽfen von durch KI erzeugten Pull Requests (PRs) entlasten soll. Es steht als Research-Preview fĂĽr Team- und Enterprise-Kunden bereit.

Wie Anthropic im Blog beschreibt, startet das Tool bei Eröffnung eines Pull Request mehrere Agenten, die parallel unterschiedliche Aufgaben abarbeiten. Die einen suchen gezielt nach logischen Fehlern, andere verifizieren die Funde, um False Positives herauszufiltern. Ein finaler Agent aggregiert die Ergebnisse, entfernt Duplikate und priorisiert die gefundenen Probleme nach Schweregrad. Das Tool nutzt dabei die Modelle der Claude-4-Serie, darunter Claude Sonnet 4 und Sonnet 4.6, die sich über CLI bedienen lassen.

Das System skaliert mit der Größe der PRs: Ab tausend geänderten Zeilen setzt Code Review mehr Agenten ein und analysiert den gesamten Codebasis-Kontext. Bei kleineren Aufgaben beschränkt es sich auf einen einfachen Durchlauf. Im Schnitt dauert eine Analyse laut Anthropic rund zwanzig Minuten. Intern hat die Firma das System bereits seit Monaten im Einsatz: Vor der Einführung des KI-Reviews erhielten dort nur 16 Prozent der PRs substanzielle Review-Kommentare, mit KI 54 Prozent. Bei großen PRs liegt die Quote nun sogar bei 84 Prozent, mit durchschnittlich 7,5 gefundenen Problemen. Die False-Positive-Rate gibt Anthropic mit unter einem Prozent an – gemessen daran, wie oft Entwickler einen Fund als falsch markierten.

Videos by heise

Die Abrechnung erfolgt tokenbasiert. Im Durchschnitt veranschlagt Anthropic ein Review mit 15 bis 25 US-Dollar, die bisherigen, alternativen Open-Source-Actions auf GitHub will Anthropic weiterhin anbieten. Administratoren erhalten ein Dashboard mit einer Übersicht von überprüften PRs, Akzeptanzraten und Kosten sowie der Möglichkeit, monatliche Obergrenzen festzulegen.

Der Output von Code ist mit kĂĽnstlicher Intelligenz stark angestiegen, sodass das Sichten in vielen Unternehmen, aber auch in Open-Source-Projekten, zum Engpass wird. Anthropic spricht beispielsweise von einer Zunahme von 200 Prozent mehr Output pro Entwickler im vergangenen Jahr.

(who)