Praxis-Vergleich Chat GPT o3-mini high und DeepSeek R1 mit einem CUDA-Kernel

Zwei KI-Modelle sollen eine mathematische Software-Bibliothek modernisieren – zumeist erstaunlich erfolgreich – an einer Aufgabe scheiterten sie jedoch.

Artikel verschenken
vorlesen Druckansicht 4 Kommentare lesen
Aufmacher Roboter mit Mona Lisa

(Bild: erstellt mit Dall-E von iX)

Lesezeit: 17 Min.
Von
  • Dr. RĂĽdiger Berlich
Inhaltsverzeichnis

Alte Liebe rostet nicht. Und wer, wie der Autor, eine Open-Source-Software pflegt, für deren Weiterentwicklung und Pflege er beruflich seit Längerem wenig Zeit hat, der freut sich über tatkräftige Hilfe. Für Nischenprodukte wie die Optimierungs-Bibliothek Geneva (siehe "Das Beste zum Schluss", iX 12/2010) ist es allerdings schwer, eine Community aufzubauen, denn nicht jeder hat Anwendungsfälle dafür oder die passenden Hardware-Ressourcen daheim. Virtuelle Helfer, wie das neue DeepSeek R1 oder der Konkurrent ChatGPT o3-mini, versprechen Abhilfe – sofern sie den komplexen C++-Code durchschauen.

Dr. RĂĽdiger Berlich
Dr. RĂĽdiger Berlich

Dr. Rüdiger Berlich beschäftigt sich seit 1992 mit Open Source und hat sich in seinem MBA mit dem Thema zugehöriger Geschäftsmodelle auseinandergesetzt. Er berät Firmen zu Fragen der Open- und InnerSource, zu agilen Praktiken sowie dem Change Management.

Nach einigen Versuchen mit dem älteren OpenAI-Modell 4o war ich skeptisch, wagte aber einen Versuch, Geneva mithilfe des viel leistungsfähigeren o1-Modells zu modernisieren. Das überraschende Ergebnis fühlte sich ein wenig an wie bei Harry Potter oder wie die sprichwörtliche doWhatIWant()-Funktion. Prompts in strukturierter, halbwegs natürlicher Sprache führten meist nahe an das gewünschte Ergebnis heran. Die Ausgaben der KI konnten nachträglich weiter verbessert werden, indem man der KI zusätzliche Informationen gab oder Eingaben korrigierte. Dabei kam es durchaus vor, dass ich im nachträglichen Review des erzeugten Codes keine Fehler entdeckte. Verlassen sollte man sich darauf allerdings nicht.

Zweifel am KI-Einsatz stellten sich allerdings nicht nur aufgrund der Preissteigerungen für ChatGPT ein. Unternehmen sollten sich auch darüber Gedanken machen, ob sie hochwertige Software in die Cloud schicken möchten, ohne die weitere Verwendung kontrollieren zu können.

Das war die Leseprobe unseres heise-Plus-Artikels "Praxis-Vergleich Chat GPT o3-mini high und DeepSeek R1 mit einem CUDA-Kernel". Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.