KI-Update kompakt: OpenAI o3, Microsoft, KI-Phishing, Claude
Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.
- Isabel GrĂĽnewald
- The Decoder
OpenAI o3: Revolutionäres KI-Modell mit hohem Rechenaufwand und Preisschild
OpenAIs neue KI-Modelle o3 Mini und o3 haben einen Rekord aufgestellt- sie lösten 85 Prozent der Aufgaben aus dem Abstract Reasoning Corpus (ARC). Bisherige Systeme schafften nur 35 Prozent. Der ARC-Test ist für Sprachmodelle besonders schwierig, da abstrakte Muster nach erlernten Regeln verändert werden müssen.
o3 verbraucht dabei enorme Rechenressourcen. Pro Aufgabe fallen Kosten von tausenden Dollar an. Experten spekulieren, dass ein o3-Abo bis zu 2.000 Dollar pro Monat kosten könnte. Zum Vergleich: o1 kostet aktuell 200 Dollar monatlich.
o3 berechnet zunächst viele Teillösungen und wählt dann die beste aus. Dafür werden Anfragen intern in tausende Varianten zerlegt. Das erklärt den hohen Rechenaufwand. Eine Garantie für korrekte Lösungen gibt es aber nicht, da weiterhin nur ein Sprachmodell arbeitet. Logische Überprüfungen fehlen, Halluzinationen bleiben möglich.
KI-Agent "Operator" von OpenAI soll im Januar starten
OpenAI plant die Einführung des KI-Agenten "Operator", der selbstständig Computeraufgaben wie Programmieren oder Reisebuchungen ausführen kann. Das System soll zunächst als Vorschauversion und API für Entwickler verfügbar sein. OpenAI-CEO Sam Altman sieht KI-Agenten als Wachstumschance: Es gehe künftig darum, existierende Modelle intelligenter einzusetzen.
Im Wettlauf um KI-Assistenten sind neben OpenAI auch Anthropic, Microsoft und Google aktiv. Ziel sind Systeme, die durch Verknüpfung von Teilaufgaben ganze Arbeitsprozesse automatisieren können. Sicherheitsbedenken wegen "Prompt Injections" haben den Start von "Operator" aber verzögert. Dabei manipulieren Nutzer durch präparierte Eingaben das KI-Verhalten. Eine zuverlässige Abwehr gibt es bisher nicht.
Forscher: KI sorgt fĂĽr effektiveres Phishing
Eine Harvard-Forschergruppe hat die hohe Effektivität KI-generierter Phishing-Angriffe nachgewiesen. Die Teilnehmer wurden in vier Gruppen eingeteilt, die verschiedene Arten von Phishing-Mails erhielten: zufälliges Phishing, KI-generierte Mails, von Menschen erstellte gezielte Mails sowie KI-generierte Mails mit menschlicher Optimierung.
Die Ergebnisse zeigen eine deutliche Überlegenheit der KI-gestützten Angriffe: Während herkömmliches Phishing nur eine Klickrate von 12% erreichte, waren KI-generierte und menschlich erstellte Phishing-Mails mit 54% gleich erfolgreich. Eine zusätzliche menschliche Optimierung der KI-Mails steigerte die Rate leicht auf 56%. Die Forscher entwickelten ein spezielles KI-Tool, das den digitalen Fußabdruck der Zielpersonen analysiert und darauf basierend personalisierte E-Mails erstellt.
In 88% der Fälle fand die KI verwertbare Informationen. Bei Tests verschiedener Sprachmodelle zur Phishing-Erkennung erwies sich besonders Claude 3.5 Sonnet als effektiv, mit einer Erkennungsrate von 97,25% ohne falsch-positive Ergebnisse. Die Studie demonstriert damit das doppelte Potenzial von KI - sowohl für Angriffe als auch zur Abwehr. Bereits jetzt warnen Unternehmen wie der britische Versicherer Beazley vor zunehmenden "hyper-personalisierten" KI-generierten Phishing-Attacken.
KI als Programmierhilfe: Effizienterer Code, aber mehr Fehler
Ein Experiment zeigt die Beschleunigung von KI-generiertem Code durch präzise Anweisungen. Der Buzzfeed Senior Data Scientist Max Wool ließ sich von Anthropics Claude 3.5 Python-Code erstellen und optimieren. Nach der ersten Lösung forderte Woolf das System wiederholt mit dem simplen Prompt "write better code" auf, den Code zu optimieren. Nach mehreren Durchläufen war der Code fast 100-mal schneller. Allerdings führten die starken Optimierungen auch zu mehr Fehlern, die manuell behoben werden mussten. Dennoch lobte der Tester die KI für ihre kreativen Verbesserungsvorschläge.
Trotz Effizienzsteigerungen erwartet er nicht, dass KI menschliche Entwickler ersetzen wird. Es brauche weiterhin Fachleute, um gute Ideen zu erkennen und Probleme zu beheben.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Microsoft veröffentlicht kleines Phi-4-LLM als Open-Source-Modell mit Gewichten
Microsoft hat die vollständigen Modellgewichte seines KI-Sprachmodells Phi-4 veröffentlicht. Mit der Freigabe unter der MIT-Lizenz können Entwickler und Forscher das Modell jetzt nicht nur nutzen, sondern auch frei modifizieren und weiterentwickeln - auch für kommerzielle Zwecke.
Durch den Zugang zu den genauen Parametern sind nun deutlich weitergehende Anpassungen möglich als bei der ursprünglichen Veröffentlichung im Dezember. Das ist besonders interessant, da Phi-4 trotz seiner geringen Größe von nur 14 Milliarden Parametern die Leistung von bis zu fünfmal größeren Modellen erreicht.
Forscher zeigen: Kleinere KI-Modelle können große Sprachmodelle effizienter trainieren
Google-Forscher haben eine neue Trainingsmethode namens SALT entwickelt, die das Training groĂźer Sprachmodelle um bis zu 28 Prozent beschleunigt und gleichzeitig deren Leistung verbessert. Der Trick dabei ist, kleinere KI-Modelle als eine Art Hilfslehrer einzusetzen.
Die Methode funktioniert in zwei Phasen: Zunächst lernt das große Modell vom kleineren durch sogenanntes Knowledge Distillation. Dabei gibt das kleinere Modell sein Wissen in den Bereichen weiter, in denen es bereits gute Vorhersagen treffen kann. In der zweiten Phase wird das große Modell dann konventionell weitertrainiert. Die Forscher zeigen, dass mit SALT ein 1,5 Milliarden Parameter großes Modell helfen kann, ein 2,8 Milliarden Parameter großes Modell effizienter zu trainieren. In Tests erreichte das so trainierte große Modell bereits nach 70 Prozent der üblichen Trainingszeit die gleiche Leistung wie ein konventionell trainiertes Modell. Nach weiterem Feintuning für spezifische Aufgaben schnitt es sogar besser ab, insbesondere bei arithmetischen Aufgaben und Textverständnis.
Das Team sieht auch Potenzial für kleinere Modelle. Mit SALT könnten auch Institutionen mit begrenzten Ressourcen leistungsfähigere Sprachmodelle entwickeln, ohne direkten Zugang zu großen Sprachmodellen zu benötigen.
Das war das KI-Update von heise online vom 09. Januar 2025. Eine neue Folge gibt es jeden Werktag ab 15 Uhr.
(igr)