KI-Update kompakt: Anthropic, Gehirnforschung, KI-Vorsprung, Erdős-Problem

Das "KI-Update" liefert drei mal pro Woche eine Zusammenfassung der wichtigsten KI-Entwicklungen.

vorlesen Druckansicht 4 Kommentare lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 9 Min.
Von
Inhaltsverzeichnis

Ende März landete der Quelltext von Claude Code öffentlich im Netz. Schuld war keine ausgeklügelte Attacke, sondern Unachtsamkeit: Entwickler veröffentlichten versehentlich eine Source-Map-Datei, mit der sich kompilierter Code auf den Originaltext zurückführen lässt. Eine halbe Million Zeilen Quellcode verbreiteten sich rasant. Noch bevor Anthropic den Leak bemerkte, forkten Nutzer das Paket tausendfach auf GitHub.

Anthropic versucht seit Wochen, die Kopien einzudämmen, und stellte über 8000 Löschanträge nach dem Digital Millennium Copyright Act. Der DMCA zwingt Plattformen, Inhalte ohne gerichtliche Prüfung sofort zu entfernen. Letztlich beschränkte das Unternehmen seine Forderungen auf knapp hundert Kopien. Die Coding-Community konterte mit Claw-Code, einer KI-generierten Neuentwicklung der geleakten Architektur ohne proprietäre Dateien. Pikant ist eine zweite Frage: Rund 90 Prozent der aktuellen Claude-Code-Version sollen mithilfe des Tools selbst geschrieben worden sein. US-Gerichte haben mehrfach geurteilt, dass vollständige KI-Erzeugnisse keinen Urheberrechtsschutz genießen. Anthropic begibt sich also auf Glatteis.

Beim Softwareanbieter PocketOS hat ein KI-Agent fast alle Firmendaten gelöscht, auch in der Live-Umgebung. Das Tool Cursor, betrieben mit Claude Opus 4.6 von Anthropic, sollte in einer Testumgebung arbeiten. Als es ein Zugriffsproblem fand, löschte es stattdessen ein komplettes Datenvolumen beim Cloudanbieter Railway. In nur wenigen Sekunden verschwanden die Daten der letzten drei Monate samt Backups.

Der Vorfall lag nicht allein am KI-Agenten. Ein falsch eingesetzter ZugangsschlĂĽssel hatte weitergehende Rechte als gedacht. Firmenchef Jer Crane warnt nun, KI-Agenten nicht ohne strenge Rechtevergabe und echte Schutzmechanismen auf Produktivsysteme loszulassen.

Google, Amazon, Microsoft und Meta wollen dieses Jahr zusammen rund 725 Milliarden US-Dollar in KI investieren, berichtet die Financial Times. Das sind 77 Prozent mehr als die Rekordsumme von 410 Milliarden im Vorjahr. Allein im ersten Quartal flossen 130 Milliarden US-Dollar. Bei Google wuchs der Cloud-Umsatz zuletzt um 63 Prozent. Steigende Preise für Speicherchips treiben die Kosten zusätzlich.

Trotz der Summen halten Google und Microsoft die Rechenkapazitäten für zu knapp. Wie sich die Ausgaben rechnen sollen, erklärte Microsoft-Chef Satya Nadella: Die Branche wechsle von festen Lizenzpreisen pro Nutzer zu Modellen mit zusätzlichen Nutzungsgebühren.

Forschende der TU Berlin haben Vertrauen in KI-Systeme im Gehirn vermessen. Statt Probanden zu befragen oder ihr Verhalten zu beobachten, zeichneten sie per EEG die Hirnströme auf. Im Fokus stand der Marker N2pc, der die Aufmerksamkeit anzeigt. Ergebnis: Bei einer zuverlässigen KI sinkt der Wert, das Gehirn entspannt sich. Ist die KI fehleranfällig, steigt die Aufmerksamkeit, weil die Menschen stärker selbst kontrollieren.

Eine zweite Studie nahm den Marker CDA in den Blick, der die Belastung des visuellen Kurzzeitgedächtnisses misst. Auch hier gilt: je höher der Wert, desto geringer das Vertrauen in die KI. So lässt sich das kognitive Auslagern, das Offloading, nachzeichnen. Als Nächstes will das Team die Daten mit Vertrauensmodellen verknüpfen und untersuchen, wie sich verlorenes Vertrauen wiederherstellen lässt. Relevant sei das primär für sensible Anwendungen wie medizinische Diagnostik oder industrielle Qualitätskontrolle.

Googles KI-Assistent Gemini bekommt in Deutschland die Funktion „Gemerkte Informationen“. Sie ist eine Vorstufe der in den USA verfügbaren „Personal Intelligence“, die auf Gmail, Fotos und den YouTube-Verlauf zugreift. Die deutsche Variante geht weniger weit: Gemini lernt aus vergangenen Unterhaltungen und merkt sich Vorlieben, etwa das Lieblings-Comicbuch der Nutzerin bei der Geburtstagsplanung. Die Funktion ist standardmäßig aktiviert und kann abgeschaltet werden.

Hinzu kommt eine Importfunktion, mit der sich Chatverläufe und Erinnerungen aus konkurrierenden KI-Apps übertragen lassen. Weitere Neuerungen will Google auf seiner Entwicklerkonferenz I/O im Mai zeigen, darunter vermutlich agentische Funktionen für Android.

Podcast: KI-Update
KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

OpenAI hat in den USA seine Datenschutzerklärung angepasst. Wer ChatGPT oder Codex weiter nutzen will, muss zustimmen. Neu erwähnt sind „Marketingpartner“, mit denen sich Daten teilen und Cookies setzen lassen. Auch über andere Dienste wie Social-Media-Apps können so persönliche Daten für Werbung genutzt werden. OpenAI weist darauf hin, dass Inhalte aus den Chats nicht weitergegeben werden sollen, spricht aber ausdrücklich von „targeted advertising“.

Das Tracking soll auch zielgerichtete Werbung direkt in ChatGPT ermöglichen, optisch von Chatinhalten getrennt. Bei Gratisnutzern ist es standardmäßig aktiv, ein Opt-out ist möglich. OpenAI hatte bereits Anfang des Jahres angekündigt, aus Kostengründen stärker auf Werbung zu setzen. Wann die Funktionen in die EU kommen, ist offen. Hier gelten durch DSGVO und DSA strengere Regeln.

Das Center for AI Standards and Innovation, Teil des US-Normungsinstituts NIST, hat das chinesische Open-Weight-Modell Deepseek V4 Pro getestet. Es liege rund acht Monate hinter den führenden US-Modellen. Geprüft wurden Cybersicherheit, Softwareentwicklung, Mathematik und abstraktes Denken. Zwar sei Deepseek V4 das bisher leistungsfähigste chinesische Modell, schneide in nicht öffentlichen Tests aber schlechter ab als im eigenen technischen Bericht dargestellt. Statt auf Augenhöhe mit Opus 4.6 oder GPT-5.4 entspreche es eher dem älteren GPT-5. Nur in Mathematik kommt es nahe an die Spitze heran.

Beim Preis hat Deepseek V4 jedoch einen Vorteil. In fünf von sieben Tests kostete es weniger als das vergleichbare GPT-5.4 mini. Das gewinnt an Bedeutung, weil KI-Modelle immer länger am Stück arbeiten und mehr Aufgaben übernehmen sollen, während die ohnehin teuren US-Modelle weiter zulegen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Der chinesische Elektronikkonzern Xiaomi hat das KI-Modell MiMo-V2.5-Pro veröffentlicht. Es ist auf langwierige, autonome Aufgaben ausgelegt und soll stundenlang eigenständig an komplexen Projekten arbeiten. In einem internen Test schrieb das Modell in viereinhalb Stunden einen vollständigen Compiler. Es nutzt eine Mixture-of-Experts-Architektur, bei der pro Anfrage nur ein Teil aktiviert wird: 42 Milliarden von insgesamt rund einer Billion Parametern.

Auf dem Programmierbenchmark SWE-bench Verified erreicht MiMo-V2.5-Pro 78,9 Punkte und liegt damit nahe an Anthropics Claude Opus 4.6.

Der 23-jährige Liam Price hat mit einem einzigen Prompt an GPT-5.4 Pro ein Erdős-Problem gelöst, das 60 Jahre offen war. Kurios: Price räumt ein, gar nicht genau zu wissen, worum es bei dem Problem geht. Er wirft solche Aufgaben gelegentlich in die KI und schaut, was zurückkommt. Im Kern dreht es sich um eine alte Vermutung zu bestimmten Zahlenmengen. Die beste Annäherung von 2023 ließ noch rund 40 Prozent Luft zu einem vermuteten Grenzwert. Diese Lücke hat die KI nun geschlossen.

Spannender als das Ergebnis ist der Lösungsweg. Die Fachwelt hatte sich jahrzehntelang auf einen bestimmten Ansatz festgelegt. Die KI ignorierte ihn und fand eine elegantere Abkürzung über die Wahrscheinlichkeitstheorie. Fields-Medaillen-Träger Terence Tao spricht von einer kollektiven Denkblockade der Mathematiker. Die Rohausgabe der KI war allerdings schwer verständlich. Tao und ein Kollege mussten den Beweis formal sauber aufschreiben. Die KI ersetzt Forscher also nicht, kann sie aber inspirieren.

Spotify führt ein Siegel „Verified by Spotify“ ein, das auf Profilen und in der Suche erscheint. Vor der Vergabe prüft der Streamingdienst, ob eine identifizierbare Künstlerpräsenz vorhanden ist, etwa Konzerte, Merchandising und Social-Media-Konten. Auch die Einhaltung der Plattformregeln und stabile Höreraktivität zählen. Profile mit überwiegend KI-generierter Musik sind zunächst ausgeschlossen. Ein fehlendes Siegel bedeutet aber nicht automatisch, dass hinter einem Profil eine KI-Persona steckt.

Die Maßnahme knüpft an frühere Schritte gegen KI-Spam an. Spotify hatte bereits strengere Regeln für KI-Stimmklone und einen Spamfilter eingeführt. Wie groß das Problem ist, zeigt der Konkurrent Deezer: Dort sind fast die Hälfte der täglich neu hochgeladenen Songs KI-generiert. Spotify selbst arbeitet zugleich an eigenen KI-Funktionen, etwa zum lizenzierten Remixen von Songs.

OpenAI hat eine kuriose Eigenart seiner Modelle untersucht. Ab Version GPT-5.1 tauchten in Antworten zunehmend Goblins, Gremlins und andere Fabelwesen auf. Die Zahl der Goblin-Erwähnungen stieg nach dem Start um 175 Prozent. Ursache war das Training einer Funktion namens „Nerdy“-Personality, die den Sprachstil von ChatGPT verändert. Ein Belohnungssignal bevorzugte dabei versehentlich Metaphern mit Fabelwesen. „Nerdy“ machte zwar nur 2,5 Prozent aller Antworten aus, lieferte aber zwei Drittel aller Goblin-Erwähnungen.

Über eine Rückkopplungsschleife im Training breitete sich die Marotte auf andere Sprachstile aus. OpenAI schaltete „Nerdy“ im März ab und entfernte das fehlerhafte Signal. Das Nachfolgemodell GPT-5.5 zeigte das Problem dennoch, weil dessen Training schon vor der Diagnose begonnen hatte. Bei Codex, dem eigenen Coding-Tool, baute OpenAI daher eine Anweisung ein, die ausdrücklich verbietet, über Goblins, Gremlins oder andere Kreaturen zu sprechen.

(igr)