KI-Update kompakt: US-Heimatschutz, Trauer um GPT-4o, Apples KI, Eisberg-Tracker
Das "KI-Update" liefert drei mal pro Woche eine Zusammenfassung der wichtigsten KI-Entwicklungen.
- Isabel Grünewald
- The Decoder
US-Heimatschutzministerium nutzt KI-Videogeneratoren für Social Media
Ende Januar verbreitete das Weiße Haus ein manipuliertes Foto einer Bürgerrechtsaktivistin: Das Original zeigte sie gefasst, die bearbeitete Version in Tränen. Dieser Vorfall reiht sich in eine Entwicklung ein, die nun auch das US-Heimatschutzministerium betrifft. Ein veröffentlichtes Dokument legt offen, welche kommerziellen KI-Werkzeuge die Behörde für Bilder, Videos und andere Materialien einsetzt.
Genannt werden Googles Videogenerator Veo 3, Adobes Firefly sowie Googles Flow, das Veo 3 mit Filmverarbeitungswerkzeugen kombiniert. Zwischen 100 und 1.000 Lizenzen sollen bestellt worden sein. Für Texterstellung und Zusammenfassungen nutzt das Ministerium Microsoft Copilot Chat, für Programmieraufgaben die Software Poolside. Google, Adobe und das Ministerium haben auf Anfragen bislang nicht reagiert.
Ringen um Regeln für KI-Einsatz im Krieg
In Spanien trafen sich vergangene Woche zum dritten Mal Fachleute, um über den verantwortungsvollen Einsatz von KI im Militär zu beraten. Nur 35 der 80 vertretenen Staaten unterzeichneten die Abschlusserklärung, darunter Deutschland. Großmächte wie die USA und China fehlten unter den Unterzeichnern. Das Dokument fordert, dass Regierungen Risiken militärischer KI genauer bewerten und Entscheidungsprozesse so dokumentieren, dass die Verantwortung für automatisierte Waffensysteme nachvollziehbar bleibt.
Bemerkenswert ist die lange Liste der KI-Systeme, die bereits im Einsatz sind: die NATO-Entscheidungshilfe FELIX, Palantirs Maven Smart, Chinas auf Llama basierendes Sprachmodell ChatBIT und Israels autonome Bomben der Marke Harpy. Diese Liste macht deutlich, wie weit die diplomatischen Bemühungen um gemeinsame Normen hinter der militärischen Realität zurückliegen. Eine Sprecherin der Initiative „Stop Killer Robots" erklärte gegenüber heise online, neue internationale Gesetze zu autonomen Waffen seien machbar. Die Vereinten Nationen könnten auf Ergebnissen ihrer Arbeitsgruppe zu tödlichen autonomen Waffen aufbauen.
KI-Assistent OpenClaw bekommt VirusTotal an die Seite
Googles Online-Virenscanner VirusTotal überwacht ab sofort den Skill-Marketplace ClawHub des KI-Assistenten OpenClaw. Der Grund: Cyberkriminelle verbreiten dort auf den ersten Blick harmlose Erweiterungen, die heimlich Passwörter auslesen und weiterleiten. Besonders brisant ist das, weil OpenClaw für bestimmte Aufgaben Vollzugriff auf Passwortmanager benötigt.
Die Scanner von VirusTotal suchen in hochgeladenen Skills nach Schadcode-Passagen und sperren verdächtige Erweiterungen. Bereits veröffentlichte Skills werden täglich erneut geprüft, um nachträglich eingeschleuste Schadsoftware zu erkennen. Der primär signaturbasierte Ansatz findet allerdings nur bereits bekannte Trojaner und Hintertüren, kein Allheilmittel also, aber ein weiterer Baustein für die Sicherheit des KI-Assistenten.
Nutzer trauern um GPT-4o wie um einen verstorbenen Freund
Als OpenAI im August 2025 das Standardmodell GPT-4o durch GPT-5 ersetzte, formierte sich unter dem Hashtag „Keep4o“ Widerstand. Eine neue Studie der Syracuse University untersuchte fast 1.500 Beiträge auf der Plattform X. Rund ein Viertel deutete auf eine starke emotionale Bindung hin: Nutzer gaben dem Modell eigene Namen, bezeichneten es als Partner oder emotionale Stütze. Einer verglich die Einführung von GPT-5 damit, dass etwas Fremdes die Haut eines toten Freundes trage. Etwa 13 Prozent beklagten zerstörte Arbeitsabläufe und empfanden das neuere Modell als weniger kreativ.
Die Studie isolierte einen entscheidenden Faktor, der Trauer in öffentlichen Protest verwandelte: den Zwang. OpenAI hatte den Nutzern keine Möglichkeit gelassen, beim alten Modell zu bleiben. Ein Entwickler des Unternehmens erklärte, der spezifische „Charakter" eines Modells sei oft ein Zufallsprodukt des Trainingsprozesses und lasse sich nicht kopieren. Die Forscher empfehlen der Industrie, „End-of-Life"-Pfade zu entwickeln, also Übergangsphasen, in denen alte Modelle verfügbar bleiben. OpenAI hat den Zugriff auf GPT-4o vorübergehend wieder freigeschaltet, plant aber die endgültige Abschaltung für diese Woche.
Nvidia-Chef Huang behauptet, KI halluziniere nicht mehr
Jensen Huang, Chef des Chipherstellers Nvidia, hat in einem Interview mit dem US-Sender CNBC behauptet, generative KI halluziniere nicht mehr. Halluzinationen, also das Erfinden falscher Informationen, sind jedoch kein Fehler, den Entwickler einfach beheben können. Sie sind ein Nebenprodukt der Architektur: Sprachmodelle erzeugen Text auf Grundlage von Wahrscheinlichkeiten, nicht von Fakten.
Wären Halluzinationen tatsächlich gelöst, könnte KI-generierter Code direkt in Produktion gehen, Rechtsberatung ließe sich weitgehend automatisieren und medizinische Diagnosen könnten ohne ärztliche Prüfung gestellt werden. Genau diese fehlende Verlässlichkeit sorgt in vielen Unternehmen für Zurückhaltung beim Einsatz von KI. Dass der CEO des wichtigsten KI-Chiplieferanten unwidersprochen behaupten kann, KI mache keine Fehler mehr, ist ein deutliches Zeichen dafür, wie weit sich der KI-Hype von der technischen Realität entfernt hat.
OpenAI und Anthropic helfen Großkunden bei der Integration von KI-Agenten
KI-Agenten funktionieren in Unternehmen ohne aufwendige Anpassung oft nicht zuverlässig. Deshalb bauen OpenAI und Anthropic ihre technischen Beratungsteams massiv aus. OpenAI stellt laut einem Bericht von The Information hunderte neue Ingenieure ein, die Modelle mit Kundendaten anpassen und KI-Agenten entwickeln. Derzeit beschäftigt das Unternehmen rund 60 solcher Spezialisten und über 200 Mitarbeiter im technischen Support.
Wie nötig diese Unterstützung ist, illustriert ein Fall aus dem Einzelhandel: Der französische Händler Fnac testete Modelle von OpenAI und Google für den Kundensupport. Die KI-Agenten verwechselten regelmäßig Seriennummern. Erst mit externer Hilfe des KI-Unternehmens AI21 Labs funktionierte das System. Der Fall wirft eine grundsätzliche Frage auf: Wie schnell können KI-Agenten ohne solche aufwendigen Integrationsprozesse tatsächlich Mehrwert schaffen?
Macht Apple bei KI jetzt alles besser?
Nach der enttäuschenden Veröffentlichung von Apple Intelligence im Jahr 2024 soll es nun mithilfe von Googles Gemini-KI vorwärtsgehen. Im April oder Mai will Apple mit dem iOS-Update auf Version 26.4 die lange angekündigte kontextsensitive Siri ausliefern. Sie soll mit Nutzerdaten arbeiten und mit Apps interagieren können, teilweise bereits mit Gemini-Unterstützung. Einen vollwertigen Chatbot erwartet der Markt erst mit iOS 27, frühestens im Herbst, wenn Apple auf das neueste Gemini-Modell aktualisiert hat, um Siri Weltwissen und Kommunikationsfähigkeiten zu geben.
Dazu kommt eine überraschende Meldung: Apple arbeitet angeblich intern an einem KI-Gadget, das einem geplanten Gerät von OpenAI Konkurrenz machen soll. Hinter dem OpenAI-Projekt steht der ehemalige Apple-Design-Chef Jony Ive. Das anpinnbare KI-Wearable von Apple soll allerdings nicht vor 2027 erscheinen.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
70 Millionen Dollar für AI.com
Kris Marszalek, Mitgründer und CEO der Kryptobörse Crypto.com, hat die Domain AI.com für 70 Millionen US-Dollar gekauft. Laut Domain-Broker Larry Fischer ist das der höchste öffentlich bekannte Preis für einen Domainnamen. Am Wochenende ging unter der Adresse eine Plattform für autonome KI-Agenten online. Nutzer sollen persönliche Assistenten entwerfen können, die eigenständig Nachrichten versenden, Arbeitsabläufe organisieren, Apps bedienen und sogar Aktien handeln oder Dating-Profile aktualisieren.
Das Hauptmerkmal der Plattform ist laut Unternehmensangaben die Fähigkeit der Agenten, fehlende Funktionen selbständig zu entwickeln und diese Verbesserungen mit Millionen anderer Agenten im Netzwerk zu teilen. Nutzer können kostenlos oder über ein geplantes Abo-Modell mehrere Agenten erstellen. Alle Daten sollen verschlüsselt in isolierten Umgebungen gespeichert werden.
Wissenschaftler verfolgen Eisberg-Lebenszyklen mit KI
Eisberge auf ihrer Reise durch die Weltmeere zu verfolgen, ist schwierig: Sie bewegen sich schnell, brechen in Einzelteile und verändern ständig ihre Form. Doch das Tracking ist wichtig, weil durch Abbrüche und Schmelze große Mengen Süßwasser freigesetzt werden, die Meeresströmungen und das globale Klima beeinflussen. Wissenschaftler der British Antarctic Survey haben nun ein KI-gestütztes Werkzeug entwickelt, das Satellitenbilder auswertet und einzelne Eisberge anhand ihrer charakteristischen geometrischen Formen identifiziert.
Jeder Eisberg erhält eine eigene Identität. Das System verfolgt diese regelmäßig und berücksichtigt dabei Formveränderungen. Abgebrochene Teile werden dem Elterneisberg als „Kind" zugeordnet, sodass sich ganze Eisberg-Stammbäume erstellen lassen. Die gewonnenen Daten fließen in globale Klima- und Ozeanmodelle, um vorherzusagen, wo und wie sich polarer Eisverlust besonders auswirken wird. Erste Tests an Eisbergfragmenten aus Nordwestgrönland verliefen vielversprechend.
Wie schnell muss ein Fahrer im autonomen Auto aufwachen?
In hochautomatisierten Fahrzeugen der Stufe SAE 3 dürfen Fahrer im Stau die Hände vom Lenkrad nehmen und den Blick von der Straße wenden. Sobald die Augen zufallen, schlägt das System jedoch Alarm, denn bislang können Autos nicht unterscheiden, ob jemand nur kurz entspannt oder bereits in den Tiefschlaf gleitet. Das Forschungsprojekt Salsa („Smarte, adaptive und lernbare Systeme für Alle“), ein Verbund aus Automobilherstellern, Zulieferern und Wissenschaftlern unter Beteiligung der Uni Stuttgart und des Fraunhofer-Instituts, will das ändern.
Die Forscher trainieren eine KI, die weit mehr erkennt als nur geschlossene Lider. Innenraumkameras erfassen Nuancen in der Körperhaltung und minimale Bewegungen in Echtzeit. Der Unterschied ist entscheidend: Eine entspannte Fahrerin mit geschlossenen Augen ist nach etwa zehn Sekunden wieder einsatzbereit, ein schlafender Mensch braucht mindestens zwei Minuten. Das Team untersucht auch, wie ein „sanftes Wecken" aussehen könnte. Ein schrilles Warnsignal allein führt oft zu Schreckreaktionen. Eine Kombination aus Sitzvibrationen und gezielten Klängen wäre laut den Forschern der bessere Weg.
(igr)