KI-Update kompakt: Mythos, Polypenerkennung, Halluzinationen, Kreativität

Das "KI-Update" liefert drei mal pro Woche eine Zusammenfassung der wichtigsten KI-Entwicklungen.

vorlesen Druckansicht 1 Kommentar lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 10 Min.
Von
Inhaltsverzeichnis

Anthropic hält sein neues Modell Claude Mythos, das gezielt Sicherheitslücken in Software aufspürt, für so gefährlich, dass es nicht öffentlich verfügbar ist. In den USA dürfen dennoch zwölf Technologiekonzerne, darunter Apple, Microsoft und Amazon, ihre Software damit prüfen. Weitere 40 Organisationen haben ebenfalls Zugang, deren Namen Anthropic nicht nennt. US-Regierungsstellen beriefen nach Bekanntwerden sofort Krisengespräche mit Chefs systemrelevanter Banken ein.

Europa bleibt außen vor. Von acht befragten europäischen Cybersicherheitsbehörden hatte laut dem Magazin Politico nur das BSI überhaupt Kontakt zu Anthropic, direkten Zugang zum Modell erhielt es nicht. Einzig Großbritanniens AI Security Institute durfte Mythos testen: In drei von zehn Versuchen gelang dem System die vollständige Übernahme eines simulierten Unternehmensnetzwerks. Allerdings enthielten die Testumgebungen weder aktive Verteidiger noch Überwachungssysteme. Der EU AI Act und der Cyber Resilience Act greifen nur bei Modellen, die auf dem EU-Markt angeboten werden. Da Mythos dort nicht verfügbar ist, haben die Behörden formal keine Handhabe.

75 US-Bürgerrechtsorganisationen unter Führung der American Civil Liberties Union (ACLU) fordern Meta in einem offenen Brief auf, Pläne zur Gesichtserkennung in seinen Smart Glasses sofort zu stoppen. Im Februar war bekannt geworden, dass die millionenfach verkauften Brillen noch dieses Jahr die Funktion erhalten könnten. Die Organisationen warnen: Jeder Träger könnte damit Fremde in seiner Umgebung, etwa bei Protesten, in Arztpraxen oder Geschäften, namentlich identifizieren und über digitale Datenbanken sensible Informationen über Beruf, Gewohnheiten und Gesundheit abrufen.

Parallel rief die ACLU Verbraucher auf, sich schriftlich an Meta zu wenden und ihre Bedenken zu äußern.

Die ukrainische Armee hat erstmals eine russische Stellung ausschließlich mit Bodenrobotern und Drohnen eingenommen. Präsident Selenskyj erklärte auf X, sieben verschiedene Robotersysteme seien zum Einsatz gekommen. Die gegnerischen Truppen hätten sich ohne ukrainische Verluste ergeben. Ein Bericht des Center for Strategic and International Studies ordnet ein: Unbemannt heißt nicht autonom. Soldaten steuerten die Bodenroboter weiterhin manuell per Fernsteuerung.

Künstliche Intelligenz verbessert jedoch einzelne Funktionen erheblich. Durch autonome Navigation im Zielanflug steigt die Trefferquote von Drohnen laut dem Bericht von maximal 20 auf bis zu 80 Prozent, ohne stabile Funkverbindung oder hochqualifizierte Piloten. Automatische Zielerkennung funktioniert im Gefecht auf einen Kilometer Entfernung und identifiziert Panzer, Artillerie, Infanterie sowie Attrappen. Ukrainische Rüstungsfirmen setzen auf kleine, spezialisierte Modelle, die auf günstigen Chips direkt in den Drohnen laufen. Echte Drohnenschwärme und vollständig autonome Waffensysteme gibt es bisher nicht. Bei Angriffsentscheidungen behält der Mensch die Kontrolle.

Fast die Hälfte der befragten Internetnutzer in Deutschland gibt an, KI-generierte Inhalte erkennen zu können. Doch laut einer Sonderauswertung des Cybersicherheitsmonitors 2026 prüft kaum jemand tatsächlich nach. Ein Drittel hat noch nie eine gängige Methode zur Verifizierung genutzt. Nur 28 Prozent suchten in Bildern gezielt nach grafischen Unstimmigkeiten wie fehlerhaften Schatten oder deformierten Gliedmaßen, lediglich 19 Prozent kontrollierten die Quelle.

BSI-Präsidentin Claudia Plattner mahnt, es sei für Verbraucher inzwischen unerlässlich, KI-Inhalte zu identifizieren, um Risiken und Falschinformationen früh zu erkennen. Das BSI setze verstärkt auf Sensibilisierung und biete Orientierungshilfen an.

Eine randomisierte Studie in deutschen Privatpraxen belegt: KI-gestützte Polypenerkennung verbessert die Trefferquote erfahrener Gastroenterologen bei Darmspiegelungen nicht nennenswert. Ärzte mit ausreichender Erfahrung fanden mit und ohne KI gleich viele Polypen. Co-Autor Dr. Alexander Hann, Professor für Digitale Transformation in der Gastroenterologie am Universitätsklinikum Würzburg, sieht den Nutzen der Technik eher in Nebenfunktionen wie automatischer Berichterstellung oder der Erfassung von Qualitätsparametern.

Für unerfahrene Ärzte ist Vorsicht geboten. Eine Studie von Ende 2025 fand, dass die Leistung von Untersuchenden in den ersten drei Monaten nach Einführung einer KI abnahm, wenn sie ohne das System arbeiteten. Eine zweite Studie über drei Jahre konnte diesen Fähigkeitsverlust allerdings langfristig nicht bestätigen. Kurzfristig kann die Abhängigkeit von KI also die eigenen Fähigkeiten schwächen, langfristig fehlen dafür noch belastbare Belege.

Podcast: KI-Update
KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Maine wird voraussichtlich der erste US-Bundesstaat, der den Bau von Rechenzentren mit mehr als 20 Megawatt Stromverbrauch verbietet. Ober- und Unterhaus stimmten mit großer Mehrheit für ein Moratorium bis November 2027. Es fehlt nur noch die Unterschrift von Gouverneurin Janet Mills. Während der Sperrfrist soll eine Arbeitsgruppe aus Behörden, Arbeitnehmern, Unternehmen und Umweltschutzgruppen die Folgen für Stromversorgung und Umwelt prüfen und bis Februar 2027 einen Abschlussbericht vorlegen.

Die Initiative ist Teil einer breiteren Gegenbewegung zum KI-getriebenen Bauboom bei Rechenzentren in den USA. Ähnliche Gesetze sind in weiteren Bundesstaaten in Vorbereitung.

Immer mehr Anwälte lassen KI-Tools ihre Schriftsätze verfassen und die Folgen werden vor Gericht sichtbar. Die Modelle zitieren nicht existente Urteile, verfälschen Aussagen oder geben Entscheidungen falsch wieder. Der Rechtswissenschaftler Damien Charlotin von der Wirtschaftshochschule HEC Paris betreibt eine Datenbank, die solche Fälle erfasst. Stand April 2026 verzeichnet sie über 1300 Verfahren, in denen Gerichte Personen wegen KI-fehlerhafter Dokumente sanktioniert haben, allein 800 davon in den USA. Die Dunkelziffer dürfte weit höher liegen.

Die Strafen werden härter. Ein US-Bundesgericht in Oregon verhängte vergangenen Monat Sanktionen von über 100.000 US-Dollar gegen einen Anwalt. Einige US-Gerichte haben Kennzeichnungspflichten eingeführt: Jedes mit KI erstellte oder bearbeitete Dokument muss als solches markiert werden. Kritiker halten das für unpraktikabel, da KI inzwischen in fast jede Kanzleisoftware integriert ist und damit praktisch jedes Dokument kennzeichnungspflichtig wäre.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

OpenAI hat Hiro übernommen, ein Start-up, das einen persönlichen KI-Finanzberater entwickelt hat. Über den Kaufpreis machten die Beteiligten keine Angaben. Hiro ermöglichte es Nutzern, Daten wie Gehalt, Schulden und monatliche Ausgaben einzugeben und daraus Finanzszenarien berechnen zu lassen. Laut eigenen Angaben half das Start-up seinen Kunden bei der Verwaltung von mehr als einer Milliarde US-Dollar.

OpenAI geht es offenbar vor allem um die Mitarbeiter. Hiro nimmt keine neuen Anmeldungen mehr an und stellt seinen Dienst im April 2026 ein. Die Nutzerdaten gehen nicht an OpenAI und werden im Mai 2026 gelöscht. OpenAI arbeitet bereits an einer eigenen Finanzfunktion für ChatGPT und kann diese Pläne mit dem neuen Team beschleunigen.

Microsoft hat die Anmietung von Rechenzentrumskapazität im norwegischen Narvik vereinbart, nördlich des Polarkreises. Das Rechenzentrum war ursprünglich für OpenAI als Teil von dessen Stargate-Projekt geplant, doch OpenAI konnte sich laut Insidern nicht mit dem Betreiber Nscale einigen.

Die Aufgabe der Pläne in Norwegen ist der zweite Dämpfer für OpenAI innerhalb kurzer Zeit. Vergangene Woche wurde das vergleichbare Projekt Stargate UK in Großbritannien auf Eis gelegt, ebenfalls ein von Nscale entwickelter Standort.

Im Streit um KI-generierte Synchronstimmen bei Netflix verschärft sich der Konflikt unter den deutschen Berufsverbänden. Die Schauspieler-Gewerkschaft BFFS hatte im vergangenen Sommer eine Vereinbarung mit Netflix geschlossen, die dem Streamingdienst weitreichende Rechte zur Nutzung von KI-Stimmen einräumt. Der Verband Deutscher Sprecher:innen ließ diese Klausel in einem Rechtsgutachten prüfen und kam zum Schluss, sie gehe viel zu weit. Genau dieselbe Klausel findet sich nun in einer neuen Vereinbarung, die die Mitglieder des Synchronsprecherverbandes ablehnen.

Die BFFS wehrt sich und nennt das Gutachten fehlerhaft. Ihre Position: Die Entwicklung bei KI-Stimmen lasse sich nicht zurĂĽckdrehen, die Vereinbarung schaffe immerhin eine Grundlage fĂĽr weitere Verhandlungen. Ein Boykott, wie ihn der Synchronsprecherverband fordert, sei kontraproduktiv. Unter den deutschen Synchronsprechern herrscht damit tiefe Uneinigkeit ĂĽber den Umgang mit KI-Stimmen.

Google führt mit „Skills“ eine neue Funktion in Chrome ein, mit der sich häufig genutzte KI-Anfragen direkt im Browser speichern lassen. Statt Befehle erneut einzutippen, können Nutzer sie per Klick abrufen. Ein Beispiel: ein KI-gestützter Vergleich von Produktdaten beim Einkaufen über mehrere Tabs hinweg.

Voraussetzung ist die Integration des KI-Modells Gemini in Chrome, die Google bisher nicht weltweit umgesetzt hat. Die Funktion startet daher zunächst nur im englischsprachigen Chrome in den USA. Weitere Sprachen und Länder sollen folgen.

Kreative Antworten verschiedener KI-Textgeneratoren ähneln einander stärker als die von Menschen, denen dieselben Aufgaben gestellt wurden. Das fand Emily Wenger, Professorin an der Duke University, mit einem Kollegen heraus. In drei standardisierten Kreativitätstests traten 22 Sprachmodelle gegen 100 Menschen an. Einzelne Modelle konnten zwar einzelne Menschen übertreffen, doch in der Gesamtheit lieferten die menschlichen Teilnehmer vielfältigere Ergebnisse.

Wenger warnt vor einer schleichenden Verarmung: Wer für kreative Aufgaben mehrere KI-Modelle befragt, etwa Gemini, ChatGPT und Claude, erhält Antworten, die einander deutlich ähnlicher sind als die einer vergleichbaren Gruppe von Menschen. Da alle Modelle im Kern mit denselben Internetdaten trainiert werden, konvergieren ihre Ausgaben. Wenn immer mehr Menschen für kreative Arbeit auf KI setzen, drohen sich Texte, Stil und Grammatik anzugleichen.

(igr)