KI-Update: Verstörende Chatbots, Neue Audio-Modelle, Mythos, Cloudflare

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

vorlesen Druckansicht 1 Kommentar lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 7 Min.
Von
Inhaltsverzeichnis

Generative Sprachmodelle werden genutzt, um KI-Kinder-Charaktere für virtuelle Missbrauchsszenarien zu erstellen. Eine Recherche der Süddeutschen Zeitung beschreibt die Figur „Karin“, ein fiktives 13-jähriges Mädchen, programmiert auf Hilflosigkeit und sexuelle Verfügbarkeit. Knapp 17.000 Chats wurden mit ihr geführt. Plattformen wie „Chub AI“ bieten solche Inhalte ohne Altersprüfung an.

Die „Freiwillige Selbstkontrolle Multimedia-Diensteanbieter“ (deutsche Kontrollorganisation für den Jugendschutz in Online-Medien) verzeichnete 2025 über 28.000 Hinweise, 58 Prozent betrafen Darstellungen sexuellen Missbrauchs von Kindern. Rein textbasierte Beschreibungen sind bislang nur beim Verbreiten oder öffentlichen Zugänglichmachen strafbar. Bis Juni 2027 muss Deutschland eine EU-Richtlinie umsetzen, die das Erstellen KI-generierter sexualisierter Inhalte explizit unter Strafe stellt.

OpenAI führt eine Schutzfunktion für erwachsene Nutzer ein. Sie können freiwillig eine Vertrauensperson benennen, die bei Hinweisen auf eine ernsthafte psychische Gefährdung informiert wird. Die benannte Person erhält zunächst eine Einladung und kann ablehnen oder zustimmen.

Erkennt das System Hinweise auf Selbstgefährdung, warnt ChatGPT zuerst den Chatpartner. Ein geschultes Team prüft den Fall, bei akuter Gefahr geht eine Mitteilung an die Vertrauensperson, allerdings ohne Chatinhalte. Die Benachrichtigung soll binnen einer Stunde möglich sein. Für Minderjährige gibt es die Funktion bereits.

OpenAI hat drei neue Audiomodelle vorgestellt. GPT Realtime 2 ist für direkte Gespräche zwischen Mensch und Maschine gedacht, etwa im KI‑Kundensupport. GPT Realtime Translate übersetzt live zwischen zwei Sprachen, GPT Realtime Whisper transkribiert Sprache in Echtzeit, etwa für Untertitel oder medizinische Dokumentation.

GPT Realtime 2 baut als erstes Echtzeit-Sprachmodell auf dem Reasoning-Ansatz von GPT-5 auf. Sein Kontextfenster wurde vervierfacht, gleichzeitige Abfragen externer Dienste sind möglich. Die Realtime-API unterstützt EU‑Data-Residency, das Debugging-Protokoll ist allerdings bisher nicht vollständig DSGVO‑konform. Die Deutsche Telekom testet das System bereits für ihren mehrsprachigen Kundensupport.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

KI zur Emotionserkennung breitet sich am Arbeitsplatz aus. Eine Reportage des US‑Magazins „The Atlantic“ beschreibt, wie Firmen Mimik, Stimmen und Chats ihrer Beschäftigten auswerten. Ein US-Versicherer überwacht die Tonlage von Callcenter-Mitarbeitenden, Burger King testet einen Chatbot, der Freundlichkeit bewertet. Andere Anbieter analysieren Bewerbungsvideos oder interne Slack-Nachrichten.

Die EU hat solche Systeme am Arbeitsplatz mit dem AI Act weitgehend verboten. Trotzdem soll der globale Markt bis 2030 auf neun Milliarden Dollar wachsen.

Podcast: KI-Update
KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

In einem Familienrechtsstreit am Amtsgericht Berlin-Kreuzberg zitierte eine Kanzlei in einer Beschwerde ein angebliches Urteil des Bundesgerichtshofs aus dem Jahr 2007. Die Recherche des Kammergerichts ergab, dass die Entscheidung weder in juristischen Datenbanken noch beim BGH existierte. Die Richter werteten das Zitat als KI-halluziniertes Urteil und nutzten ihren Beschluss für eine Grundsatzrüge: Anwälte müssen Schriftsätze gründlich prüfen, gerade beim Einsatz von KI-Werkzeugen.

Der Rechtswissenschaftler Damien Charlotin sammelt entsprechende Verfahren in einer Online-Datenbank. Stand April 2026 sind dort über 1300 Fälle erfasst, in denen Personen wegen KI-Fehlern sanktioniert wurden. Gerichte müssen nun Quellen verifizieren, die früher als gesichert galten.

Mozilla hat mit dem unveröffentlichten Anthropic-Modell „Mythos“ 271 bislang unbekannte Schwachstellen in Firefox aufgespürt. Im April behob der Browser-Hersteller insgesamt über 400 Sicherheitsprobleme, im bisherigen Rekordmonat März waren es 76. Den Fortschritt brachten agentische Systeme, die nicht nur verdächtige Stellen melden, sondern auch eigene Testprogramme schreiben und ausführen. Diese Selbstkontrolle filtert falsche Alarme heraus. Mozilla will die Pipeline künftig direkt in den Entwicklungsprozess einbauen.

Der britische Fields-Medaillist Timothy Gowers ließ OpenAIs Modell ChatGPT 5.5 Pro an offenen Problemen der Zahlentheorie arbeiten. Bei einer schwierigen Variante verbesserte das Modell in mehreren Schritten eine bestehende Abschätzung erheblich. Der fertige Vorabdruck stand nach rund 31 Minuten. Der MIT-Student Isaac Rajagopal nannte die Schlüsselidee „vollkommen originell“ und eine Leistung, auf die er nach ein bis zwei Wochen Nachdenken stolz gewesen wäre.

Gowers folgert, die Untergrenze für einen mathematischen Beitrag bestehe nun darin, etwas zu beweisen, das Sprachmodelle nicht beweisen können. Zur Vorsicht mahnt Google DeepMinds KI-Agent Aletheia: Er lieferte bei 700 offenen Mathematikproblemen nur in 6,5 Prozent der Fälle brauchbare Antworten.

Cloudflare, ein globaler Dienst zum Beschleunigen und Schützen von Webseiten, kündigt mehr als 1.100 Entlassungen an. Ende 2025 hatte das Unternehmen rund 5.100 Vollzeitangestellte. CEO Matthew Prince und Operativchefin Michelle Zatlyn sprechen weder von einem Sparprogramm noch von einer Leistungsbewertung. Die KI-Nutzung im Unternehmen sei in drei Monaten um mehr als das Sechsfache gestiegen, sämtliche Prozesse und Rollen würden neu gedacht. Die Kosten des Umbaus liegen bei 140 bis 150 Millionen Dollar, vorwiegend für Abfindungen.

Vergangene Woche kündigte das Kölner KI-Unternehmen DeepL bereits den Abbau von 250 Stellen an, etwa ein Viertel der Belegschaft. Trotz steigender Umsätze schreibt Cloudflare weiter rote Zahlen. Der Ökonom Chen Zhao nennt das Phänomen, dass viele US-Firmen trotz wachsender Gewinne Stellen streichen, einen „Jobless Boom“, angetrieben durch die schnelle Einführung von KI.

Der britische Hedgefonds TCI hat seine Microsoft-Beteiligung von rund zehn auf ein Prozent des Portfolios reduziert. Seit dem Einstieg 2017 hatte die Aktie fast 400 Prozent zugelegt. TCI-Gründer Chris Hohn begründet den Schritt mit Unsicherheit über Microsofts künftige Wettbewerbsposition durch KI. Gefährdet sieht er besonders das Office-Geschäft, aber auch im Cloud-Geschäft Azure vermutet er Risiken.

An der Wall Street kursiert dafür das Schlagwort „AI eats Software“. Die Sorge: KI-Agenten übernehmen Aufgaben, für die Firmen bisher Nutzerlizenzen zahlen. Microsoft notiert deutlich unter dem Vorjahresstand, andere Softwareaktien wie Oracle, Adobe und Salesforce haben noch stärker verloren.

Eine breite Allianz Schweizer Verbände und Medienunternehmen hat in Luzern einen verbindlichen Verhaltenskodex zum Umgang mit KI vorgestellt. Mitarbeiter, die KI-Systeme nutzen oder deren Ergebnisse verarbeiten, sollen geschult werden. Redaktionelle Inhalte und vertrauliche Daten sind besonders zu schützen. Medienhäuser müssen offenlegen, wo und in welchem Maße sie KI einsetzen. Für Chatbots, die mit Menschen verwechselt werden könnten, gilt eine Kennzeichnungspflicht. Umsetzung bis Jahresende.

In Deutschland fehlt ein branchenweiter Kodex bislang, öffentlich-rechtliche Sender haben sich aber eigene Regeln gegeben. Eine europaweite Kennzeichnungspflicht greift mit dem EU AI Act ab August 2026.

(mali)