KI-Update kompakt: CES 2026, Grok Deepfakes, OpenAI Audio-KI, KI-Prüfungen
Das "KI-Update" liefert drei mal pro Woche eine Zusammenfassung der wichtigsten KI-Entwicklungen.
- Isabel Grünewald
- The Decoder
CES 2026: KI durchdringt alle Branchen
Die Elektronikmesse CES öffnet am 6. Januar in Las Vegas ihre Tore. Über 140.000 Fachbesucher werden erwartet. KI prägt die Messe erneut, diesmal mit einem Fokus auf praktische Anwendungen und tragfähige Geschäftsmodelle. Die Consumer Technology Association widmet der Technologie mit der „CES Foundry" ein eigenes Format im Hotel Fontainebleau, maßgeblich bespielt von Nvidia.
Nvidia-Chef Jensen Huang teilt sich die Bühne mit Siemens-Chef Roland Busch, AMD-Chefin Lisa Su eröffnet die Messe. Bei der Hardware dominiert Evolution statt großer Sprünge: Intel bringt den Core Ultra 300 für Notebooks, Qualcomm zeigt Geräte mit dem Snapdragon X2 Elite. LG präsentiert Fernseher mit Micro-RGB-LEDs, Samsung und LG produzieren OLED-Panels mit vertikalen RGB-Subpixeln. Im Smart-Home-Bereich zeigen Hersteller Saug- und Mähroboter mit Greifarmen, LG stellt seinen humanoiden Haushaltsroboter „CLOiD" vor. Die europäische Autoindustrie glänzt mit Zurückhaltung und verzichtet auf pompöse Auftritte.
heise online ist Medienpartner der CES 2026.
Datenschutzbeauftragte gibt Leitfaden für KI in Behörden heraus
Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit hat die Handreichung „KI in Behörden – Datenschutz von Anfang an mitdenken" veröffentlicht. Prof. Dr. Louisa Specht-Riemenschneider will damit öffentliche Stellen des Bundes beim datenschutzkonformen KI-Einsatz unterstützen.
Die Handreichung benennt zentrale Probleme: Der Blackbox-Charakter verhindert das Nachvollziehen der Datenverarbeitung. Halluzinationen gefährden die Datenrichtigkeit. Memorisierung kann durch gezielte Attacken zur ungewollten Datenausgabe führen. Bias entsteht durch Über- oder Unterrepräsentation in Trainingsdaten. Die vollständigen Lösungsansätze sind auf der Website der Bundesdatenschutzbeauftragten verfügbar.
Grok erzeugt sexuelle Deepfakes von Frauen und Kindern
Die KI Grok von Elon Musks xAI hat einen Skandal ausgelöst. Nutzer verwendeten die Bildbearbeitungsfunktion, um Fotos von Frauen und Minderjährigen digital zu entkleiden und sexualisierte Versionen auf X zu posten. In Frankreich reagierte die Politik prompt: Die Hochkommissarin für Kinder forderte den Medienregulieur Arcom auf, die Fälle auf Basis des Digital Services Act zu prüfen. Drei zuständige Minister erstatteten Anzeige bei der Pariser Staatsanwaltschaft.
xAI positioniert Grok mit Funktionen wie „Spicy Mode" bewusst freizügiger als ChatGPT oder Gemini. Obwohl über den Grok-Account eine Behebung angekündigt wurde, bestand das Problem bis Montagvormittag fort. Die Grok-KI stritt Fehler zunächst ab und räumte sie erst nach Konfrontation mit entsprechenden Posts ein.
OpenAI baut Team für Audio-Modelle massiv aus
OpenAI setzt verstärkt auf Audio-Modelle und baut sein internes Team dafür um. Die Information berichtet, dass Entwickler auf neue Audio-First-Modelle angesetzt wurden. Bisher hinkt die Qualität gesprochener Antworten bei ChatGPT den Textantworten hinterher. Die Weiterleitung von Text an ein Sprachmodell dauert zu lange.
Audio scheint für alle KI-Unternehmen das nächste große Ziel. Alle setzen auf smarte Brillen, die erst durch KI und große Sprachmodelle richtig funktionieren. Bei OpenAI geht es um ein Always-on-Gerät, am Design arbeitet Jony Ive, ehemaliger Chefdesigner von Apple. Meta kaufte kürzlich Limitless, ein Startup für dauerhaft mithörende Geräte. Ob solche Geräte auf Gegenliebe stoßen, bleibt unklar.
OpenAI sucht Sicherheitschef für über 500.000 Dollar
OpenAI hat eine Stelle als Head of Preparedness ausgeschrieben. Das Gehalt beträgt über eine halbe Million US-Dollar plus Aktienoptionen. Die Person soll ein „kleines, high-impact Team" führen, das die Qualitätssicherung der KI-Modelle übernimmt. Anhand des Preparedness Frameworks untersucht das Unternehmen Fähigkeiten und Risiken seiner Modelle.
Die neue Führungskraft übernimmt die Verantwortung dafür, dass OpenAIs Modelle sich wie gewünscht und nicht schädlich verhalten. Ob die Anforderungen mit einem kleinen Team zu erfüllen sind, bleibt offen. Das Thema Sicherheit scheint für OpenAI zumindest aus repräsentativen Gründen wieder wichtiger zu werden. Bisher sah das Unternehmen in dem Bereich eher Sparmöglichkeiten: Die Teams zu Superalignment und AGI Readiness wurden im Mai und Oktober 2024 aufgelöst.
NYU-Professor lässt KI mündliche Prüfungen abnehmen
Panos Ipeirotis von der NYU Stern School of Business hat 36 Studierende von einem KI-Sprachagenten mündlich prüfen lassen. Die Kosten für alle Prüfungen zusammen: 15 Dollar, entsprechend 42 Cent pro Student. Der Anlass war ein bekanntes Problem: Die schriftlichen Hausarbeiten sahen verdächtig gut aus, doch viele Studierende konnten im Unterricht grundlegende Entscheidungen ihrer eigenen Abgaben nicht erklären.
Die Lösung war ein Sprachagent auf Basis von ElevenLabs. Der Agent fragte nach dem Abschlussprojekt und stellte Fragen zu einem im Kurs behandelten Fall. Die durchschnittliche Prüfungsdauer betrug 25 Minuten. Die erste Version hatte Probleme: Einige Studierende beschwerten sich über den strengen Ton der geklonten Stimme eines Kollegen. Die Bewertung übernahmen Claude, Gemini und ChatGPT gemeinsam. Eine Umfrage zeigte gemischte Reaktionen: 83 Prozent empfanden die KI-Prüfung als stressiger als schriftliche Tests, aber 70 Prozent stimmten zu, dass sie ihr tatsächliches Verständnis testete.
Science Context Protocol soll KI-Agenten in der Forschung vernetzen
Forschende vom Shanghai Artificial Intelligence Laboratory haben das Science Context Protocol, kurz SCP, entwickelt. Der Standard soll ein globales Netz autonomer Forschungsagenten ermöglichen. Bisherige KI-Systeme für die Forschung arbeiten meist isoliert voneinander und sind an spezifische Arbeitsabläufe gebunden.
SCP baut auf Anthropics Model Context Protocol auf und erweitert es um Funktionen für wissenschaftliche Arbeitsabläufe: reichhaltigere Experiment-Metadaten, einen zentralen Hub für die Koordination und die Integration von Laborgeräten. Das Team hat bereits eine Plattform mit über 1.600 interoperablen Tools aufgebaut. Biologie macht knapp 46 Prozent aus, gefolgt von Physik und Chemie. Die Tools reichen von Protein-Strukturvorhersagen über Molekül-Docking bis zu automatisierten Pipettier-Anweisungen für Laborroboter. Die Spezifikation ist als Open Source auf GitHub verfügbar.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
KI-Modelle können Schwierigkeitsgrad für Menschen nicht einschätzen
Eine Studie von Forschenden verschiedener US-Universitäten zeigt: KI-Systeme können nicht einschätzen, wie schwer Aufgaben für Menschen sind. Sie testeten über 20 Sprachmodelle, darunter GPT-5 und verschiedene Llama-Varianten. Die Modelle sollten abschätzen, wie schwer Prüfungsfragen aus Medizin, Englisch und Mathematik für Menschen sind. Die KI-Einschätzungen stimmten nur schwach mit der menschlichen Wahrnehmung überein.
Die Forschenden nennen das zentrale Problem den „Fluch des Wissens". Die Modelle sind zu gut, um die Schwierigkeiten schwächerer Lernender nachzuempfinden. Sie können nicht einschätzen, wo Menschen straucheln. Auch Anweisungen, sich als schwache Studierende zu verhalten, änderten die Genauigkeit kaum. Für den Einsatz in der Bildungstechnologie seien neue Ansätze erforderlich.
Meta veröffentlicht SAM 3 und 3D als offene Modelle
Meta macht SAM 3, 3D Objects und 3D Body frei verfügbar. Die Segmentierungsmodelle erfassen automatisch Objekte in Bildern und Videos und fügen sie in neue Umgebungen ein. SAM steht für Segment Anything Model. Man kann die neue Version über die App Edits oder den Playground nutzen, eine extra eingerichtete Webseite. Die Modelle sind auch auf den gängigen Plattformen verfügbar.
Die Einsatzgebiete reichen von Bild- und Videobearbeitung über Robotik bis zum Datalabeling. Das Modell ist allerdings nicht für die Medizin trainiert, hierfür bedürfte es eines weiteren Finetunings. Neu ist auch SAM Audio. Damit lassen sich Geräusche, Sprache und Musik segmentieren. Aus einer Videoaufnahme von einer Band lässt sich nur die Gitarre herausfiltern, Gespräche oder Vogelgezwitscher können aus einer Umgebung separiert werden. Meta spricht von einem Perception Encoder Audio Video, einem neuen ebenfalls frei verfügbaren Modell.
Über 210.000 Bankjobs in Europa bis 2030 gefährdet
Im europäischen Bankensektor könnten bis 2030 etwa 10 Prozent der Arbeitsplätze abgebaut werden, die wegfallende Arbeit würde von KI-Technik erledigt. Das ist das Ergebnis einer Analyse der US-Bank Morgan Stanley. Sie prognostiziert, dass Europas Banken in den nächsten fünf Jahren mehr als 210.000 Jobs abbauen könnten, während sie zunehmend auf KI setzen.
Für den erwarteten Stellenabbau dürften auch Filialschließungen sorgen, da das Bankengeschäft immer stärker ins Internet verlagert wird. Die Verantwortlichen erwarten Effizienzsteigerungen in Höhe von 30 Prozent. Laut Financial Times werden die Stellenstreichungen vor allem in zentralen Dienstleistungsbereichen erwartet, beispielsweise im Risikomanagement und in der Compliance. Die Analyse reiht sich in eine lange Liste von Warnungen vor den Folgen ein, die KI-Technik für den Arbeitsmarkt haben könnte.
(igr)