KI-Update kompakt: Bremer Straßenbahn, Google, OpenClaw, GitHub

Das "KI-Update" liefert drei mal pro Woche eine Zusammenfassung der wichtigsten KI-Entwicklungen.

vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 12 Min.
Von
Inhaltsverzeichnis

Die Bremer Straßenbahn AG will 40 Bahnen mit KI-Technologie ausstatten, je 10.000 € pro Fahrzeug. Eine KI soll die Aufnahmen auswerten und Vorfälle wie Schlägereien erkennen, damit Personal die Polizei alarmieren kann. Was die KI-Auswertung kostet, ist noch offen. Da die Systeme fehleranfällig sind, sollen Menschen die Bilder zusätzlich überwachen, was weitere Kosten verursacht.

Alle Fahrgäste werden gefilmt. Gesichter werden automatisch verpixelt, eine nachträgliche Identifikation bleibt aber über Kleidung, Größe oder Haarfarbe möglich. Die Bremer Straßenbahn AG versichert, das sei datenschutzrechtlich unbedenklich. Die Systeme wurden mit Theaterfahrten trainiert, bei denen Schauspieler etwa Schlägereien simulierten. Hamburg setzt ein ähnliches System bereits ein, dort soll eine Umarmung schon als Schlägerei erkannt worden sein.

Die Organisation AI Forensics hat mehr als 10 000 automatische Zusammenfassungen von Apple Intelligence untersucht und dabei systematische Verzerrungen gefunden. Das System, das unaufgefordert Kurzfassungen von Nachrichten und E-Mails auf Millionen von Apple-Geräten erstellt, erwähnte die Herkunft weißer Personen nur in etwa der Hälfte der Fälle, die asiatischer Personen fast immer. Bei mehrdeutigen Pronomen legte sich die KI meist auf ein Geschlecht fest, oft entsprechend gängiger Klischees. In einigen Fällen dichtete sie Eigenschaften hinzu, die im Originaltext nicht standen.

Googles kleineres Modell Gemma3-1B machte bei identischen Szenarien solche Fehler nur in sechs Prozent der Fälle. Besonders heikel ist, dass Nutzer die verzerrten Zusammenfassungen nicht aktiv anfordern. Sie erscheinen unaufgefordert auf dem Sperrbildschirm und im Posteingang.

Google hat 2025 mehr als 1,75 Millionen Apps geblockt, bevor sie im Play Store erscheinen konnten. Das ist ein Rückgang gegenüber den 2,36 Millionen blockierten Apps des Vorjahres, den Google als Erfolg wertet: Angreifer versuchen es seltener, weil die Hürden gestiegen sind. Entwickler müssen sich vor einer Einreichung verifizieren lassen, Google nimmt nach eigenen Angaben mehr als 10 000 Sicherheitschecks pro App vor, und generative KI hilft menschlichen Prüfern, komplexe Schadensmuster schneller zu erkennen. Zusätzlich sperrte Google über 80 000 Entwicklerkonten, ebenfalls deutlich weniger als die 158 000 des Vorjahres.

Während der Play Store sicherer wird, wächst die Bedrohung außerhalb davon stark. Googles eingebauter Schutzdienst Google Play Protect erkannte 2025 mehr als 27 Millionen schädliche Apps, die per Sideloading, also am offiziellen Store vorbei, installiert wurden. 2023 waren es erst fünf Millionen. Im August 2025 wurden 77 Apps mit zusammen 19 Millionen Installationen entdeckt, die Banking-Trojaner enthielten. Ab Herbst 2026 will Google das Installieren nicht verifizierter Apps von außen deutlich schwieriger machen.

Anthropic hat Millionen realer Interaktionen zwischen Menschen und KI-Agenten ausgewertet. Das Ergebnis: Knapp die Hälfte aller agentischen Aktivität entfällt auf Software-Entwicklung. Bereiche wie Kundenservice, Vertrieb oder Finanzen machen jeweils nur wenige Prozentpunkte aus. Anthropic spricht selbst von den frühen Tagen der Agenten-Nutzung und erklärt, andere Branchen befänden sich noch in der Experimentierphase.

Besonders auffällig ist die Entwicklung beim firmeneigenen Coding-Agenten Claude Code. Die längsten autonomen Arbeitsphasen haben sich zwischen Oktober 2025 und Januar 2026 fast verdoppelt, von unter 25 auf mehr als 45 Minuten. Anthropic nennt das einen „Deployment Overhang“: Die technische Fähigkeit der Modelle übersteigt, was Nutzer ihnen in der Praxis abverlangen. Das Forschungsinstitut METR schätzt, dass Claudes aktuelles Spitzenmodell Aufgaben mit einer Erfolgsrate von 50 Prozent lösen kann, für die ein Mensch fast fünf Stunden bräuchte. Anthropic empfiehlt, auf Monitoring nach dem Einsatz zu setzen, statt jede einzelne Agenten-Aktion manuell zu genehmigen.

Anthropic hat „Claude Code Security“ in die webbasierte Version seines Coding-Agenten integriert. Das Werkzeug durchsucht Codebasen nach Sicherheitslücken und schlägt Patches zur menschlichen Prüfung vor. Anders als viele Analysetools, die nur nach bekannten Mustern suchen, liest Claude Code Security den Code so, wie es eine Sicherheitsexpertin tun würde, und kann so auch subtile, kontextabhängige Lücken finden. Die Ergebnisse erscheinen in einem Dashboard, in dem Teams die vorgeschlagenen Korrekturen prüfen und freigeben können.

Die Ankündigung hatte unmittelbare Folgen an der Börse. Laut Bloomberg fielen die Aktienkurse zahlreicher Cybersecurity-Unternehmen am Freitag deutlich. Viele Investoren fürchten, dass KI-gestützte Werkzeuge die Nachfrage nach etablierten Sicherheitsprodukten verringern werden.

Podcast: KI-Update
KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Der Entwickler Jake Ledner hat gezeigt, wie sich ein KI-Agent per Sprachbefehl über Smart Glasses steuern lässt, während man durch New York spaziert. Über sein Meta Ray-Ban-Display und WhatsApp gab er dem KI-Agenten OpenClaw Anweisungen, der auf einem Mac Studio in seiner Wohnung lief und OpenAIs Coding-Werkzeug Codex nutzte, um Code zu schreiben. Den Fortschritt verfolgte Ledner über Screenshots direkt in seinem Sichtfeld. Im Video ließ er OpenClaw seiner App eine neue Funktion hinzufügen, die nach Freigabe automatisch eingespielt wurde.

So nahtlos, wie das Video suggeriert, funktioniert das Ganze bisher nicht. OpenClaw birgt erhebliche Sicherheitsrisiken und setzt idealerweise eine dedizierte Recheneinheit voraus. Das Meta Ray-Ban-Display ist bislang nur in den USA erhältlich, und Drittentwickler haben keinen direkten Zugriff darauf. Ledner nutzt deshalb WhatsApp als Umweg, eine der wenigen Apps, die die Brille unterstützt. Google plant, noch in diesem Jahr eine eigene Smart Glasses mit Display vorzustellen.

Große Technologieunternehmen in den USA bauen zunehmend Stromerzeugungsanlagen, die nicht ans öffentliche Netz angeschlossen sind. Laut Washington Post entsteht so ein regelrechtes Schattennetz, an dem unter anderem Meta, OpenAI, Oracle und der Ölkonzern Chevron beteiligt sind. Die meisten Projekte setzen auf Gaskraftwerke, weil diese als zuverlässiger gelten als Solar- oder Windenergie. Da die effizientesten Gasturbinen lange Lieferzeiten haben, kommen oft weniger saubere Alternativen zum Einsatz, was den Treibhausgasausstoß erhöht. Ein Experte für erneuerbare Energien nennt das „katastrophal für die Klimaziele“.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Auch in Deutschland sucht die Branche nach Wegen, den Strombedarf neuer Rechenzentren zu decken. Vollständige Netzunabhängigkeit ist in Europa regulatorisch und wirtschaftlich kurzfristig nicht realistisch. Stattdessen setzen Unternehmen hier auf sogenannte Microgrids, campus-eigene Stromnetze, die an das öffentliche Netz angebunden bleiben, im Fehlerfall aber als eigenständige Insel funktionieren können. Batteriespeicher stabilisieren die Versorgung, Gaskraftwerke oder künftig wasserstofffähige Anlagen übernehmen die Grundlast. EnBW und RWE planen solche Anlagen als Ankerpunkte für Rechenzentrums-Cluster.

Die Lösung hat einen Haken für alle anderen Stromkunden. Wer sich ein eigenes Microgrid leistet, zahlt weniger Netzentgelte. Die Kosten für die verbleibenden Nutzer steigen entsprechend.

OpenAI-Mitbegründer Sam Altman hat die von Elon Musk propagierte Idee von Rechenzentren im Weltall als „lächerlich“ bezeichnet. Beim „India AI Impact Summit“ sagte er gegenüber „The Indian Express“, schon eine einfache Kostenrechnung für den Transport ins All zeige das. Ein weiteres ungelöstes Problem sei die Reparatur defekter Grafikprozessoren im All, denn diese gingen „leider immer noch sehr oft kaputt“. Altman glaubt nicht, dass die Idee im laufenden Jahrzehnt umsetzbar ist.

Auf die Frage nach den Energiekosten von KI zog Altman einen ungewöhnlichen Vergleich. Eine Anfrage an ChatGPT mit einer an einen Menschen zu vergleichen, sei unfair, da ein Mensch 20 Jahre Ernährung und die gesamte Evolution der Menschheit benötige, um klug zu werden. Gemessen daran habe KI beim Energieverbrauch „vielleicht schon aufgeholt“.

Open-Source-Projekte auf GitHub leiden zunehmend unter einer Flut minderwertiger, KI-generierter Beiträge. Entwickler nutzen KI, um automatisch Lösungsvorschläge für bekannte Probleme in fremden Projekten einzureichen, oft ohne die Anforderungen des jeweiligen Projekts zu verstehen. Die Hauptlast tragen die Maintainer, also die Kernentwickler, die jeden Beitrag prüfen müssen. Der Aufwand ist erheblich, der Ausschuss groß. Einige Projekte, darunter Gentoo Linux, haben GitHub deshalb bereits verlassen und sind zu alternativen Plattformen wie Codeberg gewechselt, einem offenen Projekt mit Sitz in Berlin.

GitHub, das zur KI-Abteilung von Microsoft gehört, hat nach Kritik aus der Community nun erste Maßnahmen gegen minderwertige Beiträge angekündigt. Maintainer sollen minderwertige Beiträge künftig schneller löschen können, ohne sie im Detail prüfen zu müssen. Außerdem sollen sie Beiträge auf bestimmte Nutzergruppen beschränken können, etwa auf Entwickler, die bereits nachgewiesene Beiträge in anderen Projekten vorweisen. Eine automatische Prüfung von Beiträgen anhand selbst definierter Kriterien ist ebenfalls geplant. Umgesetzt ist bislang noch nichts.

Die Motion Picture Association, Hollywoods Branchenverband, hat dem chinesischen Technologiekonzern Bytedance ein Unterlassungsschreiben geschickt. Auslöser war der KI-Videogenerator Seedance 2.0, der kurz nach seinem Start eine Welle viraler Videos mit geschützten Charakteren aus Marvel, Star Wars und anderen Franchises produzierte. Die MPA spricht von einer „systemischen Rechtsverletzung“ und wirft Bytedance vor, das Modell ohne Zustimmung auf den Werken der Studios trainiert und den Dienst ohne ausreichende Schutzmaßnahmen veröffentlicht zu haben. Es ist das erste Mal, dass die MPA direkt gegen ein KI-Unternehmen vorgeht.

Zuvor hatten Netflix, Warner Bros., Disney, Paramount und Sony bereits eigene Unterlassungsschreiben verschickt. Bytedance erklärte, man arbeite an stärkeren Schutzmaßnahmen, nannte aber keine Details. Das reichte der MPA offenbar nicht. Berichten zufolge verzögern die Auseinandersetzungen den Start der öffentlichen Programmierschnittstelle von Seedance 2.0.

Bei OpenAI arbeiten mehr als 200 Mitarbeiter an eigener KI-Hardware. Laut „The Information“ soll als erstes Produkt ein Smart Speaker für 200 bis 300 US-Dollar erscheinen. Das Gerät erfasst per Kamera Menschen und Umgebung und könnte sogar Einkäufe via Gesichtserkennung ermöglichen. Ein Marktstart ist frühestens Anfang 2027 geplant. Weitere Projekte wie eine smarte Lampe und Smart Glasses befinden sich noch in einer frühen Phase. Das Hardware-Team ging aus der Übernahme des Start-ups „io“ hervor, das von Apples ehemaligem Designchef Jony Ive gegründet wurde.

Apple verfolgt ohne Ive einen eigenen Weg im Bereich KI-Hardware. Geplant sind eine smarte Brille ohne Display, ein KI-Anhänger sowie AirPods mit Kamerasystem. Alle Geräte sollen die sogenannte „visuelle Intelligenz“ ausbauen, also die KI-Analyse der Umgebung. Ein erstes Produkt könnte noch in diesem Jahr erscheinen.

Nach einem überraschenden Führungswechsel bei Microsofts Xbox-Sparte hat die neue Leiterin Asha Sharma in einem internen Memo ihre Prioritäten skizziert. Laut „The Verge“ nennt sie drei Schwerpunkte: gute Spiele, die Rückkehr von Xbox als Marke und die Zukunft des Spielens. Zum umstrittenen Thema KI in der Spieleentwicklung bezieht Sharma klar Stellung: Man wolle zwar mit modernen Technologien arbeiten, aber Spiele sollen „Kunst, erstellt von Menschen“ bleiben.

Sharma schreibt wörtlich, man werde „weder kurzfristige Effizienz anstreben noch das Ökosystem mit seelenlosem KI-Schrott überschwemmen“. Für Spieler, die KI-generierte Inhalte in Spielen kritisch sehen, ist das eine ungewöhnlich direkte Ansage aus einem der größten Spielekonzerne der Welt.

(igr)