KI-Update kompakt: Firefox, Pentagon vs. Anthropic, Meta+AMD, Passwörter

Das „KI-Update“ liefert dreimal pro Woche eine Zusammenfassung der wichtigsten KI-Entwicklungen.

vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 9 Min.
Von
Inhaltsverzeichnis

Mozilla hat in Firefox einen Schalter eingebaut, mit dem Nutzer alle KI-Funktionen auf einmal abschalten können. Ajit Varma, Head of Firefox, betont den Unterschied zu anderen Browsern: Nutzer können selbst wählen, welche KI-Funktionen sie zulassen, etwa Übersetzungen, nicht aber Zusammenfassungen. Da Mozilla keine eigenen Sprachmodelle entwickelt, bevorzugt der Browser auch keines, was Varma als klaren Vorteil gegenüber Konkurrenten sieht.

Varma warnt zudem vor einer Entwicklung, die das offene Web gefährde. Chatbots könnten Browser ablösen, doch das offene Web ist die Grundlage, auf der KI-Modelle trainiert wurden. Er zieht eine Parallele zu Google, als das US-Medienunternehmen Fox erfolglos versuchte, die Nutzung seiner Inhalte zu unterbinden. Dieses Mal, so Varma, könnte der Ausgang anders sein. Er mahnt auch, dass nur wenige große Konzerne wie Google und Meta die teuren KI-Modelle finanzieren können, und fragt, ob eine KI-Antwort künftig die beste oder die profitabelste sein werde.

Die Software „Gotham“ des US-amerikanischen Technologieunternehmens Palantir ermöglicht es Sicherheitsbehörden, große Datenmengen aus unterschiedlichen Quellen zusammenzuführen und automatisiert auszuwerten. In mehreren unionsgeführten Bundesländern kommt Palantir bereits zum Einsatz. Kritiker warnen jedoch seit Längerem vor weitreichenden Überwachungsmöglichkeiten, mangelnder Transparenz und potenziellen Eingriffen in Grundrechte.

Die SPD hat sich nun klar gegen einen Einsatz von Palantir positioniert. „Ich sehe nicht, dass Palantir für die Bundesbehörden kommt“, sagte Bundesjustizministerin Stefanie Hubig der Tageszeitung Welt. Damit reagiert die Partei nicht zuletzt auf monatelangen Druck aus der Zivilgesellschaft. Die Absage der SPD auf Bundesebene hat jedoch vor allem symbolischen Charakter. In den Bundesländern dürfte Palantir weiter genutzt werden.

Die USA und die EU verhandeln über neue Bedingungen für visumfreies Reisen. Im Kern fordern die USA Zugriff auf nationale biometrische Datenbanken der EU-Mitgliedstaaten. Einigen sich beide Seiten bis Ende des Jahres nicht, droht Europa der Ausschluss aus dem Visa-Waiver-Programm. Ein Entwurf der EU-Kommission räumt US-Sicherheitsbehörden weitreichende Befugnisse ein.

Besonders heikel ist eine Klausel zur automatisierten Entscheidungsfindung. Zwar sieht das Dokument vor, dass Algorithmen keine Entscheidungen mit schwerwiegenden Folgen für Einzelpersonen allein treffen dürfen. Doch sofern US-Recht solche Verfahren erlaubt, wäre eine rein maschinelle Beurteilung zulässig. Das widerspricht dem europäischen KI-Gesetz, das im Hochrisikobereich menschliche Letztentscheidung vorschreibt. Wie das Abkommen mit der Datenschutz-Grundverordnung und dem AI Act vereinbar sein soll, ist bislang unklar.

Das US-Verteidigungsministerium verlangt uneingeschränkten Zugang zu Anthropics KI-Modell Claude und hat der Firma eine Frist bis Freitag gesetzt. Kommt keine Einigung, droht das Pentagon mit zwei Maßnahmen: Anthropic als Risiko für die Lieferkette einzustufen, was Geschäfte mit dem Militär unmöglich machen würde, oder das Unternehmen per Defense Production Act, einem Gesetz zur Sicherstellung kriegswichtiger Güter, zur Kooperation zu zwingen. Das Gesetz wurde zuletzt während der Corona-Pandemie eingesetzt, um Unternehmen zur Produktion medizinischer Güter zu verpflichten.

Anthropic ist bereit, mit dem Militär zusammenzuarbeiten, knüpft dies aber an zwei Bedingungen: Claude darf nicht zur Massenüberwachung der US-Bevölkerung eingesetzt werden, und tödliche Waffen dürfen nicht ohne menschliche Kontrolle abgefeuert werden. Das Pentagon lehnt jede Einschränkung ab. Dass es so hart auf Anthropic besteht, hat einen einfachen Grund: Laut Pentagon ist Claude schlicht das leistungsfähigste verfügbare Modell.

Anthropic beschuldigt drei chinesische Unternehmen, mehr als 24 000 betrügerische Konten genutzt zu haben, um über 16 Millionen Interaktionen mit Claude zu erzeugen und damit eigene KI-Modelle zu trainieren. Die Firmen DeepSeek, Moonshot AI und MiniMax setzten dabei auf sogenannte Destillation, ein Verfahren, bei dem ein schwächeres Modell anhand der Ausgaben eines stärkeren trainiert wird. Anthropic sieht darin Verstöße gegen seine Nutzungsbedingungen.

In einem Blogbeitrag warnt Anthropic, das Vorgehen stelle ein erhebliches Sicherheitsrisiko für die USA dar. Ausländische Labore, die amerikanische Modelle auf diese Weise kopierten, könnten die gewonnenen Fähigkeiten in Militär-, Geheimdienst- und Überwachungssysteme einspeisen. Auch OpenAI wirft DeepSeek vor, sein Modell R1 durch Destillation aus ChatGPT trainiert zu haben.

Podcast: KI-Update
KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Je fertiger eine KI-Antwort wirkt, desto seltener prüfen Nutzer, ob sie stimmt. Das ist das Ergebnis einer Analyse von knapp 10.000 anonymisierten Gesprächen mit Anthropics Chatbot Claude. In 12,3 Prozent der Dialoge erstellte Claude fertige Produkte wie kleine Apps oder Dokumente. In diesen Fällen sank die kritische Prüfung messbar: Nutzer erkannten seltener fehlenden Kontext, prüften Fakten weniger und hinterfragten die Argumentation der KI kaum.

Wer seine Ergebnisse dagegen schrittweise verfeinerte, hinterfragte die KI-Argumentation mehr als fünfmal häufiger und erkannte fehlenden Kontext viermal öfter. Allerdings bringt das Verfeinern ein technisches Problem mit sich: Sammelt sich zu viel Kontext im Chatfenster an, werden KI-Antworten schlechter. Anthropic empfiehlt deshalb, die erste Antwort als Ausgangspunkt zu behandeln, polierte Ergebnisse gezielt zu hinterfragen und rechtzeitig ein neues Gespräch zu beginnen.

Meta und AMD haben einen Rahmenvertrag geschlossen, den Reuters auf rund 60 Milliarden US-Dollar beziffert. Über fünf Jahre will Meta KI-Beschleuniger von AMD mit einer Gesamtkapazität von sechs Gigawatt kaufen, beginnend noch in der zweiten Jahreshälfte. Bereits 2024 war Meta AMDs größter Kunde für KI-Beschleuniger.

Der Deal enthält eine ungewöhnliche Klausel: Kauft Meta genug Chips, erhält das Unternehmen Optionen auf bis zu 160 Millionen AMD-Aktien zum symbolischen Preis von einem Cent je Aktie, was derzeit einer Beteiligung von rund zehn Prozent entspräche. Meta hat damit ein direktes Interesse an AMDs Börsenerfolg. Nach Bekanntgabe des Abkommens stieg AMDs Aktie um knapp 15 Prozent.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Forscher von Googles KI-Abteilung DeepMind schlagen vor, dass KI-Systeme Aufgaben bewusst an Menschen abgeben sollen, auch wenn sie diese selbst erledigen könnten. Der Grund liegt im Paradox der Automatisierung: Übernimmt KI alle Routineaufgaben, verlieren menschliche Aufseher die Erfahrung, in kritischen Momenten noch einzugreifen. Gezielt verteilte Übungsaufgaben sollen diese Kompetenz erhalten. Das vorgestellte Framework setzt zudem eine klare Bedingung: Eine Aufgabe darf nur delegiert werden, wenn sich ihr Ergebnis überprüfen lässt.

Das KI-Start-up Inception Labs hat mit Mercury 2 ein Sprachmodell vorgestellt, das auf einem Diffusionsverfahren statt auf der üblichen Transformer-Architektur basiert. Statt Text Wort für Wort zu erzeugen, verfeinert das Modell mehrere Textbausteine gleichzeitig. Das Ergebnis ist Geschwindigkeit: Laut Inception verarbeitet Mercury 2 über 1.000 Token pro Sekunde auf Nvidias aktuellen Blackwell-Chips, bei einer Antwortzeit von 1,7 Sekunden. Googles Gemini 3 Flash benötigt zum Vergleich gut 14 Sekunden, Anthropics Claude Haiku 4.5 über 23 Sekunden. Mercury 2 ist zudem günstiger als beide.

Inception Labs hatte im November 50 Millionen US-Dollar von Investoren wie Microsoft und Nvidia erhalten. Ob sich der Diffusionsansatz langfristig gegen die dominierende Transformer-Architektur durchsetzt, bleibt offen.

Passwörter, die Chatbots wie Claude, GPT oder Gemini erstellen, sehen auf den ersten Blick sicher aus: Sie enthalten Sonderzeichen und Zahlen. Doch Sicherheitsforscher des Unternehmens Irregular haben festgestellt, dass diese Zeichen oft an vorhersehbaren Stellen stehen. Ein kryptografisch sicheres Passwort erreicht eine Entropie von rund 98 Bit. Die KI-generierten Passwörter schafften in den Tests nur rund 27 Bit. Der Grund liegt im Wesen großer Sprachmodelle: Sie sind darauf trainiert, plausible, vorhersehbare Ausgaben zu erzeugen, was beim Erstellen von Passwörtern zum Problem wird.

Wer auf Nummer sicher gehen will, sollte einen Passwort-Manager nutzen, der auf kryptografisch sichere Zufallszahlengeneratoren setzt. Allerdings haben Forscher der ETH Zürich jüngst gezeigt, dass auch einige verbreitete Passwort-Manager eigene Sicherheitsprobleme haben.

Mexiko will die menschliche Stimme als künstlerisches Werkzeug rechtlich schützen. Die Regierung von Präsidentin Claudia Sheinbaum hat eine Gesetzesinitiative vorgelegt, die es verbietet, Stimmen von Schauspielern ohne Erlaubnis und Bezahlung durch KI zu kopieren. Mexiko ist das Land mit der größten Synchronisationsindustrie Lateinamerikas und produziert rund zwei Drittel aller Synchronisationen in der Hemisphäre.

Angesichts der Mehrheitsverhältnisse im mexikanischen Kongress gilt die Verabschiedung des Gesetzes als wahrscheinlich. Mexiko wäre damit weltweit das erste Land, das das Klonen von Stimmen in der Kultur reguliert.

(igr)