KI-Update kompakt: Grok 3, KI-Agenten, Mistrals Saba, Küstenschutz

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

vorlesen Druckansicht 1 Kommentar lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 7 Min.
Von
Inhaltsverzeichnis

xAI hat eine neue KI-Modellfamilie namens Grok 3 vorgestellt. Das Unternehmen präsentierte die Entwicklung in einem Livestream auf der Plattform X. Die Familie umfasst eine kompakte "mini"-Version für schnelle Anwendungen sowie ein Standardmodell und spezielle Reasoning-Versionen.

Für das Training nutzte xAI nach eigenen Angaben ein Rechenzentrum in Memphis mit 200.000 Grafikprozessoren. Die Rechenleistung lag damit zehnmal höher als beim Vorgängermodell Grok 2. In ersten Tests übertraf Grok 3 andere KI-Modelle bei mathematischen Aufgaben und naturwissenschaftlichen Fragen.

Eine Besonderheit zeigt sich beim Reasoning-Modell: Wie bei OpenAI bleibt ein Teil des Denkprozesses verborgen. Damit will xAI verhindern, dass andere Anbieter das Wissen des Modells kopieren können. Deepseek legt seine Gedanken dagegen komplett offen.

Zunächst erhalten zahlende Nutzer Zugang zu Grok 3. Das Unternehmen plant, den Vorgänger Grok 2 in den kommenden Monaten als Open-Source-Version zu veröffentlichen.

KI-Agenten, die im Internet unterwegs sind, um lästige Aufgaben für uns zu erledigen, sind leicht anzugreifen. Und das bedeutet unter anderem, sie geben sensible Informationen und Kreditkartendaten preis. Konkret haben Forscher die Angriffsszenarien an verschiedenen Agenten von Anthropic getestet – die Ergebnisse dürften jedoch grundlegend gelten. In einer anderen Studie konnte mit einem ähnlichen Setting bereits ChatGPT vergiftet werden. Agenten bestehen in der Regel neben einem Large Language Model (LLM), das Inhalte versteht, aus einem Large Action Model, das Dinge tun kann. In der Studie haben die Forscherinnen und Forscher der Columbia University und der University of Maryland nun KI-Agenten über einen Reddit-Beitrag auf eine gefälschte Webseite geführt, auf der es vermeintlich Produkte zu kaufen gab.

Der KI-Agent konnte überzeugt werden, Kreditkartendaten und Nutzerdaten einzugeben. Auf einer anderen Seite konnte das Forschungsteam den Agenten Viren unterjubeln. Auf Anweisung luden die KI-Agenten Dateien aus nicht vertrauenswürdigen Quellen. Wenn der Nutzer eines KI-Agenten über den Browser in seinem E-Mail-Client angemeldet war, ließ sich der Agent sogar dazu bringen, Phishing-Mails von diesem Konto zu verschicken. Alle Angriffe seien ohne besondere technische Kenntnisse gelungen, betonte das Team. Die Methoden sind auch bekannt als Jailbreaking, Prompt-Injection und Data Poisoning – durch sie können alle LLMs angegriffen werden. Im Falle eines handelnden KI-Agenten sind jedoch die Auswirkungen schwerwiegender. Die Forscherinnen und Forscher fordern daher bessere Überwachungssysteme für die Agenten, beispielsweise mehr verpflichtende Eingriffe durch Menschen und eine Prüfung von URLs. Außerdem könne ein Reasoning-Prozess helfen. Das bedeutet, dass die KI-Agenten ihr Tun selbst besser überwachen sollen.

Das französische KI-Startup Mistral AI präsentiert mit Saba ein neues Sprachmodell. Saba wurde speziell für den Nahen Osten und Südostasien entwickelt. Anders als universelle Modelle wie GPT-4o konzentriert sich Saba also gezielt auf die sprachlichen Nuancen und kulturellen Hintergründe der Zielregionen. Das Modell beherrscht neben Arabisch auch viele Sprachen indischen Ursprungs, besonders südindische Sprachen wie Tamil.

Die kompakte Größe von 24 Milliarden Parametern macht Saba sehr effizient – es läuft sogar auf Systemen mit nur einer GPU und erreicht dabei Geschwindigkeiten von über 150 Token pro Sekunde. Das ermöglicht den Einsatz auch auf weniger leistungsstarker Hardware. In der Praxis findet Saba laut Mistral bereits jetzt vielfältige Anwendung, etwa bei der Entwicklung arabischsprachiger virtueller Assistenten. Durch Feinabstimmung kann das Modell außerdem für spezifische Fachgebiete wie Energie oder Finanzmärkte optimiert werden. Ein weiterer Anwendungsbereich ist die Erstellung von kulturell relevantem Content, wobei das Modell sein Verständnis lokaler Redewendungen und kultureller Referenzen nutzt, um authentisch klingende Inhalte zu generieren. Das Modell ist allerdings nicht Open Source und steht nur über eine kostenpflichtige API oder als lokale Installation zur Verfügung.

Eine neue Microsoft-Studie mit 319 Wissensarbeiterinnen und -arbeitern aus Berufsfeldern wie IT, Design, Verwaltung und Finanzwesen zeigt problematische Auswirkungen von KI-Tools auf das kritische Denken. Die Forscherinnen und Forscher beobachteten, dass Nutzende sich zunehmend auf die Überprüfung von KI-Ergebnissen konzentrieren, statt selbst Informationen zu sammeln und Probleme zu lösen. Das Wissenschaftsteam warnt daher vor einer "Ironie der Automatisierung": Wenn KI-Tools Routineaufgaben übernehmen, fehlen Menschen die Gelegenheiten, ihr Urteilsvermögen zu trainieren. Diese "kognitive Entlastung" könnte langfristig die eigenständigen Denkfähigkeiten schwächen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Eine aktuelle Studie von Forschenden aus den USA und der Schweiz mit über 800 Teilnehmenden zeigt, dass Menschen therapeutische KI-Antworten kaum von echten unterscheiden können – und sogar als einfühlsamer bewerten. In einem Vergleich mit 13 Therapeuten erkannten Teilnehmerinnen und Teilnehmer die Herkunft der Antworten nur knapp über dem Zufallsniveau, mit einer Trefferquote von etwa 56 Prozent bei menschlichen und 51 Prozent bei KI-Antworten. Überraschenderweise wurden die KI-Antworten sogar als einfühlsamer bewertet als die der menschlichen Expertinnen und Experten.

Das Forschungsteam führt dies auf längere, positivere Formulierungen und einen reichhaltigeren Sprachgebrauch zurück. Allerdings zeigte sich auch eine grundsätzliche Technikskepsis - sobald Antworten als KI-generiert erkannt wurden, erhielten sie schlechtere Bewertungen, unabhängig von ihrer tatsächlichen Qualität. Frühere Studien kamen zu ähnlichen Ergebnissen. Expertinnen und Experten warnen dennoch vor einem Einsatz von ChatGPT in der Psychotherapie. Denn KI-Modelle besäßen keine echte "Theory of Mind" und könnten nicht wirklich empathisch sein.

Podcast: KI-Update
KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Eine neue KI der Universität Hamburg kann die Häufigkeit und Höhe von Sturmfluten präzise vorhersagen. Das System nutzt dafür historische Messdaten, aktuelle Wetterkarten und klassische Klimamodelle.

Die Forschungsgruppe um Daniel Krieger testete das System an drei Standorten: Cuxhaven, Esbjerg und Delfzijl. Für Cuxhaven wertete die KI 700.000 Einzelmessungen seit 1940 aus. Die Prognosen erwiesen sich als sehr genau: Während in den vergangenen zehn Jahren durchschnittlich 11,6 Sturmfluten pro Jahr auftraten, sagte das System 12,8 voraus.

Für die kommenden Jahre zeigt die KI einen besorgniserregenden Trend: Die höchsten jährlichen Sturmfluten könnten von bisher 2,5 auf durchschnittlich 3 Meter ansteigen. Diese ortsspezifischen Vorhersagen helfen beim gezielten Ausbau von Schutzmaßnahmen.

Ein weiterer Vorteil: Das System benötigt für eine Prognose nur eine Sekunde - deutlich weniger als herkömmliche Klimamodelle. Allerdings funktioniert es nur an Orten mit ausreichend historischen Messdaten.

Die südkoreanische Regierung will ein nationales Rechenzentrum für Künstliche Intelligenz (KI) bauen. Dafür sollen 10.000 Hochleistungs-Grafikprozessoren angeschafft werden. Damit will das Land im Bereich der KI konkurrenzfähig bleiben. Südkorea wolle das Rechenzentrum in einer Kooperation zwischen Staat und Privatwirtschaft einrichten, berichtet die Nachrichtenagentur Reuters.

Der Wettbewerb um die Vorherrschaft in der KI-Industrie verschärfe sich zusehends, sagte Interimspräsident Choi Sang-mok. Er verlagere sich von einem Wettbewerb zwischen Unternehmen auf die nationale Ebene. Die Menge an GPUs, die sich die südkoreanische Regierung sichern will, ist vergleichsweise bescheiden. Die USA wollen hunderttausende KI-Chips im Mammut-Projekt Stargate verbauen. Auch ist noch unklar, auf welche GPUs Südkorea setzen will. Marktführer in dem Bereich ist aktuell Nvidia.

(igr)