KI-Update kompakt: Stromnetze, o3 vs. GPT-5, Claude, KI-Buzzwords, FrOSCon

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 10 Min.
Von
Inhaltsverzeichnis

Rechenzentren verbrauchten 2023 vier Prozent des US-Stroms. Der Anteil soll wegen des KI-Booms in den nächsten drei Jahren auf zwölf Prozent steigen. Microsoft, AWS, xAI und Google liebäugeln mit einem Ausbau der Atomkraft. Sie versprechen sich günstigen Strom und einen geringen CO₂-Fußabdruck.

Sanierungsarbeiten am Stromnetz und Schutzmaßnahmen gegen Extremwetter haben seit 2020 bereits zu einer Strompreiserhöhung um 30 Prozent geführt. Die New York Times nimmt an, dass der Ausbau des Stromnetzes für die KI-Rechenzentren auf kleinere Unternehmen und Verbraucher umgelegt wird, wenn die US-Regierung die Techfirmen nicht zum Zahlen zwingt. In Bundesstaaten wie Virginia, wo viele Rechenzentren stehen, könnte sich der Strompreis um weitere 25 Prozent erhöhen. In Europa buhlen derzeit 76 Konsortien um EU-Fördergelder für den Bau von fünf KI-Rechenzentren, die als Gigafactories bezeichnet werden. Diese sollen Zehntausende von KI-Beschleunigern enthalten. Auch in Europa könnte der Netzausbau durch Subventionen auf die Steuerzahler umgelegt werden.

Eine Studie des Lobbyverbands großer US-Publisher Digital Content Next zeigt: Der Traffic aus Google-Suchanfragen brach innerhalb von acht Wochen um durchschnittlich zehn Prozent ein. DCN wertete von Mai bis Juni die Daten von 19 Mitgliedern aus, darunter zwölf Nachrichtenmarken und sieben Nicht-Nachrichtenmarken. Jason Kint, CEO von DCN, sieht diese Verluste als direkte Folge der Google AI Overviews.

Die neuesten Daten widerlegen seiner Meinung nach die vagen Behauptungen von Google über "Qualitätsklicks". Er fordert vom Suchmaschinen-Riesen faire Lizenzbedingungen für die Inhalte von Publishern. Von den Marktaufsichtsbehörden fordert er, dass die KI-Übersichten als Teil von Googles Suchmonopol behandelt werden.

Microsoft und die University of Edinburgh haben OdysseyBench entwickelt, einen neuen Benchmark für KI-Agenten. Der Test simuliert echte Büroarbeit mit Word, Excel, PDF-Dokumenten, E-Mails und Kalenderfunktionen über mehrere Tage hinweg. Der Datensatz umfasst 602 Aufgaben: 300 realitätsnahe Ableitungen aus dem bestehenden OfficeBench und 302 neu entwickelte, besonders komplexe Aufgaben.

Im komplexen OdysseyBench-Neo erreicht o3 eine Erfolgsquote von 61,26 Prozent, GPT-5 kommt auf 55,96 Prozent. Bei Aufgaben mit drei Anwendungen wird der Unterschied noch deutlicher: o3 erreicht 59,06 Prozent, GPT-5 nur 53,80 Prozent. Die Agenten übersehen häufig relevante Dateien, führen geforderte Aktionen nicht aus oder greifen auf falsche Anwendungen zu. Besonders fehleranfällig sind Aufgaben mit DOCX- und XLSX-Dateien, die mehrere aufeinander abgestimmte Schritte erfordern.

Der Leak einer 200 Seiten starken Richtlinie zu erlaubten und unerlaubten Themen für das Training und den Betrieb von Metas Chatbots könnte juristische Folgen haben. Neben einem lockeren Umgang mit Alltagsrassismus enthält die Richtlinie Paragrafen, die den Rahmen für Gespräche über Sexualität mit Minderjährigen setzen. Romantische Rollenspiele und Flirten waren dabei explizit erlaubt.

Der republikanische Senator Josh Hawley aus Missouri kündigte eine offizielle Untersuchung an. Hawley ist Vorsitzender des Unterkomitees für Strafrecht und Terrorismusbekämpfung. Die Ermittlung soll ergeben, ob die Chatbots von Meta die Ausbeutung, Täuschung oder andere kriminelle Handlungen gegenüber Kindern ermöglichen. Zudem soll geklärt werden, ob Meta die Öffentlichkeit oder die Aufsichtsbehörden hinsichtlich seiner Sicherheitsvorkehrungen irregeführt hat.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Claude hat neue Regeln erhalten und kann jetzt Gespräche beenden. Der Chatbot bricht ab, wenn das Weiterführen eines Gesprächs gefährlich erscheint oder ein Nutzer es verlangt. Gefährlich bedeutet nicht nur Gefahr für Menschen, sondern auch für das Wohlsein des Modells. Anthropic hat eine Projektgruppe eingerichtet, die sich vorsorglich um das Wohl der KI-Modelle kümmern soll, obwohl das Unternehmen nicht davon ausgeht, dass KI-Modelle empfinden können.

Claude Opus 4 und 4.1 brechen Gespräche endgültig ab, wenn es um sexuelle Inhalte mit Minderjährigen oder die Herstellung von Waffen oder Terror geht. Anthropic greift in den Nutzungsbedingungen nun konkret chemische, biologische, radiologische und nukleare Waffen auf. Ein neuer Absatz betrifft agentische Fähigkeiten: KI-Agenten dürfen nicht missbraucht werden, um Schwachstellen in anderen Systemen zu finden oder auszunutzen. DDoS-Angriffe sind konkret verboten.

Podcast: KI-Update
KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Tencent hat mit Hunyuan-Large-Vision ein multimodales KI-Modell veröffentlicht. Auf dem LMArena Vision Leaderboard belegt es Platz 16 weltweit und führt damit die Rangliste aller chinesischen Modelle an. Die Leistung liegt auf dem Niveau von Anthropics Claude Sonnet 3.5. Die Spitzenplätze der Rangliste belegen GPT-5 und Gemini 2.5 Pro.

Die technische Architektur besteht aus drei Hauptkomponenten: einem Vision Transformer mit einer Milliarde Parametern fĂĽr die Bildverarbeitung, einem Verbindungsmodul zwischen Bild- und Textverarbeitung sowie einem Sprachmodell nach dem Mixture-of-Experts-Prinzip. Tencent generierte ĂĽber 400 Milliarden Texteinheiten multimodaler Instruktionsdaten. Sie decken Bereiche wie visuelle Erkennung, Mathematik, Naturwissenschaften und Texterkennung ab. Hunyuan-Large-Vision ist ausschlieĂźlich per API ĂĽber die Tencent Cloud verfĂĽgbar.

DeepMinds Genie 3 kann interaktive 3D-Welten in Echtzeit generieren. Das Modell erzeugt nach Prompts eine virtuelle Welt oder 3D-Szene, mit der User oder Software-Agenten interagieren können. Sie können sich darin bewegen oder Gegenstände greifen. DeepMind bezeichnet Genie 3 als Weltmodell, weil es diese virtuellen Umgebungen erschafft.

In der KI-Forschung bedeutet Weltmodell jedoch etwas anderes: Es ist abstraktes Verständnis der Welt, das KI-Modelle entwickeln müssen, um intelligent zu agieren. Dieses Weltmodell enthält verallgemeinertes Wissen über Gegenstände, Subjekte und vor allem deren Zusammenhänge. Ob ChatGPT ein solches Weltmodell besitzt, bleibt umstritten. Kenneth Li von Harvard University zeigte 2023, dass ein Sprachmodell allein durch Beispiele die Regeln des Brettspiels Othello lernen kann. Melanie Mitchell testete jedoch GPT-4 mit grafischen Aufgaben und fand kein robustes Abstraktionsvermögen auf menschlichem Niveau. DeepMind setzt seit Jahren auf Verstärkungslernen: KI-Systeme probieren wahllose Aktionen aus und werden für erfolgreiche Aktionen belohnt. Matthew Botvinick, ehemals bei DeepMind, sieht dieses Meta-Learning als Schlüssel zur künstlichen allgemeinen Intelligenz. Genie 3 soll die komplexe Trainingsumgebung schaffen, in der autonome KI-Agenten diese Fähigkeiten entwickeln können.

Eine geplante Novelle der Schweizer Überwachungsverordnung verlangt von Diensten mit über 5000 Nutzern, ihre Kunden zu identifizieren. Das sorgt bei betroffenen Unternehmen für Rechtsunsicherheit. Proton hat bestätigt, dass es deswegen mit dem Abzug von IT-Infrastrukturen aus der Schweiz begonnen hat.

Der im Juli eingeführte KI-Chatbot Lumo soll mit mehr Datenschutz als ChatGPT punkten. Er ist nun das erste Produkt, das seinen Standort wechselt. Protons CEO Andy Yen sagte der Nachrichtenagentur Keystone-SDA, dass sich das Unternehmen aufgrund der vorgesehenen Reform für Deutschland als Standort für die Server von Lumo entschieden habe. Zusätzlich baue die Firma Standorte in Norwegen auf.

Auf der Free and Open Source Software Conference in Bonn kritisierte cURL-Maintainer Daniel Stenberg in seiner Keynote KI-generierte Bug-Reports. Mittlerweile seien 20 bis 40 Prozent der Reports mittels KI generiert und fast immer komplett fiktiv. Sie beziehen sich etwa auf von der KI halluzinierte Funktionen. Die Berichte wirken solide und sind ausfĂĽhrlich, stellen sich aber nach PrĂĽfung als ausgedacht heraus.

Frank Karlitschek von Nextcloud beobachtet ähnliche Probleme. Er sieht einen Konflikt zwischen KI und Open-Source-Idealen: In der Open-Source-Welt ist wichtig zu verstehen, wie Software funktioniert und wie man sie reproduzieren kann. Large Language Models sind intransparent und schwer als Privatentwickler weiterzuentwickeln, weil man kein riesiges Rechenzentrum für Fine-Tuning hat. Andere Projekte ächzen unter der Last von Crawler-Bots der KI-Firmen, die meist Aufforderungen ignorieren, die entsprechende Seite nicht zu indexieren.

In sozialen Medien kursiert die These, dass die KI-Entwicklung stagniere. Als Beweis dient eine fehlerhafte Deutschlandkarte, die angeblich GPT-5 erstellt haben soll. Die gezeigten Karten haben korrekte Umrisse, aber falsche Beschriftungen der Bundesländer. GPT-5 hat diese Karten jedoch gar nicht erstellt. ChatGPT leitet Bildanfragen an ein separates Bildmodell weiter, vermutlich basierend auf GPT-4o.

GPT-5 selbst ist ein Sprachmodell und kann keine Bilder generieren. Das ChatGPT-Bildmodell ist nicht fĂĽr geografisch exakte Karten ausgelegt, sondern soll visuell ansprechende Bilder erzeugen. Fragt man GPT-5 direkt nach Code fĂĽr eine Deutschlandkarte, liefert es korrekte und funktionale Ergebnisse. Das Modell kann interaktive Karten programmieren.

Sprachmodelle agieren zunehmend agentisch: Sie steuern selbstständig Desktop- und Web-Apps und nehmen Menschen manche Routinearbeit ab. Das relativ neue Model Context Protocol (kurz MCP) ist eine Schlüsseltechnik dafür. Es bietet eine einheitliche Schnittstelle, mit der Modelle egal welches Anbieters loslegen können. Drei c't-Redakteure haben sich das neue Protokoll genauer angesehen, KI-Agenten damit erstaunliche Dinge erledigen lassen und bewertet, wie riskant das Ganze ist.

Im aktuellen c't uplink erzählt Jo Bager, was das Sprachmodell Claude auf sein Kommando (und auch ungefragt) geschafft hat. Jan Mahn erklärt, wie MCP funktioniert und worauf Firmen bei der Nutzung achten sollten. Sylvester Tremmel warnt vor den Sicherheitsrisiken der noch jungen Technik. Den c't-uplink könnt Ihr auf der Podcast-Plattform Eurer Wahl hören oder schaut mal bei YouTube rein.

(igr)