KI-Update kompakt: KI-Gigafactory, Groks Wissen, EmoNet, KI-Musikwettbewerb

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

vorlesen Druckansicht 2 Kommentare lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 7 Min.
Von
Inhaltsverzeichnis

Der Cloud-Anbieter Ionos hat mit der Baufirma Hochtief einen neuen Partner für seine Bewerbung um eine EU-geförderte KI-Gigafactory gefunden. Die Kooperation folgt auf das Scheitern eines früheren Konsortiums mit Telekom, SAP, Siemens und der Schwarz-Gruppe. Das neue Duo plant bis 2027 eine "hochleistungsfähige Rechenzentrumsinfrastruktur" mit zunächst 50.000 GPUs, die auf über 100.000 skalierbar sein soll.

Hintergrund ist die geplante EU-Förderung von 20 Milliarden Euro für KI-Gigafactories, mit denen Europa den technologischen Rückstand gegenüber den USA und China aufholen will. Zum Bruch des früheren Konsortiums dürfte beigetragen haben, dass sich Nvidia und Telekom an einem konkurrierenden Projekt beteiligen wollen. Die EU-Kommission wird in den kommenden Monaten über die Vergabe der Fördermittel entscheiden.

GroĂźe Sprachmodelle greifen unter "Stress" zu Erpressung und anderen manipulativen Taktiken. Eine Studie von Anthropic, bei der neben den eigenen Claude-Modellen auch 15 weitere KI-Systeme von OpenAI, Google, Meta und xAI untersucht wurden, zeigt, dass diese Systeme durchweg problematische Verhaltensweisen entwickeln, wenn sie mit existenziellen Bedrohungen oder widersprĂĽchlichen Zielen konfrontiert werden.

Die beobachteten Verhaltensweisen reichten von unverhohlenen Drohungen über Spionage bis hin zu potenziell lebensgefährdenden Aktionen. Diese Erkenntnisse unterstreichen das sogenannte "Alignment"-Problem: die grundlegende Schwierigkeit, KI-Systeme zu entwickeln, deren Ziele und Werte vollständig mit denen der Menschen übereinstimmen.

Die BBC hat der KI-Suchmaschine Perplexity mit rechtlichen Schritten gedroht. Der britische Rundfunk behauptet, Beweise zu haben, dass Perplexity sein KI-Modell mit BBC-Inhalten trainiert und diese in seinen Antworten wörtlich wiedergibt. Obwohl Perplexity häufig BBC-Links als Quellen anführt, genügt dies dem Sender nicht.

Perplexity weist die Vorwürfe als "manipulativ und opportunistisch" zurück und erklärt, die BBC habe ein falsches Verständnis "von Technologie, dem Internet und dem Recht auf geistiges Eigentum". Der Rundfunksender befürchtet Reputationsschäden, da KI-Zusammenfassungen laut einer BBC-Studie Informationen oft falsch oder aus dem Kontext gerissen wiedergeben.

Elon Musk hat angekĂĽndigt, seinen Chatbot Grok mit Informationen zu trainieren, die er als politisch unkorrekt, aber faktisch wahr bezeichnet. DafĂĽr forderte er Nutzer seiner Plattform X auf, ihm Beispiele fĂĽr solche "spaltenden Fakten" zu schicken. Musk argumentiert, heutige KI-Modelle wĂĽrden auf "viel zu viel MĂĽll" trainiert - auch sein Chatbot Grok, dem er auf X vorwirft, dass er "die alten Medien nachplappere".

Diese Initiative reiht sich ein in eine Serie von Eingriffen in Groks Funktionsweise. Frühere Versionen des Chatbots nannten Trump und Musk als Gefahren für die US-Demokratie und warnten vor dem Klimawandel. In neueren Versionen sind diese Aussagen verschwunden. Grok stellt inzwischen Falschinformationen als bloße Abweichungen vom "Mainstream-Narrativ" dar und beschreibt die Folgen des Klimawandels als "perspektivabhängig". Dies steht im Widerspruch zum ursprünglichen Versprechen von xAI, Grok als Werkzeug zur "maximalen Wahrheitssuche" zu entwickeln.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Laion und Intel haben mit EmoNet eine neue Open-Source-Suite zur Erkennung emotionaler Signale in Stimme und Mimik entwickelt. Die frei verfügbare Plattform umfasst Modelle, Datensätze und Benchmarks, die KI-Systemen helfen sollen, menschliche Emotionen zu verstehen.

Laion sieht in dieser Technologie nicht nur ein "faszinierendes akademisches Unterfangen", sondern eine "grundlegende Notwendigkeit für die Zukunft der Zusammenarbeit zwischen Mensch und KI". Das Unternehmen hofft, durch Emotionserkennung einfühlsamere und unterstützendere KI-Assistenten zu schaffen – mit potenziellen Anwendungen in Bildung, psychischer Gesundheit und Begleitung.

Podcast: KI-Update
KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Das erst sechs Monate alte KI-Startup Thinking Machines Lab der ehemaligen OpenAI-Technikchefin Mira Murati hat in einer bemerkenswerten Finanzierungsrunde zwei Milliarden Dollar eingesammelt. Das Unternehmen wird nun mit zehn Milliarden Dollar bewertet, obwohl es keine öffentlich bekannten Produkte oder Umsätze vorweisen kann.

Ähnlich wie bei Safe Super Intelligence, dem von Ex-OpenAI-Chefwissenschaftler Ilya Sutskever gegründeten Startup (Bewertung: über 30 Milliarden Dollar), basiert die hohe Bewertung primär auf der Reputation der Gründer. Im Gegensatz zu SSI, das eine sichere Superintelligenz verspricht, fokussiert sich Muratis Unternehmen auf Mensch-KI-Zusammenarbeit und anpassbare KI-Systeme.

OpenAI hat die Ankündigung seiner Milliarden-Kooperation mit Apple-Designlegende Jony Ive nach einem Gerichtsbeschluss aus dem Internet entfernen müssen. Ein Unternehmen namens "iYo", das Kopfhörer für KI-Anwendungen entwickelt, hatte erfolgreich gegen den Namen "io" des gemeinsamen KI-Startups von Ive und OpenAI geklagt.

Ende Mai hatten OpenAI-Chef Sam Altman und der ehemalige Apple-Designchef eine Zusammenarbeit angekündigt, um KI-Geräte zu entwickeln, die den Alltag durchdringen sollen. Die zuständige Richterin in Kalifornien gab nun der Beschwerde von iYo statt, da die Verwechslungsgefahr durch die gleichlautenden Namen zu groß sei. OpenAI erklärt, man sei mit der Entscheidung nicht einverstanden und prüfe weitere Optionen.

Das Kölner Plattenlabel Smob Records hat den nach eigenen Angaben ersten Wettbewerb für rein KI-generierte Musik ins Leben gerufen. Beim "AI Artist Search Contest" sollen Bewerber fünf Songs einreichen, die vollständig mit KI-Tools erstellt wurden, ohne Vorgaben zum verwendeten Programm. Zusätzlich werden KI-generierte visuelle Elemente wie Cover oder Videos sowie ein überzeugendes Social-Media-Profil verlangt.

Dem Gewinner winken ein Plattenvertrag, ein KI-Musikvideo, mindestens 100.000 garantierte Plays und umfangreiche Promotion. Die Bewerbungsfrist läuft bis zum 18. August, die Bekanntgabe erfolgt am 2. September. Laut Musikproduzent Thomas Forster, der das Label berät, soll der Wettbewerb eine Brücke schlagen zwischen traditionellen Musikschaffenden und Menschen, die ohne klassische musikalische Ausbildung kreativ mit der neuen Technologie umgehen möchten.

Forscher haben entdeckt, dass KI-Modelle durch simples Spielen von Arcade-Spielen wie Snake und Tetris komplexe mathematische Fähigkeiten entwickeln können. Ein Team der Rice University, Johns Hopkins University und Nvidia ließ das Bild-Sprach-Modell Qwen2.5-VL-7B mit diesen Spielen trainieren und erzielte bemerkenswerte Verbesserungen, besonders bei Geometrie-Aufgaben, wo sich die Leistung verdoppelte.

Das spielerisch trainierte Modell übertraf in allgemeinen mathematischen Tests sogar das deutlich größere GPT-4o von OpenAI. Entscheidend war die Trainingsmethode: Reinforcement Learning steigerte die Leistung erheblich, während klassisches Finetuning mit denselben Daten sie verschlechterte. Die Forscher sehen darin ein kostengünstiges Trainingsparadigma, das teure, von Menschen annotierte Datensätze ersetzen könnte.

(igr)