KI-Update kompakt: Anthropic's Claude Opus, OpenAI's o1, Learn About, GEMA

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 8 Min.
Von
Inhaltsverzeichnis

Die Entwicklung einer neuen Version des KI-Sprachmodells Claude Opus wurde von Anthropic-CEO Dario Amodei in einem Interview mit Podcaster Lex Fridman bestätigt, allerdings ohne einen konkreten Zeitplan für die Veröffentlichung zu nennen. Das ursprünglich für dieses Jahr angekündigte Opus 3.5-Update wird nur vage für "irgendwann" in Aussicht gestellt.

Die Verzögerung bei Anthropic spiegelt einen branchenweiten Trend wider: Mehrere führende Unternehmen sollen mit Verzögerungen und enttäuschenden Ergebnissen ihrer neuesten Sprachmodelle zu kämpfen haben. Die Entwicklung großer Sprachmodelle mit fortgeschrittenen Fähigkeiten stagniert, zuletzt ging es vor allem um Effizienzsteigerungen.

OpenAIs KI-Modell o1 soll noch in diesem Jahr in der Vollversion starten, wie The Information unter Berufung auf eine mit dem Produkt vertraute Person berichtet. Das passt auch zu OpenAIs Versprechen, noch in diesem Jahr "großartige Technologie" zu veröffentlichen, wenn auch nicht GPT-5.

Vor kurzem hatten einige Benutzer bereits versehentlich für einige Stunden Zugriff auf das „Large Reasoning Modell“, bevor der Zugang wieder gesperrt wurde. Nach deren Angaben verarbeitet o1 etwa 200.000 Token sowie Bilder. Laut OpenAI ist es "das bisher leistungsfähigste Modell für kreative Aufgaben und fortgeschrittene Schlussfolgerungen". Bisher sind nur eine Mini- und eine Preview-Version von o1 verfügbar.

Amazon Web Services (AWS) wird Forschern kostenlose Rechenleistung für KI-Chips anbieten. Das berichtet die Nachrichtenagentur Reuters. AWS hofft, mit dieser Strategie die Aufmerksamkeit für seine eigenen KI-Chips zu erregen, sagte Gadi Hutt, Leiter der Geschäftsentwicklung für KI-Chips. Mit dem Programm soll wohl zudem Boden gegenüber den Chips von Nvidia, aber auch AMD oder Alphabets Cloud-Abteilung gut gemacht werden. Dem Reuters-Bericht zufolge wird AWS den Forschungsteams, die Amazons eigene Trainium-Chips für das Training ihrer KI-Modelle nutzen wollen, Gutschriften im Gesamtwert von 110 Millionen US-Dollar für die Nutzung seiner Cloud-Rechenzentren anbieten. Das Unternehmen plant, 40.000 Trainium-Chips der ersten Generation für das Programm zur Verfügung zu stellen, an dem Wissenschaftlerinnen und Wissenschaftler der Carnegie Mellon University in Pittsburgh und der University of California in Berkeley teilnehmen.

Alibabas Forschungseinheit Qwen hat eine neue Serie von KI-Modellen für Softwareentwicklung vorgestellt. Die Qwen-2.5-Coder-Serie umfasst sechs Modellgrößen mit 0,5 bis 32 Milliarden Parametern, um unterschiedlichen Anwendungsszenarien gerecht zu werden. In Praxistests als KI-Editor und Web-Chatbot zeigten die Modelle überzeugende Leistungen.

Das größte Modell 32B-Instruct erreichte in Benchmarks zur Codegenerierung Bestwerte unter den verfügbaren Open-Source-Systemen. Qwen setzt konsequent auf Skalierung, um die Leistungsfähigkeit seiner Code-KI-Modelle zu steigern. Die Modelle wurden mit über 5,5 Billionen Token aus öffentlichem Quellcode und programmierrelevanten Webtexten trainiert. Mit Ausnahme des 3-Milliarden-Parameter-Modells sind alle Modelle quelloffen auf GitHub verfügbar.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Google hat mit "Learn About" ein innovatives KI-gestütztes Bildungstool für ausgewählte Nutzer in den USA eingeführt. Im Gegensatz zu herkömmlichen Chatbots basiert es auf dem speziell entwickelten LearnLM-Modell, das gezielt mit Bildungs- und Forschungsdaten trainiert wurde. Das Tool unterscheidet sich fundamental von klassischen KI-Assistenten, indem es einen schulbuchähnlichen Ansatz verfolgt. Es präsentiert Informationen mit kontextreichen Infoboxen, Bildern und interaktiven Elementen, die das Verständnis komplexer Themen erleichtern sollen. Learn About wurde speziell darauf ausgerichtet, Nutzer zu motivieren, über das ursprünglich angefragte Thema hinauszudenken und ihr Wissen zu vertiefen. Ein besonderer Fokus liegt dabei auf der Vermeidung von KI-Halluzinationen. Neben der Möglichkeit, Fragen zu stellen und Bilder hochzuladen, können Nutzer auch durch kuratierte Themen navigieren. Parallel dazu hat Google "Illuminate" entwickelt, ein weiteres Tool auf LearnLM-Basis, das wissenschaftliche Publikationen in leicht verständliche Audiogespräche zwischen KI-generierten Stimmen umwandelt, um Forschung zugänglicher zu machen.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Die Bundesagentur für Sprunginnovationen will den Kampf gegen hochrealistisch wirkende, meist mit KI generierte synthetische Inhalte stärken. Sie führt dazu im Auftrag des Bundesministeriums für Digitales und Verkehr einen Innovationswettbewerb zum Erkennen und Verhindern solcher Deepfakes durch. Im 21. Jahrhundert werde die Integrität digitaler Medien und Informationen zunehmend durch Deepfakes bedroht, erläutert die Sprind. Diese Technik berge "erhebliche Risiken für Desinformation, Betrug und Manipulation der öffentlichen Meinung". Dank wissenschaftlicher Fortschritte gebe es zwar bereits neue Erkenntnisse und Methoden im Bereich des maschinellen Lernens, um leistungsfähigere Systeme zur Deepfake-Erkennung zu entwickeln. Diese beschränkten sich bisher aber oft auf Nischenanwendungen oder spezifische Arten von Deepfakes. Verfügbare Ansätze seien zudem meist nicht zuverlässig. Der im Rahmen des Wettbewerbs gesuchte Prototyp soll laut der Ausschreibung nun "demonstrieren, wie Bild-Deepfakes zuverlässig erkannt und authentifiziert werden können". Das gesamte System müsse sich kontinuierlich an neue Techniken anpassen können. Am Ende des Prozesses sollen mindestens drei unterschiedliche Anwendungsfälle wie Social Media, Nachrichtenportale oder Videokonferenzsysteme abgedeckt werden. Eine Fachjury hat jetzt aus fast 50 Bewerbungen insgesamt zwölf Teams ausgewählt. Diese erhalten für ihre weitere Arbeit in den kommenden sieben Monaten jeweils bis zu 350.000 Euro. Im Mai geht es in Stufe 2, in der dann maximal zehn verbliebene Teams zusätzlich je bis zu 375.000 Euro für die Weiterentwicklung ihrer Lösung bekommen. Im November 2025 soll dann eine allgemeine Lösung stehen.

Die GEMA hat eine wegweisende KI-Charta vorgelegt, die als Orientierungshilfe für den verantwortungsvollen Umgang mit künstlicher Intelligenz dienen soll. Obwohl nicht rechtlich bindend, enthält die Charta zehn grundlegende Prinzipien, die potenziell Einfluss auf künftige Regulierungen haben könnten. Im Zentrum steht der digitale Humanismus, der KI als unterstützendes Werkzeug betrachtet, das den Menschen im kreativen Prozess ergänzen, aber nicht ersetzen soll. Die Charta betont den Schutz geistigen Eigentums und fordert eine faire Beteiligung an der wirtschaftlichen Wertschöpfung. Besonderer Wert wird auf Transparenz gelegt - sowohl bei der Verwendung von Trainingsdaten als auch bei deren rechtmäßiger Nutzung. Die GEMA adressiert auch das Ungleichgewicht zwischen großen KI-Anbietern und anderen Marktteilnehmern und fordert faire Verhandlungsbedingungen. Weitere zentrale Aspekte sind der Schutz von Persönlichkeitsrechten, die Wahrung kultureller Vielfalt und die Gewährleistung der rechtlichen Erreichbarkeit von KI-Anbietern in Europa. Die Charta schließt mit der Forderung nach Nachhaltigkeit und klarer Verantwortungsübernahme durch KI-Unternehmen, ohne Haftungsprivilegien. Viele dieser Grundsätze harmonieren mit der europäischen KI-Verordnung.

Elon Musks KI-Unternehmen xAI plant eine bedeutende Strategieänderung für seinen Chatbot Grok. Bislang war der Zugang zum KI-Tool ausschließlich Premium-Abonnenten von X (ehemals Twitter) vorbehalten. Nun starten erste Tests für einen kostenlosen Zugang. Für Nutzer der kostenlosen Version sind jedoch deutliche Einschränkungen vorgesehen: Während Grok-2-Nutzer alle zwei Stunden zehn Fragen stellen können, erlaubt Grok-2 mini zwanzig Anfragen im gleichen Zeitraum. Die Bildanalysefunktion ist auf drei Bilder täglich begrenzt. Voraussetzung für die Nutzung ist ein X-Account mit verifizierter Telefonnummer. Das im August eingeführte Grok-2 zeichnet sich durch erweiterte Funktionen aus, darunter Bildgenerierung sowie verbesserte Text- und Code-Generierung. Besondere Aufmerksamkeit erregte das Modell durch seine vergleichsweise geringen Einschränkungen bei der Erstellung kontroverser Bilder.

(igr)