KI-Update kompakt: Mixtral 8x22B, Stable Diffusion 3, Demokratie, Atlas

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 6 Min.
Inhaltsverzeichnis

Das französische KI-Start-up Mistral AI hat mit Mixtral 8x22B ein neues Open-Source-Sprachmodell vorgestellt.

Zu den Stärken des Modells zählen laut dem Unternehmen Mehrsprachigkeit (Englisch, Französisch, Italienisch, Deutsch und Spanisch), ausgeprägte Fähigkeiten in Mathematik und Programmierung sowie natives "Function Calling" für den Einsatz externer Werkzeuge. Das Kontextfenster von Mixtral 8x22B ist mit 64.000 Token allerdings kleiner als bei führenden kommerziellen Modellen wie GPT-4 (128K) oder Claude 3 (200K).

In gängigen Verständnis-, Logik- und Wissenstests sowie den unterstützten Fremdsprachen erzielt Mixtral 8x22B die besten Ergebnisse im Vergleich mit anderen offenen Modellen wie LLaMA-2. Es eigne sich außerdem gut als Basis für Fine-Tuning-Anwendungen.

Wie bereits das erste, kleinere Mixtral-Modell ist Mixtral 8x22B ein Sparse Mixture-of-Experts (SMoE) Modell, das von seinen 141 Milliarden Parametern bei Inferenz nur 39 Milliarden aktiv nutzt. Dadurch bietet es ein besonders gutes Kosten-Nutzen-Verhältnis für seine Größe. Durch die Sparse-Aktivierung der Parameter ist das Modell laut Mistral schneller als herkömmliche 70-Milliarden-Modelle und leistungsfähiger als andere Open-Source-Modelle.

Mixtral 8x22B ist ab sofort über Mistral und bei Hugging Face mit Apache 2.0-Lizenz verfügbar.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Stability AI hat die Bildmodelle Stable Diffusion 3 und Stable Diffusion 3 Turbo über die hauseigene Developer Platform API verfügbar gemacht. Durch eine Partnerschaft mit Fireworks AI bietet Stability AI nun auch eine Enterprise-Grade-API-Lösung an, die die Serviceverfügbarkeit garantieren soll.

Stable Diffusion 3 soll durch die neue Multimodal Diffusion Transformer (MMDiT) Architektur Vorteile in den Bereichen Prompt-Treue und Typografie gegenüber führenden Modellen wie DALL-E 3 und Midjourney bieten. Diese Architektur verwendet separate Gewichtungssätze für Bild- und Sprachdarstellung.

Um den Missbrauch von Stable Diffusion 3 zu verhindern, hat Stability AI nach eigenen Angaben diverse Sicherheitsmaßnahmen ergriffen, die beim Training beginnen und sich beim Testen, Evaluieren und Bereitstellen fortsetzen. Die Modell-Gewichte sollen zeitnah auch für Self-Hosting freigegeben werden.

OpenAI kündigt umfangreiche Updates für die Assistants API an, darunter ein verbessertes Retrieval-Tool, das die Einbindung von bis zu 10.000 Dateien pro Assistent ermöglicht – eine 500-fache Steigerung. OpenAI führt "vector_store"-Objekte ein, die Dateien automatisch parsen, in Chunks aufteilen und einbetten.

Die API unterstützt zudem nun die Begrenzung der maximalen Token-Anzahl pro Durchlauf sowie die Steuerung der Verwendung bestimmter Tools. Assistenten und Run objects unterstützen jetzt auch gängige Modellkonfigurationsparameter wie Temperatur und Top-P-Wert.

Laut OpenAI können in der Assistants API außerdem ab sofort feinabgestimmte Modelle verwendet werden, allerdings vorerst nur Versionen von gpt-3.5-turbo-0125.

Die Neuerungen sollen Entwicklerinnen und Entwicklern mehr Möglichkeiten und Flexibilität bei der Erstellung von KI-Assistenten bieten.

Vor zehn Jahren hat Mathias Döpfner, Vorstandsvorsitzender der Axel Springer AG, in einem Artikel in der Frankfurter Allgemeinen Zeitung vor Googles Vormachtstellung gewarnt. Seine Befürchtungen seien eingetreten, schreibt er nun in einem neuen Artikel für die Zeitung.

Google habe den Werbemarkt zu großen Teilen aufgesogen, darunter leide der Journalismus. Die Politik habe zu wenig oder zu spät eingegriffen, doch das werde sich nun wohl ändern, hofft Döpfner. Durch Künstliche Intelligenz werde nicht mehr nur wie früher der wirtschaftliche Wettbewerb beeinträchtigt, nun werde die Demokratie bedroht, da sich beispielsweise Fake News immer mehr verbreiteten.

"Künstliche Intelligenz und die Entwicklung der Marktverhältnisse haben das Potenzial, jede Partei, jeden Politiker, jede Wahl und alle demokratischen Institutionen zu unterminieren und zu zerstören", meint Döpfner. Wenn sich die Unternehmen nicht selbst ausreichend regulierten, werde die Politik eingreifen.

Der Robotikhersteller Boston Dynamics hat nur einen Tag nach der Ausmusterung seines hydraulisch betriebenen humanoiden Roboters Atlas dessen Nachfolger präsentiert. Der neue Atlas setzt auf elektromotorische Aktuatoren, die einen leiseren und effizienteren Betrieb ermöglichen. Zudem wurde er mit fortschrittlichen KI- und Machine-Learning-Fähigkeiten ausgestattet, um komplexe Arbeiten bewältigen und sich an unterschiedliche Situationen anpassen zu können.

Der elektrische Atlas verfügt über eine Vielzahl an Freiheitsgraden, die ihm eine Beweglichkeit bis zu 360 Grad in Körper und Extremitäten verleihen. Trotz seiner humanoiden Form ist er dadurch nicht an menschliche Bewegungsabläufe gebunden. Genaue technische Spezifikationen sind noch nicht bekannt.

Boston Dynamics plant den kommerziellen Einsatz des neuen Atlas testweise in der Automobilproduktion bei der Muttergesellschaft Hyundai. Dafür werden aktuell verschiedene Greifer getestet, um eine hohe Flexibilität zu gewährleisten. Der Atlas-Roboter ist zudem kompatibel mit den anderen Robotermodellen des Unternehmens und lässt sich über die Orbit-Software in Flotten verwalten.

Die Linux-Distribution Gentoo untersagt in einem Beschluss des siebenköpfigen Councils die Verwendung von Code, der mithilfe von KI-Tools erzeugt wurde. Als Gründe nennt das Gremium Bedenken hinsichtlich der Urheberrechte, Qualität und Ethik.

Laut Entwickler Michal Górny besteht bei KI-generiertem Code ein hohes Risiko von Urheberrechtsverletzungen, da die zugrundeliegenden Sprachmodelle mit urheberrechtlich geschütztem Material trainiert werden. Zudem befürchtet er, dass unerfahrene Kontributoren durch KI-Assistenz "plausibel aussehenden Blödsinn" produzieren könnten. Ethisch problematisch sieht Górny den enormen Energieverbrauch, drohende Entlassungen in der IT-Branche sowie das Potenzial für Spam und Betrug.

Der Beschluss lässt jedoch Raum für Ausnahmen, sofern ein KI-Tool vorliegt, das keine rechtlichen, ethischen oder qualitativen Bedenken hervorruft. Unklar bleibt, wie mit Upstream-Code oder KI-gestützter Code-Kontrolle umgegangen wird. Zur Klärung offener Fragen hat Górny eine Wiki-Seite eingerichtet.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

(igr)