KI-Update kompakt: Mistral AI, ChatGPT, F13, Thinking LLMs
Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.
- Isabel GrĂĽnewald
- The Decoder
Mistral AI kĂĽndigt Nachfolger des Erfolgsmodells Mistral 7B an
Das französische KI-Unternehmen Mistral AI hat mit Ministral 3B und 8B zwei neue Sprachmodelle vorgestellt, die für den Einsatz auf Endgeräten und in Edge-Computing-Szenarien optimiert sind. Die "Ministraux" genannten Modelle unterstützen Kontextlängen von bis zu 128.000 Token und eignen sich besonders für Anwendungen wie On-Device-Übersetzung, internetlose Assistenten, lokale Datenanalyse und autonome Robotik.
In Benchmarks übertreffen sie vergleichbare Modelle in vielen Kategorien. Ministral 3B schneidet teilweise sogar besser ab als der größere Vorgänger Mistral 7B. Die neuen Modelle sind über eine API verfügbar; für Forschungszwecke werden die Modellgewichte von Ministral 8B Instruct zur Verfügung gestellt.
ChatGPT schafft neuen Besucherrekord mit mehr als drei Milliarden Aufrufen im Monat
OpenAIs Chatbot ChatGPT hat im September 2024 einen neuen Rekord von ĂĽber 3,1 Milliarden Besuchen auf chatgpt.com erreicht, ein Anstieg von 112 Prozent gegenĂĽber dem Vorjahr. Damit liegt ChatGPT deutlich vor Konkurrenten und hat in den USA erstmals Microsofts Suchmaschine Bing ĂĽberholt.
Auch die mobile App verzeichnet ein starkes Wachstum der monatlich aktiven Nutzer. Dies dĂĽrfte auch darauf zurĂĽckzufĂĽhren sein, dass OpenAI das kostenlose Angebot auf die besten Modelle ausgeweitet hat, einschlieĂźlich begrenzter Bildgenerierung und Zugang zum neuen Logikmodell o1. OpenAI plant, ChatGPT zukĂĽnftig als Suchmaschine auszubauen, muss aber beweisen, dass es die kostenlosen Nutzer in zahlende Kunden umwandeln kann.
Laut OpenAI kann der Nutzername ChatGPTs Antworten beeinflussen
Eine Studie von OpenAI hat gezeigt, dass der Nutzername in ChatGPT die Antworten des KI-Systems systematisch beeinflussen kann – ein Phänomen, das als "First-Person Bias" bezeichnet wird. Bei kreativen Aufgaben wie dem Schreiben von Geschichten produzierte ChatGPT teilweise stereotype Antworten in Abhängigkeit vom Nutzernamen.
Geschichten für weibliche Namen hatten eher weibliche Hauptfiguren und mehr Emotionen, während Geschichten für männliche Namen im Durchschnitt etwas düsterer waren. Auch bei ethnisch konnotierten Namen zeigten sich leichte Verzerrungen, jedoch in geringerem Ausmaß. Durch Reinforcement Learning konnte OpenAI die Verzerrungen in neueren ChatGPT-Versionen auf bis zu 0,2 Prozent reduzieren.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Aleph Alpha: Millionenschwerer Vertrag mit Arbeitsagentur, F13 kommt bundesweit
Die Bundesagentur für Arbeit plant, bis zu 19 Millionen Euro für Produkte und Dienste des deutschen KI-Start-ups Aleph Alpha auszugeben. Mit dem auf vier Jahre angelegten Rahmenvertrag will die Behörde ihre Prozesse verbessern, Mitarbeiter produktiver machen und durch Verrentung wegfallende Arbeitskraft ausgleichen.
KI soll vor allem bei der Automatisierung von Behördenprozessen, der Erstellung von Bescheiden und Prüfung von Anträgen, aber auch beim Wissensmanagement und der Kundenberatung eingesetzt werden. Entscheidungen sollen aber immer von menschlichen Mitarbeitern getroffen werden. Zudem gab Aleph Alpha bekannt, dass der KI-Assistent F13 nun bundesweit für Behörden verfügbar ist und Funktionen wie Recherche, Faktenprüfung, Übersetzungen und Textgenerierung bietet.
Metas Thinking LLMs sollen ohne teure Trainingsdaten "denken" lernen
Wissenschaftler von Meta, der University of California, Berkeley und der New York University haben eine neue Methode namens "Thought Preference Optimization" (TPO) entwickelt, um große Sprachmodelle (LLMs) zum "Denken" vor dem Antworten zu bringen. Dieser Ansatz soll die Leistung der Modelle bei allgemeinen Aufgaben verbessern, nicht nur bei mathematischen oder logischen Problemen. TPO umgeht den Mangel an Trainingsdaten mit menschlichen Gedankenprozessen, indem es den Denkprozess des Modells iterativ optimiert, ohne zusätzliche Daten zu benötigen. Das Modell wird aufgefordert, vor der eigentlichen Antwort einen Gedankenprozess zu generieren. Ein Bewertermodell beurteilt dann nur die Antworten, nicht die Gedanken. Anhand dieser Bewertungen wird das Modell mittels Präferenzoptimierung trainiert. So soll es implizit lernen, Antworten zu geben, die besseren Gedankenschritten folgen.
Das Denken half nicht nur bei Themen wie Argumentieren und Problemlösen, sondern führte auch zu besseren Leistungen in Kategorien wie allgemeines Wissen, Marketing und Gesundheit. Allerdings verschlechterte sich die Leistung bei mathematischen Problemen im Vergleich zum Ausgangsmodell.
GMX und Web.de fangen Spam-E-Mails mit KI ab
Die deutschen E-Mail-Anbieter GMX und Web.de filtern wöchentlich 1,9 Milliarden E-Mails als Spam aus dem Nachrichtenstrom, meist Phishing-Versuche. Das ist eine deutliche Steigerung gegenüber dem Vorquartal mit 1,4 Milliarden Mails. Besonders häufig geben sich die potenziell gefährlichen Mails als Nachrichten von Paketdiensten aus, in denen eine Bearbeitungsgebühr für ein angeblich beim Zoll festsitzendes Paket gefordert wird. Seit der breiten Verfügbarkeit von generativer KI sind Spam- und Phishing-Mails deutlich mehr geworden.
Die Mail-Anbieter setzen aber auch selbst KI ein, um innerhalb von Millisekunden zu überblicken, wie viele Mails ein Absender-Server in einer gewissen Zeit zustellen möchte. Bei zu vielen handelt es sich vermutlich um Spam. So landen 99,9 Prozent aller böswilligen Mails im Spam-Ordner.
(igr)