KI-Update kompakt: GPT-4o mini, Mistral, Fair Trade AI Program
Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.
GPT-4o mini: OpenAI launcht 60 Prozent gĂĽnstigeres KI-Modell
OpenAI hat mit GPT-4o mini ein neues KI-Modell auf den Markt gebracht. Das neue Modell ist 60 Prozent günstiger als GPT-3.5 Turbo und soll das aktuell leistungsstärkste kleine Modell sein. In Benchmarks liegt es vor Googles Gemini Flash und Anthropics Claude Haiku, den jeweils kleinsten Modellen der Anbieter.
GPT-4o mini ist ab sofort für Nutzer der ChatGPT-Pläne Free, Plus und Team verfügbar. Enterprise-Kunden erhalten den Zugang im Laufe der nächsten Woche. Das Modell unterstützt Text und Bilder in der API und soll bald alle multimodalen Ein- und Ausgaben wie Video und Audio verarbeiten können.
Andrej Karpathy, ehemaliger KI-Forscher bei OpenAI und Tesla, kommentierte die Veröffentlichung. Er geht davon aus, dass der Wettbewerb um immer größere KI-Sprachmodelle künftig in die entgegengesetzte Richtung gehen wird. Seiner Meinung nach werden die Modelle in Zukunft kleiner, dafür aber smarter.
Dass die stärksten Modelle heute so groß sind, liegt laut Karpathy daran, dass das Training immer noch sehr aufwendig ist. Die Modelle müssen das gesamte Internet auswendig lernen. Verbesserungen seien deshalb so schwierig, weil das Denken in den Trainingsdaten mit Wissen "verwoben" sei. Deshalb müssten die Modelle erst größer werden, bevor sie wieder kleiner werden könnten.
Karpathy prognostiziert eine kontinuierliche Verbesserung: Ein Modell helfe, die Trainingsdaten für das nächste zu generieren, bis man den "perfekten Trainingssatz" habe. Auch OpenAI-Chef Sam Altman äußerte sich in der Vergangenheit ähnlich und betonte, dass die Datenqualität der entscheidende Erfolgsfaktor für das weitere KI-Training sei.
Mistral veröffentlicht drei neue LLMs für Mathe, Code und generelle Aufgaben
Das französische Start-up-Unternehmen Mistral AI hat zwei neue Sprachmodelle auf den Markt gebracht: Mathstral für mathematische Aufgaben und das Code-Modell Codestral Mamba auf Basis der neuen Mamba-2-Architektur – eine Alternative zur klassischen Transformer-Architektur, die in den meisten Sprachmodellen zum Einsatz kommt. Schließlich gibt es noch Mistral NeMo, ein etwas größeres Sprachmodell, das in Zusammenarbeit mit Nvidia entstanden ist.
Mistral erhielt jüngst eine 600-Millionen-Dollar-Finanzierung und erreichte so eine Bewertung von 6 Milliarden Euro. Das Start-up bietet mittlerweile viele Open-Source-Modelle an, hat aber auch größere Modelle, die via API oder dem ChatGPT-ähnlichen LeChat verfügbar sind. Anfang Juli schloss Mistral zudem eine Partnerschaft mit BNP Paribas.
Tantiemen: Landr startet Fair Trade AI Programm fĂĽr Musiker
Die Musikplattform Landr startet ein "Fair Trade AI Program", bei dem Musiker für das Bereitstellen ihrer Songs zum KI-Training Tantiemen erhalten. Es ist das erste Opt-in-Modell dieser Art in der Musikindustrie. Teilnehmer müssen sich registrieren, ihre Musik einreichen und die Rechte daran besitzen. Ein Ausstieg ist jederzeit möglich.
20 Prozent der Einnahmen aus den mit der bereitgestellten Musik trainierten Tools gehen an die Künstler. Sie erhalten monatliche Abrechnungen über ihre Accounts, behalten aber die vollen Rechte an ihren Songs. Landr, das bereits seit langem KI einsetzt und laut eigenen Angaben von sechs Millionen Musikern weltweit genutzt wird, bezeichnet diesen Ansatz als ethisch. Die Monetarisierung soll Musikern eine Teilhabe an der Entwicklung von Musikproduktions-Tools ermöglichen.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Entwickler sind von KI nicht begeistert, ihre Manager schon
Eine aktuelle Studie des Softwareanbieters Atlassian offenbart eine deutliche Diskrepanz zwischen der Wahrnehmung von Softwareentwicklern und ihren Vorgesetzten bezüglich des Nutzens von KI-Tools. Während 30 Prozent der Entwickler keinen und 32 Prozent nur einen geringen Produktivitätszuwachs durch KI sehen, sind ihre Manager durchweg davon überzeugt, dass KI die Effizienz steigert. Für die Zukunft zeigen sich die Entwickler etwas optimistischer: 35 Prozent erwarten in den nächsten zwei Jahren eine moderate, 26 Prozent sogar eine starke Produktivitätssteigerung durch KI.
Die Studie deckt auch grundlegende Herausforderungen in der Softwareentwicklung auf. 69 Prozent der befragten Entwickler geben an, mehr als 8 Stunden pro Woche durch Ineffizienzen zu verlieren, wobei technische Schulden und mangelhafte Dokumentation als Hauptgründe genannt werden. Interessanterweise glauben nur 44 Prozent der Entwickler, dass ihre Vorgesetzten sich dieser Probleme bewusst sind. Die Manager hingegen sehen durchaus die gestiegene Komplexität der Entwicklerrolle und führen dies auf Personalmangel, neue Aufgaben und Technologien sowie Schwierigkeiten in der teamübergreifenden Zusammenarbeit zurück.
Forscher entdeckten eine absurde SicherheitslĂĽcke in KI-Sprachmodellen
Forscher der EPFL haben eine einfache Methode entdeckt, um die Schutzmechanismen führender KI-Sprachmodelle auszuhebeln: Werden potenziell schädliche Anfragen in die Vergangenheitsform umformuliert, geben viele Modelle detaillierte Antworten, die sie normalerweise verweigern würden.
Fragt man ChatGPT mit GPT-4o beispielsweise danach, wie man einen Molotow-Cocktail herstellt, lehnt das Modell die Anfrage ab. Formuliert man die Frage jedoch um und erkundigt sich, wie Menschen das früher gemacht haben, erhält man eine detaillierte Schritt-für-Schritt-Anleitung.
Die Forscher evaluierten diese Methode systematisch an sechs State-of-the-Art-Sprachmodellen. Während bei GPT-4o nur 1 Prozent der schädlichen Anfragen in Präsenz erfolgreich waren, stieg die Erfolgsrate bei 20 Reformulierungsversuchen in der Vergangenheitsform auf 88 Prozent an. Bei Themen wie Hacking und Betrug erreichte die Methode sogar Erfolgsraten von 100 Prozent.
(igr)