Mistral AI: Neues Sprachmodell Medium 3.5 und Cloud-Coding-Agenten

Das französische KI-Start-up Mistral hat das Sprachmodell Medium 3.5 sowie neue Cloud-Funktionen für Coding-Agenten und den KI-Assistenten Le Chat vorgestellt.

vorlesen Druckansicht 2 Kommentare lesen
Das Mistral AI-Logo erscheint auf dem Bildschirm eines Smartphones.

(Bild: jackpress / Shutterstock.com)

Lesezeit: 3 Min.
Inhaltsverzeichnis
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Ein agentischer Chatbot, KI-Coding in der Cloud und ein starkes neues Open-Weights-Modell: Das französische KI-Start-up Mistral hat gleich drei Neuigkeiten vorgestellt. Im Mittelpunkt steht das neue Sprachmodell Mistral Medium 3.5, das im Selbst-Hosting bereits mit nur vier GPUs betrieben werden kann.

Mistral Medium 3.5 ist ein Modell mit 128 Milliarden Parametern mit einem Kontextfenster von 256.000 Token, das Instruktionsbefolgung, Reasoning und Coding in einem einzigen Modell vereint. Das Besondere daran: Der Rechenaufwand für das Reasoning lässt sich pro Anfrage konfigurieren, sodass dasselbe Modell sowohl eine schnelle Chat-Antwort liefern als auch komplexe Agentenaufgaben durcharbeiten kann. Mistral Medium 3.5 ist damit der Nachfolger einer wachsenden Modellfamilie: Mit Mistral 3 hatte das Unternehmen Ende 2025 vier neue Modelle vorgestellt, die es mit US- und China-Konkurrenz aufnehmen sollten.

Das Modell ersetzt Devstral 2 im Vibe-CLI und wird zudem zum neuen Standardmodell in Le Chat, dem KI-Assistenten von Mistral. Mistral baut dabei auf einem Framework zur Entwicklung von KI-Agenten auf, das das Unternehmen bereits im vergangenen Jahr vorgestellt hatte. Die Gewichte werden unter einer modifizierten MIT-Lizenz als Open Weights auf Hugging Face veröffentlicht. Über die API kostet das Modell 1,50 US-Dollar pro Million Eingabe-Token und 7,50 US-Dollar pro Million Ausgabe-Token. Zum Vergleich: DeepSeek-V4 kostet in der Pro-Variante 1,74 US-Dollar pro Million Eingabe-Token – liegt damit in ähnlicher Preisklasse, bietet aber ein deutlich größeres Kontextfenster.

Videos by heise

Mistral positioniert das Modell vor allem für Kunden, die europäische Datensouveränität, niedrige API-Kosten und die Option auf Selbst-Hosting über die reine Benchmarkleistung stellen. Um diese Infrastruktur langfristig in Europa zu sichern, investiert Mistral massiv: Das Unternehmen nimmt 830 Millionen US-Dollar Kredit für ein Rechenzentrum nahe Paris auf.

Bislang liefen Coding-Agenten wie Vibe ausschließlich lokal. Das ändert sich nun: Sessions können in der Cloud laufen, mehrere parallel, und benachrichtigen den Nutzer, wenn sie fertig sind. Laufende lokale CLI-Sessions lassen sich dabei in die Cloud „teleportieren“, samt Sitzungsverlauf, Aufgabenstatus und ausstehenden Genehmigungen. Damit können Nutzer fließend zwischen lokaler Bearbeitung und Cloud wechseln.

Jede Coding-Session läuft in einer isolierten Sandbox. Ist die Arbeit erledigt, kann der Agent automatisch einen Pull-Request auf GitHub öffnen und den Entwickler benachrichtigen – sodass dieser nur noch das Ergebnis überprüft, nicht jeden einzelnen Schritt.

Neu ist außerdem ein „Work Mode“ für den Le-Chat-Assistenten. Der Modus ermöglicht es dem Agenten, mehrere Tools gleichzeitig zu nutzen und komplexe, mehrstufige Aufgaben vollständig abzuarbeiten – etwa E-Mails und Kalender in einem Durchlauf zu überblicken, Recherchen über Web und interne Dokumente zu kombinieren oder Zusammenfassungen direkt in Slack zu senden.

Jeder Tool-Aufruf und die zugehörige Reasoning-Begründung sollen dabei sichtbar bleiben. Bei Aktionen wie dem Versenden einer Nachricht oder dem Ändern von Daten fragt der Agent explizit um Erlaubnis.

(mki)