ChatGPT-4-Konkurrent aus China: DeepSeek V2 ist Open Source

ChatGPT bekommt Konkurrenz aus China. DeepSeek schaltet seinen KI-Chat frei. Der chinesische Anbieter wirbt mit Open Source, stellt SDKs und APIs bereit.

In Pocket speichern vorlesen Druckansicht 43 Kommentare lesen
KI Symbol
Lesezeit: 2 Min.
Von
  • Michael Link

Bislang beglückte uns vorwiegend KI-Software aus den USA. Jüngst ist mit DeepSeek-V2 Alpha ein öffentlicher KI-Chat ins Rennen gegangen, der wie ChatGPT auf normalsprachliche Eingaben Antworten gibt. Der Zeithorizont reicht nach unseren Versuchen bis ins Jahr 2023, er wurde also mit Trainingsmaterial bis zum Jahr 2023 trainiert. Bei bestimmten Fragen agierte es bei unseren Versuchen unwillig, etwa bei Fragen ums Tianmen-Massaker. Auch andere Fragen, die Weltpolitik betreffend, wurden bei unseren ersten Tests aus klar chinesischer Perspektive beantwortet.

Den KI-Chat DeepSeek-V2 kann man vieles fragen, doch die chinesische KI beantwortet einiges zurückhaltend beziehungsweise aus chinesischer Perspektive.

Der KI-Chat DeepSeek befindet sich im Alphastadium und ist der für Endnutzer wohl zugänglichste Teil des DeepSeek-VL-Universums. Das ist eine Reihe von multimodalen großen Sprachmodellen, die von DeepSeek-AI aus der chinesischen Metropole Huangzhou entwickelt wurden. Die Firma ist erst 2023 gegründet worden.

Die Modelle können sowohl visuelle als auch sprachliche Informationen in Screenshots, PDFs, aus Scans, Grafiken und Texte verarbeiten. DeepSeek-VL zeigte in einigen Demo-Fällen bereits interessante Leistungen in visuell-zentrierten Szenarien. So konnte die KI aus einem komplizierten Bild erkennen, ob sich ein bestimmtes, in Textform benanntes, Objekt links oder rechts von einem kaum zu erkennenden Fahrrad befindet.

DeepSeek-VL kann zu einem hochgeladenen Foto Fragen beantworten und erkennt beispielsweise, wo sich Objekte relativ zu anderen befinden.

Der DeepSeek-Chat kann indes nur Text. Auch Referenzen auf andere Websites, etwa fürs Übersetzen und Zusammenfassen bestimmter Passagen daraus überfordern die KI derzeit noch.

Die DeepSeek-Nutzungsbedingungen offenbaren, dass es sich bei dem Unterbau auf Transformer stützt und dass DeepSeek mit PyTorch trainiert wurde. Im Vergleich zu ChatGPT-4 schneidet DeepSeek-V2 nach unserem ersten Eindruck noch etwas schlechter ab. Die DeepSeek-Modelle sind allerdings Open Source und derzeit auf GitHub und HuggingFace verfügbar. DeepSeek-AI plant, DeepSeek-VL weiter zu skalieren und MoE-Architekturen (MoE = Mixture of Experts) zu integrieren. DeepSeek bietet für Programmierer SDKs und APIs an. Letzteres ist OpenAI-kompatibel.

(mil)