ChatGPT-4-Konkurrent aus China: DeepSeek V2 ist Open Source
ChatGPT bekommt Konkurrenz aus China. DeepSeek schaltet seinen KI-Chat frei. Der chinesische Anbieter wirbt mit Open Source, stellt SDKs und APIs bereit.
Bislang beglückte uns vorwiegend KI-Software aus den USA. Jüngst ist mit DeepSeek-V2 Alpha ein öffentlicher KI-Chat ins Rennen gegangen, der wie ChatGPT auf normalsprachliche Eingaben Antworten gibt. Der Zeithorizont reicht nach unseren Versuchen bis ins Jahr 2023, er wurde also mit Trainingsmaterial bis zum Jahr 2023 trainiert. Bei bestimmten Fragen agierte es bei unseren Versuchen unwillig, etwa bei Fragen ums Tianmen-Massaker. Auch andere Fragen, die Weltpolitik betreffend, wurden bei unseren ersten Tests aus klar chinesischer Perspektive beantwortet.
Der KI-Chat DeepSeek befindet sich im Alphastadium und ist der für Endnutzer wohl zugänglichste Teil des DeepSeek-VL-Universums. Das ist eine Reihe von multimodalen großen Sprachmodellen, die von DeepSeek-AI aus der chinesischen Metropole Huangzhou entwickelt wurden. Die Firma ist erst 2023 gegründet worden.
Objekterkennung in Bildern
Die Modelle können sowohl visuelle als auch sprachliche Informationen in Screenshots, PDFs, aus Scans, Grafiken und Texte verarbeiten. DeepSeek-VL zeigte in einigen Demo-Fällen bereits interessante Leistungen in visuell-zentrierten Szenarien. So konnte die KI aus einem komplizierten Bild erkennen, ob sich ein bestimmtes, in Textform benanntes, Objekt links oder rechts von einem kaum zu erkennenden Fahrrad befindet.
Der DeepSeek-Chat kann indes nur Text. Auch Referenzen auf andere Websites, etwa fürs Übersetzen und Zusammenfassen bestimmter Passagen daraus überfordern die KI derzeit noch.
Die DeepSeek-Nutzungsbedingungen offenbaren, dass es sich bei dem Unterbau auf Transformer stützt und dass DeepSeek mit PyTorch trainiert wurde. Im Vergleich zu ChatGPT-4 schneidet DeepSeek-V2 nach unserem ersten Eindruck noch etwas schlechter ab. Die DeepSeek-Modelle sind allerdings Open Source und derzeit auf GitHub und HuggingFace verfügbar. DeepSeek-AI plant, DeepSeek-VL weiter zu skalieren und MoE-Architekturen (MoE = Mixture of Experts) zu integrieren. DeepSeek bietet für Programmierer SDKs und APIs an. Letzteres ist OpenAI-kompatibel.
Lesen Sie auch
iX-Workshop: Große Sprachmodelle (LLM) entwickeln und im Unternehmen einsetzen
iX-Workshop: Große Sprachmodelle (LLM) entwickeln und im Unternehmen einsetzen
iX-Workshop: Große Sprachmodelle (LLM) entwickeln und im Unternehmen einsetzen
PyTorch: Eigene Bildgenerierungs-KI mit Python bauen
Wie Sie mit PyTorch ein neuronales Netz trainieren
(mil)