DeepSeek eine Woche lang getestet
DeepSeek wirft Fragen auf: Kann eine KI ohne teure Rechenzentren mit OpenAI konkurrieren? c't 3003 hat sich die neuen Sprachmodelle genauer angeschaut.

Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
- Jan-Keno Janssen
DeepSeek sorgt für Wirbel in der KI-Welt: Das neue Sprachmodell der chinesischen Firma soll konkurrenzfähig zu OpenAIs Reasoning-Modell o1 sein und wurde offenbar für einen Bruchteil der Kosten entwickelt. Während US-Firmen auf immense Rechenpower setzen, will DeepSeek durch effiziente Architektur punkten. Doch der "Open-Source"-Ansatz ist nicht wirklich Open-Source, außerdem gibt es politische Zensur.
Transkript des Videos
(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)
Guckt mal hier, das ist DeepSeek. Dieser ziemlich unscheinbare "Open-Source"-Chatbot lässt gerade alle ziemlich durchdrehen. Habt ihr vermutlich schon mitgekriegt, wenn ihr in den letzten Tagen mal ins Internet geguckt habt. Ja, und warum die Leute durchdrehen, ist einmal, weil das Ding besser sein soll als der aktuelle Marktführer ChatGPT von OpenAI, aber auch, weil DeepSeek offen ist, das heißt, man kann sich das einfach runterladen und auf eigene Hardware laufen lassen, und weil es deutlich günstiger trainiert worden ist als die großen US-Sprachmodelle. Das Resultat: Die Aktienkurse der US-Tech-Firmen sind stark gefallen, weil offenbar die bislang landläufig akzeptierte Story nicht mehr stimmt. Also dieses: Um KI voranzutreiben, brauchen wir immer mehr Rechenpower, immer dickere Server, immer größere Rechenzentren. Also, das scheint nicht mehr zu stimmen. In diesem Video gucken wir uns mal ganz genau an, was an diesem Hype dran ist, ob das Ding wirklich besser ist als ChatGPT. Also, wie DeepSeek es offenbar mit so wenig Ressourcen geschafft hat, die großen KI-Anbieter alt aussehen zu lassen. Und es gibt auch noch ein paar problematische Dinge, die ihr wissen solltet, bevor ihr DeepSeek ausprobiert. Bleibt dran!
Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei …
Ja, also ganz ehrlich, als Anfang der Woche auf einmal alle angefangen haben, ĂĽber DeepSeek zu reden, war mein erster Impuls: "Ja, okay, dem KI-Hype-Train ist in den letzten Monaten ein bisschen der Dampf ausgegangen, und jetzt wird auf Krampf wieder irgendwas gesucht, was so hochgepusht werden kann." Aber von solchen GefĂĽhlen lassen wir uns natĂĽrlich nicht leiten. Deshalb haben mein Kollege Lukas und ich DeepSeek wirklich sehr intensiv getestet. Und schon mal vorab: Ja, der Hype ist auf jeden Fall mehr als heiĂźe Luft. Auf jeden Fall ist da was dran. Und wir fangen jetzt mal mit den Basics an. Was ist denn ĂĽberhaupt DeepSeek? Also, DeepSeek ist ein System, das sich auf jeden Fall in der Zeit des Hypes befindet, und DeepSeek ist ein KI-Startup aus dem chinesischen Hangzhou. Das gilt so ein bisschen als das Silicon Valley Chinas. Ja, und finanziert wird die Firma von dem Hedgefonds Highflyer, ebenfalls aus China. Und DeepSeek arbeitet an offenen KI-Modellen, verkauft aber auch den Zugang zu den Modellen. Also eigentlich alles ziemlich genau wie OpenAI, nur dass OpenAI ihre Modelle eben nicht frei zum Herunterladen zur VerfĂĽgung stellt.
Jetzt kurz mal, warum ich nicht so wie viele andere Open-Source sage bei DeepSeek. Weil DeepSeek zwar die Weight-Daten, also die Sprachmodelldaten, zur Verfügung stellt, also so, dass man die KI selbst lokal laufen lassen kann, aber sie sagen halt nicht, was genau die Trainingsdaten sind und was in den Trainingsdaten drin ist. Und eigentlich würde ich das bei wirklichem Open-Source erwarten, dass man auch Zugriff auf die Trainingsdaten hat. Hat man nicht. Ja, aber natürlich trotzdem deutlich offener als zum Beispiel die Sachen von OpenAI. Und obwohl das erste KI-Modell von DeepSeek namens DeepSeek schon im November 2023 rauskam, ist der Hype jetzt erst losgegangen. Und zwar ausgelöst durch das Modell DeepSeek R1. Ja, okay, ich merke gerade schon, das ist alles ziemlich verwirrend mit den Namen. Also ich versuche nochmal einfacher anzufangen. Also es gibt in der Welt der großen Sprachmodelle aktuell zwei wichtige Darreichungsformen. Einmal die normalen Modelle, die einfach schnell und direkt eure Fragen beantworten. Und einmal sogenannte Reasoning-Modelle, die diskutieren quasi mit sich selbst, bevor sie antworten, bzw. gehen ihre Denkschritte noch mal systematisch durch. Dadurch sind die besser für komplexere Aufgaben geeignet, also zum Beispiel Sachen im mathematischen Bereich. Der Nachteil ist, sie arbeiten viel langsamer als normale Modelle, brauchen mehr Rechenleistung und sind deshalb teurer in der Anwendung. Bei OpenAI heißt das normale aktuelle Modell GPT-4o und das Reasoning-Modell o1. Und also allein dafür hat sich OpenAI schon mindestens mal so viel Mühe gemacht, dass man sich nicht so einen bösen Blick von mir verdient. Weil was? 4o und o1? Und das eine soll... wie soll man denn das unterscheiden? Und als finales Doof haben sie dann den Nachfolger von o1 einfach mal O3 genannt. Das weiß man ja, nach 1 kommt ja 3. Ja und DeepSeek macht es jetzt leider auch nicht unbedingt viel besser. Da heißt das normale Modell DeepSeek V3 und das Reasoning-Modell DeepSeek R1. Und wenn man diese beiden Modelle nutzen will, dann kann man einfach auf chat.deepseek.com gehen. Sich da einen Account erstellen und das Ganze dann kostenlos verwenden. Anders als bei ChatGPT braucht man hier übrigens keine Handynummer angeben. Die Mailadresse reicht oder man kann sich auch über Google anmelden. Und natürlich ganz anders als bei ChatGPT, bei DeepSeek kann man sich die Modelle auch runterladen und lokal laufen lassen. Weil alles unter der MIT-Lizenz. Man kann die also sogar kommerziell nutzen, wenn man das will. Aber, aber, aber, aber will man das in der Qualität haben, wie das auf DeepSeek.com läuft, braucht man extrem viel Hardware. Also zum Beispiel 16 Nvidia H100 mit jeweils 80 GB. Die kosten mindestens 30.000 € das Stück. Ja, denn sowohl DeepSeek V3 als auch R1 haben jeweils über 600 Milliarden Parameter. Da braucht man auch erstmal den Speicher für. Ja und es gibt so runtergedummte Varianten, sogenannte destillierte Modelle, die auch auf Consumer-Hardware laufen. Aber ja, die haben mit den großen Modellen nicht mehr so richtig viel zu tun. Ehrlich gesagt nervt mich das auch ein bisschen, dass ich ständig höre: "Oh, ich habe DeepSeek auf meinem Raspi ausprobiert, ist viel schlechter als ChatGPT." Ja, kein Wunder, weil diese kleinen DeepSeek-Varianten eben deutlich schlechtere Qualität liefern als das echte große Modell.
Ein Beispiel: Ich habe hier mal die recht populäre 7B, also 7 Milliarden Parameter, QN-Version von DeepSeek im LM-Studio lokal laufen lassen und nach Hannover-Ausflugstipps gefragt. Und ich meine, das Ding klingt ernsthaft, als sei es komplett betrunken. Die Galerie mit dem nonchalanten Eingang. "Der Eingang ist so geil, dass du nicht glaubst, dass die Bilder wirklich so geil sind." Also, es hat das wirklich ausgegeben als Ausflugstipp. Und dass irgendwas so geil ist, dass du nicht glaubst, wie geil das ist, das ist so eine Sprachfigur, die kommt in fast allen diesen Beschreibungstexten vor. Also hinter jedem Tipp immer so: "Das ist so geil, dass du nicht glaubst, wie geil das ist." Und das Ding denkt sich auch einfach Wörter aus, wie zum Beispiel "artristisch" oder "samtische Samti-Meinung". Hm, okay, okay. Also interessant, aber nicht unbedingt. Deshalb gucken wir uns DeepSeek jetzt mal da an, wo es wohl auch die meisten Leute tun: Auf der Website oder in der App. Beide, wie gesagt, kostenlos. Ach so, ja, und um nochmal den Hype deutlich zu machen: DeepSeek ist sowohl im Apple- als auch im Google-App-Store, zu dem Zeitpunkt, wo ich hier das Video aufnehme, die meist heruntergeladene App. Die Oberfläche von DeepSeek ist erstmal relativ schlicht gehalten. Vor allem hier mal im Vergleich zu ChatGPT oder Perplexity. Bis auf einen Hinweis zur App, die genauso aussieht wie die Website, gibt es hier nur eine Übersicht der letzten Chats und das Textfeld hier. Da kann ich dann einstellen, ob ich das Reasoning-Modell R1 und/oder die Websuche noch zuschalten will. Ansonsten wird standardmäßig das Modell V3 verwendet. DeepSeek kann zwar Uploads verarbeiten, allerdings nur den Text daraus. Also Texte extrahiert das Ding dann aus dem PDF oder von Bildern, die mit dem Smartphone gemacht wurden. Also, wenn man zum Beispiel eine fremdsprachige Speisekarte fotografiert oder so. Und das funktioniert dann auch soweit gut. Ich habe dann mehrere PDFs hochgeladen und alle Fragen dazu wurden richtig beantwortet. Das gilt aber wirklich nur für Text. Bilder in den PDFs konnte DeepSeek zum Zeitpunkt des Tests nicht verarbeiten. Ja und die Modelle V3 und R1 sind halt auch einfach nicht multimodal. Die können also keine Bilder, Töne und Videos gleichzeitig verarbeiten.
Und jetzt, darauf habt ihr wahrscheinlich gewartet, der Vergleich zu ChatGPT. Also als reiner Text-Chatbot ist DeepSeek sehr, sehr gut. Es macht einfach sehr zuverlässig genau das, was man will, wenn man bei ChatGPT oder auch Claude von Anthropic manchmal das Gefühl hat, man muss irgendwie so ein bockiges Kind überreden. Konkretes Beispiel von mir: Ich wollte neulich das Transkript unseres Waymo-Videos Korrektur lesen lassen. Also das Transkript war von Whisper erzeugt worden und das war einfach nur so ein Wall of Text und da wollte ich was Lesbares draus machen. Wollte das also Korrektur lesen und vor allem sinnvolle Absätze da einfügen. Das Transkript hatte 4300 Wörter, was jetzt also nicht so immens riesig ist. Ja und sowohl ChatGPT als auch Claude haben immer nur einen Teil des Textes ausgegeben. Und immer wieder habe ich gesagt: Mach bitte weiter, bitte gib mir den kompletten Text. Ich kann damit nichts anfangen, wenn du mir nur das erste Viertel gibst. Und dann immer so: Ja klar, mach ich. Aber dann kam trotzdem immer nur maximal die erste Hälfte. Bei ChatGPT habe ich übrigens sogar die Bezahlversion genutzt, die über 20 Euro im Monat kostet. Und ich habe das über 10 Mal versucht. Immer wieder gesagt: Gib mir bitte den ganzen Text. Hallo, bitte, ich werde langsam richtig sauer. Und auch nach 10 Versuchen hatte ich den Text nicht. Aber jetzt bei DeepSeek: Einfach Text rein, erster Versuch, zack, der komplette Text. Auch wenn ich mit so Coding-Zeug rumexperimentiert habe. Dann versuchen die anderen Chatbots immer erst mal, mir das Ganze so theoretisch zu verkaufen. So und so kannst du das machen, hier mit Python und ddd. Ich muss dann aber immer sagen: Gib mir doch bitte den Code. Ich will einfach den Code haben. DeepSeek gibt sofort den kompletten Code aus. Und erstaunlicherweise auch sogar, wenn ich irgendwie so kleine Veränderungen haben wollte. Bei anderen Fahrtnamen oder so. Dann hat er mir wirklich den kompletten Code wiedergegeben. Während bei den anderen Systemen immer nur die eine Zeile ausgetauscht wurde. Wenn man so schnell Copy-Pasten will, ist das natürlich ziemlich praktisch mit DeepSeek. Also allgemein kann ich sagen: Bei DeepSeek hat man nicht das Gefühl, wie bei den anderen Chatbots manchmal, dass man ständig gegen so eine Verweigerungshaltung ankämpfen muss. Ja und hier bei meinen LLM-Standard-Fragen würde ich sagen, dass DeepSeek auch definitiv auf dem Niveau der Konkurrenz ist. Hier der obligatorische Witz. In dem Martin Luther, ein Schokokuchen und ein Raspberry Pi vorkommen. Martin Luther, ein Schokoladenkuchen und ein Raspberry Pi gehen in eine Bar. Der Barkeeper schaut sie verwirrt an und fragt: "Was soll das denn werden?" Martin Luther antwortet: "Eine Reformation der Nachspeisen." Der Schokoladenkuchen meint: "Ich bin hier, um die Sünde der Kalorien zu vergeben." Und der Raspberry Pi fügt hinzu: "Und ich programmiere das Dessert so, dass es sich selbst aufisst." Der Barkeeper seufzt. "Das klingt nach einem himmlischen Fehler 404. Humor nicht gefunden." Bei meiner Hannover-Ausflugstipp-Frage kamen ganz okaye Antworten, aber auch einige Halluzinationen. Ist aber auch fies, weil ich halt explizit gebeten habe, dass das keine Standardtipps aus Reiseführern sein sollen. Das ist halt fies, weil die Teile dann halt anfangen, sich irgendwas aus den Rippen zu leiern, also zu halluzinieren. Also zum Beispiel behauptet DeepSeek, man muss diskret im Café Conrad nach Zugang zu den Tunneln fragen und dann kann man einfach so reingehen. Aber generell fand ich die DeepSeek-Antworten auch trotz Halluzinationen nicht schlechter als bei ChatGPT. Da gibt es nämlich auch nach wie vor Halluzinationen bei der Frage. Das einzige mir aktuell bekannte KI-Produkt, was die Frage nach 20 Hannover-Tipps, die nicht im Reiseführer stehen, ohne Halluzinationen beantwortet, ist interessanterweise Perplexity. Ja, und jetzt noch zur Geschwindigkeit von DeepSeek. Ich würde sagen, unspektakulär. Die Geschwindigkeit ist völlig okay und liegt so ziemlich gleich auf mit der Konkurrenz. Also je nach Serverform sozusagen fällt jetzt nicht als besonders langsam oder als besonders schnell auf. Zumindest beim normalen V3-Modell, beim R1-Modell gab es immer wieder Wartezeiten oder Anfragen funktionierten gar nicht. Das ist im Test bei V3 allerdings auch manchmal passiert. DeepSeek sagt, sie wurden in der Zeit angegriffen, gehackt. Ich weiß nicht, ob sie einfach überlastet waren, das muss man mal im Auge behalten. Auf jeden Fall kann man im Gegensatz zu ChatGPT oder Claude bei DeepSeek zurzeit auch noch kein bezahltes Abo abschließen, um dann priorisierten Zugang zu haben. Muss man also geduldig sein.
Ja, und nicht nur bei unserem Test schneidet DeepSeek gut ab, sondern auch in sehr vielen anderen Benchmarks und oft auch besser als GPT-4o und Claude 3.5. Und auch hier in der LLM-Arena, wo echte Menschen die Qualität der Antworten bewerten, ohne zu wissen, von welchem LLM die kommen. Also da fragt man was und dann kriegt man zwei Antworten von unterschiedlichen LLMs und dann klickt man da an, was einem besser gefällt. Und auch da steht DeepSeek sehr weit oben und auch vor vielen großen kommerziellen Produkten. So, jetzt aber zu den Problemen. Die gibt es nämlich leider auch. Der Wahrheitsgehalt oder die Präzision, die hört dann nämlich spätestens bei Fragen zu China und dem dortigen politischen System auf. Da ist DeepSeek nämlich voll auf Regierungskurs und redet zum Beispiel die Ordnung, die sie in den letzten Jahren verfolgt hat, nicht nur über die Qualität, sondern auch über die Quantität. Und das ist auch ein bisschen das Problem, weil es ja auch ein bisschen so ist, dass die objektiv schlechtere Pressefreiheit in China im Vergleich zu Deutschland schön ist. Aber so richtig mit historischem Kontext und so. Meistens bricht es aber solche Gespräche auch einfach ab. Und das sogar bei sehr harmlosen Fragen zum politischen System in China. Entschuldigung, das liegt außerhalb meines aktuellen Wissensbereichs. Lass uns doch bitte über was anderes sprechen. Interessant auch, dass man sieht, dass die Antwort eigentlich gegeben wird. Also DeepSeek fängt an zu antworten und dann auf einmal schaltet es um auf diese Fehlermeldung. Und bei so Logik-Aufgaben hat DeepSeek V3 noch Probleme, weil es die manchmal lösen möchte, obwohl das einfach nicht möglich ist. Hier habe ich zum Beispiel gefragt, wie man mit einem 3- und einem 5-Liter-Behälter genau 6,5 Liter Wasser abmessen kann. Das ist nicht möglich, ohne zusätzliche Hilfsmittel jedenfalls. Diesen Fakt ignoriert DeepSeek aber einfach und löst die Aufgabe irgendwie. DeepSeek akzeptiert dann zwar, dass es falsch ist, aber macht das Gleiche in einem neuen Chat-Fenster direkt wieder. Eine Memory-Funktion wie ChatGPT hat DeepSeek ohnehin nicht. Also dass es sich irgendwas merkt, dass es sagt: "Bitte sprich mich immer mit King Dingeling an." Das gibt es nicht. Das Reasoning-Modell sollte diese Frage aber auf jeden Fall richtig beantworten können. Allerdings ist DeepSeek hier noch ein bisschen verbuggt. Statt einfach zu schreiben "geht nicht", hängt er da eine Schleife fest und überlegt immer weiter und immer weiter nach Lösungen. Und das ging tatsächlich 30 Minuten so, bis ich das Tab dann geschlossen habe. OpenAI o1 braucht zwar dafür auch etwas länger, antwortet dann aber richtig. Aber wenn man die beiden Modelle in Perplexity ausmacht, dann wird relativ schnell die richtige Antwort gegeben. Das scheint also eher ein Bug von DeepSeek.com zu sein, als wirklich ein grundlegendes Problem im R1-Modell. Ja, genau, also Perplexity hat DeepSeek R1 schon integriert und da steht das als Alternative zur OpenAI o1 zur Auswahl. Und im Gegensatz zum Chatbot oder der API von DeepSeek wird das hier nicht in China, sondern in den USA gehostet. Und vielleicht zukünftig auch irgendwann in der EU. Der größte Vorteil der Perplexity-Integration ist, dass das R1-Modell hier zuverlässig funktioniert und nicht ständig Serverüberlastungen anzeigt. Und hier waren die Antworten mit DeepSeek R1 und OpenAI o1 häufig sehr vergleichbar. Und auch das Problem mit der Zensur ist hier weniger zu sehen. Auf meine Frage zur Pressefreiheit in China hat DeepSeek in Perplexity immer Antworten mit seriösen Quellen angezeigt. Hier waren die Antworten von DeepSeek auf jeden Fall auf dem gleichen Niveau wie die von OpenAI. Ja, und auf DeepSeek.com in dem R1-Reasoning-Modell waren diese politischen Fragen auch nicht so gerne gesehen. Da versucht R1 zwar die Frage zu beantworten, also man sieht das hier auch ganz deutlich in den einzelnen Denkschritten, aber kurz vor Ende bricht er dann halt ab und sagt: "Sorry, ich weiß jetzt nicht, wie ich da weitermachen soll. Lass uns mal lieber über Mathe reden." Ja, so.
Und jetzt habe ich ganz viel über die Praxis gesprochen, also was ihr mit DeepSeek so anstellen könnt. Aber ich will auch noch mal ganz kurz sagen: Ich möchte euch kurz anreißen, warum jetzt genau gerade die Aktienkurse der US-Tech-Firmen so crashen. Also, DeepSeek, haben wir gerade festgestellt, ist mindestens gleich auf mit den LLMs von OpenAI. Aber laut den Machern hat das Training von DeepSeek V3 nur 5,5 Millionen US-Dollar gekostet. Deutlich weniger als andere State-of-the-Art-Modelle, wo man von dreistelligen Millionenbeträgen ausgeht, mit steigender Tendenz, je komplexer die werden. Also immer fetteren Servern. Und das ist auch nicht so, dass man mit den neuen Chip-Export-Beschränkungen einfach die neuesten Nvidia-GPUs einkauft. Laut eigenen Angaben besitzt DeepSeek nur einen Cluster mit 2048 vergleichsweise schwachen H800-GPUs von Nvidia. Allerdings gibt es Leute, die daran zweifeln. Zum Beispiel Alexander Wang, der CEO von ScaleAI. Der sagt, DeepSeek hat 50.000 H100-GPUs irgendwie besorgt. Keine Ahnung, wo die Info herkommt. Da ist nämlich die Rede von Hopper-GPUs. Aber die H800er, also die DeepSeek offiziell zugibt, sind auch Hopper-GPUs. Halt nur mit stark gedrosselter Nvlink-Interconnect-Bandbreite wegen der US-Sanktionen. Aber dieser ganze Tech-Bubble-Klatsch und -Tratsch, würde ich es mal nennen, ist ja auch eigentlich egal, weil man auf jeden Fall eins festhalten kann: DeepSeek ist nach aktuellen Erkenntnissen immens viel effizienter als die US-Konkurrenz. Also sowohl beim Training als auch bei der Inferenz. Also dem Abrufen von Informationen braucht das deutlich weniger Ressourcen. Ich kann da jetzt nicht so krass ins Detail gehen, weil ich jetzt hier nicht der große Super-LLM-Experte bin. Aber auf jeden Fall ist eine der Hauptinnovationen von DeepSeek die Mixture-of-Experts-Architektur. Haben wir in der Vergangenheit schon ein paar Mal gesehen. Aber DeepSeek macht es extrem gut. Dadurch kann das System von den 671 Milliarden Parametern immer nur die aktivieren, die gerade benötigt werden. Also wenn ich mit dem Chatbot über Gurken diskutieren will, dann kann das Mathe-Experten-Modul ausgeschaltet bleiben. Und das spart natürlich Ressourcen. Und auch sonst haben die DeepSeek-Forscher sehr viel optimiert, um mit möglichst wenig Hardware auszukommen. Und das ist ja schon mal was ganz anderes, als das, was die US-KI-Firmen schon die ganze Zeit sagen. Die sagen halt: "Ja, leider steigen die Hardwarekosten exponentiell." "Und wenn wir AGI, also allgemeine künstliche Intelligenz, erreichen wollen, müssen wir halt in wahnsinnig riesige Rechenzentren investieren." "Und in Kraftwerke." "Und in den USA haben sie ja auch dieses Stargate-Projekt angekündigt." "Da sollen ja 500 Milliarden US-Dollar in KI-Infrastruktur investiert werden." Okay, DeepSeek zeigt jetzt: Es gibt auch noch einen anderen Weg, aktuelle KI zu verbessern, als mit hoher Gewalt. Nämlich mit cleveren Optimierungen. Und das ist offenbar der Grund, warum die Aktienkurse der ganzen US-Tech-Unternehmen gefallen sind. Auch wenn das wahrscheinlich nur eine Momentaufnahme ist. Müssen wir mal gucken.
Fazit
Mit DeepSeek gibt es jetzt erstmal KI-Modelle, die man theoretisch lokal laufen lassen kann, die mit den großen kommerziellen Systemen von OpenAI, Google oder Anthropic wirklich komplett mithalten können oder die sogar besser sind. Es gab die ganzen Lama-basierten Modelle von Meta, die sind auch schon ganz gut. Aber wirklich State-of-the-Art ganz oben, wenn man wirklich gute Qualität haben wollte, dann musste man immer noch die kommerziellen Anbieter nehmen. Das hat sich jetzt wirklich verändert. Und das ist jetzt mal ganz ohne Politik gesehen eine gute Nachricht für die Welt. Weil der Zugang zu Leistungsfähigkeit mit DeepSeek ein ganzes Stück einfacher geworden ist. Und natürlich preisgünstiger. Weil auch die API-Kosten, also wenn man jetzt DeepSeek bezahlen will, um da über eine API drauf zuzugreifen, das ist alles viel, viel günstiger als zum Beispiel bei OpenAI. Und man kann es natürlich auch selber laufen lassen, wenn man die Hardware hat. Und was ich natürlich auch gut finde: Wir wissen jetzt, dass man mit wahrscheinlich vergleichsweise wenig Ressourcen, aber cleveren Leuten, dem geballten Kapital der Tech-Wirtschaft in den USA Paroli bieten kann. Und dass vielleicht auch hier in Europa große KI-Innovationen möglich sind, ohne halt Zugang zu den großen GPU-Clustern der Tech-Giganten zu haben.
Aber es gibt natürlich nicht nur Licht, sondern auch Schatten über Politik. Vor allem über China sollte man sich mit DeepSeek nicht unterhalten. Also es sei denn, man interessiert sich für den spezifisch chinesischen Blick auf die Welt. Außerdem muss man bedenken, dass die beim Benutzen anfallenden Daten auf chinesischen Servern landen. Also zumindest, wenn man deepseek.com, oder eben die App benutzt. Aber das gilt natürlich auch für die USA, wenn man amerikanische LLMs benutzt. Muss man sich überlegen: Ist einem das lieber, dass die Daten in China landen oder in den USA? Aber ich gebe jetzt einfach mal eine Prognose ab: Es wird demnächst bestimmt Angebote geben, um die DeepSeek-Modelle auch auf europäischen Servern zu verwenden. Weil die sind ja offen zugänglich, die Sachen kann man runterladen und selbst hosten. Und ich kann mir sehr gut vorstellen, dass europäische Firmen das anbieten werden. Ach so, und weil jetzt gerade durch die Medien geistert, dass OpenAI und Microsoft Untersuchungen einleiten, weil sie angeblich Hinweise hätten, dass DeepSeek mit Outputs von OpenAI-LLMs trainiert wurde, was gegen die Nutzungsbedingungen verstoßen würde. Ja gut, ich bin kein Jurist, weiß ich nicht, ob man KI-Ausgaben tatsächlich schützen kann, aber auf alle Fälle gibt es ja genauso Hinweise, dass OpenAI ihre Modelle mit urheberrechtlich geschützten Inhalten trainiert hat. Womöglich mit Texten von mir, die ich für die c’t geschrieben habe. Also, OpenAI, checkt mal eure Doppelmoral.
Jetzt interessiert mich aber, ganz ehrlich, eure Meinung zu dem Thema, damit ich hier mal ein GefĂĽhl kriege fĂĽr eure KI-Nutzung. Also, bitte in die Kommentare schreiben, was ihr von dem ganzen Kuddelmuddel haltet. Habt ihr DeepSeek mal ausprobiert? Gerne in die Kommentare schreiben und natĂĽrlich gerne abonnieren. Ach ja, ich wollte noch was zu dem multimodalen DeepSeek-Modell namens Janus Pro 7B sagen. Da muss ich gar nicht so ins Detail. Das kann zurzeit gar nicht mit OpenAI mithalten. Die generierten Bilder sind nicht sonderlich gut. Und auch die Bilderkennung ist eher so naja. TschĂĽss.
c't 3003 ist der YouTube-Channel von c't. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.
(jkj)