KI-Update kompakt: Microsoft vs. DeepSeek, Anthropic, Meta, Figure AI

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 7 Min.
Von
Inhaltsverzeichnis

Microsofts Geschäftsergebnisse weisen weiterhin ein solides Wachstum in nahezu allen Unternehmensbereichen aus. Insbesondere das Cloud- und KI-Business befindet sich laut Microsoft-CEO Satya Nadella auf einem guten Weg. Für das Gesamtjahr prognostiziert er ein Wachstum der Geschäfte mit Künstlicher Intelligenz (KI) von 175 Prozent. Inzwischen ist auch die KI des chinesischen Unternehmens DeepSeek in Microsofts Azure AI Foundry und über Github verfügbar. Kunden von Microsoft können das Modell R1 dadurch direkt testen und in ihre eigenen Dienste integrieren. DeepSeek R1 sei vor der Integration zahlreichen Sicherheitstests unterzogen worden, sagt Microsoft. Microsoft lobt sogar die Kosteneffektivität von R1, die es mehr Menschen ermögliche, modernste KI-Fähigkeiten bei minimalen Investitionen in die Infrastruktur zu erfahren. Das klingt fast wie ein Seitenhieb gegen das wesentlich kostspieligere OpenAI.

Das ist umso erstaunlicher, weil Microsoft gemeinsam mit OpenAI zugleich untersucht, ob DeepSeek gegen die eigenen Nutzungsbedingungen verstoßen hat. Konkret soll DeepSeek auf unerlaubte Weise auf Daten von OpenAI zugegriffen haben. Dafür sollen sie die API genutzt haben. Microsoft hatte laut Bloomberg im Herbst verdächtige Aktivitäten festgestellt. In OpenAIs Nutzungsbedingungen steht, dass es verboten ist, den Output zu nutzen, um eigene Modelle zu entwickeln, die mit denen von OpenAI konkurrieren. Genau das soll DeepSeek gemacht haben. Dafür spricht, dass DeepSeeks Modelle mehrfach geantwortet haben sollen, dass sie ChatGPT seien. Auch andere Antworten ließen den Schluss zu – etwa Informationen zur Beschränkung des Wissens.

Dario Amodei, CEO des OpenAI-Konkurrenten Anthropic, bringt Klarheit in die aufgeheizte KI-Debatte: Das aktuelle Spitzenmodell Claude 3.5 Sonnet wurde für nur "ein paar zehn Millionen Dollar" entwickelt – weit unter den bisher vermuteten Milliardenkosten. Gerüchte über ein zugrundeliegendes, noch fortschrittlicheres System dementiert er.

Zum vieldiskutierten chinesischen DeepSeek-Modell R1 äußert sich Amodei kritisch: Es reproduziere im Wesentlichen nur bekannte Ansätze. Er erklärt dies mit dem "shifting the curve"-Prinzip: Was heute teuer produziert werden muss, kann in einem Jahr günstiger produziert werden – eine reine Optimierung, keine Innovation. Die eigentliche Innovation sei das Basismodell Deepseek-V3, während R1 dagegen technisch weniger bemerkenswert sei.

Für die Zukunft prognostiziert der Anthropic-CEO einen massiven Technologiebedarf: Die nächste Generation von KI-Systemen werde Millionen von Chips benötigen und könnte 2026/27 menschliche Intelligenz übertreffen. Dabei zeichnet sich ein Paradigmenwechsel ab: Reinforcement Learning wird zum neuen Schwerpunkt der KI-Entwicklung.

Die US-Chipexportkontrollen nach China sieht Amodei als unverzichtbar – sie seien die einzige Barriere zwischen einer unipolaren und einer bipolaren Weltordnung zwischen den USA und China.

Alibaba hat mit Qwen2.5-Max ein KI-Modell vorgestellt, das mit über 20 Billionen Token trainiert wurde. Tech-Gigant Alibaba hat nach den erst kürzlich angekündigten neuen Modellen mit einer Millionen Token großen Kontextfenstern, jetzt Qwen2.5-Max vorgestellt. Zum Vergleich: Konkurrierende Systeme wie DeepSeek-V3 oder Llama 3.1 wurden mit 14 bis 15 Billionen Token trainiert. In Benchmark-Tests schlägt das neue Modell teilweise sogar etablierte Systeme wie GPT-4 oder Claude 3.5.

Neben der gewaltigen Datenmenge setzt Alibaba auch auf bewährte Trainingsmethoden wie Supervised Fine-Tuning und Reinforcement Learning. Woher die riesige Datenmenge stammt, bleibt allerdings unklar – vermutlich spielen synthetische, also von anderen KI-Systemen erzeugte Daten eine wichtige Rolle. Das System ist ab sofort über Alibabas Cloud-API und den hauseigenen Chatbot Qwen Chat verfügbar. Mit einer OpenAI-kompatiblen Schnittstelle und niedrigen Preisen will Alibaba Entwicklerinnen und Entwickler anlocken. Allerdings unterliegt es wie alle chinesischen KI-Modelle der staatlichen Zensur.

Mark Zuckerberg blickt optimistisch in die Zukunft. Ende 2024 nutzten laut Meta 3,3 Milliarden Menschen mindestens einen Meta-Dienst täglich. Der Meta-Platforms-Chef kündigte an, dass Meta den führenden KI-Assistenten betreiben werde. Meta AI erreichte im Dezember bereits 700 Millionen Nutzerinnen und Nutzer. Künftig soll der Dienst die Aktivitäten auf Facebook und Instagram überwachen und sich Dialoge mit Anwendern merken. Aus diesen Daten wird Metas KI personalisierte Antworten generieren.

Die nächste Version des hauseigenen KI-Modells Llama 4 befindet sich bereits im Training und soll die Führungsposition übernehmen. "Llama 4 wird nativ multimodal sein" und verschiedene Medientypen wie Text, Ton, Stand- und Bewegtbilder gemeinsam verarbeiten können. Als "agentic" System wird es eigenständiger arbeiten und besser erschließen, was Nutzer wünschen. Zuckerberg betont: "Wir glauben nicht, dass die Leute alle dieselbe KI verwenden möchten. [...] Leute wollen, dass ihre KI personalisiert auf ihren Kontext, ihre Interessen, ihre Persönlichkeit, ihre Kultur, und wie sie über die Welt denken, zugeschnitten ist." Meta setzt weiterhin auf das Geschäftsmodell Werbung, nun KI-optimiert.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

OpenAI verzeichnet steigende Einnahmen durch das ChatGPT Pro-Abo. Mindestens 25 Millionen Dollar monatlich (300 Millionen jährlich) generiert das kostenpflichtige Angebot. Das Privatkundengeschäft wächst dabei stärker als das Firmenkundengeschäft.

Dennoch schreibt OpenAI rote Zahlen – die intensive Nutzung treibt die Serverkosten in die Höhe, wie CEO Sam Altman einräumt. Für 2025 peilt das Unternehmen einen Gesamtumsatz von zwölf Milliarden Dollar an, davon acht Milliarden durch ChatGPT. Preiserhöhungen erscheinen wahrscheinlich.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Figure AI, deren humanoider Roboter Figure 02 bereits in Unternehmen im Testeinsatz ist, etabliert ein Zentrum fĂĽr Robotersicherheit. Der leitende Sicherheitsingenieur Rob Gruendel kĂĽndigte die Entwicklung von Sicherheitsstandards fĂĽr die Mensch-Roboter-Zusammenarbeit an.

Die Sicherheit hat höchste Priorität, wurde aber bisher wenig systematisch behandelt. Beispielsweise fehlen Notausschalter, die bei industriellen Maschinen Standard sind. Figure AI stellt nun ein Team zusammen, das Sicherheitsstandards entwickelt. Schwerpunkte sind Stabilität, Mensch- und Tiererkennung, KI-Verhaltensweisen und Ausgleichsbewegungen zur Unfallvermeidung. Die gewonnenen Erkenntnisse sollen in Normen und Richtlinien münden, einschließlich spezifischer Zertifizierungen für verschiedene Anwendungsfälle. Figure AI will seine Fortschritte quartalsweise öffentlich dokumentieren.

Der Chef des rheinland-pfälzischen Landeskriminalamts, Mario Germano, warnt vor Missbrauch öffentlicher Audio- und Videodaten durch KI-Technologie. "Ich gebe Videodaten von mir preis, ich gebe Stimmdaten von mir preis und zwischenzeitlich braucht eine KI nicht mehr viel, um daraus perfekte Audio- und Videofiles kreieren zu können", erklärt er.

Kriminelle könnten täuschend echte Fake-Inhalte erstellen. Auch die Entwicklung von ChatGPT biete "wahnsinniges Potenzial" für Kriminelle, etwa für personalisierte Phishing-Mails. Als Schutzmaßnahme gegen Betrugsversuche wie Enkeltricks empfiehlt Germano Familien-Codewörter.

(igr)