KI-Update kompakt: Telekom-Rechenzentrum, Meta, Roboter, Super-Bowl-Werbung
Das "KI-Update" liefert drei mal pro Woche eine Zusammenfassung der wichtigsten KI-Entwicklungen.
- Isabel GrĂĽnewald
- The Decoder
Telekom-Rechenzentrum soll deutsche KI-Leistung um die Hälfte steigern
Die Telekom hat in München ihr größtes KI-Rechenzentrum eröffnet. Mit 10.000 Nvidia-Beschleunigern und zwölf Megawatt installierter Serverleistung ist es eines der stärksten in Deutschland, bleibt aber weit hinter US-Anlagen zurück, die bereits mehrere hundert Megawatt erreichen. Das Rechenzentrum kostete rund eine Milliarde Euro, finanziert ohne öffentliche Subventionen. Es wurde in ein altes unterirdisches Gebäude im Tucherpark hinter dem Englischen Garten gebaut und nutzt den nahen Eisbach zur Kühlung.
Das Projekt dient als Bewerbung für die European AI Gigafactories, große KI-Rechenzentren mit EU-Förderung. Zur Eröffnung kamen Vizekanzler Lars Klingbeil, Bayerns Ministerpräsident Markus Söder und weitere Politiker. Die Telekom hofft, dass die öffentliche Hand eine Grundlast bucht, etwa für Verwaltungsaufgaben. In Deutschland sind derzeit KI-Rechenzentren für mehr als 25 Milliarden Euro in Bau und Planung.
Medienwächter warnen vor KI-Zusammenfassungen
Die deutsche Medienaufsicht hat Verwaltungsverfahren gegen Google und Perplexity eingeleitet. Die Medienanstalt Berlin-Brandenburg und die Landesanstalt für Medien in Nordrhein-Westfalen wollen klären, ob algorithmisch generierte Antworten wie Googles AI Overviews die öffentliche Meinungsbildung manipulieren oder verengen. Im Kern steht die Sorge um mediale Vielfalt und die Frage, wer für KI-generierte Inhalte journalistisch und rechtlich verantwortlich ist.
Die rechtliche Basis bildet der Digital Services Act der EU. Er verpflichtet groĂźe Plattformen, systemische Risiken fĂĽr Meinungsfreiheit und Medienpluralismus vorab zu prĂĽfen und zu minimieren. Die Verfahren markieren den Beginn einer Debatte, ob Suchmaschinen neutrale Vermittler bleiben oder zu Super-Redaktionen werden, die strengerer Aufsicht unterliegen.
Meta knĂĽpft Mitarbeiterleistung an KI-Nutzung
Meta führt ein neues Tool zur Leistungsbewertung ein, das die Nutzung von KI besonders belohnt. Das System namens Checkpoint wertet bis zu 200 Datenpunkte aus, etwa wie viele Codezeilen mit KI-Hilfe programmiert wurden oder wie viele Fehler im Code entstanden. Wer einen hohen Score erreicht, kann Gehaltsboni von bis zu 200 Prozent erhalten. Meta betont, Checkpoint sei kein Aktivitätstracker, sondern ein Instrument zur Ermittlung der Effizienz.
Mitarbeitende können nun neben den eigenen Llama-Modellen auch Gemini 3, GPT-5 und andere KI-Modelle nutzen. Meta spekuliert auf enorme Effizienzsteigerungen durch KI und hat bereits begonnen, sogenannte Low Performer zu entlassen. Auch in der KI-Abteilung und der Metaverse-Sparte gab es zuletzt massiven Personalabbau.
Meta meldet Fortschritte bei neuem KI-Modell nach turbulenten Monaten
Meta hat das Vortraining seines neuen KI-Modells mit dem Codenamen Avocado abgeschlossen. Laut einem internen Dokument ĂĽbertrifft es bereits die besten frei verfĂĽgbaren Basismodelle und kann bei Wissen, visueller Wahrnehmung und mehrsprachiger Leistung mit fĂĽhrenden fertig trainierten Modellen mithalten. Zudem arbeitet Avocado zehnmal effizienter als Maverick und hundertmal effizienter als Behemoth.
Meta hatte im vergangenen Jahr erhebliche Probleme mit Llama 4. Die Veröffentlichung wurde mehrfach verschoben, das Unternehmen manipulierte Benchmarks und Entwickler zeigten sich enttäuscht von der Leistung. Meta baute daraufhin seine KI-Abteilung um. Laut Gerüchten will sich das Unternehmen mit Avocado vom bisherigen Open-Source-Ansatz der Llama-Modelle abwenden. Für 2026 plant Meta Investitionen zwischen 115 und 135 Milliarden Dollar in seine KI-Infrastruktur, 73 Prozent mehr als 2025.
Alphabet kĂĽndigt Rekordinvestitionen in KI-Cloud an
Alphabet hat Umsatz und Gewinne sowohl im vierten Quartal 2025 als auch im gesamten Jahr gesteigert. Der Jahresumsatz wuchs um 15 Prozent auf 402,84 Milliarden Dollar. Für 2026 kündigte CEO Sundar Pichai Investitionen zwischen 175 und 185 Milliarden Dollar an, praktisch eine Verdopplung gegenüber dem Vorjahr. Das meiste Geld soll in KI-Computing-Kapazitäten für Google DeepMind und die Cloud-Infrastruktur fließen.
Googles KI-App Gemini zählt mittlerweile mehr als 750 Millionen Nutzer, 100 Millionen mehr als im letzten Quartal. Pichai betonte wachsende Effizienz: Durch Modelloptimierungen und Nutzungsverbesserungen konnte Google die Gemini-Servicekosten pro Einheit bis 2025 um 78 Prozent senken.
Amazon mit ungebremstem Wachstum und extremen KI-Investitionen
Amazon hat mit seinen Quartalszahlen die Erwartungen der Analysten übertroffen. Der Konzern profitiert vom wachsenden Handelsgeschäft und der hohen Nachfrage nach Cloud-Kapazitäten aufgrund Künstlicher Intelligenz. Deshalb erhöht Amazon seine Investitionen um mehr als 50 Prozent gegenüber 2025 auf rund 200 Milliarden Dollar.
CEO Andy Jassy sieht wegweisende Möglichkeiten in KI, Chips, Robotik und Satelliten im niedrigen Orbit. Der überwiegende Teil des Kapitals ist für Rechenzentren und andere Infrastrukturen vorgesehen. Jassy erwartet eine starke langfristige Rendite auf das investierte Kapital.
Warum auch groĂźe Sprachmodelle von einem Nickerchen profitieren
Forschende des Universitätsklinikums Freiburg und der Universität Genf haben gezeigt, dass ein kurzes Nickerchen einen synaptischen Reset bewirkt, der dem Gehirn hilft, neue Eindrücke besser zu verarbeiten und zu speichern. Solche Mechanismen könnten auch die Performance von großen Sprachmodellen verbessern. Große Sprachmodelle sind normalerweise vergesslich: Sie können in einem laufenden Chat aus Beispielen lernen, aber nach Ende der Session sind diese Lernfortschritte wieder weg.
Künstlicher Schlaf soll kontinuierliches Lernen ermöglichen. Die Idee: Eine Offline-Phase, in der das Modell Informationen aus der Aktivitätsphase nochmal überarbeitet und neu verarbeitet. Eine Technik namens Sleep Replay Consolidation spielt dem neuronalen Netz in der Schlafphase den Input aus der Wachphase nochmal vor, aber mit einem anderen Trainingsmechanismus. Neuere Ansätze nutzen zwei neuronale Netze: Ein kleineres Modell lernt während des Tages die wesentlichen Dinge und erzeugt synthetische Daten, die dem großen Sprachmodell in der Schlafphase zur Feinabstimmung vorgespielt werden. Die Ergebnisse sind vielversprechend, das Ganze ist aber noch in einer starken Forschungsphase.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Anthropic und OpenAI veröffentlichen neue Modelle
Innerhalb weniger Stunden haben Anthropic und OpenAI neue Spitzenmodelle für Programmierer vorgestellt. Beide Unternehmen beanspruchen die Führung bei den wichtigsten Leistungstests. Anthropic veröffentlichte Claude Opus 4.6, das erstmals bis zu eine Million Token verarbeiten kann. Das entspricht etwa 750.000 Wörtern oder mehreren umfangreichen Büchern.
Laut Anthropic stellt das Modell einen deutlichen Sprung im Umgang mit dem sogenannten Context Rot dar, bei dem Ergebnisse ungenauer werden, je mehr Text ein Modell verarbeiten muss.
OpenAI konterte mit GPT-5.3-Codex, das 25 Prozent schneller als sein Vorgänger ist und weniger Rechenkapazität verbraucht. Im agentischen Coding-Benchmark Terminal-Bench 2.0 übertrifft es Opus 4.6 um zwölf Prozentpunkte.
Laut OpenAI half das Modell bei seiner eigenen Entstehung mit: Das Team nutzte frühe Versionen, um Fehler im Training zu finden. Gleichzeitig stuft OpenAI das Modell erstmals mit einem hohen Cybersicherheitsrisiko ein, auch wenn es bisher keinen sicheren Beweis für konkrete Gefahren gebe. Anthropics Opus 4.6 ist bei indirekten Prompt Injections sogar leicht anfälliger als sein Vorgänger. Beide Modelle stehen zunächst nur zahlenden Nutzern zur Verfügung.
Anthropic stichelt mit Super-Bowl-Werbung gegen OpenAI
Anthropic will beim Super Bowl damit werben, dass die hauseigene KI Claude keine Werbung einblendet. In den Werbeclips sind jeweils zwei Personen zu sehen, die eine KI-Konversation darstellen. Die Antworten klingen erst hilfreich, dann kommt plötzlich Werbung. Der eingeblendete Text erklärt: Werbung kommt in KI, aber nicht bei Claude. Jeder, der sich auskennt, versteht, dass es um OpenAI geht, das seit Wochen daran arbeitet, in ChatGPT Werbung anzuzeigen.
OpenAI-Chef Sam Altman reagierte angefasst auf dem Kurznachrichtendienst X. Er behauptet, er habe darüber gelacht, aber Anthropic sei unfair. OpenAI habe nicht vor, Werbung direkt in ChatGPT-Antworten zu schalten, sondern anders. Altman argumentiert, nur so könne man KI-Werkzeuge auch Menschen anbieten, die kein Abo bezahlen können. Anthropic biete nur ein teures Werkzeug für reiche Leute an, während OpenAI das für die große Masse anbieten wolle.
KI soll Produktionskosten fĂĽr Filme und Serien senken
Amazon hat im August eine Abteilung gegründet, die spezialisierte KI-Werkzeuge für die Film- und Serienproduktion entwickelt. Ausgewählte Industriepartner werden die Software ab März im Rahmen eines geschlossenen Betaprogramms ausprobieren. Erste Ergebnisse werden voraussichtlich im Mai veröffentlicht. Das bei den Amazon MGM Studios angesiedelte AI Studio steht unter der Leitung von Albert Cheng. Das Team ist klein und besteht primär aus Produktentwicklern und Wissenschaftlern.
Die KI-Werkzeuge sollen die Effizienz steigern, nicht menschliche Kreativität ersetzen. Als Beispiel verweist Amazon auf das Bibelepos House of David. In der zweiten Staffel kombinierte Regisseur Jon Erwin reale Aufnahmen mit KI-generierten Inhalten. Dieses hybride Verfahren ermöglichte längere Kampfszenen bei geringerem Budget.
(igr)