KI-Update kompakt: ChatGPT, Stromversorgung, Meta Apollo, Nvidia

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

vorlesen Druckansicht 1 Kommentar lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 8 Min.
Von
Inhaltsverzeichnis

OpenAI hat im Rahmen seiner "Shipmas-Veranstaltungsreihe eine neue Telefonfunktion" vorgestellt, die zunächst exklusiv in den USA verfügbar ist. Über die kostenlose Nummer 1-800-ChatGPT können US-Nutzer bis zu 15 Minuten pro Monat mit dem Chatbot telefonieren. Für deutsche Nutzer gibt es künftig stattdessen die Möglichkeit, ChatGPT über WhatsApp zu erreichen.

Der WhatsApp-Service basiert auf GPT-4o mini und ist rein textbasiert - Bildgenerierung oder -verarbeitung sind nicht möglich. Die Kommunikation erfolgt über WhatsApp Business, wobei Nutzer den Bedingungen zustimmen müssen, dass Gespräche aus Sicherheitsgründen mitgelesen werden können. Interessant ist auch der Kontext zu Meta AI, das ähnliche Dienste anbietet, aber in Deutschland aufgrund rechtlicher Unsicherheiten nicht verfügbar ist.

OpenAI verhandelt aktuell mit seiner gemeinnützigen Muttergesellschaft über deren weitreichende Kontrollrechte. OpenAI CEO Sam Altman und seine Kollegen müssen dabei einen fairen Preis für die Abgabe der Kontrolle finden- möglicherweise in Milliardenhöhe, berichtet die New York Times. Die Doppelrolle von Altman als Stiftungsvorstand und Unternehmens-Chef macht die Situation besonders heikel. Die Investoren erwarten eine Umstrukturierung innerhalb von zwei Jahren. An diese Zusage sind auch die Gelder der jüngsten Finanzierungsrunde gebunden.

Eine Option wäre die Umwandlung in eine "Public Benefit Corporation", bei der die Non-Profit-Organisation einen Teil des Unternehmens behält. Die Verhandlungen betreffen auch eine wichtige Klausel mit Microsoft: Die gemeinnützige Organisation hat bisher das Recht zu bestimmen, wann OpenAI eine künstliche allgemeine Intelligenz erreicht hat - eine Entscheidung, die die lukrative Partnerschaft mit Microsoft beenden könnte. OpenAI soll bereits versuchen, diese Klausel aus den Verträgen zu entfernen. Die Entwicklung vom Non-Profit zum gewinnorientierten Unternehmen sorgte zuletzt für Kritik von der Konkurrenz wie Meta-Chef Mark Zuckerberg und Tech-Milliardär Elon Musk.

In Nordamerika drohen durch den Bau neuer energieintensiver Rechenzentren für Künstliche Intelligenz und Krypto-Mining Energieengpässe. Hiervor warnt die North American Electric Reliability Corporation (NERC), eine gemeinnützige Organisation, die unter staatlicher Aufsicht für die Koordinierung der elektrischen Stromnetze zuständig ist. In ihrem aktuellen Zehn-Jahres-Ausblick mahnt sie einen dringenden Ausbau der Energieerzeugungs- und Übertragungskapazitäten an. Schon im Jahr 2025 drohten im Mittleren Westen Stromengpässe. Der Strombedarf wachse zugleich so stark wie seit über 20 Jahren nicht mehr. Neben KI-Rechenzentren und Krypto-Mining seien auch die steigende Zahl von Elektrofahrzeugen und der vermehrte Einsatz von Wärmepumpen in Haushalten Treiber für den Strombedarf.

Wenn nichts unternommen werde, falle der Sicherheitspuffer bei der Stromversorgung in fast allen Gebieten unter die Grenzwerte. Im schlimmsten Falle könnten Stromausfälle drohen. Big-Tech-Firmen wie Microsoft, Amazon und Meta planen bereits, die Energie für ihre KI-Rechenzentren selbst oder von Partnern erzeugen zu lassen. Eine große Rolle spielt hierbei vor allem die Atomkraft. So gibt es Pläne, alte Kernkraftwerke instand zu setzen und zu reaktivieren oder neue zu bauen.

Forscher von Meta und der Stanford University haben systematisch untersucht, wie man am besten KI-Modelle für das Verständnis von Videos entwirft. Obwohl es bei KI-Modellen für Sprach- und Bildverarbeitung rasante Fortschritte gab, hinken Modelle für Videoaufgaben noch hinterher. Videos bieten zwar reichhaltige dynamische Informationen, aber die Entwicklung von Video-KI-Modellen ist schwieriger. Das liegt an höheren Rechenanforderungen und vielen offenen Design-Fragen. Hier setzt das Forschungsprojekt an. Die Forscher machten eine wichtige Entdeckung: Designentscheidungen, die sich bei kleineren Modellen bewähren, funktionieren auch bei größeren. So lässt sich effizienter experimentieren, ohne aufwendige Studien mit riesigen Modellen.

Als vorteilhaft erwiesen sich unter anderem die Integration von Zeitstempeln zwischen Videoclips oder ein schrittweises Training. Ebenso wichtig ist eine ausgewogene Zusammensetzung der Trainingsdaten. Basierend auf diesen Erkenntnissen entwickelten die Forscher die Apollo-Familie von KI-Videomodellen. Apollo-3B übertrifft die meisten Modelle ähnlicher Größe, während Apollo-7B sogar viele deutlich größere Modelle in den Schatten stellt. Meta stellt Code und Gewichte der Modelle quelloffen zur Verfügung. Die Forscher stellten auch fest, dass viele Verbesserungen bei Videomodellen hauptsächlich auf Fortschritte bei der Sprachverarbeitung zurückgehen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Google rollt sein neues Modell Gemini 2.0 im eigenen Chatbot aus. Nutzerinnen und Nutzer mit Zugang zu Gemini Advanced erhalten ab sofort vorrangigen Zugriff auf das neueste experimentelle Modell "1206" auf dem Desktop und im mobilen Web. Es könnte sich dabei um das nächste größere Gemini "Pro" Modell handeln, da die kleinere Version Gemini 2.0 Flash bereits offiziell verfügbar ist.

Das Modell soll bei komplexeren Aufgaben wie anspruchsvollem Coding, dem Lösen mathematischer Probleme sowie Argumentation und Anleitung helfen. Google weist jedoch darauf hin, dass sich das Modell noch in einer frühen Vorschauphase befindet und möglicherweise nicht wie erwartet funktioniert. Zudem hat es keinen Zugriff auf Echtzeitinformationen und ist nicht mit allen Gemini-Funktionen kompatibel.

Podcast: KI-Update
KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Das KI-Start-up Perplexity hat Carbon übernommen, ein Unternehmen, das Konnektoren für die Anbindung externer Datenquellen an Large Language Models entwickelt. Damit sollen Nutzerinnen und Nutzer bald Apps wie Notion und Google Docs direkt mit Perplexity verbinden können.

Das Carbon-Team wechselt geschlossen zu Perplexity, um die Entwicklung zu beschleunigen. Mit der Übernahme zeichnet sich ein interessanter Trend ab: Die großen KI-Plattformen wie ChatGPT und Perplexity und die Millionen Software-as-a-Service-Lösungen für Unternehmen werden gewissermaßen zur gleichen großen Lösung, nämlich einem Chat-Interface mit Internetzugang, angeschlossen an die eigenen Daten. Ein Verdrängungswettbewerb scheint sich abzuzeichnen.

Microsoft ist mit 485.000 gekauften Hopper-GPUs (H100 und H200) im Jahr 2024 Nvidias größter Kunde für KI-Beschleuniger. Mit einem geschätzten Investitionsvolumen von 15 Milliarden US-Dollar liegt das Unternehmen weit vor den chinesischen Firmen Bytedance und Tencent, die jeweils etwa 230.000 Einheiten erworben haben.

Gleichzeitig setzen die groĂźen Tech-Unternehmen zunehmend auf eigene KI-Beschleuniger: Google und Meta betreiben jeweils 1,5 Millionen selbst entwickelte Chips, Amazon 1,3 Millionen und Microsoft 200.000 der eigenen KI-Beschleuniger "Maia".

Der Europäische Datenschutzausschuss (EDSA) legt der Entwicklung und dem Einsatz von KI-Modellen keine großen Steine in den Weg. Das geht aus Stellungnahme der Datenschutzbeauftragten zur Regulierung von KI im Hinblick auf die Datenschutz-Grundverordnung (DSGVO) hervor. Nach Einschätzung der Datenschützer können sich Meta, Google, OpenAI & Co. prinzipiell auf ein "berechtigtes Interesse" als Rechtsgrundlage für die Verarbeitung personenbezogener Daten durch KI-Modelle berufen.

Der EDSA knüpft diese Freigabe aber an eine Reihe von Bedingungen. So sollen die nationalen Datenschutzbehörden mithilfe eines 3-Stufen-Tests beurteilen, ob ein berechtigtes Interesse vorliegt. Zuerst soll geprüft werden, ob der Anspruch auf Datenverarbeitung legitim ist. Dann folgt ein "Erforderlichkeitsprüfung", ob die Datenverarbeitung notwendig ist. Schließlich müssen die Grundrechte der betroffenen Personen und das Interesse der KI-Anbieter gegeneinander abgewogen werden. Wenn bei der Entwicklung eines KI-Modells rechtswidrig verarbeitete personenbezogene Informationen verwendet wurden, könnte dem EDSA zufolge dessen Einsatz insgesamt verboten werden. Ausnahmen gelten nur, wenn alles ordnungsgemäß anonymisiert ist. Mit der gemeinsamen Stellungnahme wollen die Datenschützer eine einheitliche Rechtsdurchsetzung in der EU gewährleisten.

Das war das KI-Update von heise online vom 19. Dezember 2024. Eine neue Folge gibt es jeden Werktag ab 15 Uhr.

(igr)