KI-Update kompakt: OpenAI, Anthropic, ChatGPT in der Verwaltung, Stability AI

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 7 Min.
Inhaltsverzeichnis

Am Dienstagabend war schon gut zu erahnen, dass die Unruhe im KI-Start-up weitergehen wird. Etwas überraschend ist die neueste Wendung dennoch. Die KI-Welt ist aber größer und dreht sich weiter, zeigt das neueste KI-Update.

Sam Altman übernimmt erneut die Rolle des CEO bei OpenAI. Auch Mitbegründer Greg Brockman und etwa 710 Mitarbeiter, die gedroht hatten, das Unternehmen zu verlassen, falls Altman nicht zurückkehrt, nehmen ihre Arbeit wieder auf.

Der Hintergrund für den U-Turn ist unklar, da keine offizielle Stellungnahme vorliegt. Mögliche Gründe könnten die Loyalität der Mitarbeiter oder die Abhängigkeit von OpenAIs Erfolg von der Personalie Altman sein. Ein Wechsel von Altman und Brockman zu Microsoft hätte dazu führen können, dass Microsoft als größter Geldgeber seine Investitionen einstellt. Dies hätte möglicherweise bedrohliche finanzielle Einbußen für OpenAI bedeutet.

Die Börse reagierte verhalten auf die Situation. Trotz der Kehrtwende bleibt unklar, warum der Aufsichtsrat die beiden Gründer und Chefs ursprünglich entlassen wollte. Angeblich sollen Untersuchungen durch eine Anwaltskanzlei Aufklärung bringen.

Viel Zeit, sich in Ruhe zu sortieren, hat OpenAI jetzt nicht. Die anderen großen Player wie Meta, Anthropic oder xAI sind GPT-4 mit ihren großen Sprachmodellen auf den Fersen, erklärt Wolfgang Stieler im Weekly Podcast der MIT Technology Review.

Das ganze Gespräch zu den Irrungen und Wirrungen rund um OpenAI gibt es im aktuellen Weekly der Technology Review, überall wo ihr eure Podcasts hört.

Der KI-Entwickler Anthropic hat seinen neuen Chatbot Claude 2.1 vorgestellt, der ein 200K Kontextfenster besitzt – doppelt so groß wie sein Vorgänger und deutlich größer als das 128K Kontextfenster von GPT-4 Turbo. Umgerechnet sind das etwa 150.000 Wörter oder mehr als 500 Seiten.

Claude 2.1 soll zudem die Halluzinationsrate um den Faktor zwei reduzieren und Inhalte besser verstehen können. Nutzer können umfangreiche Texte wie Codebasen, Finanzberichte oder literarische Werke hochladen und vom Modell verarbeiten lassen. Trotz dieser Verbesserungen zeigt ein Test eines Twitter-Nutzers, dass Claude 2.1 wie auch andere Sprachmodelle mit großem Kontextfenster Schwierigkeiten hat, Fakten im Mittelteil längerer Texte zuverlässig zu extrahieren.

Das Modell ist über die API verfügbar und wird von der Chat-Schnittstelle auf claude.ai für kostenlose und Pro-Tarife unterstützt. Obwohl Claude derzeit in 95 Ländern verfügbar ist, ist er in der EU nur über Drittanbieter wie Poe zugänglich.

Meta hat sein Team für verantwortungsvolle KI aufgelöst und die meisten Mitarbeiter in die Abteilungen für generative KI versetzt. Ein Sprecher bestätigte die Umstrukturierung und betonte, dass das Unternehmen weiterhin in eine sichere und verantwortungsvolle KI-Entwicklung investiere. Die Änderungen sollen eine bessere Skalierung ermöglichen und zukünftigen Anforderungen gerecht zu werden.

Die direkte Einbindung von ethikbewussten Mitarbeitern in die generative KI-Entwicklung könnte hilfreich sein. Dennoch gibt es Bedenken hinsichtlich der Effektivität einer solchen Struktur ohne internes Aufsichtsgremium. Bereits im Herbst 2022 löste Meta sein Team für „Responsible Innovation“ auf, wie das Wall Street Journal berichtete. Auch in diesem Fall wurde angekündigt, den verantwortungsvollen Umgang mit Neuentwicklungen fortzuführen zu wollen. Die jüngsten Umstrukturierungen werfen deshalb generelle Fragen zur Rolle der Ethik in der KI-Entwicklung bei Meta auf.

Die Stadtverwaltung von Boston zieht nach mehrmonatigem Test von ChatGPT ein positives Fazit und warnt vor zu strenger KI-Regulierung. Santiago Garces, Chief Information Officer der Stadt Boston, und Stephen Goldsmith, Professor für Stadtentwicklungspolitik an der Harvard Kennedy School, betonen, dass generative KI-Technologien bürokratische Verfahren modernisieren und Regierungsabläufe sowie Bürgerbeteiligung verbessern könnten. Sie plädieren für eine dynamische und flexible Umsetzung der kürzlich vorgestellten KI-Regulierung der Biden-Regierung.

Eine Anwendung, die von der Stadt Boston getestet wird, ist etwa die vereinfachte Auswertung von 311-Daten, einer Bürgerhotline, die als Alternative zur Notrufnummer 911 dient. Die Autoren schlagen vor, den städtischen „Mitarbeitern an der Front“ mehr Entscheidungsbefugnisse zu geben, um Probleme zu lösen, Risiken zu erkennen und Daten zu überprüfen. Vorgesetzte könnten mit denselben Werkzeugen auch leichter überprüfen, ob ihre Mitarbeiter generative KI-Tools richtig einsetzen, und die Wirksamkeit von Maßnahmen besser bewerten.

Eine breite Anwendung generativer KI sollte jedoch mit einer Verbesserung der Datenanalysefähigkeiten in öffentlichen Belegschaften einhergehen. Die Autoren fordern zudem Technologiepartnerschaften mit dem Privatsektor, um Fragen der Privatsphäre, Sicherheit und algorithmischen Verzerrung anzugehen.

Stability AI hat sein neues generatives Videomodell Stable Video Diffusion vorgestellt, das kommerzielle Rivalen wie RunwayML und Pika Labs in Nutzerpräferenzstudien übertreffen soll. Das Modell basiert auf dem Bildmodell Stable Diffusion und kann Bilder in Videos umwandeln. Es wurde mit einem sorgfältig zusammengestellten Datensatz aus speziell kuratierten, hochwertigen Videodaten trainiert.

Das Unternehmen hat zunächst zwei Forschungsversionen veröffentlicht, die je 14 oder 25 Bilder generieren und anpassbare Bildraten zwischen 3 und 30 Bildern pro Sekunde ermöglichen. Diese Versionen sollen dazu beitragen, das Modell für die endgültige Open-Source-Veröffentlichung zu optimieren und ein Ökosystem von darauf basierenden Modellen zu entwickeln.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Zudem hat Stability AI eine Warteliste für eine neue Web-Anwendung mit einer Text-zu-Video-Schnittstelle eröffnet, die den praktischen Einsatz des Modells in verschiedenen Anwendungsbereichen erleichtern soll.

Der Chipkonzern Nvidia verzeichnet dank des KI-Booms ein starkes Wachstum. Im letzten Quartal stieg der Umsatz auf über 18 Milliarden US-Dollar, was einer Verdreifachung im Vergleich zum Vorjahr entspricht. Analysten hatten im Durchschnitt einen Umsatz von zwei Milliarden US-Dollar weniger erwartet. Der Gewinn stieg von 680 Millionen US-Dollar auf 9,2 Milliarden US-Dollar, wie Nvidia bekannt gab. Für das vierte Geschäftsquartal, das seit Ende Oktober läuft, prognostiziert das Unternehmen einen Umsatz von 20 Milliarden US-Dollar – ebenfalls mehr als zwei Milliarden US-Dollar über den Markterwartungen.

Allerdings gab Nvidia zu, dass das Geschäft in China aufgrund erweiterter Lieferbeschränkungen erheblich zurückgehen werde. Chinesische Unternehmen zählten zu den großen Abnehmern von Nvidias KI-Chips. Die US-Regierung weitete jedoch kürzlich die Exportbeschränkungen nach China auf die bisher dort verkaufte Nvidia-Technologie aus. Dennoch ist Nvidia optimistisch, dass das Geschäft in anderen Ländern den Rückgang in China mehr als kompensieren wird.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(igr)