KI-Update kompakt: OpenAI Safety Board, DataGemma, Slack, Apple Intelligence

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 8 Min.
Von
Inhaltsverzeichnis

OpenAI wandelt sein bisheriges Komitee für Safety and Security in ein unabhängiges Gremium namens "Board Oversight Committee" um. Dieses soll bei Sicherheitsbedenken die Möglichkeit haben, Veröffentlichungen von KI-Modellen bis zu 90 Tage lang zu stoppen. Dem Board gehören bekannte KI-Experten an: Adam D'Angelo, Nicole Seligman, Paul Nakasone und Zico Kolter als Leiter. Da die Mitglieder jedoch auch im Aufsichtsrat von OpenAI sitzen, ist die Unabhängigkeit des Gremiums fraglich.

Das Thema Sicherheit scheint bei OpenAI ein Dauerbrenner zu sein, der zu internen Konflikten führt. Auch Sam Altmans kurzfristiger Rauswurf im Herbst soll damit zusammenhängen. Mehrere Mitarbeiter und Aufsichtsräte beklagten die Zustände, leitende Wissenschaftler verließen das Unternehmen Richtung Konkurrent Anthropic. Meta hat nach ähnlicher Kritik ebenfalls ein unabhängiges Gremium gegründet, das Oversight Board, dessen Mitglieder jedoch keine anderen Funktionen bei Meta innehaben. Es kann von Meta befragt werden und seine Entscheidungen sind für das Unternehmen bindend.

Microsoft hat die zweite Welle von Erweiterungen für seinen KI-Assistenten Copilot vorgestellt. Dazu gehören eine kollaborative Arbeitsfläche für KI-gestützte Zusammenarbeit, genannt Copilot Pages, und die Python-Integration in Excel für fortgeschrittene Analysen ohne Programmierkenntnisse. Für PowerPoint wurde der Narrative Builder eingeführt, der bei der Erstellung von Präsentationsentwürfen hilft. In Teams kann Copilot nun sowohl Besprechungstranskripte als auch Chats analysieren, um ein vollständiges Bild der Diskussion zu liefern.

Für Outlook plant Microsoft die Funktion "Prioritize my inbox", die E-Mails basierend auf Inhalt, Kontext und Nutzerrolle analysiert und priorisiert. Zudem führt das Unternehmen Copilot-Agenten ein. Das sind KI-Assistenten, die Geschäftsprozesse automatisieren und ausführen sollen. Um deren Erstellung zu erleichtern, stellt Microsoft den Agent Builder vor, mit dem Nutzende direkt in Business Chat oder SharePoint Copilot-Agenten erstellen und mit relevanten Geschäftsprozessdaten verknüpfen können.

Slack, der Instant-Messaging-Dienst für Unternehmen, erhält in den kommenden Monaten sukzessive neue KI-Funktionen. Der kostenpflichtige Zusatzdienst Slack AI bearbeitet Suchanfragen und erstellt Zusammenfassungen aus Kanälen. Die generative KI erzeugt Transkripte, Zusammenfassungen, Notizen und To-Do-Listen aus Huddles, den Audio- und Videogesprächen des Dienstes. Dabei werden die Nutzenden von der KI selbst angeleitet, erklärt der Hersteller Salesforce. Nutzerinnen und Nutzer des Salesforce-CRM sollen außerdem künftig in Slack auf den neu eingeführten Dienst Agentforce zugreifen können. Die KI-Agenten bearbeiten Kundenanfragen oder erstellen Marketingkampagnen im Rahmen des CRMs.

Slack integriert ferner Software von Drittherstellern und nennt unter anderem Adobe, Anthropic, Cohere und Perplexity. Diese "Third-party AI agents" lassen sich über den Slack Marketplace installieren. So kann beispielsweise ein Marketing-Team in seinem Slack-Channel über ein geteiltes Fenster die Software Adobe Express oder Anthropic Claude nutzen, ohne den Messenger zu verlassen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Google hat DataGemma vorgestellt, eine Reihe von offenen Modellen, die darauf abzielen, die Genauigkeit und Zuverlässigkeit von großen Sprachmodellen zu verbessern. Ziel ist es, das Problem der Halluzinationen anzugehen, bei denen KI-Modelle manchmal sehr überzeugend falsche oder frei erfundene Informationen liefern.

DataGemma nutzt dafür Googles öffentlichen Wissensgraphen "Data Commons", der über 240 Milliarden Datenpunkte aus geprüften Quellen wie den Vereinten Nationen, der Weltgesundheitsorganisation und verschiedenen Statistikämtern enthält. Dieser umfangreiche Datenpool soll als Anker für die Sprachmodelle dienen und deren Ausgaben in der Realität verankern. Google stellt die DataGemma-Modelle auf Plattformen wie Hugging Face und Kaggle zum Download bereit, zusammen mit Anleitungen für die Nutzung der RIG- und RAG-Ansätze.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Die renommierte KI-Forscherin Fei-Fei Li hat das "Startup World Labs" gegründet und 230 Millionen Dollar Startkapital von Investoren wie Andreessen Horowitz, AMD, Intel und Nvidia eingesammelt. World Labs will KI-Modelle entwickeln, welche die dreidimensionale Welt verstehen können.

Diese "großen Weltmodelle" sollen auf der Transformer-Architektur basieren, die auch ChatGPT nutzt. Li betont die Bedeutung von "räumlicher Intelligenz" für KI-Systeme. Damit bezieht sie sich auf die Fähigkeit, die Funktionsweise der dreidimensionalen physischen Welt zu verstehen und darüber zu schlussfolgern. Ein Beispiel ist die Verwendung eines großen Sprachmodells, um einen Roboterarm dazu zu bringen, auf verbale Anweisungen hin Aufgaben wie das Öffnen einer Tür auszuführen.

Li gilt als Pionierin im Bereich der künstlichen Intelligenz. Sie entwickelte ImageNet, einen umfangreichen Bilddatensatz, der eine neue Generation von Computervision-Technologien ermöglichte. Neben ihrer Tätigkeit bei World Labs mit 20 Mitarbeiterinnen und Mitarbeitern in San Francisco wird Li weiterhin am Human-Centered AI Institute der Stanford University arbeiten.

Intel pausiert die Arbeiten an seinen geplanten Chipfabriken in Magdeburg und einem Packaging-Werk in Breslau. Das hat Intel-CEO Pat Gelsinger nach einem Treffen mit Intels Verwaltungsrat der Belegschaft mitgeteilt. "Jüngst haben wir unsere Kapazität in Europa ausgebaut, durch unsere Fab in Irland, die auf absehbare Zeit unser führender europäischer Mittelpunkt bleiben wird", schreibt Gelsinger, "Wir werden unsere Projekte in Polen und Deutschland für ungefähr zwei Jahre pausieren, basierend auf der erwarteten Nachfrage im Markt." Bis gestern sollte Magdeburg die größte Intel-Investition in Europa werden.

Das Unternehmen wollte dort ursprünglich 17 Milliarden Euro investieren, zuzüglich 6,8 Milliarden Euro Förderungen, um Ende 2027 die Produktion aufnehmen zu können. Es wäre die größte Auslandsinvestition in Deutschland, zumindest seit dem Zweiten Weltkrieg. Doch bald überstiegen die voraussichtlichen Kosten 30 Milliarden Euro, sodass die öffentliche Hand die Subvention auf 9,9 Milliarden Euro erhöhen musste. Auch das reicht nicht, um einen Produktionsbeginn vor 2030 zu sichern, wie sich jetzt zeigt.

Apple startet passend zum iPhone 16 Release eine Werbekampagne rund um Apple Intelligence. In drei Spots mit Schauspielerin Bella Ramsey werden Alltagsszenarien gezeigt, in denen das KI-System helfen kann: beim Zusammenfassen von E-Mails, Erstellen von KI-generierten Fotorückblicken und kontextsensitiver Erinnerung durch Siri. Interessanterweise ist keines dieser Features zum Verkaufsstart verfügbar.

Die E-Mail-Zusammenfassung und KI-Rückblicke sollen erst im Oktober mit iOS 18.1 kommen - und das auch nur auf Englisch.

Die kontextsensitive Siri, die auf persönliche Daten wie Termine zugreifen kann, wird laut Gerüchten sogar erst mit iOS 18.4 im Frühjahr 2025 erwartet. Möglicherweise könnte es auch schon Ende 2024 soweit sein. Auf jeden Fall dürfte sich bis dahin kaum jemand an die Werbung erinnern, aber dennoch enttäuscht sein, dass das Feature nicht gleich zum iPhone-Start verfügbar ist. Die Spots enden unfreiwillig passend mit "I am Genius" - eine Anspielung auf eine alte Samsung-Kampagne gegen Apple.

Google DeepMind hat mit ALOHA Unleashed und DemoStart zwei KI-Systeme entwickelt, die Robotern das Erlernen komplexer Aufgaben mit zwei Armen ermöglichen sollen. ALOHA Unleashed baut auf der ALOHA-2-Plattform auf, einem Open-Source-Robotiksystem mit geschickten Zwei-Arm- und Mehr-Finger-Bewegungen. Ein Operator steuert die Arme und Hände, um Trainingsdaten zu generieren. So können dem Roboter neue Aufgaben mit weniger Demonstrationen beigebracht werden, wie das Binden von Schnürsenkeln oder Aufhängen eines T-Shirts.

Für noch komplexere Aufgaben mit mehrfingrigen Händen kommt DemoStart zum Einsatz. Diese Simulation nutzt Reinforcement Learning, um den Roboter schrittweise von einfachen zu schwierigeren Zuständen zu trainieren – mit 100-mal weniger Demonstrationen als in der Realität nötig. In der Simulation erreichte der Roboter über 98 % Erfolg bei Aufgaben wie dem Ausrichten von Würfeln oder Aufräumen von Werkzeug. In der realen Welt lag die Quote beim Würfel-Ausrichten bei 97 %, beim präziseren Einstecken von Steckern noch bei 64 %. DeepMind sieht die Kombination beider Systeme als effektiven Weg, die Lücke zwischen Simulation und Realität zu überbrücken und Roboter schneller und günstiger zu trainieren.

(igr)