KI-Update kompakt: Google Gemini, Apple Intelligence, Grover, Peta

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 6 Min.
Von
Inhaltsverzeichnis

Google integriert sein KI-Modell Gemini in seine Smart-Home-Produkte, um den Google Assistant, Home und Nest-Kameras intelligenter zu machen. Für Nest-Kameras bedeutet dies eine verbesserte Erkennung von Objekten und Aktivitäten sowie eine neue Suchfunktion für Aufnahmen. Gemini soll nicht nur die Suchanfrage "Tier" erkennen, sondern konkret "Hund gräbt im Garten". Google Home profitiert von der Möglichkeit, Automatisierungen mit natürlicher Sprache zu erstellen.

Der Google Assistant soll im Laufe des Jahres neue, natürlicher klingende Stimmen erhalten und eine verbesserte Kommunikationsfähigkeit entwickeln, die Folgefragen und Gesprächsaufbau ermöglicht. Google betont, dass trotz dieser Neuerungen alle Daten sicher und privat bleiben. Diese Entwicklungen zeigen Googles Bestreben, KI-Technologie tiefer in den Alltag der Nutzer zu integrieren und dabei die Bedienung von Smart-Home-Geräten zu vereinfachen.

In der Beta-Version von macOS 15.1 wurden Dateien entdeckt, die Einblicke in die Funktionsweise von Apples neuer KI-Technologie, der Apple Intelligence, gewähren. Diese Dateien enthalten Prompt-Templates, die als Anweisungen für die KI dienen. Besonders interessant sind die Anweisungen, die die KI auffordern, nicht zu halluzinieren, was in KI-Foren kontrovers diskutiert wird.

Die gefundenen Templates geben Aufschluss über verschiedene Funktionen wie Smart Reply für E-Mails, Textumformulierung und Zusammenfassungen. Apples KI soll im Herbst mit iOS 18.1, iPadOS 18.1 und macOS 15.1 eingeführt werden, zunächst nur in englischer Sprache und nicht in der EU und China. Experten diskutieren die Effektivität der Anweisungen und betonen die Notwendigkeit einer nachträglichen Überprüfung der KI-Ausgaben durch die Software.

OpenAI führt für seine API Structured Outputs ein. Damit lassen sich KI-generierte Ausgaben an von Entwicklerinnen und Entwicklern vorgegebene JSON-Schemas anpassen. Das soll helfen, aus unstrukturierten Daten wie Besprechungsnotizen strukturierte Informationen wie Aufgaben, Fälligkeitsdaten und Verantwortliche zu extrahieren.

Laut OpenAI erreicht das neueste Modell dabei eine Zuverlässigkeit von 100 Prozent bei der Einhaltung komplexer Schemas. Zum Vergleich: GPT-4 kam auf weniger als 40 Prozent. Die Funktion steht ab sofort für alle OpenAI-Modelle mit Function Calling zur Verfügung, darunter GPT-4, GPT-3.5 und alle fein abgestimmten Versionen dieser Modelle.

Zudem lässt sich über Parameter ein JSON-Schema für die Antwort vorgeben. Darüber hinaus kündigte OpenAI an, seine Entwicklerkonferenz DevDay in diesem Herbst in drei Städten abzuhalten: in San Francisco am 1. Oktober, in London am 30. Oktober und in Singapur am 21. November.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Forscher der TU Dresden haben mit Grover ein Large Language Model entwickelt, das menschliche DNA wie eine Sprache behandelt. Das Modell wurde mit einem menschlichen Referenzgenom trainiert und kann biologische Bedeutungen aus DNA-Sequenzen extrahieren. Grover lernt die "Grammatik" der DNA, indem es die Regeln der Sequenzen und deren Bedeutung erfasst.

Das Team hat ein DNA-Wörterbuch mittels Byte-Paar-Kodierung erstellt, um die DNA in "Wörter" zu fragmentieren. Grover kann nicht nur DNA-Sequenzen vorhersagen, sondern auch relevante biologische Informationen aus dem Kontext ableiten. Die Forscher hoffen, mit diesem Ansatz neue Erkenntnisse über die vielfältigen, oft noch unverstandenen Funktionen der DNA zu gewinnen und Fortschritte in der Genomik und personalisierten Medizin zu erzielen.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Figure AI stellt seinen bislang fortschrittlichsten humanoiden Roboter vor. Figure 02 wird von einem OpenAI-Sprachmodell angetrieben. Der Roboter verfügt über verbesserte Sprachfähigkeiten und ein leistungsfähigeres Kamerasystem mit sechs RGB-Kameras. Die Hände des Roboters befinden sich bereits in der vierten Generation und verfügen über 16 Freiheitsgrade sowie eine mit dem Menschen vergleichbare Kraft. Ein maßgeschneiderter Akku bietet eine um 50 Prozent höhere Energiedichte als beim Vorgänger. Auch die Rechenleistung wurde verdreifacht.

Figure 02 ist mit einem Vision Language Model (VLM) von OpenAI ausgestattet, das laut Figure AI schnelle und intuitive visuelle Schlussfolgerungen aus den Kamerabildern ermöglicht. Ziel von Figure ist der Einsatz des Roboters in der Arbeitswelt und im Haushalt. Das Start-up hat kürzlich 675 Millionen US-Dollar eingesammelt und kooperiert mit OpenAI an "KI-Modellen der nächsten Generation für humanoide Roboter".

Das KI-Chip-Start-up Groq hat 640 Millionen US-Dollar eingesammelt und wird nun mit 2,8 Milliarden US-Dollar bewertet. Das Start-up entwickelt spezialisierte Hardware für KI-Anwendungen wie Sprachmodelle.

Die sogenannten Language Processing Units (LPUs) des Unternehmens sind für die Ausführung großer Sprachmodelle optimiert. Sie erreichen Geschwindigkeiten von Hunderten von Token oder Wörtern pro Sekunde und sind dabei laut Groq energieeffizienter als herkömmliche Grafikchips (GPUs). Für die Inferenz, also die Ausführung von KI-Modellen, könnten die Chips eine Alternative zu den gefragten Nvidia-GPUs darstellen. Für das Training benötigen Unternehmen jedoch weiterhin Hardware wie die von Nvidia.

Die Tierschutzorganisation Peta hat ein VR-Spiel namens "When They Came For Us" entwickelt, in dem Spieler in die Rolle von Menschen schlüpfen, die von Aliens entführt wurden. Ziel des Spiels ist es, die Spieler für Missstände in der Nutztierhaltung zu sensibilisieren, indem sie die Perspektive der gefangenen Tiere einnehmen. Die Spieler haben sieben Minuten Zeit, die Aliens von ihrer Freilassung zu überzeugen.

Das Besondere an diesem Spiel ist der Einsatz von ChatGPT für die Dialoge mit den Aliens. Spieler kommunizieren per Spracheingabe, und die KI generiert dynamische Antworten. Dies ermöglicht einen freien Spielverlauf mit verschiedenen möglichen Resultaten. Das Spiel wurde von der Hamburger Agentur Demodern entwickelt und ist kostenlos im Meta-Store für VR-Brillen erhältlich. Es gehört zu den ersten Spielen, die KI-gesteuerte NPCs für dynamische Dialoge einsetzen.

(igr)