KI-Update kompakt: Computex, Microsoft Recall, Gemini-App, Zukunfts-Ich

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 7 Min.
Von
Inhaltsverzeichnis

Auf der Hardware-Messe Computex in Taipei dreht sich alles um künstliche Intelligenz: In jedem Messestand, in jeder Keynote und bei allen Hintergrundgesprächen, berichtet c't-Redakteur Christian Hirsch.

Von dem KI-Boom profitieren nicht mehr nur Serverhersteller wie Supermicro oder Chiphersteller wie Nvidia, sondern nun auch die taiwanesischen Hersteller von PCs, Notebooks und Komponenten. Zu den Highlights gehörten Mobilprozessoren von AMD, Intel und Qualcomm mit integrierten Neural Processing Units (NPUs) für effiziente KI-Berechnungen auf dem Gerät.

Insgesamt ist die Hardware-Branche auf der Computex in guter Stimmung, aber es findet auch ein ziemlich harter Konkurrenzkampf statt.

Die auf der Microsoft Build angekündigte Funktion Recall soll Nutzern als Gedächtnisstütze dienen, indem sie alle fünf Sekunden Screenshots des Bildschirms macht, die Inhalte indiziert und auch zu unscharfen Suchanfragen passende Ergebnisse liefert. Dazu nutzt sie optische Zeichenerkennung (OCR) und speichert die Daten in einer lokalen SQLite-Datenbank.

Die Funktion ist jedoch in mehrfacher Hinsicht problematisch: Standardmäßig ist sie aktiviert und dokumentiert auch Inhalte, die man explizit nicht festgehalten wissen möchte. Zudem kann jeder lokale Nutzer die Datenbank ohne Adminrechte auslesen und übertragen. Auch ein Schädling könnte die Daten problemlos abgreifen. Microsoft sollte hier dringend nachbessern, um die Privatsphäre der Nutzer zu schützen. Derzeit überwiegen die Risiken den potenziellen Nutzen deutlich.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Stability AI, das Unternehmen hinter Stable Diffusion, stellt mit Stable Audio Open ein kostenloses Open-Source-Modell für die Generierung von qualitativ hochwertigen Audiosamples, Soundeffekten und Produktionselementen aus Textbeschreibungen vor. Es richtet sich speziell an Sounddesigner, Musiker und Kreativschaffende.

Das auf Hugging Face verfügbare Modell wurde mit Daten von FreeSound und dem Free Music Archive urheberrechtskonform trainiert. Es ist auf kürzere Samples wie Drumbeats, Instrumentalriffs, Umgebungsgeräusche und Foley-Aufnahmen spezialisiert und kann von Nutzern mit eigenen Audiodaten erweitert werden. Im Gegensatz zum kommerziellen Stable Audio 2 eignet es sich weniger für komplette Songs. Stability AI erhofft sich Feedback der Audio-Community zur Weiterentwicklung.

Google bietet seinen KI-Assistenten Gemini nun auch als Android-App in Deutschland, Österreich und der Schweiz an. Die iOS-Version soll in den kommenden Wochen folgen. Gemini ersetzt den Google Assistant und kann über die App, den Power-Button oder "Hey Google" aufgerufen werden.

Neben Fragen per Text und Sprache kann Gemini auch mit Bildern umgehen, etwa ein Foto eines platten Reifens analysieren und eine Reparaturanleitung oder hilfreiche YouTube-Videos vorschlagen. In ersten Tests lieferte die Bilderkennung im Vergleich zu Google Lens jedoch noch durchwachsene Ergebnisse. Auch gab Gemini manchmal englische statt deutsche Antworten aus.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Der chinesische Smartphone-Hersteller Oppo plant, bis Ende 2024 rund 50 Millionen Nutzer mit neuen KI-Funktionen zu versorgen. Dabei sollen nicht nur High-End-Modelle, sondern auch günstigere Geräte der Reno-, F- und A-Serien KI-Features erhalten. Laut Marktforschern von IDC werden KI-fähige Smartphones stark nachgefragt.

Oppo kooperiert dazu mit Google, MediaTek und Microsoft, um KI sowohl auf dem Gerät als auch in der Cloud zu optimieren. Neue Reno-12- und Find-X-Modelle erhalten Googles Gemini-Sprachmodelle. Oppo hat über 5.000 KI-Patente angemeldet, 70 Prozent davon für Bildbearbeitung wie den "AI Eraser" zum Entfernen von Objekten. KI-Sprachmodelle sollen zudem Produktivität durch Transkription, Übersetzung und Gerätevernetzung steigern. Welche Modelle nachträglich KI-Funktionen erhalten, ist noch offen. Diese sind bisher kostenlos, könnten aber später monetarisiert werden.

TSMCs CEO C.C. Wei berichtet über Pläne von OpenAI-CEO Sam Altman aus dem letzten Jahr, etwa drei Dutzend neue Fabriken für KI-Chips zu bauen, um die steigende Nachfrage zu decken. TSMC lehnte dies als "zu aggressiv" ab, da man befürchtete, die Fabriken nicht auslasten zu können. Die damaligen Prognosen sahen keine ausreichende Nachfrage.

Im Januar wurde bekannt, dass Altman ein globales Chip-Netzwerk mit mehreren Partnern wie TSMC plant.

Schauspieler und Tech-Investor Ashton Kutcher ist von den Fähigkeiten von OpenAIs neuem KI-Videogenerator Sora, zu dem er Beta-Zugang hat, beeindruckt. Er prognostiziert durch Sora massive Veränderungen in Hollywood.

Sora könne auf Basis von Texteingaben realistische Szenen, Trailer und Filmaufnahmen zu Bruchteilen der üblichen Kosten erstellen. Zusammen mit Leistungssteigerungen bei Chips sieht Kutcher eine Automatisierung der Filmindustrie voraus.

KI werde Drehbücher schreiben und daraus Filme generieren, was zu einer Flut an Inhalten und einem härteren Kampf um Zuschauer führen werde. Die Auswirkungen auf die Kreativbranche und den Arbeitsmarkt könnten enorm sein. OpenAI trifft sich bereits mit Hollywood-Studios für Partnerschaften, auch Meta und Alphabet sind aktiv.

Das OpenAI-Robotikunternehmen 1X, vormals Halodi Robotics, hat seinen teilhumanoiden Serviceroboter Eve um eine natürliche Sprachschnittstelle erweitert. Per Zuruf kann Eve so vortrainierte Aufgaben wie das Aufräumen eines Büros ausführen.

Basis ist ein im März vorgestelltes KI-Verhaltensmodell, das vielfältige Fähigkeiten wie Auspacken, Aufwischen und Hemdenfalten kombiniert. Die Sprachsteuerung ermöglicht es nun, mehrere Roboter gleichzeitig anzuweisen, die erlernten Aktionen zu komplexeren Aufgaben zu kombinieren. Laut 1X agieren die Roboter im Video autonom per neuronalem Netz ohne versteckte Schnitte oder Beschleunigung. Die Erweiterung der Fähigkeiten erfordert jedoch mehr Trainingszeit und Rechenleistung.

Die europäische Datenschutzorganisation Noyb hat in elf Ländern Beschwerden gegen Meta eingereicht. Der Facebook-Konzern will laut einer E-Mail an Nutzer deren Daten zum Training seiner KI-Modelle verwenden, bevor diese in Europa verfügbar werden. Noyb sieht darin einen Missbrauch persönlicher Daten und fordert einen sofortigen Stopp durch die Behörden.

Meta wolle Posts, Bilder und Trackingdaten seiner weltweit vier Milliarden Nutzer seit 2007 für undefinierte KI-Zwecke und die Weitergabe an Dritte verwenden. Statt einer Einwilligung (Opt-in) führt Meta ein berechtigtes Interesse an. Die angebotene Widerspruchsmöglichkeit (Opt-out) sei zudem eine Farce, da sie mehrere komplizierte Schritte erfordere. Laut Noyb-Gründer Max Schrems hätte Meta zuvor aktiv um Zustimmung bitten müssen.

Das Massachusetts Institute of Technology (MIT) hat einen Chatbot entwickelt, der jungen Menschen zwischen 18 und 30 Jahren einen simulierten Dialog mit ihrem 30 Jahre älteren Ich ermöglicht. Ziel ist es herauszufinden, ob dies die Vorstellung des eigenen Zukunfts-Ichs verbessert und Auswirkungen auf das Verhalten hat.

Nach Eingabe persönlicher Ziele und Eigenschaften generiert das zugrundeliegende Sprachmodell passende Antworten aus der Perspektive eines 60-Jährigen. Auch das Profilbild wird gealtert. Die Forschenden wollen so eine engere Verbindung zum vorgestellten Zukunfts-Ich fördern. Studien zeigen, dass dies positive Effekte auf Wohlbefinden, Gesundheit, Finanzen und Lebensqualität haben kann. Der Chatbot soll eine langfristigere Lebensplanung und Entscheidungsfindung unterstützen.

(igr)