KI-Update kompakt: Metas KI-Training, Recall, ARC-Preis, KI-Stimmen

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 8 Min.
Von
Inhaltsverzeichnis

Meta plant, alle Inhalte auf Facebook, Instagram und Threads für das Training eigener KI-Modelle zu nutzen. Die Verbraucherzentrale Nordrhein-Westfalen hat eine Abmahnung an Meta geschickt und verlangt eine Unterlassungserklärung, wie die dpa berichtet. Auch der Datenschutzverein noyb von Max Schrems hat Beschwerde eingereicht. Nutzer können der Änderung der Datenschutzerklärung zwar widersprechen, Verbraucher- und Datenschützer kritisieren jedoch die Opt-out-Lösung als umständlich und wenig nutzerfreundlich.

Meta argumentiert mit einem "berechtigten Interesse", da die Daten für die Weiterentwicklung der Dienste benötigt würden. Die Verbraucherzentrale NRW hält dem entgegen, dass die Verwendung privater Daten nicht ohne Einwilligung geschehen dürfe. Zudem hätten Nutzer in der Vergangenheit nicht absehen können, dass ihre Daten für KI-Training genutzt würden. Meta hat nun bis zum 19. Juni 2024 Zeit für eine Unterlassungserklärung, ansonsten droht eine Klage.

Die Verbraucherschützer beanstanden auch eine neue Facebook-Funktion, die Vorschläge zum Teilen von Inhalten macht. Dafür analysiert die App auf Smartphones gespeicherte Fotos und Videos. Diese Funktion lässt sich in den Einstellungen deaktivieren. Der Datenschutzverein noyb fordert in elf europäischen Ländern ein Dringlichkeitsverfahren, um die Nutzung der Daten für KI-Training zu stoppen. Meta will alle seit 2007 gesammelten Inhalte für nicht näher definierte KI-Technologien verwenden. Die DSGVO verlangt jedoch die Nennung eines konkreten Zwecks der Datenverarbeitung.

Nach anhaltender Kritik an der geplanten "Recall"-Funktion für Windows 11 lenkt Microsoft ein. Die automatische Speicherung von Screenshots und deren KI-Auswertung wird zu einem Opt-in-Feature. Laut Windows-Chef Pavan Davuluri sollen die Bildschirmfotos besser geschützt und die Recall-Datenbank verschlüsselt werden. Derzeit ist es noch möglich, sowohl die Screenshots als auch die SQLite-Daten von Recall ohne Einschränkungen zu durchsuchen.

Um den Zugriff auf die Recall-Daten zu beschränken, soll eine Anwesenheitsbestätigung per Windows Hello erforderlich sein. Bei der Ersteinrichtung von Windows wird auf die Funktion und deren Besonderheiten hingewiesen. Microsoft betont, dass die Privatsphäre auch bei Nutzung von Recall geschützt bleibe und die Daten immer auf dem Gerät verbleiben. Bei zentral verwalteten PCs kann der Administrator Recall nur aus-, aber nicht einschalten. Die Aktivierung soll dem Benutzer vorbehalten sein.

Microsoft verspricht an mehreren Stellen, dass die Recall-Daten nicht in die Cloud übertragen werden. Dies hatte Microsofts Forschungschefin Jaime Teevan vor Kurzem noch anders dargestellt. Eine Stellungnahme von CEO Satya Nadella, der Recall zuvor als "fotografisches Gedächtnis eines PCs" angepriesen hatte, steht noch aus. Die Funktion wird Mitte Juni 2024 mit den ersten PCs mit Copilot+ erscheinen, vorerst nur mit ARM-Chips der Serie Snapdragon X von Qualcomm.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Stability AI hat Stable Diffusion 3 Medium veröffentlicht. Das KI-Bildmodell mit zwei Milliarden Parametern läuft lokal auf PCs mit entsprechender Hardware wie GPUs oder den neuen KI-Prozessoren von AMD. Laut Stability AI wurde SD3 Medium speziell entwickelt, um Bereiche zu verbessern, in denen frühere Modelle Schwierigkeiten hatten. Dazu gehören ein verbesserter Fotorealismus, insbesondere bei Händen und Gesichtern, sowie robustere Ergebnisse bei der Typografie. Das Modell kann unter einer nicht kommerziellen Forschungslizenz und einer Creator-Lizenz von HuggingFace heruntergeladen werden. Die Creator-Lizenz beginnt bei 20 US-Dollar pro Monat für Unternehmen mit weniger als einer Million US-Dollar Jahresumsatz, weniger als einer Million Investitionen und weniger als einer Million aktiven Nutzern pro Monat. Für den kommerziellen Einsatz in größerem Umfang ist eine Enterprise-Lizenz erforderlich.

Die KI-Forscher François Chollet von Google und Mike Knoop haben den mit einer Million US-Dollar dotierten ARC-Preis für die Entwicklung einer adaptiven Künstlichen Intelligenz gestartet. Ziel ist es, eine KI zu schaffen, die sich an neue Situationen anpassen und einfache Denkaufgaben lösen kann.

Laut Chollet soll der Wettbewerb die KI-Forschung wieder in Richtung einer allgemeinen künstlichen Intelligenz (AGI) lenken. Heutige KI-Systeme wie GPT-4o lernten vor allem Muster aus Daten auswendig und wendeten diese auf neue Eingaben an. Bei neuen Elementen stoße dieser Ansatz jedoch an Grenzen. Das Wesen der Intelligenz sei es jedoch, sich an Unerwartetes anzupassen, auch wenn keine auswendig gelernte Lösung zur Verfügung stehe. Eine KI, die sich nicht an Neues anpassen könne, werde nie mit der Variabilität der realen Welt umgehen können, so Chollet.

Der ARC-Preis baut auf dem bereits 2019 von Chollet veröffentlichten ARC-Benchmark auf, dessen Aufgaben für Menschen einfach, für moderne KI-Systeme aber schwierig zu lösen sind. Der Preis soll den Fokus von Systemen, die Menschen in Einzelaufgaben übertreffen, hin zu KI mit menschenähnlichen kognitiven Fähigkeiten verschieben.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Das KI-Start-up Luma Labs hat den Videogenerator "Dream Machine" vorgestellt, der mittels Text- und Bildeingaben hochwertige und realistische Videos erstellen kann. Die Länge der Videos ist derzeit auf 5 Sekunden begrenzt. Dream Machine ermöglicht es zudem, mit einer Vielzahl von fließenden, filmischen Kamerabewegungen zu experimentieren. Allerdings gibt es noch Einschränkungen in Bezug auf Konsistenz der Objekte während der Bewegung, die Bewegung selbst, die Textdarstellung und einen "Janus-Effekt", bei dem generierte Objekte manchmal zwei Köpfe haben.

Luma Labs plant, den Videogenerator weiter zu verbessern. Dream Machine ist das erste von mehreren geplanten "Frontier Generative Models" von Luma Labs. Das Start-up ist bisher für die Anwendung generativer KI im 3D-Modellierungsprozess bekannt, insbesondere mit NeRFs und einer Text-zu-3D-Schnittstelle namens Genie. Mit dem Videogenerator betritt Luma Labs nun ein neues Feld, in dem zuletzt Sora und KLING für einen Qualitätssprung sorgten, auch wenn diese noch nicht öffentlich zugänglich sind. Eine kostenlose Testversion von Dream Machine ist nach einem Google-Login auf der Website des Start-ups verfügbar.

Forschende der Universität Zürich haben herausgefunden, dass das Gehirn auf künstlich hergestellte Stimmen-Kopien anders reagiert als auf natürliche Stimmen, obwohl Menschen die Klone oft als natürlich wahrnehmen. Je nachdem, ob eine natürliche Stimme oder eine Kopie erklingt, sind verschiedene Hirnareale unterschiedlich aktiv. Die Forschenden identifizierten zwei Regionen, die auf die akustischen Signale verschieden reagieren.

Um die Stimmklone zu erzeugen, übertrug das Team paralinguistische Merkmale wie Tonhöhe, Sprechpausen oder Intonation von natürlichen Stimmen auf das linguistische Material eines professionellen Sprechers. So kann die geklonte Stimme Sätze sagen, die die Originalperson nie ausgesprochen hat. Zur Erstellung der Klone wurde die quelloffene Voice-Conversion-(VC-)Software SPROCKET genutzt.

In einer Studie mit 25 Probanden sollten diese natürlichen Stimmen von Klonen unterscheiden. Die Teilnehmenden erkannten die gefälschten Identitäten in zwei Dritteln der Fälle korrekt, was laut Claudia Roswandowitz von der Universität Zürich verdeutlicht, dass aktuelle Deepfake-Stimmen zwar nicht perfekt die Identität imitieren, aber das Potenzial haben, die menschliche Wahrnehmung zu täuschen. Bei der Untersuchung der Hirnaktivität zeigte sich, dass der Nucleus Accumbens, Teil des Belohnungssystems, besonders aktiv war, wenn natürliche Stimmen erklangen.

Der auditorische Cortex hingegen war aktiver bei Kopien natürlicher Stimmen, vermutlich um fehlende akustische Signale auszugleichen. Die Forschenden schließen daraus, dass der Fake-Anteil in geklonten Stimmen das Hörvergnügen reduziert. Die identifizierten neuronalen Mechanismen verdeutlichen laut Roswandowitz die menschliche Widerstandsfähigkeit gegenüber gefälschten Informationen im Alltag.

(igr)