KI-Update kompakt: Desinformation, Mensch-Nachweis, Copilot-Fail, Procreate

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 9 Min.
Von
Inhaltsverzeichnis

Meta beobachtet auf seinen Plattformen immer häufiger Desinformationskampagnen, die durch Künstliche Intelligenz (KI) angetrieben werden. Laut einem Gefahren-Bericht des Unternehmens für das zweite Quartal 2024 nutzen Akteure KI vor allem, um automatische Erkennungen zu umgehen. Eine betrügerische Kampagne aus Russland veröffentlichte etwa eine große Zahl an Geschichten auf angeblichen Nachrichtenseiten, die echten Artikeln stark ähnelten. Dabei kamen vermutlich KI-generierte Zusammenfassungen der Originale zum Einsatz, um sie einzigartiger wirken zu lassen. Dieselbe Kampagne erstellte auch KI-generierte News-Videos auf Youtube und erfand fiktive Journalisten mit KI-generierten Fotos.

Eine weitere Kampagne namens "Doppelgänger", die Meta seit zwei Jahren beobachtet, nutzt gefälschte Nachrichten in der Aufmachung bekannter und seriöser Medien. Die Anzeigen werden über mehrere Internetseiten und Social-Media-Kanäle gestreut, wobei die URLs der Newsseiten auf den ersten Blick seriös erscheinen. Diese Kampagne setzte KI-generierte Bilder ein, um eine automatisierte Erkennung zu erschweren, und nutzte wohl auch KI-Tools zur Erstellung und Übersetzung von Beiträgen. Russland bleibt laut Meta die Hauptquelle für globale Desinformationsnetzwerke. Mit Blick auf die anstehenden US-Wahlen geht das Unternehmen davon aus, dass sich russische Kampagnen verstärkt auf die Ukraine konzentrieren werden.

Meta beobachtet insbesondere die mit KI einhergehenden Aktivitäten. Derzeit geht der Konzern davon aus, dass KI hauptsächlich zur Generierung zusätzlicher Inhalte und zur Steigerung der Produktivität von Desinformationskampagnen eingesetzt wird.

AMD plant die Übernahme des US-amerikanischen Serverintegrators ZT Systems für bis zu 4,9 Milliarden US-Dollar, um seine Position im KI-Servermarkt auszubauen. Dabei geht es AMD primär um die 1000 Design-Ingenieure von ZT Systems, die sich um die Serverintegration in großen Rechenzentren kümmern. AMD will dann nicht mehr nur Prozessoren, (KI-)Beschleuniger und Xilinx-Produkte verkaufen, sondern verstärkt beim Bau kompletter Rechensysteme helfen. Der Fokus liegt auf der Skalierung vieler Rechenbeschleuniger zu Supercomputern und der Ansteuerung per Software. ZT Systems arbeitet auch an Kühlkonzepten und Validierungen. Anders als Nvidia plant AMD jedoch nicht, eigene Einschübe oder ganze Rechenschränke zu entwerfen und zu verkaufen.

ZT Systems hat angeblich einen Jahresumsatz von 10 Milliarden US-Dollar, Gewinnmarge und Nettogewinn sind jedoch unbekannt. AMD zahlt für die Übernahme 4,5 Milliarden US-Dollar in Cash und eigenen Aktienanteilen, weitere 400 Millionen US-Dollar fließen bei Erreichen bestimmter Meilensteine. Ab Ende 2025 sollen AMDs Geschäftsberichte die ZT-Systems-Zahlen enthalten.

Forschende von OpenAI, Microsoft, MIT, anderen Technologieunternehmen und akademischen Institutionen haben einen Ansatz entwickelt, um Menschen online anonym von KIs zu unterscheiden.

Sogenannte "Personhood Credentials", kurz PHCs, sind digitale Berechtigungsnachweise, die bestätigen, dass der Inhaber ein echter Mensch ist, ohne weitere Identitätsinformationen preiszugeben. PHCs sollen so KI-gesteuertem Identitätsdiebstahl und einer Bot-Flut entgegenwirken. Sie machen sich zwei grundlegende Defizite von KI zunutze: Zum einen können KI-Systeme Menschen offline nicht überzeugend imitieren, zum anderen können sie moderne Kryptografie nicht umgehen. Daher bedürfe es mehrerer vertrauenswürdiger Herausgeber wie Staaten oder Stiftungen, die nur eine begrenzte Anzahl von PHCs pro Person ausgeben. Wenn ein Benutzer dann eine Website besucht, kann er sich mit seinen PHCs identifizieren.

Um den Schutz der Privatsphäre zu gewährleisten, müssten die PHCs so anonym sein, dass, selbst wenn der Aussteller und die Website zusammenarbeiten, die Person nicht anhand der PHCs identifiziert werden könne. Nach Ansicht der Forscher besteht ein dringender Bedarf für die Entwicklung eines solchen Personenerkennungssystems. Der an dem Papier beteiligte OpenAI-Forscher Steven Adler verweist auf eine Vorhersage von Meta-Chef Mark Zuckerberg, wonach es bald "hunderte Millionen oder Milliarden von KI-Agenten geben wird, die das Internet im Auftrag von Menschen nutzen", und fragt: "Was passiert, wenn er recht hat?" Er empfiehlt daher, PHC-Systeme zu priorisieren, in ihre Entwicklung und Erprobung zu investieren und ihre Akzeptanz zu fördern.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Das Open-Source-Projekt "LeRobot" von HuggingFace hat eine detaillierte Schritt-für-Schritt-Anleitung veröffentlicht, mit der jeder seinen eigenen KI-gesteuerten Roboter bauen kann. Vom Zusammenbau über die Konfiguration bis zum Training des neuronalen Netzes führt die Anleitung durch den gesamten Prozess. Ziel ist es, die Einstiegshürden in die KI-Robotik zu senken und mehr Menschen die Möglichkeit zu geben, von der gemeinsamen Nutzung von Daten und Modellen zu profitieren.

Für die Zukunft plant LeRobot einen noch günstigeren Roboter namens "Moss v1" für nur 150 Dollar sowie ein "Foundational Model" für die Robotik. Dieses soll als Open-Source-Modell die Generalisierungsfähigkeit verbessern und den Bedarf an streng konsistenten Trainingsdaten reduzieren. Laut Projektinitiator Remi Cadene seien durch günstigere Hardware und leistungsfähigere KI-Modelle DIY-KI-Roboter eine vielversprechende Anwendung, um die nächsten gesellschaftlichen und industriellen Fortschritte voranzutreiben.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Ikea hat in Zusammenarbeit mit dem KI- und Robotik-Unternehmen Verity ein verbessertes KI-Drohnensystem für die Lagerhaltung entwickelt. Das System kann in Kooperation mit menschlichen Mitarbeitern selbstständig Inventurarbeiten durchführen. Erste Tests in einem belgischen Distributionszentrum verliefen vielversprechend, sodass das System 2025 an weiteren Standorten eingesetzt werden soll.

Die Drohnen arbeiten mit KI-Algorithmen, um Lagerorte einzelner Produkte zu identifizieren und bildlich festzuhalten. Sie nutzen ein spezielles Indoor-Positionierungssystem zur genauen Standortbestimmung und sind mit einer Hinderniserkennung ausgestattet, um Kollisionen zu vermeiden. Die Drohnenflüge werden im Voraus geplant, um sicher in höheren Lagerebenen navigieren zu können. Ikea will damit die zeitaufwendige und körperlich anstrengende Bestandsaufnahme von Produkten vereinfachen und automatisieren.

Nach erfolgreicher Installation in einem US-Distributionszentrum soll es 2025 auch an weiteren Standorten in Nordamerika und Europa eingeführt werden. Zukünftig sollen die Stückgut- und Regalinspektionsfunktionen weiter erforscht und die Analyse- und Erkenntniskomponente verbessert werden.

Microsofts Copilot hat falsche und diffamierende Antworten über den Journalisten Martin Bernklau generiert. Auf Anfrage bezeichnet der KI-Chatbot Bernklau fälschlicherweise als Kinderschänder, Ausbrecher aus der Psychiatrie und Witwenbetrüger. In Wirklichkeit hatte Bernklau lediglich über Gerichtsverfahren zu diesen Themen berichtet. Die KI verwechselt offenbar den Berichterstatter mit den Angeklagten und gibt sogar die volle Adresse des Journalisten preis.

Bernklau hat Strafanzeige gestellt, ist damit aber abgeblitzt, da kein realer Urheber zu identifizieren ist. Auch nach Intervention des zuständigen Datenschutzbeauftragten bei Microsoft tauchten die falschen Behauptungen nach einigen Tagen wieder auf. Der Fall verdeutlicht ein grundsätzliches Problem für Journalisten, Anwälte, Richter und andere Personen, deren Berufe sie in die Nähe von Angeklagten, Verurteilten oder Menschen mit Problemen bringen.

Laut DSGVO haben Personen in der EU das Recht auf Richtigstellung falscher Informationen und Zugang zu den über sie gespeicherten Daten. KI-Chatbots und Große Sprachmodelle können dem jedoch kaum nachkommen. Selbst wenn die Ausgangsmaterialien als Informationsquellen angegeben würden, wäre der Trugschluss der KI noch nicht bereinigt. Der Fall wirft grundsätzliche Fragen zum Verhältnis von DSGVO und Großen Sprachmodellen auf.

Der KI-Videogenerierungsanbieter Runway hat mit Gen-3 Alpha Turbo eine neue Version seines KI-Videomodells vorgestellt. Diese soll bei vielen Anwendungsfällen eine vergleichbare Leistung wie das Originalmodell bieten, dabei aber siebenmal schneller und nur halb so teuer sein.

Laut Runway definiert das Turbo-Modell die Effizienzgrenze für hochauflösende Videoerzeugung neu und ermöglicht eine Interaktion nahezu in Echtzeit. Ein erster Nutzerbericht zeigt jedoch Vor- und Nachteile des neuen Modells auf: Während es bei stabileren und einfacheren Bewegungen mit weniger Artefakten punktet, hat das Basismodell bei dynamischen Bewegungen und kreativen Ergebnissen noch die Nase vorn. Runway kündigt weitere Verbesserungen des Modells, der Kontrollmechanismen und der Möglichkeiten für Echtzeitinteraktivität an. Das Turbo-Modell ist für alle Runway-Pläne verfügbar, einschließlich der kostenlosen Testversion für neue Nutzer.

Der Anbieter der Malapp Procreate hat generativer KI eine klare Absage erteilt und stellt sich damit gegen den Branchen-Trend. Laut Procreate werde Kreativität "gemacht und nicht generiert", weshalb "niemals" AI-Funktionen in die App integriert werden sollen. Procreate-CEO James Cuda kritisierte die Technik scharf und betonte, generative KI zu hassen sowie die Auswirkungen auf Künstler abzulehnen.

Auf der Webseite vermerkt Procreate, dass generative KI auf "Diebstahl" basiere und eine Bedrohung für die menschliche Kreativität darstelle. Gleichzeitig unterscheidet der Anbieter zwischen "Generative AI" und maschinellem Lernen, letzteres sei eine nützliche und "beeindruckende Technik". Auf besorgte Nutzerfragen versicherte Procreate zudem, keinen Zugriff auf mit der App erstellte Inhalte zu haben und diese nicht zum Training von KI zu verwenden.

(igr)