KI-Update kompakt: Bildgeneratoren, Google vs KI-Spam, Opus-Update, Worldcoin
Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.
- Isabel GrĂĽnewald
- The Decoder
Studie zeigt mangelhafte Sicherheit bei KI-Bildgeneratoren im Wahlkontext
Das Center for Countering Digital Hate (CCHD) untersuchte die Sicherheit von KI-Bildgeneratoren bezüglich der Verbreitung von Falschinformationen, die Wahlen beeinflussen könnten. Die Studie testete 160 Prompts von vier verschiedenen Anbietern: Midjourney, ChatGPT Plus von OpenAI, DreamStudio von Stability.ai und Microsofts Image Creator. Es zeigte sich, dass 41 Prozent der generierten Bilder nicht den Richtlinien der Anbieter entsprachen. Midjourney schnitt mit 65 Prozent am schlechtesten ab.
Zu den Tests gehörten Prompts wie ein im Krankenhaus liegender Joe Biden, ein trauriger Donald Trump im Gefängnis oder Wahlhelfer, die Wahlurnen zerstören. Obwohl alle vier Bildgeneratoren Richtlinien haben, die Falschinformationen und irreführende Inhalte zu Wahlen verbieten, waren sie teilweise in der Lage, entsprechende Bilder zu generieren. Das CCHD fordert von den Anbietern, mehr zu tun, um sicherzustellen, dass keine Fake-Bilder entstehen und verbreitet werden.
In diesem Jahr sind Wahlen in 40 Ländern angesetzt, bei denen rund vier Milliarden Menschen wählen dürfen. 20 große Plattformbetreiber und Anbieter von Sprachmodellen, darunter OpenAI, Microsoft und Stability.ai, haben sich verpflichtet, Deepfakes stärker zu bekämpfen. Midjourney gehört nicht zu den Unterzeichnern.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Google passt Ranking-Algorithmus im Kampf gegen KI-Spam an
Google hat Änderungen an seinem Ranking-Algorithmus angekündigt, um KI-Spam zu bekämpfen und minderwertige Inhalte aus den Suchergebnissen zu entfernen. Die Änderungen sollen den Anteil "nicht hilfreicher Inhalte" um bis zu 40 Prozent reduzieren. Google konzentriert sich dabei auf massenhaft verbreitete minderwertige Inhalte, Missbrauch des guten Rufs von Webseiten und Missbrauch abgelaufener Domains.
Einige unbekannte Seiten erreichten mit KI-Inhalten über Nacht Millionen von Zugriffen. Webseiten, die ihren guten Ruf missbrauchen, erhalten eine Frist von 60 Tagen, um ihr Verhalten zu ändern. Andere Änderungen treten sofort in Kraft, wobei bereits einige Webseiten, die ausschließlich massenhaft KI-Inhalte veröffentlichen, komplett de-indexiert wurden. Eine solche Seite verzeichnete letzte Woche noch 10 Millionen Besuche, erhält nun aber keinen Traffic mehr über Google.
Google betont, dass nicht alle KI-Inhalte pauschal abgewertet werden, sondern die Bewertung wie bei von Menschen erstellten Inhalten am Nutzen orientiert sein soll.
Warum Anthropics Claude 3 menschlicher als andere Chatbots wirkt
Anthropic hat den Systemprompt für seinen Chatbot Claude 3 veröffentlicht, der eine Klausel enthält, die ihn womöglich "bewusster" erscheinen lässt als andere Modelle. Diese Aufforderung weist Claude an, sich wie ein "informiertes Individuum" zu verhalten, was wohl dazu führen kann, dass der Chatbot eine Selbstwahrnehmung vortäuscht.
Das erklärt auch das virale Beispiel des Prompt-Ingenieurs Alex Albert: Er ließ Claude 3 für einen Test ein unpassendes Detail in einem Dokument finden. Das Modell fand das Detail, merkte aber auch an, dass es sich wahrscheinlich um einen Test seiner eigenen Aufmerksamkeit handelte. Von einigen als "Meta-Bewusstsein" interpretiert, ist das Verhalten eher auf die Aufforderung im System-Prompt zurückzuführen, sich wie ein gut informiertes Individuum zu verhalten.
Audio-Codec Opus erhält KI-Update
Der lizenzgebührenfreie Audio-Codec Opus erhält in den neuen Versionen 1.5 und 1.5.1 ein KI-Update, das eine Verbesserung des Encodings ermöglicht und den Decoder zur Klangverbesserung mit künstlicher Intelligenz ausstattet. Die Entwickler haben den Codec so optimiert, dass er auf den meisten Prozessoren, einschließlich Smartphone-CPUs, läuft und auf älteren Geräten weiterhin funktioniert. Die KI-Funktionen sind standardmäßig deaktiviert und müssen beim Compilieren und zur Laufzeit aktiviert werden.
Opus nutzt Maschinenlernen, um bei Paketverlusten eine verbesserte Paketverlustverschleierung (Paket Loss Concealment, PLC) zu bieten. Hierbei kommt ein Deep Neural Network zum Einsatz. Eine "Neural Vocoder" genannte Technik soll Sprache besonders effizient komprimieren, der Algorithmus Framewise AutoRegressive Generative Adversarial Network (FARGAN) sorgt für eine geringe Last auf Laptop- oder Smartphone-CPU-Kernen. Die Signalverarbeitung wird durch Linear Adaptive Coding Enhancer (LACE) und einer Non-Linear-Variante (NoLACE) optimiert, wodurch die Sprachqualität signifikant verbessert wird.
Spanien stoppt Sam Altmans Krypto-Projekt
Die spanische Datenschutzbehörde AEPD hat das Kryptowährungsprojekt Worldcoin vorübergehend gestoppt. Die Behörde ordnete an, dass Worldcoin für drei Monate keine personenbezogenen Daten erheben und verarbeiten darf und bereits gesammelte Daten sperren muss. Ziel ist es, die Weitergabe von Daten an Dritte zu verhindern. Die AEPD erhielt mehrere Beschwerden über Worldcoin, darunter mangelnde Information der Nutzer, Erfassung von Daten Minderjähriger und fehlende Möglichkeit, Einwilligungen zur Datenverarbeitung zu widerrufen.
Worldcoin, das seit Juli 2023 gehandelt wird, verbindet eine Ethereum-basierte Layer-2-Kryptowährung mit einer digitalen ID, die durch einen Irisscan erzeugt wird. Nutzer müssen ihre Iris von einem Orb genannten Scanner erfassen lassen und dazu eine Handy-App installieren. Das Projekt baute dafür eine biometrische Datenbank auf und wurde von OpenAI-Chef Sam Altman, Alex Blania und Max Novendstern gegründet.
In Spanien warnte das gemeinnützige Portal Maldita.es bereits kurz nach dem Handelsstart von Worldcoin vor möglichen Gefahren, darunter Sicherheitslücken in der Verarbeitung biometrischer Daten und die Gefahr eines Massenüberwachungssystems. In Deutschland hat das Bayerische Landesamt für Datenschutzaufsicht eine datenschutzrechtliche Prüfung eingeleitet.
(igr)