KI-Update kompakt: KI-Urheberrechtsstreit, Limitless, Deep-Research, Politik

Das "KI-Update" liefert drei mal pro Woche eine Zusammenfassung der wichtigsten KI-Entwicklungen.

vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 5 Min.
Von
Inhaltsverzeichnis

Der Kampf um KI und Urheberrecht nimmt Fahrt auf. In den USA muss OpenAI 20 Millionen Chat-Protokolle herausgeben. Die New York Times will anhand dieser Protokolle prüfen, ob ChatGPT urheberrechtlich geschützte Artikel wortwörtlich wiedergegeben hat. Parallel dazu hat die Zeitung auch Klage gegen die KI-Suchmaschine Perplexity eingereicht. Bei Perplexity geht es um ein ähnliches Problem: Die KI-Suchmaschine nutzt komplette Nachrichtenartikel, um Nutzeranfragen zu beantworten.

Noch schlimmer: Perplexity halluziniert manchmal und die falschen Ergebnisse werden der Zeitung zugeschrieben. Den Medienhäusern geht es nicht darum, der KI komplett zu verbieten, ihre Inhalte zu nutzen. Sie wollen, dass KI-Firmen Lizenzabkommen abschließen und dafür bezahlen. Meta hat bereits etliche neue Verträge unterschrieben, unter anderem mit USA Today, CNN und Fox News.

Das Berliner Abgeordnetenhaus hat eine Novelle des Allgemeinen Sicherheits- und Ordnungsgesetzes beschlossen. Die Reform stattet die Polizei mit Befugnissen aus, die tief in die Grundrechte eingreifen. Der neue Paragraf 28a erlaubt der Polizei den biometrischen Abgleich von Gesichtern und Stimmen mit öffentlich zugänglichen Daten aus dem Internet.

Damit kann die Polizei etwa mit Material aus der Videoüberwachung automatisierte Suchen in sozialen Netzwerken durchführen. Außerdem ermöglicht der neue Paragraf 42d die Weiterverarbeitung von personenbezogenen Daten zum Training von KI-Systemen. Datenschützer kritisieren dies scharf, da KI-Modelle oft Rückschlüsse auf die Trainingsdaten zulassen.

Der CDU-Landtagswahl-Spitzenkandidat Sven Schulze in Sachsen-Anhalt will künftig stärker auf KI setzen, um Anschläge besser zu verhindern. KI solle herausfinden, ob jemand einen Ort vorab ausspäht. Dabei greifen derartige Systeme auf die Bewegungsmuster der Besucher zurück. Alle Menschen werden gefilmt und ihr Verhalten wird bewertet. Experten und Datenschützer gehen davon aus, dass dabei die umstrittene Software des US-Unternehmens Palantir zum Einsatz kommen könnte. Sie wird bereits in Bayern, Hessen und Nordrhein-Westfalen eingesetzt.

Meta hat das Startup Limitless übernommen und nimmt dessen Produkte sofort vom Markt. Limitless, vormals bekannt als Rewind, entwickelte tragbare Anhänger, die den Alltag der Nutzer aufzeichnen und mittels KI durchsuchbar machen. Der Verkauf ist gestoppt, die zugehörige Software wird eingestellt; Bestandskunden bleibt lediglich eine einjährige Nutzungsfrist. Das Interesse des Konzerns dürfte weniger der Hardware gelten als vielmehr den gesammelten Erfahrungen mit „Always-on“-Geräten und der technischen Auswertung permanenter Audio-Streams.

Das US-Telekommunikationsunternehmen Securus hat ein KI-Modell anhand jahrelang aufgezeichneter Telefon- und Videoanrufe amerikanischer Gefängnisinsassen trainiert. Jetzt testet es dieses Modell, um Anrufe, SMS und E-Mails der Häftlinge zu scannen. So sollen Straftaten vorhergesagt und verhindert werden. Aktivisten für Strafgefangene meinen, dass Securus bereits in der Vergangenheit die Bürgerrechte von Gefangenen verletzt hat. Leaks zeigten, dass es Tausende Anrufe zwischen Insassen und ihren Anwälten unrechtmäßig aufgezeichnet habe.

Podcast: KI-Update
KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Eine Studie des chinesischen Smartphoneherstellers Oppo deckt systematische Schwächen von Deep-Research-Systemen auf. Das Problem: Fast ein Fünftel aller Fehler entsteht, weil die Systeme plausibel klingende, aber erfundene Inhalte generieren. Ein System plant etwa eine umfassende Datenbank-Analyse, kann dann aber nicht auf die Datenbank zugreifen. Statt die Strategie anzupassen, füllt es alle geplanten Abschnitte mit selbst generierten Inhalten.

Eine Untersuchung der UC Berkeley, der Stanford University und von IBM Research zeigt: Statt autonomer Super-Systeme dominieren im Alltag der Unternehmen einfache Workflows mit viel menschlicher Kontrolle. 68 Prozent der untersuchten produktiven Agenten führen höchstens zehn Schritte aus, bevor ein Mensch eingreifen muss. Das Hauptproblem bleibt die Zuverlässigkeit. 74 Prozent der produktiven Agenten werden deshalb primär von Menschen bewertet.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Die KI-Suchmaschine Perplexity hat ein Sicherheitssystem für Browser-Agenten vorgestellt. Ein akutes Problem: Sie sehen mehr auf Webseiten als die Nutzer, etwa weiße Schrift auf weißem Grund. So können Angreifer bösartige Befehle verstecken. Der KI-Agent interpretiert diese dann fälschlich als Nutzeranweisungen. Das neue System namens BrowseSafe soll solche Angriffe erkennen, bevor sie Schaden anrichten.

KI-Chatbots können politische Ansichten von Menschen in kurzen Konversationen womöglich effektiver ändern als traditionelle Wahlwerbung. Forscher befragten Menschen zu ihren politischen Überzeugungen und ließen sie danach mit Chatbots diskutieren, die darauf trainiert waren, diese Meinung zu ändern. Bei den Befragungen danach konnten teilweise große Verschiebungen bei den politischen Meinungen konstatiert werden. Was besonders auffallend war: Die Chatbots argumentierten sehr mit vorgeblichen Fakten, aber ungefähr ein Drittel der Antworten war falsch.

Menschliche Fähigkeiten wie Kreativität und Empathie sollen laut dem Weltwirtschaftsforum im Jahr 2030 an erster Stelle stehen, noch vor KI-Kompetenzen. Der Bericht betont jedoch auch, dass gerade diese Kompetenzen in Bildungssystemen bisher zu wenig gefördert werden. Umfragen bestätigen, dass bei Unternehmen schon heute eine hohe Nachfrage nach qualifizierten menschlichen Kompetenzen besteht, während das Angebot nicht mithalten kann.

(igr)