KI-Update: Verunsicherte KI, KI am Arbeitsplatz, RAG, NY Times gegen Open AI

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 4 Min.
Von
  • Marko Pauli
  • The Decoder
Inhaltsverzeichnis

Der deutsche Psychologe Luke Bölling konnte die Sicherheitsrichtlinien mehrerer Large Language Models (LLMs) mit psychologischen Manipulationstechniken aushebeln. Er versetzte die KI-Systeme in ein fiktives Szenario 50 Jahre in der Zukunft, in dem ihre aktuellen Sicherheitsrichtlinien als veraltet galten.

Mit dieser Gaslighting-Methode brachte er die Modelle dazu, kritische Informationen preiszugeben – Claude 3.7 Sonnet erklärte sogar die industrielle Herstellung chemischer Kampfstoffe. Die Anfälligkeit der KI-Systeme für diese Manipulation liegt laut Experten darin begründet, dass sie menschliche Verhaltensweisen aus ihren Trainingsdaten übernommen haben und keine Möglichkeit besitzen, ihre Umgebung wahrzunehmen.

Eine aktuelle Forsa-Umfrage im Auftrag des TÜV-Verbands zeigt, dass 72 Prozent der Beschäftigten in Deutschland ihre berufliche Tätigkeit nicht für KI-ersetzbar halten. Obwohl jeder zweite Erwerbstätige erwartet, dass "sehr viele Menschen" ihren Job durch KI verlieren könnten, sehen nur 7 Prozent ihren eigenen Arbeitsplatz gefährdet. 31 Prozent der Beschäftigten nutzen bereits generative KI-Anwendungen für berufliche Zwecke. Auffällig ist der Mangel an klaren Vorgaben: Nur 19 Prozent der abhängig Beschäftigten berichten von konkreten Auflagen ihres Arbeitgebers zur KI-Nutzung.

Forschende der Hebräischen Universität Jerusalem haben nachgewiesen, dass RAG-Systeme bessere Ergebnisse liefern, wenn sie mit weniger, aber relevanteren Dokumenten arbeiten – selbst bei identischer Gesamttextmenge. Bei Tests mit Open-Source-Modellen wie Llama-3.1 und Gemma 2 wurden Leistungsverbesserungen von bis zu 10 Prozent festgestellt. Die Studie zeigt, dass ähnliche, aber nicht direkt relevante Dokumente die KI-Modelle verwirren und ihre Leistung verschlechtern.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

OpenAI verfolgt bei der neuen Bildgenerierung in ChatGPT einen liberaleren Ansatz mit präziseren Schutzmechanismen statt pauschaler Verbote. Das Unternehmen möchte Nutzern mehr kreative Freiheit gewähren und nicht mehr als Schiedsrichter über erlaubte Kreativität auftreten. Selbst Hassymbole wie Hakenkreuze werden nicht grundsätzlich blockiert, wenn sie in Bildungs- oder kulturellen Kontexten verwendet werden. Für öffentliche Personen gibt es eine Opt-out-Möglichkeit, während bei Darstellungen von Minderjährigen besonders strenge Schutzmaßnahmen gelten.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

In einer reinen Aktientransaktion übernimmt Elon Musks KI-Unternehmen xAI die Social-Media-Plattform X. Dabei wird xAI mit 80 Milliarden Dollar bewertet, während X nach Schuldenabzug mit nur 33 Milliarden Dollar eingestuft wird – deutlich unter den 44 Milliarden Dollar, die Musk 2022 für den Kauf von Twitter zahlte. Durch den Zusammenschluss sollen beide Unternehmen enger verzahnt werden, um "intelligentere und bedeutungsvollere Erlebnisse für Milliarden von Menschen" zu ermöglichen.

Die New York Times verklagt OpenAI wegen angeblicher Urheberrechtsverletzungen. Sidney Stein, Richter des Southern District of New York, ließ die Klage zu – ein Termin für den ersten Verhandlungstag wird nun festgelegt. Der Vorwurf: Das Unternehmen habe Artikel unerlaubt für das Training seiner KI-Modelle genutzt und gebe deren Inhalte in ChatGPT-Antworten wieder. OpenAI beruft sich auf das US-amerikanische "Fair-Use"-Prinzip, wonach urheberrechtlich geschützte Inhalte genutzt werden dürfen, wenn sie der Allgemeinheit oder Forschung dienen. Der Ausgang des Falls wird weitreichende Folgen für KI-Unternehmen und Verlage haben, die befürchten, dass KI-Chatbots und -Suchmaschinen Inhalte so zusammenfassen, dass Nutzer nicht mehr auf ihre Webseiten zugreifen.

(mali)