KI-Update: Verunsicherte KI, KI am Arbeitsplatz, RAG, NY Times gegen Open AI
Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.
Neuer LLM-Jailbreak: Mit psychologischem Gaslighting gegen KI-Filter
Der deutsche Psychologe Luke Bölling konnte die Sicherheitsrichtlinien mehrerer Large Language Models (LLMs) mit psychologischen Manipulationstechniken aushebeln. Er versetzte die KI-Systeme in ein fiktives Szenario 50 Jahre in der Zukunft, in dem ihre aktuellen Sicherheitsrichtlinien als veraltet galten.
Mit dieser Gaslighting-Methode brachte er die Modelle dazu, kritische Informationen preiszugeben – Claude 3.7 Sonnet erklärte sogar die industrielle Herstellung chemischer Kampfstoffe. Die Anfälligkeit der KI-Systeme für diese Manipulation liegt laut Experten darin begründet, dass sie menschliche Verhaltensweisen aus ihren Trainingsdaten übernommen haben und keine Möglichkeit besitzen, ihre Umgebung wahrzunehmen.
KI am Arbeitsplatz: Mehrheit der Bundesbürger hält sich für unersetzlich
Eine aktuelle Forsa-Umfrage im Auftrag des TÜV-Verbands zeigt, dass 72 Prozent der Beschäftigten in Deutschland ihre berufliche Tätigkeit nicht für KI-ersetzbar halten. Obwohl jeder zweite Erwerbstätige erwartet, dass "sehr viele Menschen" ihren Job durch KI verlieren könnten, sehen nur 7 Prozent ihren eigenen Arbeitsplatz gefährdet. 31 Prozent der Beschäftigten nutzen bereits generative KI-Anwendungen für berufliche Zwecke. Auffällig ist der Mangel an klaren Vorgaben: Nur 19 Prozent der abhängig Beschäftigten berichten von konkreten Auflagen ihres Arbeitgebers zur KI-Nutzung.
RAG-Systeme: Weniger Dokumente fĂĽhren zu besseren Ergebnissen
Forschende der Hebräischen Universität Jerusalem haben nachgewiesen, dass RAG-Systeme bessere Ergebnisse liefern, wenn sie mit weniger, aber relevanteren Dokumenten arbeiten – selbst bei identischer Gesamttextmenge. Bei Tests mit Open-Source-Modellen wie Llama-3.1 und Gemma 2 wurden Leistungsverbesserungen von bis zu 10 Prozent festgestellt. Die Studie zeigt, dass ähnliche, aber nicht direkt relevante Dokumente die KI-Modelle verwirren und ihre Leistung verschlechtern.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
OpenAI erklärt die Bildregeln des neuen GPT-4o in ChatGPT
OpenAI verfolgt bei der neuen Bildgenerierung in ChatGPT einen liberaleren Ansatz mit präziseren Schutzmechanismen statt pauschaler Verbote. Das Unternehmen möchte Nutzern mehr kreative Freiheit gewähren und nicht mehr als Schiedsrichter über erlaubte Kreativität auftreten. Selbst Hassymbole wie Hakenkreuze werden nicht grundsätzlich blockiert, wenn sie in Bildungs- oder kulturellen Kontexten verwendet werden. Für öffentliche Personen gibt es eine Opt-out-Möglichkeit, während bei Darstellungen von Minderjährigen besonders strenge Schutzmaßnahmen gelten.
Elon Musks KI-Firma xAI kauft Elon Musks Social-Plattform X
In einer reinen Aktientransaktion übernimmt Elon Musks KI-Unternehmen xAI die Social-Media-Plattform X. Dabei wird xAI mit 80 Milliarden Dollar bewertet, während X nach Schuldenabzug mit nur 33 Milliarden Dollar eingestuft wird – deutlich unter den 44 Milliarden Dollar, die Musk 2022 für den Kauf von Twitter zahlte. Durch den Zusammenschluss sollen beide Unternehmen enger verzahnt werden, um "intelligentere und bedeutungsvollere Erlebnisse für Milliarden von Menschen" zu ermöglichen.
New York Times gegen OpenAI: Richter lässt Hauptforderungen zu
Die New York Times verklagt OpenAI wegen angeblicher Urheberrechtsverletzungen. Sidney Stein, Richter des Southern District of New York, ließ die Klage zu – ein Termin für den ersten Verhandlungstag wird nun festgelegt. Der Vorwurf: Das Unternehmen habe Artikel unerlaubt für das Training seiner KI-Modelle genutzt und gebe deren Inhalte in ChatGPT-Antworten wieder. OpenAI beruft sich auf das US-amerikanische "Fair-Use"-Prinzip, wonach urheberrechtlich geschützte Inhalte genutzt werden dürfen, wenn sie der Allgemeinheit oder Forschung dienen. Der Ausgang des Falls wird weitreichende Folgen für KI-Unternehmen und Verlage haben, die befürchten, dass KI-Chatbots und -Suchmaschinen Inhalte so zusammenfassen, dass Nutzer nicht mehr auf ihre Webseiten zugreifen.
(mali)