KI-Update kompakt: Deepfakes, Reka Core, Wissenskollaps, Atlas
Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.
Kampf gegen KI-Deepfakes
Das Oversight Board von Meta Platforms untersucht das Vorgehen des Unternehmens bei KI-generierten Bildern und Videos berühmter Persönlichkeiten.
In einem Fall reagierte Meta erst nach Intervention des Gremiums und löschte das Bild wegen Verstoßes gegen Richtlinien zu Mobbing und Belästigung. Im anderen Fall entfernte Meta ein Bild selbst, aber der Nutzer protestierte dagegen.
Das Gremium sieht in Deepfake-Pornografie ein wachsendes Problem geschlechtsspezifischer Belästigung im Internet und will prüfen, ob Metas Richtlinien und Durchsetzung dies wirksam adressieren. Die Plattformen haben zunehmend Schwierigkeiten mit der Moderation von irreführendem und KI-generiertem Content. Ein Beispiel ist ein manipuliertes Biden-Video, das trotz Prüfung online blieb, da Metas Regeln dafür nicht ausreichten.
Während Meta die Vorfälle untersucht, will die britische Regierung Nägel mit Köpfen machen und die Generierung von sexualisierten Deepfakes unter Strafe stellen, auch wenn die Inhalte nicht mit anderen geteilt werden sollen.
Das Justizministerium kündigte an, dieses Verbot durch eine Ergänzung des Criminal Justice Bill umzusetzen. Somit würden Erstellung und Verbreitung solcher Inhalte als separate Vergehen behandelt, die jeweils mit Geldstrafen ohne Obergrenze oder Haftstrafen geahndet werden können.
Laura Farris, zuständige Staatssekretärin für den Gesetzentwurf, bezeichnet die Herstellung derartiger Bilder als verwerflich und inakzeptabel, ungeachtet einer möglichen Verbreitung. Sie betont die potenziell verheerenden Konsequenzen und stuft das Vorgehen als unmoralisch, frauenfeindlich und kriminell ein.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Das nächste multimodale KI-Modell Reka Core
Das KI-Start-up Reka hat mit Reka Core ein neues multimodales Sprachmodell vorgestellt. Es kann neben Text und Bildern auch Video und Audio verstehen und soll in Benchmarks mit GPT-4 und anderen führenden Modellen mithalten können.
Laut Reka handelt es sich bei Reka Core um das bisher leistungsstärkste Modell des Unternehmens. Es wurde in nur wenigen Monaten von Grund auf neu entwickelt und hauptsächlich auf Nvidias H100- und A100-GPUs trainiert. In ersten Benchmarks kann sich Reka Core mit führenden Modellen wie GPT-4, Claude 3 von Anthropic und Gemini Ultra von Google messen. Beim MMLU-Benchmark für allgemeines Sprachverständnis erreicht es eine Genauigkeit von 83,2 Prozent und liegt damit nur knapp hinter GPT-4, das 86,4 Prozent erreicht.
Neben dem Spitzenmodell Reka Core stellte das Start-up auch die kleineren Modelle Reka Flash und Reka Edge vor, die trotz geringerer Parameterzahl in Benchmarks viele größere Modelle übertreffen.
Apples Lizenzdeal mit Shutterstock
Apple hat einen Deal im Wert von 25 Millionen bis 50 Millionen US-Dollar mit dem Bildlizenzierer Shutterstock abgeschlossen, um Zugang zu qualitativ hochwertigen KI-Trainingsdaten zu erhalten. Der Vertrag wurde Berichten zufolge bereits Ende 2022 unterzeichnet und beinhaltet möglicherweise zusätzliche Zahlungen pro Aufnahme. Ein weiterer Vertrag mit Photobucket, das über 13 Milliarden Fotos und Videos verfügt, steht ebenfalls im Raum.
Mit diesem Schritt möchte Apple potenzielle Lizenzierungs- und Urheberrechtsprobleme vermeiden und setzt auf ethisch unbedenkliche Quellen für das Training seiner KI-Modelle. Der Technologiekonzern plant, generative KI in iOS 18, iWork-Programmen und der Sprachassistentin Siri zu integrieren. Details zu Apples KI-Strategie werden zur Entwicklerkonferenz WWDC im Juni erwartet. Bisher war das Unternehmen im Vergleich zur Konkurrenz zurückhaltend, was den Einsatz generativer KI betrifft.
Forscher warnt vor „Wissenskollaps“ durch große Sprachmodelle
Große Sprachmodelle und KI-Systeme verändern derzeit die Art und Weise, wie wir Wissen generieren und vermitteln – und wo sie es noch nicht tun, werden sie es in den nächsten Jahren. Doch der Forscher Andrew Peterson warnt vor einem möglichen "Wissenskollaps" durch den massiven Einsatz dieser Technologien.
Peterson befürchtet, dass die Verwendung von KI zu einer Homogenisierung und Einschränkung des öffentlich verfügbaren Wissens führen könnte. Besonders besorgniserregend sei der potenzielle Verlust von sogenanntem "Long-tail"-Wissen - also seltenem oder spezialisiertem Wissen, das möglicherweise nicht in den Hauptdatensätzen enthalten ist, mit denen KI-Modelle trainiert werden. Der Wissenskollaps, so Peterson, sei eine fortschreitende Verringerung der verfügbaren Informationsmenge und des "epistemischen Horizonts" – also der Menge an Wissen, die eine Gemeinschaft für möglich und wissenswert hält. Faktoren wie rekursiv abhängige KI-Systeme, bei denen die Ausgabe eines Systems als Eingabe für das nächste dient, und günstige KI-Inhalte könnten diesen Effekt noch verstärken.
Peterson empfiehlt mehrere Ansätze, um einen solchen Wissenskollaps zu verhindern: Zunächst müssten Menschen aktiv daran arbeiten, Nischenwissen und ungewöhnliche Perspektiven zu bewahren, um die Vielfalt des Wissens zu erhalten. KI-Systeme sollten zudem so konzipiert werden, dass sie die gesamte Bandbreite des Wissens möglichst repräsentativ abbilden und nicht nur den Mainstream fokussieren. Auch rekursive Abhängigkeiten zwischen KI-Systemen müssten verhindert werden, um eine stärkere Verzerrung des Wissens zu vermeiden.
Insbesondere beim Einsatz von KI in der Bildung sei es laut Peterson wichtig, nicht nur den Wahrheitsgehalt, sondern auch die Varianz und Verzerrung der KI-generierten Antworten zu berĂĽcksichtigen.
Google Deepmind zeigt ALOHA Unleashed
Google Deepmind zeigt ALOHA Unleashed, eine neue Generation von KI-gesteuerten Robotern mit beeindruckender Fingerfertigkeit.
Diese stellen die Roboter in einer Reihe von Videos unter Beweis: Sie hängen selbstständig Hemden auf, setzen präzise Zahnräder ein und können die Schleife mit einem Schnürsenkel binden. Die Roboter sind sogar in der Lage, auf untrainierte Objekte wie Pullover zu verallgemeinern. Genaue Details zum Trainingsprozess hat das Unternehmen bisher nicht veröffentlicht, im Hintergrund arbeitet aber vermutlich ein großes Foundation-Modell für die Robotik.
Mit ALOHA Unleashed will Google Deepmind nach eigenen Angaben die Grenzen der Geschicklichkeit kostengĂĽnstiger Roboter erweitern. Das macht das Projekt fĂĽr viele Anwendungen in der Forschung und Industrie interessant.
Abschied von Atlas
Der von der US-amerikanischen Defense Advanced Research Projects Agency (DARPA) initiierte und von Boston Dynamics entwickelte humanoide Roboter Atlas geht nach 11 Jahren in den Ruhestand. Das gab das Unternehmen in einem YouTube-Video bekannt.
Atlas diente als Entwicklungsplattform und wurde über die Jahre kontinuierlich verbessert. Er meisterte Herausforderungen wie Balancieren, Gewichtheben, Saltos und Überwinden von Hindernissen, hatte aber auch spektakuläre Fehlschläge.
Trotz seiner Fortschrittlichkeit passt Atlas mit seinen lauten Hydraulikantrieben nicht mehr in die heutige Zeit. Moderne humanoide Roboter setzen auf leise Elektroantriebe, um in menschlichen Arbeitsumgebungen eingesetzt zu werden.
Kommerzielle Einsätze hatte Atlas kaum, dafür hat Boston Dynamics andere Roboter wie den Roboterhund Spot und den Logistikroboter Stretch im Programm. Das Unternehmen wird das Zukunftsgeschäft mit humanoiden Industrierobotern aber sicher nicht Konkurrenten überlassen. Möglicherweise kehrt Atlas in modernisierter Form zurück.
(igr)