KI-Update kompakt: OpenAI, Bullshit, Luma Dream Machine, EM-Orakel

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 10 Min.
Von
Inhaltsverzeichnis

OpenAI könnte demnächst von einer gemeinnützigen in eine gewinnorientierte Organisation umgewandelt werden. Entsprechende Pläne hat CEO Sam Altman gegenüber Investoren angedeutet. Ein Modell wäre die Umwandlung in eine "for-profit benefit corporation" – also ein profitorientiertes Unternehmen, das aber weiterhin einen gesellschaftlichen Nutzen anstrebt. Auch andere Optionen würden diskutiert.

Bisher ist OpenAI in einen gemeinnützigen und einen gewerblichen Zweig aufgeteilt. Der Non-Profit-Bereich kontrolliert dabei die Forschung, um den öffentlichen Nutzen sicherzustellen. Bei einer Umwandlung würde diese Aufsicht wohl wegfallen. OpenAI betont, die Gemeinnützigkeit bleibe Teil der Mission und werde weiter existieren.

Bei OpenAI tobt seit Längerem ein Streit über die Ausrichtung. Ehemalige Führungskräfte werfen Altman einen schwierigen Führungsstil vor und kritisieren die Auflösung der Sicherheitsabteilung. Sie fordern staatliche Regulierung statt Selbstkontrolle der KI-Firmen. Altman genießt aber große Unterstützung bei den Mitarbeitern und dem Großinvestor Microsoft.

Apple Intelligence, die Künstliche Intelligenz von Apple, kann bewusst keine fotorealistischen Bilder erzeugen. Laut John Giannandrea, Senior Vice President of Machine Learning and AI Strategy bei Apple, soll es so erschwert werden, Deepfakes zu erstellen. Das Missbrauchsrisiko sei sonst zu groß, sagte der KI-Experte in einer Diskussion.

Apple konzentriert sich stattdessen auf illustrative und gezeichnete Inhalte, die klar als nicht real erkennbar sind. Laut Craig Federighi, Senior Vice President of Software Engineering bei Apple, soll die KI ausdrucksstark sein – aber keine alternative Realität vortäuschen. Er sieht in der KI ein Mittel zur Steigerung der menschlichen Kreativität.

In der Diskussion kam auch die Frage auf, ob Apple spät dran ist mit dem Einsatz von KI. Doch laut Marketing-Chef Greg Joswiak setzt das Unternehmen schon seit Jahren auf maschinelles Lernen und KI – auch wenn es nicht immer so genannt wurde. Im Apple-Jargon war das vor Apple Intelligence "proaktiv".

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Nach Druck der irischen Datenschutzbehörde hat Meta angekündigt, vorerst keine Nutzerdaten aus der EU zum Training seiner KI-Modelle zu verwenden. Ursprünglich wollte das Unternehmen die über 260 Millionen monatlich aktiven europäischen Nutzer seiner Plattformen Facebook und Instagram informieren und ein Opt-Out anbieten. Dies sah Meta als ausreichend für eine Datennutzung aus "legitimem Interesse".

Die irische Datenschutzbehörde DPC sieht nach Beschwerden von Datenschutzaktivisten nun aber weiteren Gesprächsbedarf. Meta zeigt sich enttäuscht und argumentiert, dass andere Tech-Konzerne ebenfalls EU-Daten für KI-Modelle nutzen und nur so eine Anpassung auf europäische Gegebenheiten möglich sei. Andernfalls drohe die EU den Anschluss bei KI zu verlieren.

Experten vermuten hinter Metas Vorstoß einen drohenden Mangel an Trainingsdaten für die riesigen Sprachmodelle in wenigen Jahren. Die Nutzung der vielen europäischen Daten könnte dieses Problem zumindest hinauszögern. Die irische Datenschutzbehörde begrüßt Metas Ankündigung, will die Diskussion mit anderen Aufsichtsbehörden aber fortsetzen.

Forscher der Universität Glasgow kritisieren die Bezeichnung "Halluzinationen" für falsche Aussagen von ChatGPT und anderen großen Sprachmodellen. Stattdessen plädieren sie dafür, den Begriff "Bullshit" zu übernehmen.

Sie stützen sich dabei auf die Analyse des Alltagsbegriffs "Bullshit" durch den Philosophen Harry Frankfurt. Demnach zeichnet sich Bullshit nicht durch eine Täuschungsabsicht, sondern durch eine rücksichtslose Missachtung der Wahrheit aus.

Jemand, der Bullshit verbreitet, will nicht unbedingt täuschen, sondern ist einfach gleichgültig gegenüber der Wahrheit dessen, was er sagt. Genau das sei bei LLM der Fall, so die Forscher.

Die Forscher unterscheiden zwischen "hartem Bullshit", bei dem der Sprecher Zuhörer über seine Agenda täuschen will, und "weichem Bullshit", bei dem der Sprecher keinerlei Absicht hat, sondern einfach gleichgültig gegenüber der Wahrheit ist. Sprachmodelle produzieren laut den Forschern letztere Variante: Die Systeme seien nicht darauf ausgelegt, wahre Aussagen zu produzieren, sondern Texte, die nicht von menschlichen Texten zu unterscheiden seien. Es gehe ihnen um Überzeugungskraft, nicht um Korrektheit.

Die Beschreibung "Halluzinationen" für falsche KI-Aussagen sei problematisch, da sie die Fähigkeiten der Systeme überschätze und Lösbarkeit suggeriere. Die Forscher plädieren für den Begriff "Bullshit" als treffendere Beschreibung, um eine bessere wissenschaftliche Kommunikation in diesem Bereich zu fördern.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Der Wissenschaftsverlag Springer Nature setzt zwei neu entwickelte KI-Tools ein, um gefälschte Forschungsergebnisse und manipulierte Bilder in wissenschaftlichen Artikeln aufzuspüren. Das Tool "Geppetto" identifiziert KI-generierte Inhalte, ein Hinweis auf die Aktivität von "Paper Mills", die gefälschte Forschungsarbeiten produzieren. Es teilt Artikel in Abschnitte auf, bewertet die Wahrscheinlichkeit von KI-generierten Inhalten und löst bei hoher Punktzahl eine manuelle Überprüfung aus. Laut Springer Nature hat "Geppetto" bereits Hunderte von gefälschten Artikeln vor deren Veröffentlichung erkannt.

Das zweite Tool "SnappShot" analysiert die Integrität von Bildern in PDF-Dateien. Derzeit sucht es nach duplizierten Gel- und Blot-Bildern, soll aber auf weitere Bildtypen und Integritätsprobleme ausgeweitet werden.

Laut Chris Graf von Springer Nature stellen gefälschte Artikel mit fabrizierten Daten von "Paper Mills" oder böswilligen Akteuren eine ernsthafte Bedrohung für die Verlagsbranche dar: "Sie können das Vertrauen in die Wissenschaft ernsthaft untergraben, und gegen sie vorzugehen kann viel Zeit und Ressourcen in Anspruch nehmen."

Das Start-up Luma AI hat mit der "Luma Dream Machine" ein neues KI-Modell veröffentlicht, das 5-sekündige Videoclips aus Textprompts oder Bildvorlagen generieren kann. In nur zwei Minuten produziert die KI so 120 Frames. Da das kostenlose Modell beeindruckende Ergebnisse liefert, hat es in sozialen Netzwerken schnell einen Trend ausgelöst: Bekannte Standbilder und Memes werden massenweise in kurze Videos verwandelt.

Ohne Bildvorlage erinnern die Ergebnisse an die Anfangszeit von Midjourney und DALL-E: Die Kamerafahrten sind cineastisch, aber Objekte sehen oft unrealistisch aus. Sehr gut funktioniert die Video-Generierung bei Motiven, die wahrscheinlich in den Trainingsdaten enthalten waren. Am besten und fast artefaktfrei werden die Clips, wenn man Fotos hochlädt und kurz beschreibt. Dann fügt Luma eine täuschend echte zeitliche Dimension hinzu. Hinter Luma AI stecken junge Gründer von Top-Universitäten. Ein Geschäftsmodell ist noch nicht zu erkennen – bei den starken Ergebnissen könnte bald einer der großen Tech-Konzerne Kaufinteresse zeigen.

In einer Grundsatzrede auf dem G7-Gipfel in Italien hat Papst Franziskus vor dem Einsatz Künstlicher Intelligenz in tödlichen autonomen Waffensystemen gewarnt. Er forderte, die menschliche Kontrolle über solche Systeme zu garantieren und zu schützen. Der Einsatz von KI in Kampfdrohnen, Killer-Robotern oder ähnlichen Waffen müsse überdacht und verboten werden. Die menschliche Würde stehe auf dem Spiel, so der Papst.

Insgesamt sieht Franziskus in der KI-Revolution Chancen wie die Demokratisierung des Wissens, beschleunigten Fortschritt und Entlastung von mühsamen Arbeiten. Er warnt aber auch vor wachsender Ungerechtigkeit zwischen Nationen und sozialen Schichten. Kritisch sieht er den Einsatz von KI als Entscheidungshilfe für Richter, wo Vorurteile und Stereotypen einfließen könnten. Auch von Wissenssystemen und generativer KI hält der Papst wenig: Sie seien nicht wirklich kreativ, sondern nur verstärkend. Ihnen fehle ein echtes Ethos. KI müsse immer auf das Wohl jedes einzelnen Menschen ausgerichtet sein.

In einer Studie der University of California in San Diego konnten 54 % der knapp 500 Teilnehmer GPT-4 nicht von einem Menschen unterscheiden. Die Vorgängerversion GPT-3.5 erreichte eine Erfolgsquote von 50 %. Menschen wurden zu 67 % korrekt als solche identifiziert. Am schlechtesten schnitt das Programm Eliza von 1966 ab, das nur 22 % für menschlich hielten.

Laut den Forschern liefert die Studie den ersten soliden empirischen Beweis, dass ein KI-System einen interaktiven Turing-Test mit zwei Spielern bestanden hat. In dem Test chattet ein menschlicher "Richter" entweder mit einem anderen Menschen oder einem Chatbot, ohne zu wissen, wer was ist. Wenn der Befrager das Computersystem in 50 % der Fälle nicht zuverlässig von einem Menschen unterscheiden kann, gilt der Test als bestanden. Die Forscher sehen darin einen Hinweis, dass Täuschungen durch aktuelle KI-Systeme zunehmen könnten.

Deutschland wird Europameister! So sagt es zumindest ChatGPT voraus. Der Chatbot hat in einem simulierten EM-Turnierverlauf Deutschland als kommenden Europameister prognostiziert. Kollege Daniel Herbig von heise online fütterte dafür den Chatbot zunächst mit den tatsächlichen Gruppentabellen, da ChatGPT sich sonst Fantasie-Gruppen zusammenhalluzinierte. In der Simulation setzte sich Deutschland im Achtelfinale gegen Dänemark mit 2:1 durch, besiegte Spanien im Viertelfinale nach Elfmeterschießen und Portugal mit 2:1 im Halbfinale. Im Finale gegen Frankreich triumphierte Deutschland erneut im Elfmeterschießen nach einem 1:1 nach Verlängerung.

ChatGPT betont zwar, dass Vorhersagen spekulativ seien und viele Faktoren eine Rolle spielen. Nach Zusicherung, dass niemand die Tipps ernst nehmen würde, lässt sich der Chatbot aber zu Prognosen hinreißen. Ohne Internetzugriff zeigt sich dabei, dass ChatGPT wenig Ahnung vom aktuellen Fußballgeschehen hat und meist nur veraltete Informationen aus seinen Trainingsdaten zitieren kann. Trotzdem sieht die KI Deutschland als kommenden Europameister – was für deutsche Fans natürlich ein schönes Ergebnis ist.

(igr)