KI-Update kompakt: KI-Moral, Copyright-Klagen, Neurowissenschaft, Investition

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 6 Min.
Von
Inhaltsverzeichnis

OpenAI unterstützt ein Forschungsprojekt zur KI-Moral an der Duke University mit dem Titel "Research AI Morality". Es ist Teil eines Zuschusses von 1 Million Dollar über 3 Jahre für eine Professur zur Entwicklung moralischer KI. Über Details der Forschung ist wenig bekannt, da die Forscher nicht darüber sprechen dürfen.

Das Projekt soll untersuchen, wie KI moralische Entscheidungen in Medizin, Justiz und Wirtschaft vorhersagen kann. Ziel ist, dass KI im Einklang mit menschlichen Werten handelt. Die beteiligten Forscher sehen dies als Voraussetzung für den Nutzen von KI. Allerdings ist es nicht trivial, Moral so zu definieren, dass KI innerhalb dieser Grenzen robust und missbrauchssicher entscheiden kann.

KI lernt aus menschlichen Entscheidungen, bleibt aber anfällig für Missbrauch. Am Ende trägt der Mensch die Verantwortung. Was moralisch richtig ist, wird seit Jahrhunderten philosophisch diskutiert.

Ein breites Bündnis kanadischer Medien verklagt OpenAI wegen Copyright-Verletzungen. Der Toronto Star, The Globe and Mail und CBC haben Klage eingereicht. Sie werfen dem Unternehmen Copyright-Verletzungen vor, da es Nachrichtenartikel ohne Erlaubnis zum Training von ChatGPT genutzt haben soll. Die Koalition fordert Schadenersatz, Gewinnherausgabe und eine einstweilige Unterlassungsverfügung.

Die Kläger investieren nach eigenen Angaben hohe Summen in faktengeprüfte, gut recherchierte Inhalte. OpenAI nutze diese aber illegal für den eigenen kommerziellen Vorteil, ohne zu fragen oder zu entschädigen. Pro verwendetem Artikel werden bis zu 20.000 Dollar Schadensersatz gefordert, was die Klagesumme auf mehrere Milliarden anheben könnte. Auch andere Medienhäuser gehen bereits gegen OpenAI vor.

Elon Musk hat eine einstweilige Verfügung beantragt, um vorläufig die frühere Gemeinnützigkeit von OpenAI zu sichern. OpenAI hatte im Oktober 2024 seinen "non-profit"-Status bei einer neuen Finanzierungsrunde weitgehend aufgegeben.

Musk, Mitbegründer von OpenAI, war 2018 ausgestiegen und klagt seit März 2024 gegen das Unternehmen. Er sieht die Gründungsvereinbarung verletzt und erhebt Vorwürfe wegen Verletzung treuhänderischer Pflichten und unlauteren Wettbewerbs. Musk beklagt, Investoren von OpenAI dürften nicht in andere KI-Firmen wie sein eigenes Unternehmen xAI investieren. OpenAI weist die Vorwürfe als unbegründet zurück.

Getty Images hat in London Klage gegen Stability AI eingereicht. Getty wirft Stability AI millionenfachen Verstoß gegen das Urheberrecht vor, da deren KI unrechtmäßig Bilder von Getty kopiert und verarbeitet haben soll, ohne dafür Lizenzen erworben zu haben.

Zuvor hatten bereits drei Künstler in den USA Klage gegen Stability AI, Midjourney und DeviantArt wegen Urheberrechtsverletzungen erhoben. Die anstehenden Gerichtsentscheidungen werden grundsätzlichen Charakter haben, da noch strittig ist, ob KI-generierte Erzeugnisse als rechtlich eigenständige Werke oder eher als Kopien zu betrachten sind. Getty Images zeigt sich offen für lizenzierte KI-Kunst, wirft Stability AI aber vor, sich nicht um Lizenzen bemüht zu haben.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Eine Studie des University College London zeigt, dass KI-Modelle menschliche Experten bei Forschungsvorhersagen mit einer Genauigkeit von 81,4 Prozent übertreffen. Menschliche Experten erreichen nur eine Genauigkeit von 63,4 Prozent. Selbst die besten 20 Prozent der menschlichen Experten lagen mit einer Trefferquote von 66,2 Prozent deutlich unter der Leistung der KI-Modelle.

Die KI-Modelle waren den menschlichen Experten in allen getesteten Teilgebieten der Neurowissenschaft überlegen, insbesondere wenn sie Informationen aus dem gesamten Abstract integrieren konnten. Die Forscher testeten auch, dass die besseren Ergebnisse nicht auf reines Auswendiglernen zurückzuführen sind. Sie vermuten, dass KI-Modelle wissenschaftliche Artikel eher als allgemeine Muster abspeichern - ähnlich wie Menschen Schemata bilden.

Bemerkenswert ist laut den Forschern, dass auch kleinere Modelle mit nur 7 Milliarden Parametern ähnlich gute Ergebnisse erzielten wie deutlich größere Modelle. Allerdings waren für Chats optimierte Versionen weniger erfolgreich bei der Vorhersage als ihre Basis-Varianten.

Die Forscher sehen Potenzial für den Einsatz von KI in der Forschungsplanung und -durchführung. KI-Systeme könnten künftig eine wichtige Rolle spielen, indem sie Vorhersagen über die Wahrscheinlichkeit verschiedener Ergebnisse machen und so schnellere Iterationen und besser informierte Entscheidungen beim Experimentdesign ermöglichen.

Allerdings warnen die Forscher auch davor, dass Wissenschaftler möglicherweise zögern könnten, Studien durchzuführen, deren Ergebnisse von der KI anders vorhergesagt wurden - selbst wenn gerade diese unerwarteten Ergebnisse zu wichtigen Durchbrüchen führen könnten. Umgekehrt könnten Ergebnisse, die von der KI mit hoher Sicherheit vorhergesagt wurden, als weniger innovativ wahrgenommen werden.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Eine Umfrage unter 600 IT-Entscheiderinnen und Entscheidern in den USA zeigt: Die Investitionen in generative KI sind stark gestiegen – von 2,3 Mrd. US-Dollar im Jahr 2023 auf 13,8 Mrd. in diesem Jah, das ist eine Versechsfachung innerhalb eines Jahres. Derzeit stammen 60 Prozent der Unternehmensausgaben für generative KI aus Innovationsbudgets, während 40 Prozent bereits aus regulären Budgets stammen.

Bei den konkreten Anwendungsfällen dominieren Code-Copiloten mit einer Adoptionsrate von 51 Prozent. Überraschenderweise spielt der Preis bei der Auswahl von KI-Lösungen kaum eine Rolle. Stattdessen konzentrieren sich die Unternehmen vor allem auf den messbaren Mehrwert und die branchen- bzw. unternehmensspezifische Anpassbarkeit der Tools.

Zum Schluss noch ein Hinweis in eigener Sache: heise online unterstützt den KI-Adventskaleder des Deutschen Forschungszentrums für Künstliche Intelligenz und der Rheinland-Pfälzischen Technischen Universität Kaiserslautern-Landau. Er soll nicht nur die Neugier und Kreativität von Jugendlichen fördern, sondern vermittelt auch wertvolle Medienkompetenz. Jeden Tag öffnet sich ein virtuelles Türchen – gefüllt mit spielerischen Aufgaben und inspirierenden Einblicken in die Welt der KI.

Dabei geht es sowohl um die Grundlagen der Künstlichen Intelligenz als auch um komplexere Problemlösungen. Schülerinnen und Schüler ab 14 Jahren, die an einer deutschen Schule gemeldet sind, können dabei verschiedenen Technik-Preise gewinnen. Aber auch 𝐚𝐥𝐥𝐞𝐧 anderen 𝐈𝐧𝐭𝐞𝐫𝐞𝐬𝐬𝐢𝐞𝐫𝐭𝐞𝐧 stehen die Türen des Kalenders natürlich offen unter ki-adventskalender.de.

Das war das KI-Update von heise online vom 2. Dezember 2024. Eine neue Folge gibt es jeden Werktag ab 15 Uhr.

(igr)