KI-Update kompakt: Didacta 2025, Safe Superintelligence, GitHub, KI-Kunst

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 8 Min.
Von
Inhaltsverzeichnis

In Stuttgart findet aktuell die Didacta statt, Europas größte Bildungsmesse. Das Leitthema 2025 lautet "Demokratie braucht Bildung – Bildung braucht Demokratie" und greift damit ein hochaktuelles Thema auf. Denn sowohl national als auch international erstarken Kräfte, die Demokratien gezielt destabilisieren und zerstören wollen, beispielsweise durch Fake News und Troll-Kampagnen.

Angesichts dieser Herausforderungen sieht Dr. Theodor Niehaus, Präsident des Didacta-Verbands, im Einsatz von KI in Bildungseinrichtungen Chancen. Digitale Lösungen wie KI-generierte Lernmaterialien zur gezielten Förderung und Evaluation individueller Lernstände könnten Lehrkräfte entlasten und ihnen mehr Zeit für Beziehungsarbeit geben. KI-Tools würden zudem die Produktivität bei Korrekturen, Texten, Arbeitsblättern und weiteren Aufgaben erhöhen. Voraussetzungen seien aber Schul- und Landeslizenzen, Datenschutz und vor allem die KI-Kompetenz der Lehrkräfte.

Heranwachsende sollten so ausgebildet werden, dass sie beispielsweise falsch zusammengefasste Informationen durch KI erkennen können. Auch hier könnten digitale Tools beim Identifizieren von Fake News oder irreführenden Zusammenfassungen helfen. Für den Verband stehen die Chancen des KI-Einsatzes wie die Entlastung von Lehrkräften und individualisiertes Lernen im Vordergrund. Wichtig seien aber das Verständnis der KI-Mechanismen, die aktive Gestaltung des Einsatzes sowie die kritisch-konstruktive Überprüfung des Nutzens. Regelmäßige Fortbildungen für Lehrkräfte und eine klare Regulierung müssten damit einhergehen.

EU-Kommissionspräsidentin Ursula von der Leyen hat auf dem KI-Gipfel (AI Action Summit) in Paris eine neue KI-Initiative namens “InvestAI” vorgestellt. Ziel sei es, Investitionen von insgesamt 200 Milliarden Euro in die europäische KI-Entwicklung zu stecken. Damit soll die nötige Hardwareinfrastruktur geschaffen werden. Kernstück der Initiative ist ein neuer europäischer Fonds mit einem Volumen von 20 Milliarden Euro, der den Aufbau von vier KI-Gigafactories finanzieren soll. Diese Einrichtungen werden mit jeweils etwa 100.000 KI-Chips der neuesten Generation ausgestattet – etwa viermal mehr als in aktuellen KI-Fabriken. Die Gigafactories sollen sich auf das Training besonders komplexer KI-Modelle spezialisieren, etwa für Anwendungen in Medizin und Wissenschaft. Die Finanzierung erfolgt durch einen mehrschichtigen Fonds. Die Anfangsfinanzierung stammt aus bestehenden EU-Programmen wie Digital Europe und Horizon Europe. Auch die Mitgliedstaaten können sich beteiligen. Von den geplanten 200 Milliarden Euro kommen 150 Milliarden von Providern, Investoren und der Industrie. Die Investitionen in die Hardwareinfrastruktur sollen von Bildungs- und Weiterbildungsprogrammen sowie der Entwicklung gemeinsamer europäischer Datenräume flankiert werden. Die Regulierung durch den AI Act solle dabei kein Hindernis darstellen, sondern stattdessen Sicherheit gewährleisten, betonte von der Leyen.

Der neue US-Vizepräsident JD Vance sieht das offenbar anders. In seiner Rede übte er scharfe Kritik am AI Act: es bedürfe stattdessen internationaler Regulierung, die die Entwicklung von KI-Technologie fördere und nicht erdrossele. Am Ende verwehrten die USA dann auch ihre Unterschrift unter dem Abschlussdokument des KI-Gipfels. Stein des Anstoßes für die USA waren laut Politico einzelne Formulierungen, die einen nachhaltigen und inklusiven Einsatz von Künstlicher Intelligenz fordern. Es dürfe keine Ungleichheit beim Zugang zur Technologie geben. Zudem müssten Menschenrechte, die Gleichstellung der Geschlechter und sprachliche Vielfalt Berücksichtigung finden, so die gemeinsame Forderung der 60 unterzeichnenden Länder. Auch Großbritannien unterzeichnete die Abschlusserklärung nicht. Es gehe hierbei um nationale Interessen, hieß es. In einigen Berichten war davon die Rede, dass London eine gemeinsame Erklärung nur für sinnvoll erachte, wenn auch die USA als führende KI-Nation sie mittragen.

Das KI-Startup Safe Superintelligence (SSI) von Ilya Sutskever, einem der OpenAI-Mitbegründer, steht vor einer neuen Finanzierungsrunde. Bei Erfolg könnte SSI eine Bewertung von 20 Milliarden US-Dollar erreichen, eine Vervierfachung seit September - obwohl noch keine Umsätze vorliegen. Sutskever verließ OpenAI im Mai 2024, offenbar wegen Differenzen über die zunehmend kommerzielle Ausrichtung. Mit SSI will er sich voll auf die Entwicklung einer "sicheren Superintelligenz" konzentrieren, ohne den Umweg über kommerzielle Produkte. Das Startup ist noch in der reinen Forschungsphase.

GitHub stattet seinen KI-Assistenten Copilot mit einem neuen ""Agent Mode"" aus, der ihn in einen selbstständigeren Entwicklungspartner verwandeln soll. Der Agent Mode kann seinen Code iterativ verbessern, Laufzeitfehler erkennen und automatisch beheben sowie Terminal-Befehle vorschlagen und nach Bestätigung ausführen. Er erkennt sogar zusätzliche, nicht explizit genannte Aufgaben, die für das Hauptziel nötig sind. Parallel dazu erschien die finale Version von Copilot Edits, mit dem Entwickler per natürlichsprachlicher Befehle, auch via Sprache, Änderungen in mehreren Dateien gleichzeitig vornehmen können. Mit "Project Padawan" gibt GitHub zudem einen Ausblick auf einen vollständig autonomen KI-Agenten für Software Engineering, der eigenständig Issues bearbeiten und getestete Pull Requests erstellen können soll.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

In den USA hat sich erstmals ein Medienkonzern gerichtlich gegen einen KI-Konzern durchgesetzt, der dessen Inhalte zum Training seiner Algorithmen verwendet hat. Sollten sich andere Gerichte der Einschätzung anschließen, wäre das "wirklich schlecht für die Branche der generativen KI", zitiert Wired einen Experten für IT-Recht. Dabei ging es in dem jetzt entschiedenen Rechtsstreit zwischen Thomson Reuters und dem längst dichtgemachten KI-Start-up Ross Intelligence gar nicht um generative KI, eingereicht wurde er bereits 2020.

Wie in vielen weiteren Gerichtsverfahren lag ihm aber die Frage zugrunde, ob das Training einer KI mit nicht lizenziertem Material unter Fair Use fällt. Genau das wurde nun aber entschieden verneint. Ausschlaggebend war vor allem, dass ein konkurrierendes Produkt gebaut wurde. Für die vielen anhängigen Gerichtsverfahren gegen KI-Unternehmen bedeutet die Entscheidung jetzt nichts Gutes. Sollten andere Gerichte den Verweis auf Fair Use gleichermaßen zurückweisen, würde damit eine entscheidende Grundlage für das Training der Modelle mit immensen Mengen an Inhalten wegfallen. Ross Intelligence selbst war als Folge des Rechtsstreits bereits 2021 dichtgemacht worden.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Das renommierte Auktionshaus Christie's stößt mit seiner Ankündigung der ersten Versteigerung ausschließlich für "KI-Kunst" auf massive Kritik. Fast 3000 Künstler und Künstlerinnen haben in einem offenen Brief die Absage der Auktion gefordert. Der Hauptkritikpunkt: Viele der verwendeten generativen KI-Werkzeuge wurden mit urheberrechtlich geschützten Werken trainiert, ohne entsprechende Lizenzen zu besitzen. Die Kritiker befürchten, dass die Unterstützung durch Institutionen wie Christie's weitere Anreize für den "massenhaften Diebstahl" von menschlicher Kunst schaffen würde.

Die als "Augmented Intelligence" betitelte Online-Auktion soll vom 20. Februar bis 5. März stattfinden. Christie's betont, dass KI nicht als Ersatz, sondern als Erweiterung menschlicher Kreativität gesehen wird. Während das Auktionshaus gegenüber TechCrunch versichert, die KI sei nur zur Verbesserung und mit eigenen Werken trainiert worden, widerspricht ein Begleitartikel dieser Aussage. Darin werden die KI-Tools Dall-E, Midjourney und Stable Diffusion genannt, die bekanntermaßen nicht diesen Kriterien entsprechen. Nicole Sales Giles, zuständig für digitale Kunst bei Christie's, bezeichnet KI-Technologie dennoch als "unzweifelhaft die Zukunft".

Das Münchner Softwareunternehmen Helsing, das auf den Einsatz von Künstlicher Intelligenz (KI) im Rüstungssektor spezialisiert ist, hat eine Kooperation zur Überwachung aus dem Weltraum mit dem französisch-amerikanischen Raumfahrt-Start-up Loft Orbital angekündigt. Gemeinsam wollen beide Firmen demnach eine "Multisensor-Satellitenkonstellation" entwickeln. Diese soll laut Helsing mithilfe von KI "Europas Verteidigungs- und Sicherheitsakteure mit Echtzeit-Informationen" direkt aus dem All unterstützen. Das System wird dem Plan nach bei Aufgaben wie der Grenzüberwachung, der Beobachtung von Truppenbewegungen und dem Schutz kritischer Infrastrukturen (Kritis) helfen.

Herkömmliche satellitengestützten Aufklärungssysteme wie etwa das Spähsystem Georg des Bundesnachrichtendiensts (BND) verarbeiteten Daten erst nach der Mission, erläutert Helsing. Die geplante Konstellation könne durch die KI-Verarbeitung an Bord dagegen "sofortige Erkenntnisse liefern". Die Satelliten befänden sich bereits in der Produktion, Start-Slots seien gesichert. Die ersten dieser Himmelskörper könnten so 2026 abheben. Darüber hinaus kooperiert Helsing auch mit Mistral AI bei der Entwicklung von "Vision-Language-Action-Modellen". Sie werden der Ankündigung zufolge eingesetzt, damit "Verteidigungsplattformen ihre Umgebung verstehen, auf einfache Weise mit Bedienern kommunizieren" und diese so "schnellere, zuverlässigere Entscheidungen in komplexen Szenarien treffen" können.

(igr)