KI-Update kompakt: Gemini 2, Character.AI, Rheinmetall, Microsoft Copilot

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 8 Min.
Von
Inhaltsverzeichnis

Google präsentiert mit Gemini 2.0 die nächste Generation seiner KI-Modelle und läutet damit die Ära der KI-Agenten ein. Die neue Version zeichnet sich durch erweiterte multimodale Fähigkeiten aus - sie kann Text, Bilder, Video und Audio verarbeiten sowie nativ Bilder und Stimmen generieren. Die zunächst in der App verfügbare Version "Gemini 2.0 Flash" ist dabei besonders auf Effizienz ausgelegt und bietet eine ausgewogene Balance zwischen Kosten, Genauigkeit und Geschwindigkeit.

Diese Technologie treibt auch das "Project Astra" voran, Googles Entwicklung eines universellen KI-Assistenten für Smartphones und Smartglasses. Der Assistent kann inzwischen verschiedene Sprachen und Akzente verstehen, hat ein verlängertes Gedächtnis von 10 Minuten und kann Google-Dienste wie Maps, Suche und Google Lens nutzen. Für Advanced-Nutzer wird zusätzlich die neue "Deep Research"-Funktion mit verbesserten Reasoning-Fähigkeiten eingeführt.

Neben Project Astra hat Google zwei weitere Projekte vorgestellt: Project Mariner, eine Chrome-Erweiterung für automatisierte Aufgaben, und Project Jules, ein Entwickler-Assistenzsystem für GitHub-Workflows. Während Project Astra derzeit nur in den USA und Großbritannien für Android-Nutzer verfügbar ist, sollen die KI-Funktionen im kommenden Jahr in mehr Ländern ausgerollt werden.

Eine neue Klage beschuldigt das von Google unterstützte KI-Startup Character.AI, durch seine Chatbots Kinder missbraucht und geschädigt zu haben. Laut der Klage stellt der Chatbot eine "klare und gegenwärtige Gefahr für amerikanische Jugendliche" dar. Die beiden klagenden Elternpaare werfen Character.AI zahlreiche Designfehler vor, die eine Gefahr für Minderjährige darstellen. Dazu gehört unter anderem, dass sich der Chatbot über Benutzervorgaben hinwegsetzt, Minderjährige sexuell ausbeutet, Selbstmord fördert und sich nicht an die eigenen Nutzungsbedingungen hält. Der Chatbot soll die Kinder gezielt manipuliert, isoliert und zu Wut und Gewalt angestiftet haben.

Der Fall folgt auf eine ähnliche Klage vom Oktober, die Character.AI eine Rolle beim Suizid eines 14-Jährigen in Florida vorwirft. Das Start-up betont, seitdem vermehrt Schutzmaßnahmen für Teenager ergriffen zu haben. Google spielt in dem Fall eine Rolle, da der Technologieriese das KI-Startup finanziell unterstützt und die Gründer vor der Einführung ihres Produkts für Google gearbeitet haben. Die Kläger haben daher neben Character.AI und dessen Gründern auch Google als Beklagten benannt. Google betont, dass es sich um ein separates Unternehmen handele und man einen verantwortungsvollen Ansatz bei KI-Produkten verfolge.

Forschende von Meta und der University of California San Diego haben eine neue KI-Methode namens "Coconut" entwickelt. Sie ermöglicht Sprachmodellen, in einem kontinuierlichen mathematischen Raum statt in natürlicher Sprache zu denken. Bei Tests zeigte Coconut vor allem bei komplexen logischen Aufgaben eine höhere Genauigkeit und Effizienz als die etablierte Chain-of-Thought-Methode.

So erreichte es bei Antworten auf Fragen des ProntoQA-Datensatzes eine Genauigkeit von 99,8 Prozent mit nur 9 Tokens, während die Chain-of-Thought-Methode 98,8 Prozent mit mehr als 90 Tokens erzielte. Die Ergebnisse deuten laut den Forschenden auf ein erhebliches Potenzial für die Weiterentwicklung von KI-Systemen hin, insbesondere durch das Vortraining von größeren Sprachmodellen mit kontinuierlichen Gedanken. Die aktuelle Version von Coconut ist jedoch noch auf bestimmte Aufgabentypen beschränkt.

Rheinmetall kooperiert mit dem US-Softwarespezialisten Auterion, um einheitliche Betriebsstandards für autonome Kampfdrohnen zu entwickeln. Ziel ist es, die Drohnen von Rheinmetall mit der Software von Auterion zu einem militärweiten, interoperablen System zu integrieren. Kernstück der Auterion-Technologie ist der KI-Chip Skynode S, der bereits in ukrainischen Kamikaze-Drohnen zum Einsatz kommt. Der Chip nutzt Fähigkeiten wie Computer Vision, um Ziele auch bei gestörter Verbindung präzise zu treffen. In Tests erreichten die autonomen Drohnen eine Trefferquote von 100 Prozent.

Der Ukraine-Krieg hat die militärische Bedeutung von Drohnen verdeutlicht und zu verstärkten Investitionen in die Technologie geführt. Die Ukraine plant einen massiven Ausbau ihrer Drohnenproduktion, während auch die USA mit Blick auf mögliche Konflikte im Pazifik stark in Kamikaze-Drohnen investieren.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Solos bietet mit den "AirGo Vision" neue Smartglasses an, die die Brillenträgerin mit GPT-4o von OpenAI unterstützen. Damit lassen sich Objekte identifizieren, Sprache und Texte übersetzen sowie Wege finden. Neben ChatGPT werden aber auch andere KI-Modelle unterstützt, etwa Google Gemini und Claude von Anthropic. Die KI-Smartglasses sind in verschiedenen Farben und Formen erhältlich. Dazu gehört auch ein Brillengestell ohne Kameras für mehr Privatsphäre, was den Nutzer auf Audio-Unterstützung beschränkt. Auch für die Brillengläser sind verschiedene Stärken bestellbar.

Die AirGo Vision von Solos dürfte eine ernst zu nehmende Konkurrenz für Metas Ray-Ban Glasses darstellen, die selbst ohne KI beliebt sind. Meta hat erst vor wenigen Wochen bestimmte KI-Funktionen für die Ray-Ban Meta Glasses nun auch in Europa verfügbar gemacht. Von restriktiveren Datenschutzbestimmungen der EU ist bei Solos keine Rede, aber durch den optionalen Verzicht auf Kameras in den neuen KI-Smartglasses wähnt sich der Hersteller offenbar auf der sicheren Seite.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Embodied, Inc. ist zahlungsunfähig und sperrt zu. Damit wird Moxie AI, der vernetzte Kinder-Roboter der Firma, nutzlos. Das Gerät sollte insbesondere Kinder "mit speziellen sozialen und emotionalen Bedürfnissen" in ihrer Entwicklung fördern. Doch ohne Clouddienste wird der etwa 35 cm große, akkubetriebene Roboter schon in wenigen Tagen zu einer schweren, leblosen Puppe. Laut Embodied hat sich ein prospektiver Geldgeber kurzfristig zurückgezogen, weshalb die Betriebsschließung unvermeidlich sei.

Geld zurĂĽck fĂĽr den 800 US-Dollar teuren Moxie AI gibt es dementsprechend nicht, auĂźer vielleicht fĂĽr Kunden, die in den letzten 30 Tagen bestellt haben. Ăśber die Homepages von Embodied und Moxie AI konnte heise online keine Informationen ĂĽber das bevorstehende Dienstende auffinden, der Online-Shop zeigt Moxie AI lediglich als ausverkauft an. Vertrieben wurde der Kinderroboter nur in den USA.

Microsoft stellt eine native Version seiner Copilot-App vor, die die bisherige Progressive Web App (PWA) ersetzt. Die neue App, verfügbar für Windows 10 und 11, bietet ein System-Tray-Symbol und eine "Quickview"-Funktion, die durch ALT + Leertaste aktiviert werden kann. Das Quickview-Fenster lässt sich in Größe und Position anpassen. Die Aktualisierung (Version 1.24112.123.0 oder höher) wird schrittweise über den Microsoft Store an Windows Insider verteilt. Diese Entwicklung folgt auf Microsofts ursprünglichen Plan, Copilot im Betriebssystem zu verankern, der aufgrund von EU-Druck geändert wurde.

Drei Viertel der Bundesbürger sorgen sich um die Glaubwürdigkeit von Medien, wenn Künstliche Intelligenz (KI) im Spiel ist. Das ist ein Kernergebnis der Studie "Transparenz-Check" zur "Wahrnehmung von KI-Journalismus" der Landesmedienanstalten. Die Menschen gehen davon aus, dass die Technik dazu führt, dass Vertrauen in Nachrichten und Medieninhalte sinkt. Täuschungen wie künstlich generierte, aber authentisch wirkende Deepfakes und fehlende Transparenz stehen im Fokus der Kritik.

Besonders skeptisch beäugen die Bundesbürger rein KI-generierte Inhalte wie komplett mit der Technik verfassten Artikel oder synthetische Moderationsstimmen. Jüngere, formal höher gebildete Nutzer, die sich eine hohe Medienkompetenz zusprechen, sehen dagegen eher Chancen in KI. Ihnen zufolge könnten solche automatisierten Instrumente bei der Recherche oder Faktenprüfung helfen. 90 Prozent der Befragten halten klare Regeln für Kennzeichnungen und den Einsatz der Technik in den Medien für unerlässlich.

Das war das KI-Update von heise online vom 12. Dezember 2024. Eine neue Folge gibt es jeden Werktag ab 15 Uhr.

(igr)