KI-Update kompakt: Google Gemini, KI-Suche, Nvidia GTC 2025, SpellRing

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 10 Min.
Von
Inhaltsverzeichnis

Google erweitert seinen KI-Assistenten Gemini um zwei neue Funktionen: Canvas und Audio Overviews. Canvas bietet eine interaktive Arbeitsfläche, auf der Nutzer schreiben, programmieren oder skizzieren können, während Audio Overviews Textinhalte in Podcast-ähnliche Audioformate umwandelt.

Canvas funktioniert wie eine digitale Leinwand und ermöglicht das Bearbeiten von Text, Audio und Code in Echtzeit. Die Funktion gibt direktes Feedback, schlägt Verbesserungen vor und kann Textstile anpassen. Besonders für Entwickler bietet Canvas Vorteile: Programmierideen lassen sich schnell in funktionierende Prototypen umsetzen, etwa für Webanwendungen oder Python-Skripte. Änderungen können per natürlicher Sprache angefordert werden, ohne zwischen verschiedenen Anwendungen wechseln zu müssen. Canvas ist bereits weltweit in allen Sprachen der Gemini-App verfügbar.

Audio Overviews wandelt textbasierte Inhalte in Audiodateien um, in denen zwei KI-Moderatoren die Inhalte diskutieren. Nutzer können Fragen stellen, während die KI-Moderatoren Inhalte zusammenfassen und mit weiteren Informationen verknüpfen. Die Funktion war bisher nur im Recherchetool NotebookLM verfügbar und ist nun in die reguläre Gemini-App integriert. Aktuell ist Audio Overviews nur auf Englisch verfügbar, weitere Sprachen sollen folgen. Die erstellten Audio-Dateien können heruntergeladen und geteilt werden. Eine ähnliche Canvas-Funktion bietet auch OpenAI für seinen Chatbot ChatGPT an.

Nvidia auf der GTC 2025 eine ganze Reihe neuer Technologien präsentiert. Zuerst wurde eine Weiterentwicklung der Blackwell-Architektur vorgestellt. Diese bietet anderthalbmal mehr KI-Leistung als das Vorgängermodell. Darüber hinaus präsentierte das Unternehmen eine neue Inferenz-Software Nvidia Dynamo, die speziell fürs KI-Reasoning entwickelt wurde. Diese Open-Source-Software kann die Leistung von KI-Systemen verdoppeln, indem sie die Verarbeitungs- und Generierungsphasen auf verschiedene GPUs aufteilt und so die Effizienz steigert. Bei Reasoning-Modellen soll der Leistungssprung sogar deutlich höher ausfallen.

Für Entwicklerinnen und Forscher präsentiert Nvidia die Desktop-KI-Computer DGX Spark und Station, quasi kleine KI-Supercomputer für den Schreibtisch.

Im Bereich Robotik stellt Nvidia das Isaac GR00T N1 vor. Dabei handelt es sich um ein anpassbares Grundlagenmodell für humanoide Roboter, das deren Steuerung vereinfachen soll. Zusammen mit Google Deepmind und Disney Research entwickelt Nvidia zudem "Newton", eine Physik-Engine für präzisere Roboterbewegungen.

Die neuen Cosmos World Foundation Models verbessern die Simulation virtueller Welten: Cosmos Transfer wandelt Daten in fotorealistische Videos um, Cosmos Predict generiert virtuelle Weltzustände, und Cosmos Reason interpretiert Videodaten und sagt die nächste wahrscheinliche Aktion vorher.

Zum Schluss gab es natürlich noch einen Ausblick auf künftige Entwicklungen. Ab Mitte 2026 soll die neue Vera Rubin GPU verfügbar sein und doppelt so viel Leistung wie aktuelle Blackwell-Chips bieten. Und für 2028 wurde bereits die nächste Generation namens Feynman angekündigt.

Hewlett Packard Enterprise und Nvidia haben auf Nvidias Hauskonferenz GTC 2025 neue Hardware- und Software-Lösungen für KI-Anwendungen in Unternehmen präsentiert. Im Mittelpunkt stehen leistungsstarke Server mit Nvidias neuen Blackwell-Chips sowie eine einheitliche Datenschicht, die strukturierte und unstrukturierte Daten zusammenführt und KI-tauglich machen soll.

Die neue HPE Private Cloud AI wird um Unterstützung für die Nvidia AI Data Platform erweitert. Diese Kombination ermöglicht es Unternehmen, ihre eigenen Daten für KI-Anwendungen zu nutzen, ohne sie in öffentliche Clouds verschieben zu müssen. Das ist ein wichtiger Aspekt für den Umgang mit sensiblen Daten.

Die Nutzung von KI-gestützten Suchsystemen für den Zugriff auf E-Commerce-Seiten steigt dramatisch an. Laut einer aktuellen Adobe-Analytics-Studie lagen die Zugriffe auf US-amerikanische Einzelhandels-Websites über KI-Suchen im Februar um 1.200 Prozent höher als noch vor einem halben Jahr. Besonders stark war der Anstieg während der Weihnachtssaison mit einer Steigerung von 1.300 Prozent im Jahresvergleich. Die Studie basiert auf der Analyse von mehr als einer Billion Website-Besuchen: Der Anstieg der KI-Suchen verdoppelt sich etwa alle zwei Monate seit September 2024. In der Reisebranche ist der Trend mit einem Plus von 1.700 Prozent noch ausgeprägter, während der Bankensektor einen Anstieg von 1.200 Prozent verzeichnet. Allerdings bleibt der Gesamtanteil am Web-Traffic im Vergleich zu traditionellen Quellen wie Google-Werbung und E-Mail noch relativ gering.

Besucher, die über KI-Systeme auf Webseiten gelangen, zeigen ein verändertes Nutzungsverhalten. Sie weisen ein um acht Prozent höheres Engagement auf, rufen zwölf Prozent mehr Seiten pro Besuch auf und haben eine um 23 Prozent niedrigere Absprungrate. Interessanterweise ist ihre Kaufrate jedoch um neun Prozent geringer als bei Besuchern aus anderen Quellen. Auffällig ist die starke Präferenz für Desktop-Geräte: 86 Prozent der KI-gestützten Zugriffe erfolgen über Desktop-Computer, während der Desktop-Anteil im gesamten E-Commerce nur 34 Prozent beträgt. Dies könnte darauf hindeuten, dass die Nutzung von KI-Suchen bisher nicht vollständig im mobilen Bereich angekommen ist.

Eine begleitende Umfrage unter 5.000 US-Konsumenten ergab, dass bereits 39 Prozent KI für Online-Shopping nutzen, wobei weitere 53 Prozent dies für das laufende Jahr planen. Die häufigsten Anwendungen sind Produktrecherche, Empfehlungen und das Finden von Angeboten. Google reagiert auf diesen Trend mit einem experimentellen "AI Mode" für seine Suchmaschine, der auf dem KI-Modell Gemini 2.0 basiert. Dies unterstreicht die wachsende Bedeutung von KI-gestützter Websuche, stellt jedoch auch eine Herausforderung für das Web-Ökosystem dar: Laut einer Studie leiten KI-Suchmaschinen bis zu 96 Prozent weniger Nutzer zu Nachrichtenseiten und Blogs als die herkömmliche Google-Suche.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Die Online-Marketing-Werkzeuge der Adobe Experience Cloud erhalten Zuwachs durch autonom handelnde KI-Agenten. Diese sollen mit dem "Agent Orchestrator" koordiniert werden. Innerhalb der Adobe-Experience-Plattform sollen KI-Agenten direkt mit Kunden interagieren sowie Mitarbeiterinnen und Mitarbeiter bei täglichen Aufgaben unterstützen. Dabei greift die KI auf Daten des Kundenunternehmens zu, um auf potenzielle Käufergruppen personalisiert eingehen zu können.

Adobe hat eine ganze Reihe Agenten für seine Unternehmenssoftware vorgestellt. Sie sollen bei der Arbeit mit Adobe Experience Manager, Adobe Journey Optimizer und Adobe Customer Journey Analytics unterstützen. Sie sollen auch dabei helfen, Websites zu optimieren, Inhalte dafür zu erstellen, Zielgruppen zu definieren und mit Marketingstrategien zu experimentieren. Mit dem Brand Concierge sollen KI-Agenten als weiterentwickelter Chatbot direkt mit Verbraucherinnen und Verbrauchern kommunizieren. Unternehmen können ihre KI-Agenten konfigurieren und verwalten, die wiederum Webseitenbesucher beraten und bis zur Kaufentscheidung begleiten.

Podcast: KI-Update
KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Mit Künstlicher Intelligenz sind umfassende politische, gesellschaftliche und wirtschaftliche Erwartungen verbunden. Das gilt auch für eine Steigerung der Produktivität mithilfe der Technik. Das Institut der deutschen Wirtschaft (IW) Köln ist nun im Auftrag des Gemeinschaftsausschusses der Deutschen gewerblichen Wirtschaft der Frage nachgegangen, was sich auf diesem Gebiet hierzulande tun könnte. Das Ergebnis des Gutachtens fasste der Geschäftsführer Wissenschaft des IW Köln, Hubertus Bardt, so zusammen: KI führe die hiesige Wirtschaft "zurück auf den Produktivitätspfad". Die Technik sorge aber nicht für ein neues Produktivitätswunder.

Die IW-Projektion zeigt unter Berücksichtigung der potenziellen Effekte von KI ein durchschnittliches Produktivitätswachstum in Deutschland von 0,9 Prozent jeweils für die Jahre 2025 bis 2030. In den Jahren bis 2040 soll dies auf 1,2 Prozent steigen. Gut zwei Drittel dieser erwarteten Aufwärtsentwicklung seien auf KI zurückzuführen, erläuterte Bardt. Diese sei "der größte technologische Hebel, den wir haben". Bislang spreche auch wenig dafür, dass sich "hinter dem Produktivitätspotenzial von KI ein arbeitssparender technischer Fortschritt verbirgt". Als Jobkiller schätzen die Forschenden die Chatbots und spezialisierte KI-Systeme in der Produktion daher nicht ein. DIHK-Hauptgeschäftsführerin Helena Melnikov appellierte an die Unternehmen, durch den Einsatz der Technik "ein bisschen mehr rauszuholen" und "die entscheidende Nasenlänge" zu gewinnen.

Forscher der Cornell-Universität haben einen KI-Ring entwickelt, der Gebärdensprache in Echtzeit erkennen kann. Der "Spell Ring" ist etwa so groß wie eine 2-Euro-Münze und wird am Daumen getragen. Er soll gehörlosen Menschen die Eingabe in Computer und Smartphones erleichtern.

Der Ring nutzt Mikrosonartechnologie, die unhörbare Schallwellen aussendet und deren Reflektionen empfängt. In Kombination mit einem integrierten Gyroskop erkennt die KI, welche Buchstaben des Fingeralphabets gezeigt werden. Der Vorteil liegt in der Natürlichkeit: Nutzer können in ihrer gewohnten Kommunikationsform bleiben, statt zwischen Gebärden- und Tastatureingabe wechseln zu müssen. Dies ist besonders wichtig für Wörter ohne eigene Gebärden.

In Tests mit über 20.000 Wörtern und 20 Testpersonen erreichte der Ring Erkennungsraten zwischen 82 und 92 Prozent. Die Forscher arbeiten bereits an einer Erweiterung mit einer speziellen Brille, die zusätzlich Oberkörperbewegungen und Gesichtsausdrücke erfassen soll. Zusammen könnten Ring und Brille die komplexe visuelle Sprache vollständig erfassen und in Echtzeit in gesprochene Sprache umwandeln.

OpenAI kann es bereits seit Längerem mit ChatGPT, Google mit Gemini – und nun will auch Anthropic seinem LLM Claude das Sprechen beibringen. Derzeit entwickelt das KI-Start-up laut Auskunft seines Chief Product Officers Mike Krieger interne Prototypen, mit denen Nutzerinnen und Nutzer per Spracheingabe mit Claude kommunizieren können. Ein weiteres Hauptaugenmerk in der Weiterentwicklung liege aktuell auf Funktionen für Geschäftskunden.

Krieger schwebt dabei vor, dass dies in Zukunft auch die Computersteuerung durch natürliche Sprache ermöglichen könne, sagte er der Financial Times. Um schneller den Anschluss an die Mitbewerber zu bekommen, soll Anthropic angeblich bereits in Gesprächen mit Amazon und dem Londoner KI-Start-up ElevenLabs sein, die in diesem Bereich bereits Erfahrungen haben.

(igr)