KI-Update kompakt: KI-Nutzung in D, Google Gemini, Anthropics Claude, NotebookLM
Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.
- Isabel GrĂĽnewald
- The Decoder
KI-Nutzung in Deutschland boomt laut Bitkom-Befragung
Laut einer neuen Bitkom-Umfrage nutzen bereits zwei Drittel der Deutschen diese Technologie – ein steiler Anstieg von 40 Prozent im vergangenen Sommer. "Noch nie hat sich eine neue Technologie so schnell verbreitet", erklärt Bitkom-Präsident Ralf Wintergerst. Angesichts des drohenden demografischen Wandels könnte KI eine entscheidende Rolle spielen, um den bevorstehenden Arbeitskräftemangel zu kompensieren.
Die Umfrage offenbart auch ein beachtliches Vertrauensproblem. Eine deutliche Mehrheit der Befragten (69 Prozent) würde einen KI-Anbieter aus Deutschland bevorzugen. Der Bitkom fordert daher eine Aktualisierung der nationalen KI-Strategie, besseren Zugang zur KI-Recheninfrastruktur, gebündelte Förderprogramme und eine innovationsfreundlichere Regulierung, um Deutschlands Wettbewerbsfähigkeit im globalen KI-Wettlauf zu sichern.
Google gibt Vorgeschmack auf einen persönlicheren Assistenten
Google bereitet einen umfassenden Ausbau seines KI-Assistenten Gemini vor. Josh Woodward, Vice President von Google Labs und Gemini, kündigt an, dass der Assistent künftig "proaktiv" und "leistungsfähiger" werden solle. Mit Zustimmung der Nutzer wird Gemini auf sämtliche persönlichen Google-Dienste zugreifen können – von Gmail über Fotos bis zu YouTube – und sich an vergangene Gespräche erinnern.
Die vollständigen Details will Google auf seiner Entwicklerkonferenz I/O am 20. Mai präsentieren. Parallel dazu hat das Unternehmen eine Option in Family Link freigeschaltet, mit der Eltern ihren Kindern unter 13 Jahren die Nutzung von Gemini erlauben können. Ob diese Funktion bereits in Deutschland verfügbar ist, bleibt unklar.
Anthropic erweitert Claude
Anthropic rüstet seinen KI-Assistenten Claude mit tiefgreifenden Integrationen auf. Das System lässt sich nun mit gängigen Unternehmensanwendungen wie Jira, Asana und Zapier verknüpfen. So kann Claude etwa mehrere Jira-Tickets gleichzeitig erstellen, Inhalte aus Confluence zusammenfassen oder automatisch Besprechungsunterlagen vorbereiten – abgestimmt auf anstehende Termine und laufende Projekte. Wie zuverlässig das in der Praxis funktioniert, muss sich zeigen.
Die technische Grundlage bildet das bereits im November vorgestellte Model Context Protocol, das jetzt auch über das Internet und mit Webanwendungen funktioniert. Zehn Dienste sind bereits angebunden, weitere sollen folgen. Gleichzeitig erweitert Anthropic die Research-Funktion, die auch alle verknüpften Unternehmensanwendungen durchsuchen kann. Die Funktionen stehen zunächst zahlenden Nutzern der Tarife Max, Team und Enterprise zur Verfügung.
Bei Wikipedia zieht KI ein
Wikipedia, die Datengrundlage zahlreicher KI-Modelle, entwickelt selbst eine zweigleisige KI-Strategie. Wikimedia betont dabei, dass KI Menschen keinesfalls ersetzen soll. Stattdessen sollen Moderatoren durch KI-gestützte Workflows entlastet werden, die "mühsame Aufgaben zur Wahrung der Wissensintegrität automatisieren".
Die Technologie soll zudem bei Übersetzungen helfen, den Informationszugriff beschleunigen und neue Helfer anlernen. "Die Bereitstellung von frei zugänglichem Wissen für jeden auf der Welt ist die Aufgabe von Wikipedia, die seit dem Aufkommen der generativen KI nur noch an Bedeutung gewonnen hat", erklärt Wikimedia. Erst kürzlich hat die Organisation ihre Daten explizit für das Training von KI-Modellen aufbereitet.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Weniger ist mehr bei Kontextfenstern
Die Jagd nach immer größeren Kontextfenstern in KI-Modellen könnte ein Irrweg sein. Nikolay Savinov von Google Deepmind warnt: Je mehr Tokens im Kontextfenster, desto dünner verteile sich die Aufmerksamkeit des Modells. "Wenn man das Kontextfenster gut nutzen will, sollte man realistisch sein und keine irrelevanten Kontexte einfügen", erklärt er.
Aktuelle Forschungsergebnisse bestätigen diese Einschätzung. Nutzer sollten daher vor der KI-Verarbeitung irrelevante Inhalte entfernen – selbst wenn das System technisch in der Lage wäre, diese zu verarbeiten. Bei einem PDF etwa lohnt es sich, nur die relevanten Seiten einzubeziehen. Bis bessere Modelle entwickelt werden, bleibt gezielte Auswahl des Kontexts die effizientere Strategie.
Audio-Zusammenfassungen in NotebookLM jetzt auch auf Deutsch
Googles Recherchetool NotebookLM erweitert seine "Audio Overviews" auf über 50 Sprachen, darunter auch Deutsch. Die Funktion, die im vergangenen Jahr für Aufsehen sorgte, verwandelt Dokumente wie PDFs oder Bücher in podcastähnliche Gespräche zwischen einer männlichen und einer weiblichen KI-Stimme.
Parallel führt Google die Funktion "Quellen entdecken" ein. Nutzer können ein Thema beschreiben und erhalten daraufhin eine kuratierte Sammlung relevanter Webquellen, die sich mit einem Klick zu einem Notebook hinzufügen lassen. So können neue Konzepte schneller erfasst oder Lesematerialien zu einem Thema effizient zusammengestellt werden.
Photonik-Chip kann KI trainieren
An der University of Pennsylvania haben Forschende einen programmierbaren photonischen KI-Chip entwickelt, der neuronale Netze energiesparend trainieren kann. Dabei setzt das Forscherteam um Liang Feng anstelle von Transistorschaltkreisen und elektrischen Strömen auf Optik und nutzt Lichtteilchen als Informationsträger und -speicher.
Die entscheidende Innovation des Teams liegt in der Fähigkeit des Chips, nicht nur lineare, sondern auch nichtlineare Funktionen abzubilden – eine Grundvoraussetzung für das Training von KI-Anwendungen. In Tests erreichte das System nach dem Training eine beachtliche Trefferquote von 96 Prozent bei der Unterscheidung verschiedener Pflanzengattungen im Schwertlilien-Datensatz.
(igr)