KI-Update kompakt: OpenAI, Deepmind, Manhatten Project fĂĽr KI, ChatGPT-Fail
Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.
- Isabel GrĂĽnewald
- The Decoder
OpenAI will auf dem Browser-Markt mitmischen
OpenAI plant die Entwicklung eines Browsers mit integriertem KI-Chatbot und KI-Suche. Das Unternehmen hat das Konzept bereits potenziellen Kunden wie Condé Nast, Eventbrite und Priceline präsentiert. Mit diesem Schritt würde OpenAI direkt mit Google konkurrieren, das den Browsermarkt mit Chrome dominiert. Eine unmittelbare Veröffentlichung ist jedoch nicht geplant.
Gleichzeitig steht Google unter Druck von Wettbewerbshütern. Das US-Justizministerium fordert den Verkauf von Chrome und möglicherweise auch Android. Auch die EU-Kommission untersucht Googles Geschäftspraktiken im Hinblick auf den Digital Markets Act.
OpenAI hat für das Browserprojekt erfahrene Entwickler rekrutiert, darunter Ben Goodger (ehemals Firefox und Chrome) und Darin Fisher (The Browser Company, Mozilla, Google). Das Projekt soll Teil eines "Natural Language Web" werden, bei dem Nutzer mit Webseiten wie mit einem KI-Chatbot interagieren können.
Nochmal 4 Milliarden Dollar fĂĽr KI-Startup Anthropic
Jetzt ist es offiziell: Das KI-Startup Anthropic vertieft seine Zusammenarbeit mit Amazon Web Services. Amazon investiert dazu weitere 4 Milliarden US-Dollar und wird damit zum primären Cloud- und Trainingspartner von Anthropic. Die Anthropic-Ingenieure sollen dabei eng mit Annapurna Labs, einer Tochtergesellschaft von AWS, zusammenarbeiten. Diese steckt hinter den Trainium-Chips. Sie sind auf das Training von Machine-Learning-Modellen spezialisiert. Ziel der Partnerschaft soll es sein, die Effizienz der Hardware weiter zu optimieren. Anthropic will davon beim Training seiner Foundation-Modelle um die Claude-Familie profitieren. Amazons Gesamtinvestition in das Startup erhöht sich damit auf 8 Milliarden US-Dollar. Das Unternehmen bleibt allerdings Minderheitsinvestor. Zu den weiteren Investoren gehören unter anderem die Google Mutter Alphabet, Microsoft, Apple und Nvidia.
So will Google Deepmind KI-Systemen in den "Kopf" schauen
Die Künstliche Intelligenz ist dabei, die Art und Weise, wie wir mit Rechnern und dem Internet interagieren, zu revolutionieren. Wäre da nicht ein wichtiges Problem: Wir wissen weiterhin nicht genau, wie große Sprachmodelle wirklich funktionieren – oder warum sie so gut funktionieren. Ein Team bei Google Deepmind, das sich mit der sogenannten mechanistischen Interpretierbarkeit beschäftigt, hat an neuen Methoden gearbeitet, die es uns ermöglichen sollen, unter die Haube der KI zu blicken.
Das Tool Gemma Scope soll Forschenden helfen, zu verstehen, was passiert, wenn generative Systeme eine Ausgabe erzeugen. "Ein Hauptziel der mechanistischen Interpretierbarkeit ist der Versuch, die Algorithmen innerhalb dieser Systeme praktisch zurückzuentwickeln", sagt Neel Nanda, der das Team leitet. Um Merkmale – oder Datenkategorien, die ein größeres Konzept darstellen – in Googles KI-Modell Gemma zu finden, hat Deepmind ein Tool namens "Sparse Autoencoder" auf jede seiner zahlreichen Schichten angewendet. Man kann sich einen Sparse-Autoencoder wie ein Mikroskop vorstellen, das diese Schichten vergrößert und einen Blick auf ihre Details ermöglicht.
Der knifflige Teil von Autoencodern besteht darin, zu entscheiden, wie granular sie sein sollen. Die Lösung von Deepmind bestand darin, Sparse-Autoencoder unterschiedlicher Größe laufen zu lassen und so die Anzahl der Merkmale zu variieren, die der Autoencoder finden soll. So lassen sich die Ursachen für Bias oder Fehler in Sprachmodellen aufspüren und entsprechend auch beheben. Mechanistische Interpretierbarkeit könnte ein plausibler Weg zum sogenannten Alignment sein – einem Prozess, der sicherstellt, dass die KI tatsächlich das tut, was wir von ihr erwarten. Gemma und die Autoencoder sind quelloffen, sodass dieses Projekt darauf abzielt, weitere interessierte Forschende dazu anzuregen, sich anzusehen, was die Software gefunden hat und neue Erkenntnisse über die interne Logik des Modells zu gewinnen.
US-Kommission schlägt "Manhattan-Projekt" für KI vor
Eine Kommission des US-Kongresses empfiehlt ein massives "Manhattan-Projekt"-ähnliches Programm zur Entwicklung einer Artificial General Intelligence (AGI), um im Wettbewerb mit China die Führung zu übernehmen. Dazu sollen führende KI-Unternehmen langfristige Verträge und Finanzierungen erhalten.
Zum Schutz vor chinesischer Industriespionage werden strengere Gesetze vorgeschlagen, etwa zur Genehmigung chinesischer Beteiligungen an US-Biotech-Firmen, Beschränkungen für den Import bestimmter chinesischer Technologien sowie Verbote für chinesische Investoren, Vorstandssitze in strategischen US-Technologiesektoren zu übernehmen.
China misst KI eine zentrale Rolle in der künftigen Militärstrategie bei, um Schwachstellen der US-Streitkräfte auszunutzen. Das Land hat stark in KI-Ausbildung investiert und führt bei der Zahl der KI-Forschungsartikel vor den USA. Es bleibt abzuwarten, ob der Kongress dem Vorschlag folgen wird.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Apples LLM-Siri soll frĂĽhestens 2026 erscheinen
Apple entwickelt eine neue Version seines digitalen Assistenten Siri mit fortgeschrittenen Sprachmodellen. Die intern als "LLM Siri" bezeichnete Version soll menschenähnlichere Gespräche ermöglichen und komplexere Anfragen verarbeiten können. Laut Bloomberg wird die neue Siri-Version aber erst 2025 angekündigt und frühestens im Frühjahr 2026 für Nutzerinnen und Nutzer verfügbar sein. Apple testet sie derzeit als separate App auf iPhones, iPads und Macs. Langfristig soll die Technologie die bestehende Siri-Oberfläche komplett ersetzen. Bis zum Start plant Apple einige Zwischenschritte, wie die Integration von ChatGPT in Apple Intelligence im kommenden Monat. Die neue Siri soll alle diese Fähigkeiten direkt integrieren - mit besonderem Fokus auf Datenschutz. Apple könnte aber weiterhin Zugriff auf spezialisierte KI-Systeme von Drittanbietern anbieten.
Neuer MaĂźstab fĂĽr offene Video-KI
Das KI-Start-up Genmo hat sein Videomodell Mochi 1 als bisher größtes öffentlich verfügbares KI-Modell zur Videogenerierung veröffentlicht. Mit 10 Milliarden Parametern soll es bei Bewegungsqualität und Umsetzung von Textanweisungen neue Maßstäbe setzen. Mochi 1 kann Videos mit 30 FPS und bis zu 5,4 Sekunden Länge in 480p-Auflösung erzeugen. Es simuliert physikalische Effekte wie Flüssigkeiten sowie Fell- und Haarbewegungen realistisch, ist aber für fotorealistische Inhalte optimiert. Eine 720p-Version soll noch 2024 folgen. Das Modell basiert auf einer neuen "Asymmetric Diffusion Transformer"-Architektur, die Text und Video getrennt verarbeitet. In Benchmarks erreicht es eine höhere Genauigkeit bei der Umsetzung von Prompts und realistischere Bewegungen als Konkurrenzmodelle. Code und Gewichte stehen unter der Apache-2.0-Lizenz zur Verfügung.
KI-Code kostet Programmierer 2500 US-Dollar
Ein Kryptowährung-Interessierter verlor 2500 US-Dollar, nachdem er Code von ChatGPT verwendete, der eine betrügerische Solana-API enthielt. Er wollte einen "Bump Bot" für Kryptowährungshandel programmieren und vertraute dabei dem von ChatGPT vorgeschlagenen Code, der seinen privaten Schlüssel über die API übertrug.
Der Vorfall offenbart mehrere grundlegende Sicherheitsfehler: Die Verwendung eines Produktivkontos fĂĽr Entwicklungszwecke und die Preisgabe eines privaten SchlĂĽssels. Der BetrĂĽger konnte innerhalb von 30 Minuten alle Krypto-Assets aus der Wallet abziehen.
Der Geschädigte meldete den Vorfall an OpenAI und das betrügerische Repository an GitHub, das daraufhin entfernt wurde. Der Fall zeigt, dass KI-generierte Ergebnisse nicht blind vertraut werden sollten und eine kritische Überprüfung notwendig ist.
Anwender an KI-PCs langsamer
Der generativen künstlichen Intelligenz wird zugeschrieben, digitale Büroarbeit effizienter zu machen und Zeitersparnis zu schaffen – doch laut einer Studie von Intel hapert es dabei noch: Die Befragung habe ergeben, dass Anwender an einem der neuen KI-PCs, also einem Rechner mit NPU (Neural Processing Unit), mehr Zeit für Computerarbeiten aufwendeten als diejenigen, die an einem normalen PC oder Laptop saßen. Intel bezeichnete das als eine "beunruhigende Statistik". Potenzial für Zeitersparnis mit KI wäre bei den vielen Routine-Aufgaben am Rechner durchaus vorhanden. Doch warum helfen die KI-PCs nicht? Als möglichen Grund dafür sieht der Chiphersteller, dass zahlreiche KI-Nutzer noch viel Zeit damit zubrächten, herauszufinden, wie sie am besten mit KI-Chatbots kommunizieren, um auch die gewünschten Ergebnisse zu erzielen. Daraus folgt für Intel, dass noch großer Aufklärungsbedarf herrscht. Unternehmen, die KI-gestützte Produkte anbieten, sollten deshalb mehr Informationen über Implementierung und Nutzung bieten, damit das Potenzial Künstlicher Intelligenz wirklich gehoben werden könne.
Microsoft veröffentlicht AI Shell
Microsoft hat AI Shell als öffentliche Preview-Version veröffentlicht. Das Projekt stattet die Shell mit KI-Fähigkeiten aus, bietet Interaktionsmöglichkeiten mit KI-Agenten von Azure OpenAI sowie Copilot in Azure und lässt sich wahlweise als eigenständige Anwendung oder mit Microsofts Open-Source-Shell PowerShell 7 nutzen. AI Shell besteht aus einem Kommandozeilen-Shell-Interface, einem Framework zum Erstellen von KI-Agenten, einem PowerShell-Modul und zwei integrierten KI-Agenten: Der Azure-OpenAI-Agent kann ein beliebiges von Azure OpenAI bereitgestelltes KI-Modell nutzen und eignet sich laut Microsoft für eine breite Spannweite von Anfragen, Natural-Language-Interpretationen und Codegenerierung. Das KI-gestützte Tool Copilot in Azure liegt als Preview vor und ist darauf spezialisiert, Cloud-zentrische Hilfestellung zu leisten. AI Shell ist für Windows, macOS und Linux verfügbar.
Das war das KI-Update von heise online vom 25. November 2024. Eine neue Folge gibt es jeden Werktag ab 15 Uhr.
(igr)