KI-Update kompakt: Metas Open-Source-KI, Gemini Advanced, KI-Betrug, NXAI

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 8 Min.
Inhaltsverzeichnis

Mark Zuckerberg erläuterte im jüngsten Earnings Call, warum Meta seine Sprachmodelle als Open-Source-Software veröffentlicht, anders als OpenAI oder Google. Die Strategie von Meta bestehe weiter darin, allgemeine Infrastrukturen wie Llama-Modelle und Industrie-Standardwerkzeuge wie PyTorch zu entwickeln und bereitzustellen. Produkteigene Implementierungen bleiben jedoch proprietär.

Zuckerberg betonte, dass Open-Source-Software Innovation fördere, sicherer und kostengünstiger sei und zum Industriestandard werden könne. Zudem helfe es Meta, die besten Talente anzuziehen. Er sagte: "Die kurze Version ist, dass Open Sourcing unsere Modelle verbessert [...] und da es ohnehin andere Open-Source-Modelle geben wird, glauben wir, dass es insgesamt von Vorteil ist, der Open-Source-Marktführer zu sein, weil es die Differenzierung unserer Produkte nicht wesentlich verringert."

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Meta zielt darauf ab, die Infrastruktur- und Entwicklerszene zu dominieren, ähnlich wie Google mit Android-Smartphones. Zuckerberg erwartet, dass die KI-Entwicklung weiterhin rechenintensiv sein wird und plant, massiv in Rechenzentren und eigene KI-Chips zu investieren. Meta kündigte an, bis Ende des Jahres etwa 600.000 GPUs für das KI-Training einzusetzen und eine zweite Version des selbst entwickelten KI-Chips "Artemis" in Produktion zu bringen. Das nächste große Projekt ist das Llama 3-Modell, das bereits im Training ist und zur Spitzengruppe der besten Sprachmodelle aufschließen soll.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Google kündigte Ende letzten Jahres "Bard Advanced" an, nun deutet der Code eines auf Reddit geteilten, noch unveröffentlichten Blogposts auf eine Umbenennung in "Gemini Advanced" und eine mögliche Veröffentlichung noch in dieser Woche hin. Das Update soll Googles bisher größtes unveröffentlichtes Modell, Gemini Ultra 1.0, enthalten. Dadurch könne der Chatbot komplexe Aufgaben wie Codieren, logisches Denken und kreative Zusammenarbeit besser bewältigen.

Die Einführung von Gemini Advanced würde Google als ernsthaften Konkurrenten für OpenAIs ChatGPT Plus positionieren. Voraussichtlich wird es ein kostenpflichtiges Angebot sein. Google verspricht regelmäßige Updates, darunter verbesserte multimodale Fähigkeiten, Kodierungsfunktionen und detaillierte Datenanalysen.

Google hat in den USA ein KI-Update für ausgewählte Reiseführer in Google Maps veröffentlicht. Die KI-gestützte Funktion ermöglicht Nutzern, nach Vorschlägen zu fragen, die auf ihren persönlichen Vorlieben basieren. Sprachmodelle analysieren dazu Informationen über mehr als 250 Millionen Orte und das Wissen der Maps-Community. Fotos, Bewertungen und Rezensionen werden berücksichtigt, um verlässliche Vorschläge zu machen und diese in Kategorien einzuteilen. Beispielsweise kann der Nutzer nach "Vintage-Läden in San Francisco" suchen und erhält Vorschläge für Bekleidungsgeschäfte, Plattenläden und Flohmärkte. Laut Google kann die KI-Suche sich auch an plötzliche Änderungen des Reiseplans anpassen, wie etwa Vorschläge für Indoor-Aktivitäten an einem regnerischen Tag.

Diese experimentelle Funktion ist laut Google erst der Anfang des Plans, Maps mit generativer KI zu optimieren. In den kommenden Monaten werden die Features voraussichtlich auch außerhalb der USA verfügbar sein. Google gibt nicht an, welches LLM für Maps verwendet wird, vermutet wird jedoch ein Modell aus der neuen Gemini-Reihe.

Die deutsche Ampel-Koalition plant, biometrische Überwachung im Rahmen der kürzlich angenommenen EU-KI-Verordnung einzuschränken. Obwohl das EU-Parlament ein Verbot biometrischer Massenüberwachung forderte, ermöglicht der im Dezember vereinbarte Kompromiss den Einsatz solcher Technologien durch die Polizei. Vertreter von SPD, Grünen und FDP haben jedoch angekündigt, die "Handlungsspielräume zur Nachjustierung" nutzen zu wollen, um den Schutz vor biometrischer Fernidentifizierung zu verbessern.

Die Koalitionsparteien lehnen den flächendeckenden Einsatz von Kameras und die biometrische Erfassung zu Überwachungszwecken ab. Der eco-Verband der Internetwirtschaft unterstützt die Position der Bundesregierung, da die im AI Act vorgesehenen Regelungen zur biometrischen Echtzeit-Überwachung das Vertrauen in Künstliche Intelligenz untergraben könnten.

Ein Angestellter eines internationalen Konzerns in Hongkong wurde Opfer einer Betrugsmasche, bei der KI-generierte Deepfakes von Kollegen in einer Videokonferenz verwendet wurden. Laut Radio Television Hong Kong (RTHK) wurde der Angestellte dazu gebracht, fast 24 Millionen Euro an die Betrüger zu überweisen. Die Kriminellen hatten sich offenbar interne Videos des Konzerns beschafft und diese mit KI-generierten Stimmen ergänzt. In der Videokonferenz war das Betrugsopfer die einzige echte Person, bemerkte jedoch nichts davon. Der Betrug wurde erst während eines persönlichen Gesprächs mit dem eigenen Chef aufgedeckt.

Die Hongkonger Polizei will mit der Bekanntmachung des Vorfalls die Öffentlichkeit auf diese neue Betrugsmasche aufmerksam machen. Bislang wurden solche Betrügereien meist durch E-Mails oder Telefonanrufe durchgeführt. Der Vorfall zeigt, dass Kriminelle nun in der Lage sind, ganze Online-Meetings zu simulieren. Die Polizei rät, bei Meetings wachsam zu sein, Details auf bekannten Kommunikationskanälen zu hinterfragen und Fragen zu stellen, um Identitäten zu verifizieren.

Sepp Hochreiter, deutscher KI-Forscher und Träger des deutschen KI-Innovationspreises, plant mit dem neu gegründeten Unternehmen NXAI, ein europäisches KI-Sprachmodell zu entwickeln, das mit dem Marktführer OpenAI konkurrieren kann. In Zusammenarbeit mit österreichischen Industriepartnern und der Universität Linz soll die Finanzierung für das Vorhaben sichergestellt werden. Hochreiter ist der Erfinder des Long Short-Term Memory (LSTM)-Algorithmus, der KI-Anwendungen wie Sprachübersetzung, Krankheitsvorhersage und Spracherkennung revolutionierte. Eine Neuauflage von LSTM, genannt xLSTM, soll laut Hochreiter OpenAIs KI-Modelle übertreffen.

Das Linzer Start-up Netural X und die Pierer Digital Holding aus der österreichischen Industriegruppe Pierer sind ebenfalls an der Unternehmensgründung beteiligt. Hochreiter schätzt, dass er jährlich 54 Millionen Euro benötigt, um OpenAI herauszufordern – 4 Millionen für Personal und 50 Millionen für Rechenkapazitäten. Laut Angaben des Unternehmens versteht das xLSTM-Modell die Bedeutung von Texten besser als bisherige Sprachmodelle und benötigt weniger Rechenleistung als die Modelle von Google und OpenAI.

Amazon testet derzeit seinen KI-Chatbot "Rufus" in der Shopping-App für ausgewählte US-Kunden. Rufus soll neben der Suche nach Produkten auch Beschreibungen und Antworten auf Fragen in natürlicher Sprache liefern. In den kommenden Wochen soll der Bot für weitere Nutzer verfügbar sein, ob und wann er in anderen Ländern eingeführt wird, ist noch unklar.

Rufus kann beispielsweise konkrete Produktempfehlungen geben und auch komplexere Zusammenhänge verstehen. Das System kann auch spezifische Fragen zu ausgewählten Produkten beantworten. Die KI wurde mit Produktseiten, Kundenrezensionen und Informationen aus dem Web trainiert. Ob unabhängige und professionelle Tests von Produkten in das Training einbezogen wurden, ist jedoch unklar. Rufus lernt auch aus dem Feedback der Tester, ob seine Antworten als gut oder schlecht bewertet werden.

Wissenschaftler der New York University haben ein KI-Modell namens "Child's View for Contrastive Learning" (CVCL) entwickelt, das mit Videoaufnahmen aus der Perspektive von Kindern im Alter von 6 bis 25 Monaten trainiert wurde. Insgesamt verarbeitete das Modell 61 Stunden Videomaterial und Ton, um die Bedeutung von Wörtern aus der visuellen Umgebung des Kindes zu erlernen. Nach dem Training konnte CVCL viele Wörter Objekten zuordnen, die in der Alltagserfahrung des Kindes vorkommen – mit einer Genauigkeit vergleichbar mit einer KI, die auf 400 Millionen Bilder mit Bildunterschriften aus dem Internet trainiert wurde. Allerdings hatte das Modell bei komplexeren Konzepten Schwierigkeiten.

Die Ergebnisse zeigen, dass grundlegende Aspekte der Wortbedeutung aus der Erfahrung des Kindes gelernt werden können. Dies könnte dazu führen, dass in Zukunft größere Datensätze mit mehr Kindern für das KI-Training gesammelt werden, da diese frühen Erfahrungen in keinem bestehenden großen Datensatz abgebildet sind. Zudem könnte die Forschung helfen, das Verständnis darüber zu erweitern, wie Kinder lernen.

(igr)