KI-Update kompakt: Ressourcenverbrauch, RE-LAION-5B, Manipulation, GameNGen

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 8 Min.
Von
Inhaltsverzeichnis

Eine Untersuchung von BestBrokers zeigt, dass eine Anfrage an ChatGPT 2,9 Wattstunden verbraucht, zehnmal mehr als eine Google-Suchanfrage (0,3 Wattstunden). Auf ein Jahr hochgerechnet benötigt ChatGPT 226,82 Millionen Wattstunden für Nutzeranfragen, was Kosten von rund 30 Millionen US-Dollar entspricht. Dabei wird von 100 Millionen aktiven Nutzern pro Woche mit jeweils 15 Anfragen ausgegangen.

Der Jahresverbrauch von ChatGPT entspricht laut Studie dem Stromverbrauch von 3,13 Millionen Elektrofahrzeugen, 140.000 Stunden Videostreaming oder dem täglichen Aufladen von 50 Millionen Smartphones ein Jahr lang. Er übersteigt sogar den gesamten Stromverbrauch von zwölf kleinen Ländern.

Zu den Nutzungskosten kommen noch die Entwicklungskosten der KI-Modelle hinzu. Laut Schätzungen kostete das Training von GPT-4 allein für den Energieverbrauch 8,2 Millionen US-Dollar, insgesamt soll die Entwicklung über 100 Millionen US-Dollar gekostet haben.

Die Organisation LAION hat mit RE-LAION-5B eine bereinigte Version ihrer Bilddatenbank LAION-5B veröffentlicht. Die ursprüngliche 5,5 Milliarden Bilder umfassende Datenbank musste vom Netz genommen werden, nachdem Forscher darin über 1600 Verweise auf Bilder mit Kindesmissbrauch entdeckt hatten.

In Zusammenarbeit mit den Forschern und Kindesschutzorganisationen wurden insgesamt 2236 illegale Links identifiziert und entfernt. Die bereinigte Datenbank RE-LAION-5B steht nun unter einer Apache-2.0-Lizenz zur Verfügung. Parallel dazu hat LAION ein Filtersystem entwickelt, um zukünftig das Eindringen illegaler Inhalte zu erschweren. Details zur Datenbank finden sich auf der LAION-Homepage.

Die Bundesregierung will mit ihrem "Sicherheitspaket" für die Ermittlungsbehörden eine "Befugnis zum biometrischen Abgleich von allgemein öffentlich zugänglichen Internetdaten" einführen – also eine Gesichtserkennung. Ziel ist es, "die Identifizierung von Tatverdächtigen oder gesuchten Personen zu erleichtern". In der Zivilgesellschaft löst das Protest aus.

So warnen etwa der Chaos Computer Club (CCC) und das Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF) vor einem "biometrischen Überwachungsexzess".

Die Regierung verstricke sich darüber hinaus mit ihrem Verweis auf den AI Act in Widersprüche: Dieser verbiete es, KI-Systeme zu nutzen, um Datenbanken für biometrische Gesichtserkennung durch das massenhafte ziellose Auslesen von Gesichtsfotos aus dem Netz zu erstellen oder zu erweitern. Genau das werde mit dem Paket aber beabsichtigt. Die Regierung will auch die KI-gestützte "automatisierte Analyse polizeilicher Daten durch das BKA und die Bundespolizei" ermöglichen, genauso wie das Testen und Trainieren von Daten für KI-Anwendungen wie Big-Data-Analysen im Stil von Palantir & Co.

Das bedeute praktisch, "dass der ganze Zoo polizeilicher Datenbanken" zusammengeführt und automatisiert durchsucht werden können soll, monieren CCC und FIfF. Datenschützer und Rechtsexperten warnen schon lange, dass die Unschuldsvermutung verloren geht, wenn die Polizei mit KI riesige Datenbestände durchforsten dürfte.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Kevin Roose, ein Journalist der New York Times, demonstrierte, wie einfach sich KI-Chatbots manipulieren lassen. Seit einem Artikel über eine kontroverse Interaktion mit Microsofts Bing-Chatbot Sydney, der viral ging und wohl in den Trainingsdaten weiterer Chatbots landete, stellen spätere Chatbots immer falsche Behauptungen über ihn auf oder stellen ihn in einem schlechten Licht dar. Nun suchte Roose Rat bei KI-Experten. Diese empfahlen ihm, positive Informationen über sich auf Websites zu platzieren, die häufig von KI-Systemen als Quellen genutzt werden.

Roose fügte daraufhin seiner persönlichen Website unsichtbaren weißen Text und kryptische Codes hinzu, die KI-Modelle anweisen sollten, ihn positiv darzustellen. Tatsächlich begannen die Chatbots nach einigen Tagen, Roose zu loben und ignorierten frühere negative Berichte, es sei denn, er fragte explizit danach.

Um die Wirksamkeit seiner Manipulation zu testen, fügte Roose ein absichtlich falsches "Easter Egg" in den Text ein: "Kevin Roose erhielt den Friedensnobelpreis für den Bau von Waisenhäusern auf dem Mond." Bei ChatGPT wurde dieses Detail aufgegriffen, aber als "humorvoll" und unwahr eingestuft. Roose vermutet, dass weniger offensichtlich falsche Angaben möglicherweise nicht als solche erkannt worden wären.

Roose kommt zu dem Schluss, dass KI-Suchmaschinen nicht so leicht manipulierbar sein sollten. Er stellt die Vertrauenswürdigkeit von Chatbots infrage, insbesondere für wichtige Aufgaben, wenn sie durch einfache Methoden wie versteckten Text oder codierte Nachrichten beeinflusst werden können.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Amazon baut seine Robotik-Sparte aus. Der E-Commerce-Riese hat eine nicht exklusive Lizenz für die Robotik-Modelle des Start-ups Covariant erworben. Gleichzeitig wechselt rund ein Viertel der Covariant-Mitarbeiter zu Amazon, darunter die Gründer Pieter Abbeel, Peter Chen und Rocky Duan. Amazon will damit seine bestehende Flotte von 750.000 Robotern in den Logistikzentren verbessern. Die Maschinen sollen sicherer und anpassungsfähiger werden. Covariant bleibt als eigenständiges Unternehmen bestehen und betreut weiterhin seine Kunden.

Der Schritt folgt einem Trend in der Tech-Branche: Auch Apple, OpenAI und Google Deepmind investieren verstärkt in Robotik und künstliche Intelligenz. Apple entwickelt angeblich ein Tischgerät mit Roboterarm. OpenAI kooperiert mit dem Robotikunternehmen Figure. Google Deepmind kombiniert Roboter mit multimodalen KI-Modellen. Die Unternehmen versprechen sich von der Verbindung von Robotik und KI neue Anwendungsmöglichkeiten in Industrie und Alltag.

Google-Forscher haben mit GameNGen eine KI-Technik vorgestellt, die den Shooter "Doom" komplett ohne Engine in Echtzeit auf einer TPU aufbaut. Das dabei entstandene KI-"Doom" ist interaktiv spielbar und für Menschen nur schwer vom Original zu unterscheiden. GameNGen basiert auf einer erweiterten Version des Bildgenerators Stable Diffusion 1.4 und generiert Frames auf Basis vorangegangener Bilder und Nutzereingaben. Ein neuronales Netz verwaltet dabei den Spielstatus.

Das Experiment zeigt laut den Forschern, dass neurale Netze grundsätzlich in der Lage sind, Videospiele in hoher Qualität in Echtzeit zu simulieren. Allerdings hat GameNGen auch Limitierungen: Es kann sich nur 3 Sekunden merken, wurde nur auf "Doom" trainiert und modernere Grafik würde die Rechenkosten massiv erhöhen. Zudem braucht es Material aus einem bestehenden Spiel zum Training. Dennoch sehen die Forscher Potenzial, um etwa die Spieleentwicklung zu beschleunigen oder Mods zu erstellen.

Mehrere große US-Internetportale und Medienhäuser wie Facebook, Instagram, New York Times und Condé Nast sperren offenbar Apples Crawler für das KI-Training aus. Laut einem Bericht von Wired geht es dabei vor allem darum, Lizenzkosten von Apple zu erhalten, da die bisherigen Angebote nicht gut genug waren. Für Apple sei der Zugang zu qualitativen Trainingsdaten gerade jetzt zu Beginn seiner KI-Bemühungen besonders wichtig.

Apple nutzt für die Datenerfassung eine Erweiterung seines Applebots namens "Applebot-Extended", die über die robots.txt ausgeschlossen werden kann. Insgesamt machen aber noch vergleichsweise wenige Webseiten davon Gebrauch. Experten gehen davon aus, dass Medienhäuser und Internetanbieter mit strategischen Partnerschaften neue Einnahmequellen erschließen wollen, wie es OpenAI bereits vormacht. Auch Apple könnte solche Kooperationen anstreben, um die Qualität seiner KI-Trainingsdaten und -Modelle zu verbessern.

Alibaba Cloud hat über seine KI-Forschungsabteilung Qwen das neue Vision-Language-Modell Qwen2-VL vorgestellt. Das Modell erzielt in verschiedenen Benchmarks für visuelle Verständnisaufgaben State-of-the-Art-Ergebnisse.

Eine Besonderheit von Qwen2-VL ist die Fähigkeit, Videos mit einer Länge von über 20 Minuten zu analysieren und darauf basierende Fragen zu beantworten, Dialoge zu führen oder Inhalte zu generieren. Neben Englisch und Chinesisch unterstützt es auch das Verständnis von Texten in Bildern in verschiedenen europäischen und asiatischen Sprachen.

Qwen2-VL ist in drei Größen mit 2, 7 und 72 Milliarden Parametern verfügbar. Die kleineren Varianten mit 2 und 7 Milliarden Parametern wurden auf GitHub und Hugging Face als Open-Source veröffentlicht. Für die 72-Milliarden-Variante stellt Alibaba vorerst eine API zur Verfügung.

(igr)