KI kann sehr schiefgehen: Warnende Stimme im Hause Google

Bei der Google I/O ging es 1. um KI, 2. um KI und 3. auch. Doch ein Google-Manager erinnerte, dass die Grundlagen stimmen müssen. Sonst geht KI noch übel aus.​

In Pocket speichern vorlesen Druckansicht 23 Kommentare lesen
James Manyika

James Manyika, Google VP Technology & Society, auf der Google I/O 2023

(Bild: Screenshot)

Lesezeit: 6 Min.
Inhaltsverzeichnis

"Die Verschiebung durch Künstliche Intelligenz (KI) ist so groß, wie etwas nur sein kann", sagte Sundar Pichai, Chef von Google und dessen Holding Alphabet, am Mittwoch auf der Bühne der Entwicklerkonferenz Google I/O. KI war das alles dominierende Thema dieser I/O – sieben Jahre nach Pichais Vorgabe, dass Google nun eine "zuallererst KI"-Firma sei. Doch KI birgt Risiken, bekannte und unbekannte. Auch wenn das im Trubel um die neuen Ankündigungen fast untergegangen ist, gewährte Google auch einem mahnenden Rufer die Bühne: James Manyika.

Mit dazwischengesprengelter Werbung für Google warnte er davor, KI ohne Rücksicht auf Verluste vom Stapel zu lassen. Manyika leitet bei Google die neue Abteilung für "Technik und Gesellschaft". "Während ich glaube, dass es wichtig ist, den unglaublichen Fortschritt von KI, und das immense Potenzial, dass sie für Menschen überall hat, zu feiern, müssen wir auch anerkennen, dass es in Entstehung befindliche Technik ist, die noch entwickelt wird und dass es noch sehr viel zu tun gibt", eröffnete der Senegalese seine Rede.

Google müsse mit KI "kühn und verantwortungsbewusst" umgehen, hatte sein Chef Pichai kurz zuvor auf derselben Bühne in Mountain View verlautet. Darauf nahm Manyika Bezug: "Es gibt ein natürliches Spannungsfeld zwischen diesen beiden (Polen)", gestand er ein, "Wir glauben, dass es nicht nur möglich, sondern entscheidend ist, diese Spannung anzunehmen. Der einzige Weg, langfristig kühn zu sein, ist von Anfang an verantwortungsbewusst zu sein."

KI führe Fortschritt in vielen Wissenschaften, doch berge KI auch die Gefahr, bestehende soziale Herausforderungen zu verschlimmern, beispielsweise bei unfairen Voreingenommenheiten. Mit der Weiterentwicklung von KI und neuen Anwendungsgebieten würden sich auch neue Gefahren auftun.

Besondere Sorgen bereite Google Misinformation. Speziell mit generativer KI stelle sich die Vertrauensfrage. Als plakatives Beispiel zeigte er ein kurzes Video aus Googles Universalübersetzer (Universal Translator, eine aus Star Trek übernommene Bezeichnung), in dem eine Dame zunächst Englisch spricht (original) und dann das Gleiche auf Spanisch wiederholt (KI-Produkt). Nach Übersetzung des englischen Inhalts ins Spanische erfassten Googles Systeme zusätzlich Sprechstil und Intonation, was dann in die Sprachausgabe des Spanischen eingeflossen ist. Außerdem kreierte eine KI Lippenbewegungen, die zu dem spanischen Text passten. Schließlich wurde das alles zu einem Video zusammengefügt, in dem die Dame Spanisch erklingen lässt, mit passenden Lippenbewegungen.

Solche hochwertigen Manipulationen bei Videos für Studenten würden, ersten Anzeichen nach, die Abbruchrate senken, berichtete Manyika. Diese Technik könne also "unglaublich vorteilhaft sein, könnte aber von üblen Personen für Deep Fakes genutzt werden."

Manyikas Aufgabe bei der Google I/O 2023 war aber nicht nur, die Gefahren von KI hervorzustreichen, und zu erklären, warum Google vielleicht nicht immer der Erste mit einem neuen KI-Dienst sein wird, sondern den Konzern als verantwortungsbewussten Anbieter darzustellen. Der Mann erinnerte an die sieben Ethik-Regeln für die Entwicklung Künstlicher Intelligenz, die Google bereits 2018 aufgestellt hat. Demnach muss KI:

  1. der Gesellschaft Vorteile bringen
  2. vermeiden, unfaire Voreingenommenheiten zu erzeugen oder zu bestärken
  3. auf Sicherheit ausgerichtet und getestet sein
  4. gegenüber Menschen Verantwortung tragen
  5. Datenschutz und Datensicherheit in den grundlegenden Prinzipien berücksichtigen
  6. hohe Standards für wissenschaftliche Exzellenz erfüllen, und
  7. für Zwecke zur Verfügung stehen, die mit diesen Prinzipien im Einklang stehen.

Die Beteiligung Googles an der Entwicklung von KI-Algorithmen für militärische Waffensysteme hat Pichai 2018 grundsätzlich ausgeschlossen. Ebenso die Entwicklung von Technik, die dazu geeignet wäre, großflächige Überwachung von Menschen zu ermöglichen, oder gegen die Prinzipien des Völkerrechts und der Menschenrechte verstoßen würde.

Die sieben Ethik-Prinzipien für KI "leiten unsere Produktentwicklung und helfen uns dabei, jede KI-Anwendung zu beurteilen", erzählte Manyika am Mittwoch. Der Universalübersetzer werde beispielsweise nur ausgewählten Nutzern zugänglich gemacht. Jegliche von einer Google-KI generierten Bilder und Videos würden durch Metadaten als KI-Produkt gekennzeichnet. Auch andere KI-Betreiber möchte Google dafür gewinnen. Googles Suchmaschine soll dann KI-generierte Inhalte als solche kennzeichnen. Manyika kündigte weitere "Innovationen bei Wasserzeichen" für KI an, wurde dabei aber nicht konkreter.

In den kommenden Monaten werde Google seiner Suchmaschine ein Werkzeug hinzufügen, mit denen Endanwender mehrt Informationen über Bilder finden können. Zu mit der Suche gefundenen Bildern werde einsehbar sein, wann Google das diese oder ähnliche Bilder zum ersten Mal gesehen hat, und wo es dieses Bilder sonst noch gefunden hat, sei es auf Nachrichtenseiten, in Sozialen Netzwerken oder bei Faktenprüf-Seiten. Diese Angaben können dabei helfen, den Grad der Vertrauenswürdigkeit eines Bildes zu beurteilen.

Die KI-Prinzipien würden Google aber auch dabei helfen, zu entscheiden, was es nicht machen wird. "Vor Jahren waren wir die erste Firma, die beschlossen hat, keine allgemeine Programmierschnittstelle für Gesichtserkennung zu vermarkten", betonte der Redner, "Wir hatten das Gefühl, dass es keine adäquaten Sicherheitsmaßnahmen gab."

Jetzt arbeite Datenkonzern daran, problematische Erzeugnisse seiner KI-Modelle zu verringern. Dazu gehört ausdrücklich Adversarial Testing. Außerdem erzählte der Google-Manager von einer Google-Schnittstelle namens Perspective: Sie wurde dazu entwickelt, toxische Userkommentare im Internet aufzuspüren. Nun hätten Wissenschaftler Perspective dazu genutzt, einen Evaluierungsstandard für Large Language Models (LLM) zu entwickeln. Alle LLM von Bedeutung, darunter auch die der Mitbewerber Anthropic und OpenAI, würden diesen Standards jetzt einsetzen, um die Toxizität ihrer eigenen Sprachmodelle zu bewerten.

Alleine werde Google die Herausforderungen aber nicht bewältigen können. "Verantwortungsbewusste KI zu bauen, muss eine gemeinsame Anstrengung sein", unterstrich Manyika, "mit Forschern, Geisteswissenschaftlern, Branchenexperten, Regierungen und normalen Leuten, aber auch Urhebern und Verlagen. (…) Es ist eine sehr aufregende Zeit. Es gibt sehr viel, das wir erreichen können, und sehr viel, das wir richtig hinbekommen müssen. Zusammen."

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(ds)