Künstliche Intelligenz: Die Nutzer sollen wissen, was ihre Maschine gelernt hat

IBM-Chefin Ginny Rometty will der Kundschaft künstliche Intelligenz schmackhaft machen: Wir haben Anspruch drauf zu wissen, was drin ist in unseren intelligenten Maschinen. Umstritten waren auf dem Weltwirtschaftsforum bewaffnete Roboter.

In Pocket speichern vorlesen Druckansicht 46 Kommentare lesen
Künstliche Intelligenz, KI, AI
Lesezeit: 3 Min.
Von
  • Monika Ermert

IBM CEO Ginny Rometty wirbt beim Weltwirtschaftsforum (WEF) mit einem Krebsdiagnosesystem auf Basis von IBMs Watson für künstliche Intelligenz (KI). Den auch im Global Risk Report des WEF ausführlich dokumentierten Ängsten vor intelligenten Maschinen begegnet sie dabei mit einer Reihe von Versprechen, vor allem: die KI-Systeme aus ihrem Unternehmen werden keine Blackbox sein und Menschen lediglich unterstützen, nicht ersetzen.

Transparenz über Zweck und Ziel von KI-Systemen und auch klare Informationen darüber, wie die Systeme trainiert wurden, versprach Rometty in einem der Expertengespräche in Davos. Beim Jahrestreffen der Business-Elite wird das Thema künstliche Intelligenz als zentrale Entwicklung der "4. industriellen Revolution" diskutiert. Per Unternehmensmitteilung habe sie diese Woche diese Prinzipien für KI-Entwicklungen im eigenen Haus verkündet, sagte Rometty.

Mit dem Krebsdiagnosesystem geht IBM Watson 2017 in China, Thailand, Finnland, Italien, den USA und zwei weiteren Ländern an den Start, berichtete Rometty stolz in Davos und erklärte, wie Watson dafür trainiert“wurde. Erst habe man dem System die entsprechende onkologische Fachsprache beigebracht. Dann wurde es mit vielen tausenden von Fachbüchern und wissenschaftlichen Artikeln gefüttert. Aber auch anonymisierte Informationen aus Krankenakten, Notizen von Ärzten, klinische Studien und selbst genetische Informationen aus den Onkologien einer Reihe von namhaften Kliniken wurden als Datenquellen verwendet. Im Ergebnis kenne das System allein für Brustkrebs rund 800 verschiedene Behandlungsmethoden. Außerdem könne, lobte Rometty, auch dort die Behandlung unterstützt werden, wo wie etwa in Indien auf einen Onkologen 1600 Krebskranke kommen.

Das Verhältnis von Arzt und maschinellem Diagnosesystem will Rometty trotzdem als symbiotisch verstanden wissen. Die IBM-Chefin vertrat entschieden, es gehe nicht um die Ablösung des Menschen durch die Maschine, sondern um eine Assistenz. Für die Entwickler und Verkäufer des Systems dürfte das am Ende auch die Frage der Verantwortlichkeit in ihrem Sinn beantworten: Kunstfehler bleiben Sache des Arztes. Auch bei einem anderen Thema war Rometty entschieden. Kunden solcher Systeme sollen ihre eigenen Daten nicht als Trainingsmaterial zur Verfügung stellen müssen, und Ergebnisse, die sie erhalten, bleiben ihr Eigentum.

Kontrovers diskutiert wurde das Thema smarte Maschinen auch in einer Runde, die sich über die Zukunft von Kriegsführung austauschte. Johan Andresen, der Vorsitzende des Ethikkomitees beim Pensionsfonds der Norwegischen Regierung, warnte in der Diskussion, entgegen bisheriger Ankündigungen seien autonome Waffensysteme mittlerweile fast einsatzbereit. Sein Ethikkomitee muss Entscheidungen darüber treffen, welche Firmen gemäß der Vorgaben des Fonds aus dem Portfolio auszuschließen sind.

Doch die ehemalige Kampfpilotin Mary Cummings sprach sich gegen ein generelles Verbot von autonomen Waffensystemen aus. Wenn man einer Drohne künftig das Bild eines Übeltäters zeigen und diese den entsprechenden Menschen dann selbständig ausfindig machen und ausschalten könne, sei das möglicherweise von Vorteil. "Menschen machen Fehler", sagte sie mit Blick auf Erfahrungen aus dem aktiven Dienst. Cummings sagte, mehr Kopfzerbrechen bereiteten ihr die zunehmende Zahl kommerziell verfügbare Drohnen oder ein total vernetzter Straßenverkehr. "Drei gehackte Trucks in Washington" reichten aus, um die Hauptstadt der USA lahmzulegen. (jk)