ICAART 2017: Roboter handeln nicht ethisch, schärfen aber den Blick auf ethische Fragen

Auf der diesjährigen ICAART-Konferenz verhandelten Wissenschaftler das große Thema "Ethik und KI". Dabei führten sie überraschende Experimente ins Feld und fragten unter anderem, ob Roboter ethische Rahmen stecken oder Drohnen an sich böse sein können.

In Pocket speichern vorlesen Druckansicht 11 Kommentare lesen
Roboter, Softbank Robotics

(Bild: Softbank Robotics<br>)

Lesezeit: 5 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

In Porto treffen sich an diesem Wochenende Wissenschaftler, um auf der Konferenz ICAART 2017 über neue Forschungen zu Software-Agenten und künstlicher Intelligenz zu diskutieren. Gleich am ersten Tag wurde deutlich, dass die Organisatoren keine Scheu haben, die ganz großen Themen anzugehen: Zur Eröffnung erörterte ein mit sechs Teilnehmern besetztes Podium die Frage, wie Computer ethische Entscheidungen intelligenter Personen wahrnehmen und bewerten.

Dahinter steht die Frage, ob künstliche Intelligenz als Wächter der Cybersecurity dienen kann. Moderator Jaap van den Herik von der niederländischen Leiden University brachte als Beispiel die Aktion einer Bank in Amsterdam, die im Jahr 2012 für 10 Euro einen psychologischen Test zur Eignung als Unternehmer anbot. Der Test war Bedingung, um einen Kredit für eine Firmengründung zu erhalten.

Die Bank verkündete stolz, dass 45.000 Personen an der Aktion teilgenommen hätten. Darunter war auch einer von van den Heriks Studenten, der erfuhr, dass er das Ergebnis im Internet unter einer Adresse <URL>?id=45420 abrufen könne. Der Student gab versuchshalber am Ende der Adresse die Nummer 45419 ein – und stellte fest, dass er auf diese Weise die Ergebnisse aller anderen Teilnehmer hätte abrufen können. Die Bank hatte die Daten nicht weiter gesichert.

War es ethisch vertretbar, dass der Student eine andere Zahl eingab? Van den Herik richtete die Frage ans Publikum und nahm die zögerlichen Reaktionen als Indiz, dass sie offenbar nicht ganz leicht zu beantworten ist. Mit etwas mehr Zeit zum Nachdenken käme man aber darauf, dass der Test einer anderen Zahl zu rechtfertigen sei, da damit die Sicherheit der eigenen Daten geprüft werde. Das Abrufen weiterer Testergebnisse könne dann allerdings nicht mehr gebilligt werden.

Der ferngesteuerter Telepräsenzroboter Telenoid soll als Projektionsfläche in der Komunikation mit alten Menschen dienen.

(Bild:  )

Die Frage, ob künstliche Intelligenz (KI) solche Fragen beantworten könne, beantworteten die Podiumsteilnehmer eher skeptisch. Ana Paula Rocha (University of Porto) hält die KI nicht für reif, ethische Entscheidungen zu treffen, und glaubt nicht, dass Softwareagenten dazu in der Lage sein könnten. „Menschliche Werte müssen durch Menschen repräsentiert werden“, sagte sie.

João Leite (Universidade Nova de Lisboa) verwies darauf, wie Kindern Ethik erklärt werde. „Jedenfalls nicht durch Training an 50.000 Beispielen, wie es bei Softwareagenten üblich ist“, stellte er fest. Nach den wissensbasierten Systemen und den Lernverfahren sei eine dritte Generation der KI nötig, die ihre Entscheidungen erklären könne und zur symbolischen Kommunikation in der Lage sei.

Microsofts KI-Chatbot Tay wurde auf ihrem Siegeszug von böswilligen Nutzern ausgeknockt.

In eine ähnliche Richtung argumentierte Nuno Lau (Universidade de Aveiro). Er erinnerte an den Twitterbot Tay von Microsoft, der offensichtlich nicht auf böswillige Nutzer vorbereitet war und für rassistische Äußerungen missbraucht wurde. Wie können Softwareagenten vor „schlechten“ Lehrern geschützt werden, fragte Lau und verwies darauf, dass Menschen beim Lernen immer auch sozial eingebettet seien. Vanessa Evers (University of Twente) sagte es noch pointierter: Nicht superintelligente Roboter seien notwendig, sondern sozial intelligente.

In ihrem Plenarvortrag vermittelte sie später einen Überblick, wie vielfältig dieses Forschungsgebiet ist: Da ging es um Roboter, die am Flughafen Gruppen von Menschen erkennen und ihnen respektvoll ausweichen, Experimente mit Telepräsenzrobotern in Seniorenheimen und um Studien, wie autistische Kinder mithilfe von Robotern besser lernen können, Emotionen zu erkennen. Beeindruckend auch die Testfahrten eines (angeblich) autonomen Fahrzeugs, bei dem die unterschiedlichen Reaktionen der Fußgänger beobachtet wurden.

69 Prozent der Autofahrer in Deutschland würden sich in die Hände eines Autopiloten begeben. Ob sie auch für einen möglichen Unfall haften wolten?

(Bild: Mercedes)

Da es ethisch nicht zu rechtfertigen und rechtlich nicht zulässig wäre, tatsächlich ein Auto ohne Sicherheitsfahrer auf die Straßen zu lassen, war das Fahrzeug tatsächlich von einem Menschen gelenkt, der Fahrer aber im Fahrersitz versteckt. Im Video, das Evers zeigte, war zu sehen, dass die Fußgänger angesichts des Testfahrzeugs generell vorsichtiger waren und einige ganz darauf verzichteten, vor dem Auto, selbst wenn es stand, die Straße zu überqueren.

Die fliegende Roboter-Fledermaus B2 besteht hauptsächlich aus flexiblem Material und stelle deshalb nach Einschätzung ihrer Entwickler bei Kollisionen keine Gefahr dar. Ist sie damit per se ungefährlich?

Aus ethischer Sicht besonders heikel ist natürlich der militärische Einsatz von Robotern und KI. Auf den kürzlich vom US-Militär getesteten Roboterschwarm mit 103 Drohnen angesprochen, sagte João Leite, dass Objekte nicht ethisch beurteilt werden könnten, nur Taten. Für diese auffallend defensive Einschätzung erhielt er prompt Kritik aus dem Publikum, dass Waffen grundsätzlich unethisch seien. Man dürfe schließlich auch nicht vergessen, dass Objekte aus Taten hervorgehen: So gibt es Waffen nur, weil sie von Menschen entwickelt werden. Die Diskussion zu diesem Thema verlief erwartungsgemäß kurz, heftig und ergebnislos.

Gleichwohl gelang ein versöhnliches Ende mit der Frage, ob KI helfen könne, Ethik besser zu verstehen. Ja, sagte Nuno Lau, es sei ja von Anfang an die Idee der KI gewesen, durch diese Forschung den Menschen selbst besser zu verstehen. Experimente in alle Richtungen müssten daher möglich sein. Auf den Bereich der Anwendungen bezogen mahnte Lau jedoch zur Vorsicht: Es sei riskant, Softwareagenten zu erlauben, ihre eigenen ethischen Rahmen zu entwickeln. (uk)