HAI 2018: Kann man mit einem Roboter diskutieren?

Mit Argumentation-Mining soll Künstliche Intelligenz auf einem gerade entstehenden Forschungsgebiet diskutieren lernen und ihre Entscheidungen erklären können.

In Pocket speichern vorlesen Druckansicht 42 Kommentare lesen
Künstliche Intelligenz als Hilfswissenschaftler: KI revolutioniert die Forschung

(Bild: Phonlamai Photo/Shutterstock.com)

Lesezeit: 5 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Künstliche Intelligenz (KI) soll transparent, ihre Entscheidungen sollen nachvollziehbar sein. So lautet eine häufig geäußerte Forderung. Eine Forschergruppe am King‘s College in London will diesem Ziel näherkommen, indem sie der KI das Argumentieren beibringt.

Die Gruppe um Elizabeth Sklar stellte ihren Ansatz in einem Tutorial im Rahmen der International Conference on Human-Agent Interaction (HAI) in Southampton vor, gefolgt von einem Workshop, bei dem weitere Forscher erläuterten, wie argumentative Fähigkeiten die Beziehung von Mensch und Computer verbessern könnten. Computergestützte Argumentation sei eine Methode, auf Grundlage unsicherer und unvollständiger Informationen zu Schlussfolgerungen zu kommen, schreiben die Forscher in der Ankündigung der Veranstaltung. Beim Austausch von Einschätzungen und Meinungen sei es wichtig, diese zu begründen.

Da es sich um ein gerade entstehendes Forschungsgebiet handelt, ging es über weite Strecken um konzeptionelle Grundlagen. Dazu zählen etwa Typologien unterschiedlicher Dialogformen. Der einfachste Dialog sei die Informationsabfrage, erklärte Simon Parsons: Der Mensch fragt, der Agent antwortet. Davon zu unterscheiden sei die Untersuchung (inquiry), bei der die beiden gemeinsam versuchen, die Antwort auf eine Frage zu finden. Noch komplizierter wird es, wenn es darum geht, den Dialogpartner von einer Meinung zu überzeugen.

Die Ziele, die von den Teilnehmern eines Dialogs verfolgt werden, können sich ebenfalls unterscheiden. Es kann gleichermaßen darum gehen, zu einer Einigung zu kommen wie sie zu verhindern, zu verzögern oder ihre Unmöglichkeit zu beweisen. Der Dialog mag geführt werden, um Informationen über den Dialogpartner zu sammeln oder um auf eine unbeteiligte Person oder ein Publikum zu wirken.

Um all das logisch-mathematisch zu formulieren, stützen sich die Forscher auf den 1995 von Phan Minh Dung vorgestellten Ansatz. Demnach bedeutet x->y, dass x die Aussage y angreift. Diese Aussage ist gültig, wenn alle Angreifer ungültig sind. Sie ist ungültig, wenn mindestens ein Angreifer gültig ist. Wenn mehrere Aussagen beteiligt sind, die sich auch gegenseitig angreifen können, werden solche Schemata rasch unübersichtlich.

Argumentationsstrukturen müssen der KI allerdings nicht von Hand einprogrammiert werden, sie kann sie auch lernen. Die Frage ist: wo? Um einen Corpus von Argumentationen zu schaffen, auf den sich Verfahren des maschinellen Lernens stützen können, hat Oana Cocarascu (Imperial College, London) unter dem Titel BookSafari ein Forum im Internet geschaffen, in dem Leser erklären können, warum ihnen ein Buch gefällt oder nicht. Da diese Einträge auch wiederum kommentiert werden können, entsteht so eine Debatte über Bücher, die als baumartige Struktur abgebildet werden und als Grundlage fürs Argumentation Mining dienen kann.

Mit dem Projekt CONSULT stellte Isabel Sassoon (King‘s College) ein mögliches Anwendungsfeld für argumentierende KI vor. Das noch bis Februar 2020 laufende Forschungsvorhaben will ein Computersystem entwickeln, das Langzeitpatienten im Alltag unterstützt, indem es auf aktuelle Daten kommerziell verfügbarer Sensoren wie Blutdruckmessgeräte ebenso zugreift wie auf die elektronische Patientenakte und klinische Richtlinien. Auf dieser Grundlage soll es begründete Ratschläge geben können. Dabei sei auch die unterschiedliche Qualität der Daten zu berücksichtigen, so Sassoon. Als Beispiel nannte sie einen vom Patienten selbst gemessenen erhöhten Blutdruck, der sich bei der Überprüfung durch einen Mediziner als Messfehler herausstellte.

Timothy Norman (University of Southampton) präsentierte das System CISpaces (Collaborative Intelligence Spaces). Basierend auf der von Peter Pirolli und Stuart Card entwickelten Theorie, wie Nachrichtendienste gesammelte Informationen auswerten, indem sie sie zu einer Geschichte zusammenfügen, soll CISpaces Analysten bei dieser Auswertung unterstützen. Bei einem Test mit Analysten der Nato ging es um Vorfälle in dem fiktiven Ort Kish: Dort war es zu einer Explosion und einer Epidemie gekommen und es stellte sich die Frage, ob eine Verunreinigung des Wassers zu einer Gasexplosion geführt oder ob es sich um einen gezielten Anschlag gehandelt hatte. Die Nato-Experten, so Norman, hätten das System grundsätzlich positiv bewertet, allerdings den damit verbunden Trainings- und Zeitaufwand sehr kritisch gesehen. Beides soll zukünftig durch Methoden der Verarbeitung und Generierung natürlicher Sprache verbessert werden.

Am Ende des Workshops war klar: Bis Menschen mit Robotern philosophische Dialoge über Vertrauen und Betrug oder über den Tod führen können, wird es noch etwas dauern. Aber das Forschungsfeld hat eindeutig Potenzial und dürfte den Umgang mit Computern schon bald verbessern. (bme)