IT-Ethik: Wenn mir die App keine Schokolade gönnt

Keine Schokolade, nur weil eine Gesundheits-App sie mir "verbietet"? Eine KI sollte nicht bevormunden, meinen Wissenschaftler.

In Pocket speichern vorlesen Druckansicht 109 Kommentare lesen

(Bild: fizkes / Shutterstock.com)

Lesezeit: 4 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Es mag auf den ersten Blick ganz hilfreich erscheinen, wenn eine Gesundheits-App meine Schritte zählt oder mir Vorschläge zur gesunden Ernährung unterbreitet. Aber wenn eine solche App ein Smarthome steuert und den Schrank mit der leckeren Schokolade verschließt oder sich von vornherein weigert, sie einzukaufen – ist das dann auch noch in Ordnung, weil es meiner Gesundheit dient? Oder geht das zu weit?

Michael Kühler (Karlsruhe Institute of Technology) stützte sich auf das Gedankenexperiment mit der Schokolade, um im Rahmen der gerade laufenden Konferenz "The Philosophy and Ethics of Artificial Intelligence" zu überprüfen, wie paternalistisch Gesundheits-Apps sind – und sein sollten. Paternalismus beschrieb er dabei als Einmischung in die Freiheit eines anderen ohne dessen Einverständnis, aus der Überzeugung heraus, dass es in dessen Nutzen sei. Ob so eine App überhaupt in der Lage sei, paternalistisch zu handeln, hänge von vier Kriterien ab: Sie muss zielgerichtet handeln; sie muss eine Vorstellung davon haben, was gut für Nutzerinnen und Nutzer ist; sie muss in der Lage sein, dessen Freiheit einzuschränken; sie muss ohne dessen Einverständnis handeln.

Kühler sieht alle vier Bedingungen erfüllt. Das Ziel, zu gesundheitsförderndem Verhalten zu ermuntern, sei der App von vornherein einprogrammiert, ebenso die Kriterien, die dafür beachtet werden müssen. Die Möglichkeit der Freiheitsbeschränkung des Nutzers illustriert das Beispiel mit dem erzwungenen Schokoladenentzug. Das könne aber auch schon auf weniger drastische Weise geschehen, meint Kühler. Schließlich sei die App ausdrücklich für den Zweck gestaltet, das Verhalten des Nutzers zu beeinflussen, was durch eine möglichst einfache Bedienung unterstützt werde. Es sei schlicht bequemer, der jeweiligen Ernährungsempfehlung zu folgen, statt sich mit dem Für und Wider verschiedener Optionen auseinanderzusetzen. Solche Empfehlungen können allerdings ohne das ausdrückliche Einverständnis des Nutzers bestimmte Optionen (Schokolade!) von vornherein ausschließen – auch wenn dieser bei der Installation der App seine Genehmigung erteilen musste, aber eben nur ganz allgemein.

Paternalistisch agierende Künstliche Intelligenz (KI) sei eine grundlegend neue ethische Herausforderung, die eine gesellschaftliche Debatte erfordere, lautet Kühlers Schlussfolgerung. Die Frage, inwieweit Gesundheit überhaupt quantifiziert werden könne, stehe dabei ebenso im Raum wie die Vertrauenswürdigkeit einer KI, deren Empfehlungen nicht immer nachvollziehbar seien. Natürlich müsse, wie bei vielen anderen Anwendungen auch, hier über den Schutz privater Daten ebenso wie über die in den Algorithmen möglicherweise enthaltenen Voreingenommenheiten diskutiert werden.

Die Grenze zwischen einer KI, die durch Bereitstellung von Informationen die Autonomie der Nutzenden stärkt, und einer paternalistischen KI, die in dessen selbst gesetzte Ziele eingreift, sei nicht immer klar zu erkennen, gab Lucie White (Leibniz Universität Hannover) zu bedenken. Das beginne bereits bei der Nachvollziehbarkeit der durch eine App präsentierten Empfehlungen: Wie weit Nutzer die Funktionsweise der App verstehen müssen, um sie als transparent und nachvollziehbar zu empfinden, sei nicht leicht zu bestimmen. Die einmalige Zustimmung bei der Installation der App im Sinne eines Ulysses Contract sei daher nicht ausreichend.

Als Alternative empfiehlt White, sich an der von von Thomas M. Scanlon und Göran Duus-Otterström entwickelten Theorie des "Value of Choice" (Wert der Entscheidungsfreiheit) zu orientieren. Es gelte allerdings zu bedenken, dass die Freiheit, eigene Entscheidungen zu treffen, nicht nur den instrumentellen Wert habe, unsere eigenen Ziele zu erreichen. Daneben gebe es den symbolischen Wert, die eigene Kompetenz und Bedeutung zu unterstreichen. Persönliche Vorlieben und Fähigkeiten zeigten sich ebenfalls in Entscheidungen, was White als repräsentativen Wert bezeichnet. Und schließlich habe jede frei getroffene Entscheidung auch eine Bedeutung für die eigene Entwicklung zu größerer Unabhängigkeit und Reife (developmental value). Auf all diesen verschiedenen Ebenen könne sich eine App einschränkend auswirken.

Neben Gesundheits-Apps wurde in der Diskussion auch immer wieder auf Navigationshilfen verwiesen. Diese könnten die Autonomie des Nutzers stärken, indem sie ihm etwa besonders schöne, schnelle oder sichere Routen anbieten – was aber auch eine kompliziertere Bedienung mit sich bringt. "Wenn ich mich der nächsten Weggabelung nähere, soll die App mir nur sagen, wo's lang geht, und keinen umständlichen Dialog mit mir beginnen", fasste Kühler den Widerspruch zwischen Autonomieförderung und Nutzerfreundlichkeit zusammen. Ein Widerspruch, der den Nutzer Schritt für Schritt in Richtung KI-Hörigkeit schubsen kann.

(olb)