Die arme, kleine KI

Künstliche Intelligenzen, wie sie in den nächsten Jahren entstehen werden, sollten den gleichen ethischen Schutz genießen wie Tiere, meint unser Autor.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Lesezeit: 5 Min.
Von
  • Peter Glaser

In der SF-Fernsehserie Westworld gibt es einen futuristischen Vergnügungspark, in dem man als dekadentes Vergnügen Kämpfe gegen Androiden in Menschengestalt führen kann. Besucher können in unterschiedliche Rollen schlüpfen und beispielsweise gegen Desperados in einer Wildwest-Welt antreten (oder mit Prostituierten in einem Saloon anbändeln).

Sensoren in den verfügbaren Waffen sorgen dafür, dass echte Menschen bei den Auseinandersetzungen stets unverletzt bleiben, während die Androiden "verwundet" oder "getötet" werden können; in Wahrheit werden sie nachts in unterirdischen Werkstätten wieder repariert. Dann findet einer der beiden Gründer des Parks Belege dafür, dass die menschenähnlichen Maschinen über ein eigenes Bewusstsein verfügen und sich damit auch ihrer Qualen bewusst sind.

Es ist durchaus möglich, dass uns die real betriebene KI-Forschung in absehbarer Zeit mit künstlichen Intelligenzen versorgen wird, die​​ kognitiv ungefähr so anspruchsvoll wie Mäuse oder Hunde sind. Isaac Asimovs Robotergesetze führen auf diesem Stand der Entwicklung allerdings in die Irre, denn sie suggerieren, dass man es bei einem artifiziellen Gegenüber immer gleich mit etwas zu tun hat, das dem Menschen auf Augenhöhe begegnet. Von solchen Schöpfungen der Ingenieurskunst sind wir aber noch unkalkulierbar weit entfernt. Um sich mit den moralischen Konsequenzen realer Entwicklungen in der KI auseinanderzusetzen, sollten wir unsere Zeit nicht mit herbeiphantasierten Gegensätzen zwischen menschlichem Edelmut und kalter, böser Maschinenlogik vertun, sondern uns, Mäusen und Hunden angemessen, mit Tierschutz befassen.

Bei der Erforschung bestimmter nichtmenschlicher Lebewesen sind Wissenschaftler heute bereits vorsichtiger geworden. Ethikkommissionen bewerten Forschungsvorhaben, um sicherzustellen, dass Wirbeltiere nicht unnötig leiden müssen. Biomedizinische Forschung wird sorgfältig hinterfragt, in der KI-Forschung, die den gleichen ethischen Risiken begegnet, ist davon – außer der ständig zitierten Dilemma-Situation, in der ein autonomes Fahrzeug entscheiden muß, ob es ein Kind überfährt, das auf die Straße läuft oder lieber mit seinen Insassen in ein parkendes Auto kracht – nicht viel zu sehen. "Wir verfügen einerseits über sehr strikte Regeln für Medikamententests oder Flugreisen", so der Schweizer KI-Forscher Christian Hugo Hoffmann, "haben aber andererseits keine oder kaum Regeln für selbstfahrende Autos."

Etwas, das ein Etwas und kein Jemand ist, braucht keinen ethischen Schutz. Die große Frage aber ist: Woher wissen wir, wann wir etwas geschaffen haben, das fähig ist, sich zu freuen und zu leiden? Mit jemandem wie dem Star Trek-Androiden Data (der über einen, allerdings abgeschalteten Emotions-Chip verfügt) könnte man darüber immerhin debattieren und Data könnte seine Rechte einfordern. Wenn sich eine KI aber nicht artikulieren kann, geht es ihr womöglich wie Menschen, die unter dem Completely Locked-in-Syndrom (CLIS) leiden.

Das Grundproblem besteht darin, dass die verschiedenen Wissenschaften, die mit der Erforschung des Bewusstseins befaßt sind, immer noch keinen Konsens darüber erzielt haben, was Bewusstsein ist und wie man feststellen kann, ob es vorhanden ist. Für die einen erfordert Bewusstsein einfach bestimmte Arten gut organisierter Informationsverarbeitung, etwa in Bezug auf Objekte in seiner Umgebung. An solchen Systemen wird heute gearbeitet. Für andere ist ein Bewusstsein von hochkomplexen biologischen Gegebenheiten abhängig, etwa einem Säugetiergehirn. In diesem Fall sind wir Lichtjahre davon entfernt, künstliches Bewusstsein zu schaffen (was auch immer das sein mag). Sollte sich die vereinfachte Sichtweise durchsetzen, werden wir bald viele KIs haben, denen zwar keine maschinelle Version der Menschenrechte zusteht, die aber ethischen Schutz verdienen, der dem Tierschutz entspricht.

Die Risiken der KI werden bisher meist anhand der Standard-Gruselvision einer hochmütigen Hyperintelligenz diskutiert, die explosionsartig zunimmt und die Evolution des Menschen anstelle des Homo Sapiens fortsetzt. Diese Einschätzungen sollten schleunigst um die Frage erweitert werden, welche ethische Beeinträchtigung wir Menschen als mögliche Quelle von Misshandlungen für die Haustier-KIs darstellen. "In der Vergangenheit wurden angemessene Schutzrechte von Lebewesen als Forschungsobjekte oft erst nach Aufdeckung schwerwiegender ethischer Verstöße eingefordert", sagt der Philosoph Eric Schwitzgiebel von der University of California. "Mit KI haben wir die Chance, es besser zu machen."

Er schlägt deshalb die vermehrte Gründung von Ethikkomitees vor, die aktuelle KI-Forschung bewerten. Auch in Deutschland soll ein TÜV für künstliche Intelligenz kommen. In der KI-Strategie der Bundesregierung ist der Aufbau eines deutschen "Observatoriums für Anwendungen von künstlicher Intelligenz" festgelegt, das Entwicklungen und Folgen der Technologie beobachten und analysieren soll. "Damit starten wir jetzt", sagt Staatssekretär Björn Böhning.

Den gängigen Bewusstseinstheorien zufolge ist eine KI mit bewussten Erfahrungen, die ethische Erwägungen verdienen, noch bestenfalls Zukunftsmusik. Sollte diese fundamentale Linie doch unerwartet vorzeitig überschritten werden, sollten wir darauf vorbereitet sein.

(bsc)