Missing Link: Werden KI-Systeme wie GPT "stochastische Papageien" bleiben?

Johanna Seibt, Organisatorin der Konferenz Robophilosophy, über den Robotik-Moment der menschlichen Kulturgeschichte. Eine Korrespondenz.​

In Pocket speichern vorlesen Druckansicht 185 Kommentare lesen

(Bild: MikeDotta / Shutterstock.com)

Lesezeit: 13 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Johanna Seibt

(Bild: prívat)

Johanna Seibt ist Professorin für Philosophie an der dänischen Aarhus University, wo sich vom 20. bis 23. August zum sechsten Mal die von ihr mit ins Leben gerufene Konferenz Robophilosophy trifft. In einer Korrespondenz mit Hans-Arthur Marsiske erläutert sie einige der Fragen, die dort verhandelt werden sollen.

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

From: Hans-Arthur Marsiske
To: Johanna Seibt

Liebe Frau Seibt,
bei der gerade zu Ende gegangen Fußball-Europameisterschaft ist mir aufgefallen, mit welcher Selbstverständlichkeit mittlerweile auf Computertechnologie zurückgegriffen wird, um mögliche Regelverstöße zu erkennen. Wir sind offenbar bereit, die Fehler der Spieler auf dem Platz zu akzeptieren, nicht aber die Fehlbarkeit des menschlichen Schiedsrichters. Zeigt sich hier möglicherweise ein Muster, wie Künstliche Intelligenz sich nach und nach – und nahezu unbemerkt – Entscheidungsbefugnisse aneignet?

Herzliche Grüße,
Hans-Arthur Marsiske

From: Johanna Seibt
To: Hans-Arthur Marsiske

Lieber Herr Marsiske,
das ist eine interessante Beobachtung. Es gibt in der "Philosophie des Sports" schon eine längere Diskussion zur Frage, inwiefern Technologie Schiedsrichterentscheidungen unterstützen sollte, wobei man zwei Fragen unterscheidet:

Erstens, sollte man Schiedsrichterentscheidungen dadurch unterstützen, indem man (per "instant replay" von verschiedenen Kamerapositionen) dem Schiedsrichter ermöglicht, auf der Grundlage genauerer Daten zu entscheiden? Zweitens, sollte man die Mustererkennungsalgorithmen von KI einsetzen, um eine schiedsrichterunabhängige Bewertung der Daten (als Regelverstoß oder nicht) zu ermöglichen?

Ich denke mir – aber das müsste man empirisch untersuchen – dass wohl viele Fußballfans beide Fragen bejahen würden: beim Fußball wie bei vielen anderen Sportarten geht es um eine Leistung, die möglichst genau gemessen und möglichst "objektiv" bewertet werden sollte, wenn es gerecht zugehen soll. Aber das hängt daran, dass die Parameter einer "gerechten" Entscheidung hier vergleichsweise einfach sind, weil sie in einer Dimension liegen.

Bei Entscheidungen mit mehreren Dimensionen ist die Lage anders – in der Ethik der KI spricht man hier vom "Paritätsproblem". Hier ist ein aktuelles Beispiel: In einem Projekt, in dem der Ethiker Walter Sinnott-Armstrong beteiligt ist, untersucht man, ob sich moralische Entscheidungen zur Vergabe von Transplantationsorganen durch KI-Systeme unterstützen lassen.

Bei solchen Entscheidungen spielen ganz verschiedene Faktoren eine Rolle (z. B. allgemeine Gesundheit, Alter, Familiensituation des Patienten), die in verschiedenen Parameterdimensionen liegen und die man daher nicht einfach miteinander "verrechnen" kann (die Parameter sind "inkommensurabel"): Würden Sie eine Niere dem 35 jährigen Familienvater geben, der allerdings Kettenraucher ist, oder dem 65-jährigen allein lebenden Starpianisten mit ansonsten ausgezeichneter Allgemeingesundheit?

Solche Entscheidungen mit inkommensurablen Parametern erfordern das, was Philosophen "ethisches Urteilsvermögen" (Phronesis) nennen. Ob es möglich ist, moralische Entscheidungen zu automatisieren, wird seit mehr als 10 Jahren diskutiert und es gibt einige überzeugende Vorschläge dazu (z. B. von John Sullins, in dem Buch das ich gerade herausgebe).

Dennoch glaube und hoffe ich, um auf Ihre Frage zurückzukommen, dass wir zumindest eine Zeitlang unser Vertrauen eher in menschliche als maschinelle Entscheidungen setzen werden. Teilweise wegen der noch mangelnden Leistung von KI-gestützten Entscheidungssystemen, aber auch, weil es eine existenzielle Angelegenheit ist: Wenn ich mir vorstelle, das mir ein Nierentransplantat *nicht* erteilt wird, dann würde ich es vorziehen, mein Ableben der (möglicherweise falschen) Entscheidung eines Menschen zu "verdanken". Die Generation unserer Enkel, die mit Robotern aufwachsen werden, wird das aber vielleicht schon ganz anders sehen.

Schöne Grüße,
Johanna Seibt

From: Hans-Arthur Marsiske
To: Johanna Seibt

Sie berühren in Ihrer Antwort viele Aspekte, die es wert wären, weiter erörtert zu werden. Aber lassen Sie mich zunächst an Ihren letzten Satz anknüpfen, denn er unterstreicht, was Sie in der Ankündigung der sechsten Robophilosophy Conference schreiben. Dort heißt es: "Wir erleben den Robotik-Moment in der menschlichen Kulturgeschichte, in dem wir bestimmen müssen, wer wir sind und wer wir werden wollen – und sind jetzt in eine entscheidende Phase eingetreten." Können Sie genauer bestimmen, was das Besondere dieser Phase ausmacht und was da möglicherweise entschieden wird?

From: Johanna Seibt
To: Hans-Arthur Marsiske

Die Beschreibung der Robophilosophy 2024 Konferenz nimmt ein Zitat der weltberühmten Techno-Anthropologin Sherry Turkle auf, die auch auf unserer Konferenz sprechen wird. Turkle hat seit Langem auf diesen "robotic moment" verwiesen and in mehreren Büchern griffig beschrieben, wie soziale Medien und insbesondere sogenannte "soziale Roboter" das authentische Miteinander bedrohen.

Soziale Roboter haben oft humanoide Form und sind so programmiert, dass sie normgerecht im Raum der menschlichen sozialen Interaktion agieren können. Bisher waren sie vor allem Forschungsinstrumente und es war fraglich, ob die Ankündigung der Robotik-Industrie, soziale Roboter für alle Bereiche des menschlichen Lebens entwickeln zu können, überhaupt realistisch ist.

Aber nun scheinen die Fortschritte der KI – vor allem der multimodalen KI, die Informationen aus Text, Bild und Ton integrieren und Konzepte generieren kann – kontext-adäquates soziales Handeln zu ermöglichen. Mehrere Techgiganten (Google, Tesla, Amazon) arbeiten bereits gezielt an der Produktion von humanoiden "universalen" Robotern mit solch einem praktischen "common sense". Deren Design ist von den "Droids" der Hollywood Science-Fiction-Filme inspiriert. Sie sollen zunächst als Arbeiter in Lagerhallen eingesetzt werden, werden aber auch als Ausweg aus der "Pflegekrise" beschrieben.

Sollte uns das beunruhigen? Oder lernen wir gerade – durch die intensive Diskussion textverarbeitender KI – wie wir mit künstlichen sozialen Agenten aller Art, auf dem Bildschirm oder physisch, umgehen können, ohne dass dabei zentrale menschliche Werte bedroht werden?

Die Robophilosophy Konferenzen sind seit 10 Jahren die grössten Veranstaltungen für sozial- und geisteswissenschaftliche Forschung zur Mensch-Roboter-Interaktion. Sie sind insofern einzigartig als hier auch die möglichen existentiellen Folgen auf der Grundlage empirischer Forschung gezielt diskutiert werden.

Motiviert durch den Fortschritt der KI geht es bei RP2024 ("Social Robots With AI: Prospects, Risks and Responsible Methods") diesmal vor allem um die Frage, wie das neue Funktionsniveau (Simulation intelligenten Handelns) unseren Umgang mit sozialen Robotern verändern wird: Werden wir es weiterhin schaffen, Robotern keine Gefühle, Gedanken, kein "geistiges Innenleben" zuzuschreiben? Oder umgekehrt: Ab welchem Grad der Simulation menschlicher Fähigkeiten, sollten wir das tun? Wann sollten wir KI so etwas wie Bewusstsein oder zumindest Rechte zuschreiben? Sollten wir in Robotern, die unser Gehirn automatisch leicht als "soziale Agenten" einstuft, die KI absichtlich begrenzen, damit die Fähigkeiten eines menschlichen Partners im sozialen Umgang immer als überlegen erfahren werden? Dies sind zentrale Fragen, mit denen sich die 122 Vorträge der Konferenz und insbesondere acht herausragende Plenarsprecher beschäftigen werden.