Tagung zur IT-Ethik: Künstliche Superintelligenz und der Umgang mit Corona-Daten

Eine allgemeine Superintelligenz muss in der Lage sein, eigene Ziele zu hinterfragen. Der Umgang mit Daten in Zeiten von Corona sollte überdacht werden.

In Pocket speichern vorlesen Druckansicht 14 Kommentare lesen

(Bild: JINOLD/Shutterstock.com)

Lesezeit: 4 Min.
Von
  • Hans-Arthur Marsiske

Kritik an der Digitalisierung bezieht sich in letzter Zeit überwiegend aufs Tempo. Das gehe alles zu langsam, lautet die Klage. Dabei könnte es häufig durchaus ratsam sein, sich mehr Zeit zu lassen. Eine von Hamburg aus organisierte Online-Tagung beschäftigt sich jetzt intensiv mit den Fragen, was wir mit Computern tun, was wir lassen und was wir vielleicht ganz anders machen sollten.

Die gemeinsame Konferenz der International Society for Ethics and Information Technology (INSEIT) und der International Association for Computing and Philosophy (IACAP) hat sich mit seinem umfangreichen, in mehreren parallelen Strängen gebündelten Programm eine Vielzahl von grundlegenden Fragen zur Philosophie und Ethik Künstlicher Intelligenz vorgenommen.

So beschäftigte sich am ersten Tag Matthew Davis (Uppsala University) mit der Frage, ob Maschinen ein Bewusstsein entwickeln können. In Anlehnung an den Biologen Mario Vaneechoutte unterscheidet er Erfahrung, Wahrnehmung und Bewusstsein als hierarchisch aufeinander aufbauende Prozesse, die sich in der Natur evolutionär entwickelt haben und sich auf die gleiche Weise auch bei Maschinen herausbilden könnten – vorangetrieben durch die ökonomische Entwicklung, die zu möglichst vielfältig einsetzbaren Robotern drängt. Es sei davon auszugehen, dass Maschinen ihre eigene Ethik und Moral entwickeln und zu Gefühlen ähnlich der menschlichen Angst fähig sein werden, so Davis.

Michael Cannon (TU Eindhoven) diskutierte das existenzielle Risiko, das mit der Herausbildung einer Superintelligenz verbunden sein könnte. Das dreht sich im wesentlich um die Frage, ob eine Superintelligenz in der Lage sei, über die Legitimität ihrer Ziele zu reflektieren – was wiederum von dem zugrundeliegenden Intelligenzbegriff abhängt: Eine allgemeine künstliche Intelligenz würde diese Fähigkeit zur Selbstreflexion enthalten, meint Cannon, ein eher instrumentelles, auf begrenzte Anwendungen fokussiertes Verständnis von Intelligenz dagegen nicht. Diese beiden Konzepte ließen sich bislang nicht miteinander vereinbaren, sagt Cannon.

Rafael Capurro verwies darauf, dass es zum Status von Superintelligenzen und dem menschlichen Umgang mit ihnen in Gestalt von Göttern eine seit Jahrhunderten andauernde Diskussion gebe. Cannon räumte ein, dass die Frage nach der Superintelligenz im Grunde genommen Theologie sei, die Erkenntnisse aus diesem Bereich jedoch noch integriert werden müssten.

Konkreter ins Hier und Jetzt verwiesen die Überlegungen von Sabina Leonelli (University of Exeter) zum Umgang mit Daten während der Covid-19-Pandemie. Die digitale Transformation sei durch die Ausbreitung des Corona-Virus massiv beschleunigt worden, zugleich sei aber auch das Bewusstsein für Probleme wie die Marginalisierung von Bevölkerungsgruppen, häufig entlang bereits bestehender Spaltungen, gewachsen. Generell sei eine Überbetonung technischer Maßnahmen wie Tracking Apps oder Impfungen zu beobachten. Der Überwachungskapitalismus werde gestärkt, während die Unterstützung sozialer Initiativen wie der globalen, gleichmäßigen Verteilung von Impfstoffen (COVAX) Lippenbekenntnisse blieben.

Generell biete die Pandemie viele Möglichkeiten, soziale Veränderungen zu untersuchen, gesellschaftliche wunde Punkte zu identifizieren und Lösungen zu entwickeln. Es gelte allerdings, bei der Verwendung der Daten einiges im Auge zu behalten, mahnt Leonelli. So bestehe die Gefahr, dass die zur Verfolgung des Infektionsgeschehens eingeführten Überwachungsmaßnahmen die Pandemie überdauern. Es sei daher keineswegs zu früh, jetzt schon über die digitalen Strukturen der Welt nach Covid-19 nachzudenken.

Leonelli erinnert auch daran, dass Daten keineswegs neutral seien. Sie sprächen nicht für sich selbst, seien sehr divers und schwer zu vergleichen. Vorhersagemodelle wie auch kausale Erklärungsversuche müssten daher immer wieder kritisch hinterfragt werden. Am stärksten vernachlässigt sei die Identifizierung sozialer und ökologischer Mängel. Die Verbindung der Daten zur physischen und sozialen Wirklichkeit dürfe nicht aus den Augen verloren werden.

Das alles spreche dagegen, die Datenwissenschaft zu schnell voranzutreiben, so Leonelli. Eine methodologische Fairness auf jeder Stufe der Forschung erfordere, dass nicht nur die üblichen Experten zu Konsultationen eingeladen, sondern auch gewöhnliche Bürger hinzugezogen werden. Derzeit dominiere noch eine "geschlossene" Wissenschaft, die sich mit ihren Publikationen weitgehend auf sich selbst bezieht. Die Wissenschaft müsse sich öffnen, ihren Fokus vom Technischen auf das Soziale erweitern – und auch die Automatisierung als Dystopie thematisieren.

(olb)