Nackte Maschinen
Macht die zunehmende Unsichtbarkeit von Informationssystemen diese einfacher nutzbar oder schränkt sie die Kreativität von Nutzern ein? Wie bewertet man Terahertz-Detektionssysteme? Und wie lässt sich eine interkulturelle Computerethik und gendersensitives Technikdesign entwickeln? Fragen wie diese versuchte die diesjährige European Conference on Computing and Philosophy zu beantworten.
- Dr. Jutta Weber
Je umfassender die neuen Informations- und Kommunikationstechnologien unseren Alltag, unser Selbstverständnis und unsere sozialen Umgangsweisen verändern, desto dringender ist es, sie theoretisch zu reflektieren und die Technikentwicklung gesellschaftlich zu diskutieren. Diese Einsicht ist eine treibende Kraft für die permanent wachsende philosophische Community, die sich mit Logik, gesellschaftlicher Bedeutung und Anwendungsfragen der Informations- und Kommunikationstechnologien auseinandersetzt.
Dabei kommen sehr unterschiedliche Fragestellungen heraus, wie man gut an den Hauptvorträgen der ECAP sehen kann: Während der Schweizer Philosoph Jean-Yves Beziau von der Universität Neuchatel über die Bedeutung der Mathematik für Logik und Informatik referierte, sprach Igor Aleksander vom Imperial College in London über interdisziplinäre Ansätze im Bereich der Bewusstseins- und Kognitionsforschung, während die niederländische Informatikprofessorin Cecile Crutzen von der Open University anhand aktueller Beispiele aus dem Bereich Ambient Intelligence zeigte, wie auf die Unsichtbarkeit der Computer und die unsichtbare Kommunikation von Objekten gesetzt wird.
Digitale Wellness und passive User
Während diese Unsichtbarkeit einerseits mit Versprechen auf umfassende digitale Wellness und Sicherheit verbunden wird, verschieben sich dadurch andererseits Vorstellungen von Identität, Privatheit und Sicherheit radikal, denn die Implementierung von RFID-Tags in Menschen, Objekte und Warenströme ermöglicht nicht nur die permanente Überwachung der Bewegungen von Menschen und Dingen, sondern auch die Erstellung von Kunden-, Bewegungs- und vor allem Risikoprofilen. Bei einer umfassenden Überwachung können auch sogenannte Normalitätsmuster erstellt werden, deren Überschreitung automatisch detektiert werden kann.
Cecile Crutzen diskutierte Ambient Intelligence aber nicht nur aus einer ethischen Perspektive, sondern auch unter dem Aspekt der Human-Computer Interaktion: Sie zog die Annahme, dass die Unsichtbarkeit der Computer zu einer größeren Aufmerksamkeit für den menschlichen Kommunikationspartner führen wird, in Zweifel. Die Nutzer-Zentriertheit mit dem Ziel der Entlastung – also dem Nutzer möglichst viel bewusste Interaktion mit der Maschine abzunehmen – untergrabe eher jegliche aktive Nutzerbeteiligung und damit auch die nötige technische Kompetenz der Nutzer. Immer weniger verstehen sie die informationstechnischen Vorgänge, die sie nutzen. Vor diesem Hintergrund gehe es darum, Konzepte im Rahmen von Ambient Intelligence zu entwickeln, die es zulassen, immer wieder neu die mediale Ausgestaltung der eigenen Umgebung zu verhandeln und die – auf Wunsch – aktive Beteiligung der Nutzer zu unterstützen und zu fördern.
Eine breite Palette von weiteren philosophischen Fragen wurden neben den Hauptvorträgen in den unterschiedlichsten Sektionen zu Themen wie Bewusstsein und Kognition, ethische und politische Dimensionen von ICT, Philosophy of Computer Science, kulturelle Diversität und Technoscience Studies oder Human Learning diskutiert.
Nackte Maschinen
Aspekte von Datenschutz und Sicherheit sprach Michael Nagenborg in seinem Bericht „Building naked machines“ an. Er berichtete über erste Forschungsergebnisse des von ihm mit durchgeführten Forschungsprojekts THEBEN zur ethischen Begleitung, Evaluation und Normenfindung von und bei Terahertz-Detektionssystemen am Interfakultären Zentrum für Ethik in den Wissenschaften an der Universität Tübingen. Terahertz-Detektionssysteme mit einer Strahlung in der Spektralregion zwischen 0,1 und 10 THz können Gegenstände wie Personen auf verborgene Objekte wie Plastiksprengstoff scannen und durchdringen dabei Kleidung wie Verpackungen. Diese Bodyscanner liefern allerdings ein nacktes Bild der zu überprüfenden Person.
Vor diesem Hintergrund hatte der US-amerikanische Rechtsprofessor Jeffrey Rosen in seinem Buch „The Naked Crowd“ den Begriff der „Naked Machine“ geprägt. Um eine Verletzung des Schamgefühls und der Privatsphäre zu verhindern, hatte er stattdessen „blob machines“ gefordert, die nicht das Bild einer nackten Person, sondern das einer schematischen, menschenähnlichen Puppe, also quasi eines Avatars, zeigt, das aber die gleiche Qualität bei der Überprüfung garantiert.
Michael Nagenborg sieht die Gefahr einer Ausweitung dieser Technologie auf den öffentlichen Raum. Während der Flughafen ein spezifischer Ort der Gefahr sei und die Flugpassagiere ein gemeinsames Interesse an einer möglichst guten Überwachung hätten, gelte das nicht für öffentliche Gebäude, Plätze oder anderes mehr. Die umfassende Installierung von naked machines im öffentlichen Raum könnte – neben der Kamera- und Internetüberwachung – ein weiteres Werkzeug sein bei der zunehmenden „vorsorglichen“ Überwachung der Bürger durch den Staat.
Moralische oder humorlose Maschinen?
Während die Beiträge von Crutzen und Nagenborg eher einer ethischen und gesellschaftstheoretischen Perspektive verpflichtet waren, fanden sich auf dem Symposium auch traditionellere Fragestellungen der Philosophy of Computing – wie etwa die nach der Möglichkeit eines künstlichen Bewusstseins oder künstlicher Moralität und inwieweit wir autonome Roboter für ihre Handlungen verantwortlich machen können. Gordana Maria Dodig-Crnkovic argumentierte hierzu, dass moralische Verantwortlichkeit von Artefakten als ein regulativer Mechanismus notwendig sei, um das Verhalten von autonomen Systemen sicher zu machen. Da wir Maschinen Intelligenz zuschreiben würden, lasse sich ihnen auch Moralität zuschreiben. Auf die Implementierung einer solchen Moralität ging Dodig-Crnkovic nicht näher ein, sondern betonte stattdessen, dass technische Artefakte Teil größerer sozio-technischer Systeme seien, weshalb es eine verteilte Verantwortlichkeit von Menschen und Maschinen gebe.
Nach ihrem Vortrag entwickelte sich eine lebhafte Diskussion, inwiefern es legitim sei, von der Moralität von Maschinen zu sprechen, da diese Sprachpolitik eine weitaus größere Kompetenz von Maschinen suggeriere, als es dem aktuellen Stand der Forschung entspricht. Von Intention oder Bewusstsein von Maschinen könne für die nächsten Jahrzehnte – wenn überhaupt jemals – nicht die Rede sein. Es seien die Menschen, die Maschinen modellieren würden.
Diese Diskussion erinnert an das vom US-Militär bezahlte Projekt einer eingebetteten Ethik (embedded ethics) für Kampfroboter, an dem unter anderem der US-amerikanische Robotiker Ronald Arkin arbeitet, dessen „ethische Software“ vermutlich als Legitimationshilfe für den Einsatz autonom agierender Militärroboter dienen soll.
Solche angeblich „moralischen“ oder „ethischen“ Roboter würden nach Dodig-Crnkovics Ansicht die völkerrechtliche Regel, dass jegliche Kriegshandlungen von einzelnen Menschen zu verantworten sind, aushebeln und letztlich zu einer Brutalisierung von Kriegen führen. Vor diesem Hintergrund sei es angebrachter, statt von „moralischen Maschinen“ von Sicherheitsvorkehrungen für autonome Systeme zu sprechen.
Huma Shah wollte wiederum Maschinen nicht Moral, sondern Humor zuschreiben. In ihrem Beitrag „Can a Machine tell a joke“ versucht sie zu zeigen, dass der Konversationsagent Jabberwacky Witze machen kann. Dieses seit 20 Jahren „lernende“ System gewann 2005 und 2006 den Loebner-Preis für Künstliche Intelligenz in der Sparte „menschenähnlichste Maschine“. Anhand der Konversationsbeispiele wurde dann recht schnell deutlich, warum der Loebner-Preis für (wahrhaft) künstliche Intelligenz, der von Hugh Loebner immerhin schon 1990 mit 100 000 Dollar ausgeschrieben wurde, bis heute noch nicht für ein wahrhaft intelligentes System vergeben wurde: Der Chatbot kann Menschen zwar dazu bringen, über seine Versuche Witze zu machen zu lachen – so wie wir über tolpatschiges Verhalten von Tieren lachen –, aber er kann nicht gezielt Witze machen.
Softwaredesign und E-Learning
Einen spannenden Beitrag lieferte Doris Allhuter, die über die sozialen und organisationalen Prozesse der Softwareentwicklung sprach. In einem Forschungsprojekt an der Wirtschaftsuniversität Wien hatte sie zusammen mit Kolleginnen Softwareentwickler zu ihren Ansprüchen und Qualitätsstandards befragt. Die eine Gruppe arbeitete im Bereich Computerspiele, während die andere Gruppe mit der Entwicklung einer Suchmaschine beschäftigt war.
Die Entwickler nannten alle Qualitätsmanagement und Usability als wichtige Maßstäbe für ihre Arbeit. Bei der Analyse der Softwareentwicklungsprozesse zeigte sich aber, dass häufig die alte I-Methodology – die Projektion der eigenen Standards und ästhetischen Vorlieben auf den Nutzer – in den Modellierungsprozess eingingen. So wählten die Entwickler eines Computerspiels einen männlichen Protagonisten, den sie eher mit einem durchschnittlichen Aussehen ausstatteten und mit Hilfe von Fotografien modellierten, um eine Identifikation zu ermöglichen, während die Protagonistin mit Hilfe eines Avatars eine völlig unrealistische weibliche Anatomie erhielt.
Diese Ausrichtung auf männliche Nutzer war den Entwicklern allerdings nicht bewusst gewesen. Aus der Diskussion der Forschungsergebnisse mit den Entwicklern schließen die Forscherinnen, dass mit einer entsprechenden Reflexion (und der dazugehörigen entsprechenden Zeit) sich wesentliche Fortschritte bei einer offener und auch gendersensitiven Softwaregestaltung erzielen ließen.
Im Bereich Human Learning analysierte Margit Pohl von der TU Wien sehr schön die verschiedenen Formen von Wissen und Lernen am Beispiel „realer“ Text und Hypertext. Lernen im Bereich E-Learning würde eher explizites strukturelles – also konzeptuelles – Wissen unterstützen, während die Arbeit am klassischen Text eher implizites strukturelles Wissen benötigt. Über diese verschiedenen Möglichkeiten von traditionellem Lernen und E-Learning sollte man sich bewusst sein.
Enzyklopädisches Wissen?
Die Philosophen Philip Brey und Johnny Hartz Søraker von der niederländischen Universität Twente stellten den Entwurf für einen Enzyklopädieartikel zur Philosophie der Computer- und Informationstechnologien vor. Nach einer allgemeinen Einleitung setzen sie sich im ersten Abschnitt mit Computation and Computability auseinander: Inwieweit können Sachverhalte, Verhalten, intellektuelle Fähigkeiten in Rechner implementiert werden?
Wichtig ist den Autoren auch die Philosophie der Informatik, in der Fragen der Wissenschaftstheorie diskutiert werden, zum Beispiel wie und auf welcher Grundlage wir mit Computern Wissen gewinnen können und welche Methoden dafür adäquat sind. Weitere von ihnen thematisierte Felder sind die Philosophie der Künstlichen Intelligenz, die die historische Entwicklung und die verschiedenen Ansätze der KI diskutiert, sowie die Medienphilosophie und die Computer- oder Informationsethik.
Doch dass gerade die letzten beiden Felder in ihren Ausführungen recht kurz kamen, zeigt ihre Verortung in der anglo-amerikanisch-analytischen Tradition, die sich wenig mit gesellschaftstheoretischen und kulturellen Fragen befasst. Wichtige kulturkritische Medienphilosophien wie etwa von Paul Virilio, Jean Baudrillard oder Donna Haraway werden hier eher randständig behandelt.
Nichtsdestotrotz ist es verdienstvoll, einen systematischen Überblick über das junge Feld der Philosophie der Informations- und Kommunikationstechnologien zu entwickeln. Ähnliches versucht der Philosoph Charles Ess speziell für den Bereich der Computerethik. Erfreulich ist bei seinem Überblick, dass er nicht nur eine große Vielfalt von europäischen und anglo-amerikanischen Ansätzen aufnimmt, sondern auch den Blick auf interkulturelle Fragen der Computerethik lenkt und ganz bewusst eine Vielzahl unterschiedlicher Diskussionsstränge und Ansätze in seinen Überblick aufnehmen will.
Abschied und Ausblick
Zum Schluss der sechsten ECAP gab es dann noch einen kleinen Wermutstropfen. Susan Stuart, eine engagierte Philosophin von der Universität Glasgow, die vor einigen Jahren die ECAP als Ableger der in den USA beheimateten Internationalen Assoziation for Computing & Philosophy in die Welt gebracht hat und alle sechs bisherigen Konferenzen wesentlich mitorganisiert hatte, verabschiedete sich wohl aufgrund von internen Meinungsverschiedenheiten aus der Leitungsfunktion. Dabei ist es vor allem ihr zu verdanken, dass die europäische Assoziation so vielfältig, interdisziplinär und offen für die unterschiedlichsten Ansätze ist. Es ist zu hoffen, dass die ECAP unter der neuen Leitung von Philip Brey weiterhin eine so lebendige Konferenz bleibt. (anm)