IT-Ethik: Die heikle Frage des Vertrauens in Datenströme

Wenn es um Datensicherheit und den Schutz der Privatsphäre geht, kehrt die Hamburger Tagung zur Philosophie und Ethik KI immer wieder zu Corona-Apps zurück.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen

(Bild: agsandrew / Shutterstock.com)

Lesezeit: 4 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

„Die Corona-Warn-App verdient Ihr Vertrauen.“ Mit diesen Worten warb Bundeskanzlerin Angela Merkel für die breite Nutzung privater Smartphones, um das Infektionsgeschehen besser nachverfolgen zu können. Gernot Rieder (Universität Hamburg) fragte bei der Konferenz The Philosophy and Ethics of Artificial Intelligence, wie sie zu dieser klaren Aussage gekommen sei und zeichnete die komplizierte Entstehung der App nach.

Die App sollte nach den Plänen des Gesundheitsministeriums zunächst Standortdaten nutzen, wofür eine Lockerung des Datenschutzes angestrebt wurde. Nach öffentlicher Kritik musste das Ministerium die Pläne wieder zurückziehen. Nunmehr wurde der Ansatz verfolgt, statt Standortdaten Kontaktdaten zu nutzen und diese dezentral zu speichern. Die App wurde als Open-Source-Projekt entwickelt und erstmals im Juni 2020 veröffentlicht.

Diese Geschichte zeige, dass Vertrauen und Vertrauenswürdigkeit sich graduell entwickelten, so Rieder. Sie seien das Resultat einer Kette von Entscheidungen. Dabei gehe es nicht allein um die Technologien, sondern auch um deren soziale Einbettung.

Personen und Institutionen hätten eine entscheidende Rolle gespielt, wobei Rieder insbesondere einen von sechs Organisationen unterzeichneten Offenen Brief hervorhob. Diese Organisationen seien gerade wegen ihrer Differenzen untereinander vertrauenswürdig gewesen. Das Vertrauen in die Corona-Warn-App verdanke sich der Kontroverse.

Etwas anders verlief die Entwicklung in Israel, wie Niva Koren-Elkin (Tel Aviv University) berichtete. Das Gesundheitsministerium habe im März 2020 zunächst die App Hamagen angeboten, deren Nutzung freiwillig war. Daten wurden ausschließlich auf den Smartphones gespeichert und die Nutzer waren aufgefordert, einen eventuellen Alarm den Gesundheitsbehörden zu melden. Nachdem im Juni 2020 Version 2 der App veröffentlicht wurde, stellte das Gesundheitsministerium die Unterstützung dafür im Dezember wieder ein.

Parallel dazu hatte die Regierung eine zentrale Überwachung aller Mobiltelefone (Global Surveillance System) vorangetrieben. Diese Nutzung einer Technologie, die eigentlich zur Terrorismusabwehr gedacht ist, wurde heftig diskutiert, im Juli 2020 dann für sechs Monate genehmigt, aber erst im März 2021 durch das höchste Gericht beendet. Obwohl die umfassende Überwachung nur für den eng gefassten Zweck der Pandemie-Eindämmung zugelassen worden war, bestehe stets die Gefahr der Ausweitung auf andere Bereiche, sagte Koren-Elkin. Der Streit um die Beendigung der Maßnahme unterstreicht diese Mahnung.

Bei der Kontaktverfolgung ginge es nie um einzelne Akteure, sondern immer um ein ganzes Ökosystem von Beteiligten, betonte Tilo Böhmann (Universität Hamburg). Deren Beziehungen untereinander seien zumeist schwer zu überblicken.

So wären etwa bei Ebay Deutschland mehr als 16 Arbeitstage erforderlich, um die Geschäftsbedingungen der mehr als 900 Partner zu lesen, mit denen ein Nutzer durch die Inanspruchnahme der Plattform in Kontakt tritt. Um das Vertrauen in Apps zur Pandemiebekämpfung zu stärken, hält er eine klare und überschaubare Systemarchitektur für erforderlich, die es erleichtert, Datenströme zu verfolgen.

Helen Nissenbaum (Cornell Tech) schließlich beschäftigte sich mit der Frage, was genau der Schutz der Privatsphäre eigentlich bedeutet. Grundsätzlich sei es gut, wenn Daten fließen, sagte sie. Kein Datenfluss sei gleichbedeutend mit Geheimhaltung. Der Schutz der Privatsphäre erfordere daher einen angemessenen Datenfluss, der den geltenden Normen entspreche. Die jedoch hingen ab von den jeweiligen Umständen, dem Kontext.

Nissenbaum hat den von ihr entwickelten Ansatz daher Contextual Integrity genannt. Um zu beurteilen, ob eine Datenübermittlung legitim sei, müssten demnach stets fünf Parameter beachtet werden: Thema, Sender, Empfänger, Art der Nachricht, Methode der Übermittlung. Die einfache Unterscheidung von „privat“ und „öffentlich“ reduziere das Problem dagegen auf lediglich ein Parameter und funktioniere nicht, wie empirische Studien ergeben hätten, so Nissenbaum. Ebensowenig wie die mittlerweile weit verbreiteten Einverständniserklärungen zu Allgemeinen Geschäftsbedingungen oder zur Cookie-Nutzung, die Internetnutzern abverlangt werden. Solche Erklärungen könnten durchaus ihren Platz haben, sagt Nissenbaum, aber als zentrale Torwächter der Privatsphäre seien sie ungeeignet.

(bme)