Wearables: Zwischen "wohlwollendem Nudging" und drohendem Kontrollverlust

Fitness-Armbänder, Smart Watches & Co. können laut Forschern helfen, Ziele wie mehr Bewegung zu erreichen. Die Geräte erfahren aber auch viel über ihre Träger.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen

(Bild: Subbotina Anna/Shutterstock.com)

Lesezeit: 6 Min.
Inhaltsverzeichnis

Wearables wie Fitnesstracker und Smart Watches sind mittlerweile in großer Breite verfügbar, ihr Innenleben ist für Nutzerinnen und Nutzer aber oft wenig nachvollziehbar.

Gerade während der Corona-Pandemie fanden die Geräte, mit denen sich etwa Puls, Schlafrhythmus oder die zurückgelegten Schritte messen lassen, neue Abnehmer. Deren Erfolg "kam relativ schnell", erklärt Wissenschaftlerin Saskia Nagel. Die Geräte wirkten "intim" in Form von "sehr nah", seien einfach in den Alltag integrierbar und schier ubiquitär verfügbar. Vielen Nutzerinnen und Nutzern sei aber gar nicht bewusst, welche Mengen an Daten hier gesammelt und möglicherweise weitergegeben sowie geteilt würden, gab Nagel auf einer Tagung am Mittwoch in Berlin der "DenkfabrEthik" zu bedenken.

Mit der staatlich geförderten Initiative wollen die Gesellschaft für Informatik (GI) und Partner aus Wissenschaft und Wirtschaft ausloten, ob und wie sich eigene Daten vor allem aus tragbaren Gesundheitstechnologien souverän verwalten lassen.

Diverse Chancen wollte Nagel Wearables nicht absprechen. Sie könnten "unsere Köpfe und Fähigkeiten" befreien, indem sie durch das Bereitstellen teils vitaler Informationen "mehr kognitive Kapazität für andere Aufgaben" verfügbar machten, führte die Leiterin des Gebiets Angewandte Ethik an der RWTH Aachen aus. Leute mit Einschränkungen könnten etwa Marathon laufen, weil sie auf Hindernisse hingewiesen würden. "Im Idealfall haben wir da ein 'wohlwollendes Nudging'", hob die Professorin hervor: Das menschliche Handeln bekomme größeren Raum, indem die Anwendung Nutzer ermutige beziehungsweise leicht dränge, eigene Ziele zu erreichen. "Trinken Sie"- und "Gehen Sie regelmäßig raus"-Apps könnten tatsächlich funktionieren, wie erste empirische Studien nahelegten. Oft würden die Ziele aber von den App-Entwicklern gesetzt.

Nagel trug auch diverse Bedenken vor. Nudging könne leicht in "Sludging" umschlagen, wenn andere Institutionen über das eigene vermeintliche Wohlbefinden entschieden. Die von den Geräten abgegebenen Informationen dürften viele Anwender zudem überfordern, da sie diese nicht verarbeiten könnten. Stress sei die Folge. Auch eine Dequalifizierung durch und Abhängigkeit von Wearables sei feststellbar: Wer etwa mit einer Datenbrille arbeite, delegierte eigene Fähigkeiten an diese. Dies könnte als Verlust wahrgenommen werden, wenn man eigentlich einfache Zahlenfolgen wie Telefonnummern im Kopf behalten wolle. Große Sorgen bestünden zudem rund um die Privatsphäre. Generell stoße man hier auf ein allgemeines Problem beim Zusammenspiel von Mensch und Technik, erläuterte die Forscherin: Letztere mache es etwas leichter, der Nutznießer habe aber zwangsweise nicht mehr die volle Kontrolle über das Geschehen: "Es bleibt eine Verantwortungslücke."

Die Technik entscheide im besten Fall im Sinne des Menschen, da dies das Ziel der bestehenden Anwendungen sei. Trotzdem blieben Fehler möglich, womit die Gesellschaft umgehen müsse. Für Anwendungen etwa in Medizin, Mobilität oder Berufsleben gälten dabei aber unterschiedliche Anforderungen. Transparenz alleine reicht Nagel zufolge nicht aus, um das häufig geforderte Vertrauen in Technik wie "Trustworthy AI" (Artificial Intelligence) zu rechtfertigen: "Ich brauche Erklärungen", die eine Interpretierbarkeit erlaubten.

Wichtig zu wissen sei etwa, warum vom System welche Entscheidung wann getroffen werde. "Wie werden hier Werte ausbalanciert?", will die Expertin zudem erläutert wissen. Die Autonomie des Nutzers stehe dabei aber oft der "Genauigkeit des Prozesses" gegenüber. Gerade bei der Medizintechnik wollten die Menschen erfahren, wer an einem Versagen schuld sei, berichtete die Ethikerin. Wenn der Arzt oder der Programmierer die Verantwortung nicht übernähmen, werde gerne "das Kollektiv um das System" herum zur Rechenschaft gezogen. Auch diese Lösung tauge aber teils nicht, wenn die Verantwortlichkeit oder nur ein Sündenbock gesucht werde. Die Vertrauensfrage auf die anderen Nutzer zu verschieben, die etwa kollaborativ Daten teilten, könne ebenfalls für alle nach hinten losgehen.

Michelle Christensen, Professorin am Berliner Einstein Center Digital Future (ECDF), erinnerte daran, dass Werkzeuge wie Steine oder Smartphones "unser Denken verändern". Andererseits "verstehen wir längst nicht mehr, was wir entwerfen". Das Sammeln von Daten für Profile umfasse etwa bereits das ganze Leben von Nutzern. Zudem hätten Entwickler die Tendenz, viele eigene Vorurteile in Algorithmen einzufügen.

Dazu komme die versteckte Infrastruktur im Hintergrund, die das von anderen Forschern bereits ausgemachte "Internet der Körper" erst ermögliche und am Laufen halte, ergänzte Florian Conradi vom ECDF. Die Maxime an dem Zentrum sei daher, Wearables auseinanderzunehmen, die Tracker zu untersuchen und gegebenenfalls datensparsame Alternativen per Rapid Prototyping (3D-Druck) zu erstellen. Ein Student habe so etwa eine Art Open-Source-Quittungsdrucker gebaut, um die gesammelten Daten erfahrbar zu machen, ließ Conradi durchblicken.

Eine Kommilitonin habe ein Nokia 3410 wieder zum Leben erweckt, das nun einmal täglich twittere, dass es noch funktioniere. Christensen verwies auf eine Studentin, die im Eigenbau eine App zum Schlaf- und Schnarch-Tracking gebaut habe, bei der die eigenen Körperdaten nicht an Firmen gingen.

Forscher von ExpressVPN Security Lab identifizierten in einer Untersuchung voriges Jahr 12 Gesundheits- und Fitness-Apps, die fragwürdige Ortungsfunktionen enthielten. Dazu gehörten "Bauchmuskeltraining Fitness" mit mehr als 10 Millionen Downloads und "30 tage challenge beine & po" mit über 5 Millionen Downloads. Die Tracker sammeln demnach heimlich Daten, die nicht nur für Werbezwecke verwendet werden, sondern teils auch beim US-Militär und Strafverfolgungsbehörden landen. Dafür verantwortlich sei Schnüffelsoftware von Unternehmen wie X-Mode, die im Hintergrund heimlich Daten über die App-Nutzer erheben und diese an Schnittstellen-Anbieter senden.

Becky Caldwell, Datenschutzexpertin beim Smartwatch- und Navigationsgeräteproduzenten Garmin, beteuerte, dass das Unternehmen ohne Einwilligung der Nutzer keine Informationen an Drittparteien übermittle. Anwender könnten über die Funktion "Privacy Zones" ferner Aktivitäten in gewissen Gebieten wie rund um ihre Wohnung verschleiern. Datenschutz von vornherein in die Technik einzubauen und entsprechend voreinzustellen sei eine "Win-Win-Situation für alle".

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Opinary GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(kbe)