Wie das Metaversum zum Safe Space werden könnte

Seite 2: Abwägung zwischen Privatsphäre und Sicherheit

Inhaltsverzeichnis

Trotz des Mangels an konkreten Details sind Beobachter der Meinung, dass das Gründungsdokument des Konsortiums zumindest ein guter erster Schritt ist. "Es ist gut, dass Oasis sich mit der Selbstregulierung befasst und Menschen abholt, die die Systeme und ihre Grenzen kennen", sagt Brittan Heller, eine auf Menschenrechte im Technologiebereich spezialisierte Anwältin. Es ist nicht das erste Mal, dass Hightech-Firmen auf diese Art zusammenarbeiten. Im Jahr 2017 erklärten sich einige von ihnen bereit, Informationen mit dem "Global Internet Forum to Combat Terrorism" (GIFCT) auszutauschen. Heute ist das GIFCT eine unabhängige Einrichtung und die Unternehmen, die sich dem Forum anschließen, regulieren sich selbst.

Lucy Sparrow, Forscherin an der School of Computing and Information Systems der University of Melbourne, sagt, der Vorteil von Oasis sei, dass es den Unternehmen etwas biete, mit dem sie arbeiten könnten, anstatt darauf zu warten, dass die Firmen selbst mit eigenen Ansätzen um die Ecke kommen. Es sei bewundernswert, eine Ethik von Anfang an in das grundlegende Design einzubauen, wie es Oasis vorantreibt. Das mache ihrer Forschung in Multi-User-Games zufolge einen Unterschied. "Ethisches Verhalten wird oft an den Rand gedrängt, aber hier ermutigen sie dazu, von Anfang an über das Thema nachzudenken", sagt sie.

Aber Anwältin Heller meint, dass ethisches Design vielleicht nicht ausreicht. Sie schlägt vor, dass Technologieunternehmen zunächst einmal ihre Nutzungsbedingungen überarbeiten. Die sind bekannt dafür, dass viele Kunden sie nicht verstehen – und verschaffen Konzernen viele Vorteile. Sparrow stimmt dem zu und meint, sie habe Zweifel, dass eine Gruppe von Technologieunternehmen im Interesse der Verbraucher handelt. "Das wirft zwei Fragen auf", sagt sie. "Erstens: Wie sehr trauen wir gewinngesteuerten Unternehmen zu, das Thema Sicherheit zu kontrollieren? Und zweitens: Wie viel Kontrolle wollen wir den Technologieunternehmen über unser virtuelles Leben geben?"

All das ist eine heikle Situation, vor allem, weil die Nutzer ein Recht auf Sicherheit und Privatsphäre haben, diese Bedürfnisse aber in einem Spannungsverhältnis zueinander stehen können. So wurde bereits eine Frau auf der VR-Social-Media-Plattform von Meta sexuell belästigt. Sie war nicht die erste – und wird nicht die letzte sein. So enthalten die Standards von Oasis beispielsweise Richtlinien für die Einreichung von Beschwerden bei Strafverfolgungsbehörden, falls Nutzer belästigt werden. Wenn eine Person jetzt eine Anzeige erstatten möchte, ist das oft schwierig, da die Plattformen aus Datenschutzgründen oft nicht aufzeichnen, was vor sich geht.

Bessere Sicherheitsmaßnahmen würden auch einen großen Unterschied bei der Bestrafung von Wiederholungstätern machen. Derzeit können sie noch mit Belästigung und sogar Missbrauch auf mehreren Plattformen davonkommen, weil diese Plattformen nicht miteinander kommunizieren, welche Nutzer problematisch sind. Laut Heller wäre ein Abgleich zwar in der Theorie eine großartige Idee, aber in der Praxis schwer umzusetzen, da die Unternehmen verpflichtet sind, diese Informationen gemäß den Datenschutzbedingungen geheim zu halten.

"Wie kann man diese Daten anonymisieren und die Weitergabe trotzdem effektiv gestalten?", fragt sie. "Was wäre eine Schwelle für die gemeinsame Nutzung von Daten? Wie könnte man den Prozess der Weitergabe von Informationen transparent und die Verbannung einzelner Nutzer so gestalten, dass sie dies zumindest anfechten können?"

Und wer hätte überhaupt die Befugnis, solche Entscheidungen zu treffen? "Es gibt bislang keinen Präzedenzfall dafür, dass Techfirmen Informationen mit anderen Unternehmen über Nutzer austauschen, die gegen ihre Nutzungsbedingungen verstoßen haben." Da belästigten User andere Menschen und legten ein schlechtes Verhalten an den Tag – und das plattformübergreifend.

Eine bessere Moderation von Inhalten – durch Menschen – könnte Belästigungen anderer Nutzer an der Quelle stoppen. Heller ist sich jedoch nicht im Klaren darüber, wie Oasis die Moderation von Inhalten standardisieren will, insbesondere von einem textbasierten hin zu einem eher virtuellen Medium. Und die Moderation im Metaversum wird ihre eigenen Herausforderungen mit sich bringen.

"Die KI-basierte Inhaltsmoderation in Social-Media-Feeds, die Hassrede aufhalten soll, ist in erster Linie textbasiert", sagt Heller. "Die Moderation von Inhalten in der virtuellen Realität wird in erster Linie Verhalten der Nutzer verfolgen und überwachen müssen." Die bislang vorhandenen Mechanismen zur Meldung von Verstößen seien "bestenfalls lückenhaft und oft ineffektiv". Das könne derzeit nicht durch KI automatisiert werden.

Das bedeutet, dass die Last der Missbrauchsmeldungen beim Nutzer liegt – wie das erwähnte Opfer von sexueller Belästigung auf Metas Plattform erfahren musste. Auch Audio- und Videoaufnahmen werden oft nicht aufgezeichnet, was den Nachweis eines Übergriffs erschwert. Selbst bei den Plattformen, die Tonaufnahmen machen, so Heller, bleiben meist nur Ausschnitte erhalten, so dass der Kontext schwer oder gar nicht zu verstehen ist.

Wang betont, dass die neuen Standards für die Benutzersicherheit von einem Sicherheitsbeirat erstellt werden, dessen Mitglieder jedoch allesamt dem Konsortium angehören – eine Tatsache, die Heller und Sparrow ein mulmiges Gefühl bereitet. Konzerne wie Facebook weisen bislang keine großartige Erfolgsbilanz auf, was den Schutz ihrer Nutzer anbetrifft – sei es nun vor Missbrauch durch andere User oder durch die Plattform selbst. Warum sollten wir jetzt etwas anderes erwarten?

Sparrow glaubt nicht, dass wir das können. "Es geht darum, ein System einzurichten, das gerecht ist oder zumindest signalisiert, welches Verhalten erwartet wird und welche Konsequenzen ein Verstoß dagegen hat", sagt sie. Das könnte bedeuten, dass externe Interessengruppen und Normalverbraucher einbezogen werden – oder eine Art partizipatorische Governance stattfindet, die es den Nutzern ermöglicht, als Jury zu fungieren und vor dieser eine Aussage zu machen. Eines ist jedoch sicher: Für die Sicherheit im Metaversum braucht es mehr als eine Gruppe von Tech-Unternehmen, die einfach nur versprechen, auf uns alle aufzupassen.

(bsc)