Immer mehr Techfirmen drängt es in virtuelle Welten. Ein Konsortium soll nun eine Ethik formulieren.
Hassrede, Cybermobbing, Kriminalität: Trotz der vielen Vorteile, die das Internet hat, ist es auch ein Hort der Gefahr für viele Nutzer. Doch wird das Metaversum, das Konzerne wie Facebook (jetzt Meta) oder Microsoft planen, besser werden? Oder vielleicht sogar schlimmer?
Virtuelle Belästigungen dort gibt es bereits. Entsprechend wichtig wäre es, die richtigen Grundlagen zu legen. Tiffany Xingyu Wang glaubt, dass sie eine Lösung dafür hat. Im August 2020 – ein Jahr vor der Ankündigung von Facebook, sich in Meta umzubenennen und den Schwerpunkt von der Social-Media-Plattform hin ins Metaversum zu verlagern – gründete sie das gemeinnützige Oasis Consortium, eine Gruppe von Spielefirmen und Netzunternehmen, die sich ein ethisch sauberes Internet erhoffen, “in dem künftige Generationen darauf vertrauen können, dass sie frei von Hass und Toxizität interagieren, mitgestalten und existieren können”.
Wang ist der Meinung, dass Oasis ein sichereres und besseres Metaversum schaffen kann, indem es Technologieunternehmen bei der Selbstregulierung hilft. Anfang Januar veröffentlichte die Gruppe ihre Standards für Benutzersicherheit – eine Reihe von Richtlinien, die unter anderem die Einstellung eines Vertrauens- und Sicherheitsbeauftragten, das Moderieren von Inhalten und die Einbeziehung neuester Forschungsergebnisse im Bereich Internetgewalt beinhalten. Unternehmen, die dem Konsortium beitreten, verpflichten sich, auf diese Ziele hinzuarbeiten. “Ich möchte dem Web und dem Metaversum neue Möglichkeiten geben”, sagt Wang, die in den letzten 15 Jahren in den Bereichen KI und Content-Moderation gearbeitet hat. “Wenn das Metaversum überleben soll, muss es diese Sicherheit bieten.”
Eine Blaupause für ein sichereres Metaversum
Aber können wir wirklich darauf vertrauen, dass die Unternehmen des Silicon Valley in der Lage sein werden, sich im Metaversum selbst zu regulieren? Nur so, glauben Beobachter, kann sich die Technik wirklich als sinnvoll für die Menschheit erweisen. Zu den Unternehmen, die sich bisher bei Oasis angemeldet haben, gehören unter anderem die Spieleplattform Roblox, das Dating-Unternehmen Grindr und der Videospielkonzern Riot Games. Zusammen haben sie Hunderte Millionen von Nutzern, von denen viele bereits aktiv in virtuellen Räumen unterwegs sind.
Bemerkenswert ist aber, dass Wang bislang nicht mit Meta, dem wohl größten Akteur im zukünftigen Metaversum, gesprochen hat. Ihre Strategie ist es, auf Big Tech zuzugehen, “sobald sie die Veränderungen sehen können, die wir an der Speerspitze dieser Bewegung vornehmen”. (Meta verwies auf Nachfrage auf zwei Dokumente: eine Pressemitteilung, in der Partnerschaften mit Gruppen und Einzelpersonen für den “verantwortungsvollen Aufbau des Metaversum” beschrieben werden – sowie ein Blogbeitrag über die Sicherheit virtueller Räume. Beide wurden von Meta-Technikchef Andrew Bosworth verfasst.)
Wang sagt, dass sie hofft, auf verschiedene Weise für mehr Transparenz zu sorgen. Zum einen durch die Schaffung eines Bewertungssystems, damit die Öffentlichkeit weiß, wie es um die Vertrauenswürdigkeit und die Sicherheit eines Unternehmens bestellt ist. Das ähnelt Systemen, mit denen Restaurants bei der Einhaltung von Sauberkeitsstandards durch Kommunen bewertet werden. Eine weitere Möglichkeit besteht darin, von den Mitgliedsunternehmen zu verlangen, einen Vertrauens- und Sicherheitsbeauftragten zu beschäftigen. Diese Position ist in größeren Unternehmen immer häufiger anzutreffen, aber es gibt keine gemeinsamen Standards, an die sich jede dieser Beschäftigten halten muss, sagt Wang.
Idealistisch, aber dennoch sinnvoll
Ein Großteil der Pläne von Oasis bleibt jedoch bestenfalls idealistisch. Ein Beispiel ist der Vorschlag, maschinelles Lernen einzusetzen, um Belästigungen und Hassrede zu erkennen. Doch diese Systeme funktionieren nicht wirklich – sie geben Online-Beleidigungen entweder zu viel Raum zur Verbreitung oder sie zensieren zu viel. Dennoch verteidigt Wang KI als moderierendes Werkzeug. “KI ist so gut, wie die Daten sind”, sagt sie. “Die Plattformen haben unterschiedliche Moderationsmethoden, aber alle arbeiten an einer besseren Genauigkeit, schnelleren Reaktionen und der Vermeidung von Sicherheitslücken.”
Das zentrale Papier von Oasis ist sieben Seiten lang und umreißt die künftigen Ziele des Konsortiums. Vieles davon liest sich noch wie ein Leitbild – und Wang räumt ein, dass sich die Arbeit der ersten Monate auf die Einrichtung von Beratungsgruppen konzentrierte, die bei der Erarbeitung der Ziele helfen sollten. Andere Vorstellungen der Gruppe wie z. B. die Strategie zur Moderation von Inhalten sind vage. Wang nach sollten Unternehmen ausreichend Mitarbeiter einstellen, damit Angehörige von Minderheiten nicht belästigt werden, etwa farbige Menschen, die sich nicht als männlich identifizieren. Der Plan enthält jedoch keine weiteren Schritte zur Erreichung dieses Ziels.
Das Konsortium erwartet von den Mitgliedsunternehmen auch, dass sie Daten darüber weitergeben, welche Nutzer besonders häufig zu Opfern werden, was für die Ermittlung von Wiederholungstätern wichtig ist. Die teilnehmenden Technologieunternehmen sollen mit NGOs, Regierungsbehörden und Strafverfolgungsbehörden zusammenarbeiten, um bei der Entwicklung neuer Sicherheitsrichtlinien zu helfen, sagt Wang. Sie plant außerdem, dass Oasis ein Kontaktteam für Strafverfolgungsbehörden einrichtet, dessen Aufgabe es sein wird, die Polizei über Belästigungen und Missbrauch zu informieren. Es bleibt jedoch unklar, wie sich die Arbeit dieser Taskforce mit den Strafverfolgungsbehörden vom aktuellen Status quo unterscheiden wird.
Abwägung zwischen Privatsphäre und Sicherheit
Trotz des Mangels an konkreten Details sind Beobachter der Meinung, dass das Gründungsdokument des Konsortiums zumindest ein guter erster Schritt ist. “Es ist gut, dass Oasis sich mit der Selbstregulierung befasst und Menschen abholt, die die Systeme und ihre Grenzen kennen”, sagt Brittan Heller, eine auf Menschenrechte im Technologiebereich spezialisierte Anwältin. Es ist nicht das erste Mal, dass Hightech-Firmen auf diese Art zusammenarbeiten. Im Jahr 2017 erklärten sich einige von ihnen bereit, Informationen mit dem “Global Internet Forum to Combat Terrorism” (GIFCT) auszutauschen. Heute ist das GIFCT eine unabhängige Einrichtung und die Unternehmen, die sich dem Forum anschließen, regulieren sich selbst.
Lucy Sparrow, Forscherin an der School of Computing and Information Systems der University of Melbourne, sagt, der Vorteil von Oasis sei, dass es den Unternehmen etwas biete, mit dem sie arbeiten könnten, anstatt darauf zu warten, dass die Firmen selbst mit eigenen Ansätzen um die Ecke kommen. Es sei bewundernswert, eine Ethik von Anfang an in das grundlegende Design einzubauen, wie es Oasis vorantreibt. Das mache ihrer Forschung in Multi-User-Games zufolge einen Unterschied. “Ethisches Verhalten wird oft an den Rand gedrängt, aber hier ermutigen sie dazu, von Anfang an über das Thema nachzudenken”, sagt sie.
Aber Anwältin Heller meint, dass ethisches Design vielleicht nicht ausreicht. Sie schlägt vor, dass Technologieunternehmen zunächst einmal ihre Nutzungsbedingungen überarbeiten. Die sind bekannt dafür, dass viele Kunden sie nicht verstehen – und verschaffen Konzernen viele Vorteile. Sparrow stimmt dem zu und meint, sie habe Zweifel, dass eine Gruppe von Technologieunternehmen im Interesse der Verbraucher handelt. “Das wirft zwei Fragen auf”, sagt sie. “Erstens: Wie sehr trauen wir gewinngesteuerten Unternehmen zu, das Thema Sicherheit zu kontrollieren? Und zweitens: Wie viel Kontrolle wollen wir den Technologieunternehmen über unser virtuelles Leben geben?”
Strafverfolger einbinden
All das ist eine heikle Situation, vor allem, weil die Nutzer ein Recht auf Sicherheit und Privatsphäre haben, diese Bedürfnisse aber in einem Spannungsverhältnis zueinander stehen können. So wurde bereits eine Frau auf der VR-Social-Media-Plattform von Meta sexuell belästigt. Sie war nicht die erste – und wird nicht die letzte sein. So enthalten die Standards von Oasis beispielsweise Richtlinien für die Einreichung von Beschwerden bei Strafverfolgungsbehörden, falls Nutzer belästigt werden. Wenn eine Person jetzt eine Anzeige erstatten möchte, ist das oft schwierig, da die Plattformen aus Datenschutzgründen oft nicht aufzeichnen, was vor sich geht.
Bessere Sicherheitsmaßnahmen würden auch einen großen Unterschied bei der Bestrafung von Wiederholungstätern machen. Derzeit können sie noch mit Belästigung und sogar Missbrauch auf mehreren Plattformen davonkommen, weil diese Plattformen nicht miteinander kommunizieren, welche Nutzer problematisch sind. Laut Heller wäre ein Abgleich zwar in der Theorie eine großartige Idee, aber in der Praxis schwer umzusetzen, da die Unternehmen verpflichtet sind, diese Informationen gemäß den Datenschutzbedingungen geheim zu halten.
“Wie kann man diese Daten anonymisieren und die Weitergabe trotzdem effektiv gestalten?”, fragt sie. “Was wäre eine Schwelle für die gemeinsame Nutzung von Daten? Wie könnte man den Prozess der Weitergabe von Informationen transparent und die Verbannung einzelner Nutzer so gestalten, dass sie dies zumindest anfechten können?”
Besser Moderieren
Und wer hätte überhaupt die Befugnis, solche Entscheidungen zu treffen? “Es gibt bislang keinen Präzedenzfall dafür, dass Techfirmen Informationen mit anderen Unternehmen über Nutzer austauschen, die gegen ihre Nutzungsbedingungen verstoßen haben.” Da belästigten User andere Menschen und legten ein schlechtes Verhalten an den Tag – und das plattformübergreifend.
Eine bessere Moderation von Inhalten – durch Menschen – könnte Belästigungen anderer Nutzer an der Quelle stoppen. Heller ist sich jedoch nicht im Klaren darüber, wie Oasis die Moderation von Inhalten standardisieren will, insbesondere von einem textbasierten hin zu einem eher virtuellen Medium. Und die Moderation im Metaversum wird ihre eigenen Herausforderungen mit sich bringen.
“Die KI-basierte Inhaltsmoderation in Social-Media-Feeds, die Hassrede aufhalten soll, ist in erster Linie textbasiert”, sagt Heller. “Die Moderation von Inhalten in der virtuellen Realität wird in erster Linie Verhalten der Nutzer verfolgen und überwachen müssen.” Die bislang vorhandenen Mechanismen zur Meldung von Verstößen seien “bestenfalls lückenhaft und oft ineffektiv”. Das könne derzeit nicht durch KI automatisiert werden.
Keine Beweismittel im virtuellen Raum
Das bedeutet, dass die Last der Missbrauchsmeldungen beim Nutzer liegt – wie das erwähnte Opfer von sexueller Belästigung auf Metas Plattform erfahren musste. Auch Audio- und Videoaufnahmen werden oft nicht aufgezeichnet, was den Nachweis eines Übergriffs erschwert. Selbst bei den Plattformen, die Tonaufnahmen machen, so Heller, bleiben meist nur Ausschnitte erhalten, so dass der Kontext schwer oder gar nicht zu verstehen ist.
Wang betont, dass die neuen Standards für die Benutzersicherheit von einem Sicherheitsbeirat erstellt werden, dessen Mitglieder jedoch allesamt dem Konsortium angehören – eine Tatsache, die Heller und Sparrow ein mulmiges Gefühl bereitet. Konzerne wie Facebook weisen bislang keine großartige Erfolgsbilanz auf, was den Schutz ihrer Nutzer anbetrifft – sei es nun vor Missbrauch durch andere User oder durch die Plattform selbst. Warum sollten wir jetzt etwas anderes erwarten?
Sparrow glaubt nicht, dass wir das können. “Es geht darum, ein System einzurichten, das gerecht ist oder zumindest signalisiert, welches Verhalten erwartet wird und welche Konsequenzen ein Verstoß dagegen hat”, sagt sie. Das könnte bedeuten, dass externe Interessengruppen und Normalverbraucher einbezogen werden – oder eine Art partizipatorische Governance stattfindet, die es den Nutzern ermöglicht, als Jury zu fungieren und vor dieser eine Aussage zu machen. Eines ist jedoch sicher: Für die Sicherheit im Metaversum braucht es mehr als eine Gruppe von Tech-Unternehmen, die einfach nur versprechen, auf uns alle aufzupassen.
Quelle:
Foto: jamesteohart/Shutterstock.com