Forscher haben untersucht, ob und inwiefern X (ehemals Twitter) auf Meldungen zu Nacktbildern reagiert. Das Skurrile: Der Kurznachrichtendienst hat Inhalt, bei denen Urheberrechtsverletzungen gemeldet wurden, binnen Stunden gelöscht. Bilder, die als „nicht einvernehmliche intime Bilder“ eingestuft werden, befinden sich jedoch auch Wochen später noch auf der Plattform.
X (ehemals Twitter) entfernt Nacktbilder offenbar nur, wenn Urheberrechtsverletzungen gemeldet werden. Meldungen zu anstößigen Inhalten, die als „nicht einvernehmlich intime Bilder“ eingestuft werden, entfernt der Kurzenachtendienst allenfalls erst Woche später – oder möglicherweise überhaupt nicht. Das ist das Ergebnis einer Studie von Forschern der University of Michigan.
Nacktbilder: Twitter ignoriert gemeldete Inhalte
Das Forschungspapier ist bislang zwar noch nicht durch das sogenannte Peer-Review-Verfahren gelaufen – sprich: Es wurde noch nicht von unabhängigen Wissenschaftlern überprüft. Allerdings erscheinen die Ergebnisse eindeutig. Denn die Forscher zeigen mitunter deutliche Geschwindigkeitsunterschiede bei Meldungen zu Nacktbildern auf.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
ournalist (m/w/d) als Leiter PR und Social-Media NOMOS Glashütte/SA Roland Schwertner KG in Berlin |
||
Head of Social Media (m/w/d) Deichmann SE in Mülheim an der Ruhr (45478) |
Die Forscher luden im Rahmen ihrer Studie 50 KI-generierte Nacktbilder auf X hoch. Eine Hälfte davon über meldeten sie als „nicht einvernehmliche intime Bilder“ X-Mechanismus. Zu der anderen Hälfte reichten sie Urheberrechtsbeschwerden ein.
Das Ergebnis: Alle Bilder, die als Urheberrechtsverletzung gemeldet wurden, entfernte der Kurznachtichtendienst im Schnitt binnen 25 Stunden. Die Accounts, von denen die Nacktbilder stammen, wurden außerdem vorübergehend blockiert.
Alle anstößigen Inhalte, zu denen die Forscher Meldungen als „nicht einvernehmliche intime Bilder“ einreichten, befanden sich auch drei Wochen später noch auf der Plattform. Die Accounts mussten der Studie zufolge weder mit Konsequenzen rechnen, noch erhielten sie eine Benachrichtigung von X.
Forscher kritisieren schwammige Rechtslage
Die Forscher kritisieren in ihrem Papier jedoch nicht nur das nachlässige Vorgehen von X, sondern vor allem eine mangelnde und schwammige Rechtslage, die das Unternehmen ausnutzt:
Der krasse Gegensatz bei den Ergebnissen der Entfernung unterstreicht eine kritische Lücke in der Art und Weise, wie NCIM [nonconsensual intimate media] durch Plattformrichtlinien und nicht durch rechtlich durchgesetzte Mechanismen angegangen wird.
Die Studie bezieht vorrangig auf die USA und den Digital Millennium Copyright Act (DMCA). Dieser verpflichte Online-Plattformen dazu, Meldungen zu urheberrechtlich geschützten Inhalten unverzüglich zu bearbeiten. Gesetze gegen Deepfakes und KI-generierte Nacktbilder gibt es jedoch nur in einzelnen Bundesstaaten, weshalb in den USA keine eindeutige rechtliche Grundlage existiert, die X zu einer schnellen Bearbeitung solcher Inhalte veranlasst.
Die Forscher fordern deshalb eine Überarbeitung der Rechtssprechung, damit Meldungen zu anstößige Inhalte ebenso wie Urheberrechtsverletzungen priorisiert werden. Als Beispiel führen die Studienautoren die aktuellen Datenschutzbestimmungen der Europäischen Union an, die in puncto Datenschutz und Nutzerzustimmung einen Schritt nach vorne darstellen würden.
Die EU arbeitet außerdem an einem Gesetz, das Nutzer besser vor digitalen Übergriffen schützen soll. Ziel ist es, sowohl nicht einvernehmlich veröffentlichte Inhalte als auch anstößige Deepfakes abzudecken.
Auch interessant:
Kommentieren