„Verfickte Almans“ werden gelöscht und Gleichstellungen von religiösen Symbolen und Geschlechtsorganen bleiben auf der Plattform. Was Facebook in Deutschland löscht – und vor allem was Facebook nicht löscht, sorgt erneut für berechtigte Diskussionen.
Hass gehört zu Facebook in Deutschland
Trotz aller (berechtigten) Kritik ist Facebook in Deutschland nach wie vor das größte soziale Netzwerk. Denn obwohl es in der Altersstruktur der Nutzer zu Verschiebungen gekommen ist, kommt der Dienst hierzulande immer noch auf über 30 Millionen monatliche Nutzer.
Diese posten zwar seltener Beiträge als Privatperson, sind jedoch dafür auf Seiten und in Facebook-Gruppen umso aktiver. Gerade in den Gruppen ist der Umgangston jedoch oftmals sehr schlecht. Beleidigungen und Hass sind hier eher Alltag als ein friedvoller Umgang.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Social Media Manager – LinkedIn / Content / Analytics (m/w/d) DPC Software GmbH in Solingen |
||
Praktikum Social Media Digital Health / Creation / Public Health / BGM move UP Ges. für Gesundheitsmanagement mbH in Hamburg |
In 80 Stunden lernen, was Hass ist
Um gegen jede Form von Diskriminierung vorzugehen, beschäftigt Facebook in Deutschland wie auch in anderen Ländern sogenannte Content-Moderatoren.
Das sind Mitarbeiter bei externen Firmen, die Tag für Tag Tausende Inhalte sehen und darüber entscheiden, ob sie gelöscht werden müssen. In Deutschland bezahlt Facebook in Berlin und Essen dafür 2.000 Angestellte bei den entsprechenden Dienstleistern.
Bevor die Arbeiter ihren neuen Job antreten, werden sie laut Aussagen von Facebook gegenüber dem Spiegel mindestens 80 Stunden lang geschult. Die dafür verwendeten Dokumente stammen aus dem Jahr 2018 und sind bis zum heutigen Zeitpunkt unverändert.
Schulungsunterlagen zeigen, was Facebook in Deutschland löscht
Die Angestellten in den Dienstleistungsbetrieben werden jede Minute und jeden Tag in ihrem Job mit sehr schwierigen Inhalten konfrontiert. Denn nur weil wir Nutzer keine Vergewaltigungen und Exekutionen auf Facebook sehen, bedeutet das nicht, dass derartige Inhalte nicht hochgeladen werden.
Was die Künstliche Intelligenz von Facebook nicht automatisch filtert, muss von den Content-Moderatoren gelöscht werden. Die internen Regeln und Schulungsunterlagen sind Medienberichten zu Folge jedoch nicht immer nachvollziehbar.
So hat der Spiegel in den Schulungsunterlagen beispielsweise gesehen, dass Hasskommentare, die von „verfickte(n) Almans“ sprechen oder andere Personen „als typisch dämlich deutsch“ bezeichnen, gelöscht werden.
Ethnophaulistische Begriffe wie Almans, „Kartoffel“ oder „Kraut“, die sich über Personen lustig machen, die vermeintliche deutsche Klischees erfüllen, haben auf Facebook in Deutschland also offenbar keinen Platz.
Was löscht Facebook nicht?
Noch spannender ist jedoch eigentlich, was Facebook nicht löscht. Ein besonders erstaunliches Beispiel aus den Schulungsunterlagen beschäftigt sich mit der Zeichnung eines Minaretts, das mit der Form eines riesigen Penis gleichgesetzt wird.
Dabei handelt es sich den Recherchen zu Folge nur um einen verbotenen Inhalt, wenn im Begleittext zum Bild gegen Muslime oder den Islam gehetzt werde. Nachvollziehbar ist das nicht.
Facebook wird zwischen Meinungsfreiheit, Memes und Diskriminierung zerrieben
Das Problem, mit dem sich Facebook konfrontiert sieht, ist im Prinzip unlösbar. Auf der einen Seite muss das soziale Netzwerk darauf achten, die Meinungsfreiheit seiner Nutzerinnen und Nutzer sicherzustellen. Das heißt: Nicht jedes Meme stellt eine Verletzung von Urheberrechten dar.
Auf der anderen Seite nehmen Hass und Diskriminierung immer weiter zu. Allerdings lassen sich die Milliarden Kommentare, mit denen Facebook jeden Tag konfrontiert wird, nicht durch eine Künstliche Intelligenz und auch nicht durch eine 80-stündige Schulung in den Griff bekommen.
Der Kampf erscheint aussichtslos. Facebook hat eine Plattform geschaffen, die sich nicht mehr kontrollieren lässt.
Auch interessant: