Künstliche Intelligenz ist für soziale Netzwerke oft eine große Hilfe. Doch Fehler können einen erheblichen Schaden anrichten. Das musste nun auch Facebook erleben. Denn die Facebook-KI hat schwarze Menschen mit Affen gleichgestellt.
Eines der größten Probleme beim Einsatz von Künstlicher Intelligenz (KI) sind Vorurteile. Die Technologie soll zwar wie das menschliche Gehirn funktionieren. Doch beim Training der KI kommt es immer wieder zur Bildung von Vorurteilen. So werden oft vor allem Minderheiten benachteiligt oder diskriminiert.
Die Auswirkungen eines solchen Vergehens musste nun auch Facebook nach einem Bericht der New York Times erfahren.
Neue Stellenangebote
Praktikant – Digitales Lernen und Empowerment im Bereich Social Media (m/w/d) Allianz Kunde und Markt GmbH in Unterföhring (bei München) |
||
(Senior) Social Media Manager:in (m/w/d) – NRW TAS Emotional Marketing GmbH in Essen |
||
Social Media Assistant (m/w/d) Kanebo Cosmetics Deutschland GmbH in Hamburg |
So diskriminiert die Facebook-KI
Im Umfeld eines Videos der britischen Daily Mail kam es zu einer diskriminierenden Verwechslung des Algorithmus. Denn der Facebook-Algorithmus hat schwarze Menschen mit Affen verwechselt.
Das Video trägt den Titel „Weißer Mann ruft Polizei wegen schwarzen Männern am Hafen“. Nach Abspielen des Videos wurden Nutzer:innen dann gefragt, ob sie „weiterhin Videos über Primaten sehen möchten“.
Die sei ein „eindeutig inakzeptabler Fehler“ sagte eine Facebook-Sprecherin in einem Statement dazu. Der Konzern habe die entsprechende Software direkt aus dem Betrieb genommen.
Wir entschuldigen uns bei jedem, der diese beleidigenden Empfehlungen gesehen hat.
Wie wurde die rassistische Facebook-KI entdeckt?
Aufgedeckt hat den vorliegenden Fall eine ehemalige Mitarbeiterin von Facebook. Sie hat einen Screenshot davon in einem Forum für Facebook-Feedback gepostet. Daraufhin erklärte ein Facebook-Produktmanager der Videoabteilung den Vorfall als „inakzeptabel“. Dazu versprach er, das Problem zu beheben.
Gegenüber der New York Times sagte die Ex-Mitarbeiterin, die Behebung der Rassismus-Probleme sei Facebook nicht wichtig genug.
Facebook kann nicht weiter immer wieder Fehler machen und bloß sagen, dass es ihnen leidtut.
Facebook ist nicht das einzige KI-Problemkind
Doch Facebook ist nicht der einzige Social-Media-Riese, der Probleme mit den Tücken der Gesichtserkennung hat. Auch Twitter muss hier immer wieder nachbessern.
Anfang Mai 2021 hat der Kurznachrichtendienst den Foto-Zuschnitt in seinem News-Feed aktualisiert. Dieser Entscheidung war Kritik am Cropping-Algorithmus vorangegangen. Dieser hatte beim automatisierten Zuschnitt häufiger weiße als schwarze Menschen gezeigt.
Das hat Twitter auch dazu bewegt, externe Expert:innen im Zuge der Algorithmic Bias Bounty Challenge nach Problemen im eigenen Algorithmus forschen zu lassen. Dabei kam heraus, dass die KI schlanke, junge Gesichter mit heller Haut bevorzugt.
Twitter will mit Challenges wie der Algorithmic Bias Bounty Challenge helfen, eine Community für ethische Aspekte Künstlicher Intelligenz aufzubauen. Ein Ansinnen, das sich auch Facebook zum Vorbild nehmen sollte.
Auch interessant: