Technologie

UNESCO schlägt Alarm: KI verbreitet Geschlechterklischees

KI Geschlechterklischees, Künstliche Intelligenz, UNESCO
Adobe Stock/ Feodora
geschrieben von Fabian Peters

Laut UNESCO verbreiten KI-Sprachmodelle zunehmend Geschlechterklischees. Viele Algorithmen würden sowohl Männern als auch Frauen bestimmte Rollen zuteilen. 

KI-Sprachmodelle beschreiben Frauen häufiger in häuslichen Rollen als Männer. Außerdem stehen sie öfter mit Wörtern wie „Heim“, „Familie“ und „Kinder“ in Verbindung. Männer hingegen werden Begriffen wie „Geschäft“, „Gehalt“ und „Karriere“ zugeschrieben.

Das ist das Ergebnis einer Studie der UNESCO, die im Vorfeld des Internationalen Frauentags durchgeführt wurden. Die Organisation spricht darin von einer „besorgniserregende Tendenzen“. Denn KI verbreitet neben Geschlechterklischees demnach auch Homophobie und rassistischen Stereotypen.


Neue Stellenangebote

Growth Marketing Manager:in – Social Media
GOhiring GmbH in Homeoffice
ournalist (m/w/d) als Leiter PR und Social-Media
NOMOS Glashütte/SA Roland Schwertner KG in Berlin
Head of Social Media (m/w/d)
Deichmann SE in Mülheim an der Ruhr (45478)

Alle Stellenanzeigen


KI verbreitet Geschlechterklischees: UNESCO besorgt

Die UNESCO hat im Rahmen der Studie die beleibtesten KI-Sprachmodelle hinsichtlich der Stereotypisierung von Sprache untersucht. Darunter auch: GPT 3.5 und GP -2 von OpenAI sowie Llama 2 von Facebook-Mutterkonzern Meta.

Das Ergebnis: Sogenannte Large Language Models (LLMs) würden eine Voreingenommenheit gegenüber Frauen aufzeigen. UNESCO-Generaldirektorin Audrey Azoulay sagte dazu:

Diese neuen KI-Anwendungen haben die Macht, die Wahrnehmung von Millionen von Menschen subtil zu beeinflussen, so dass selbst kleine geschlechtsspezifische Verzerrungen in ihren Inhalten die Ungleichheiten in der realen Welt erheblich verstärken können.

Ihre Forderung:Regierungen sollen entsprechende rechtliche Rahmenbedingunge entwickeln und durchzusetzen. Privatunternehmen müssten den Einsatz von KI-Sprachmodellen wiederum kontinuierlich hinsichtlich inhaltlicher Verzerrungen überwachen.

Künstliche Intelligenz zeigt homophone und rassistische Tendenzen

Laut UNESCO zeigten kostenlose Sprachmodelle wie GPT 2 und Llama die deutlichsten geschlechtsspezifischen Verzerrungen auf. Allerdings könnten diese auch schneller ausgeglichen und beseitigt werden als bei geschlossenen KI-Modellen wie Google Gemini und GPT 3 sowie GPT 4.

Open-Source-LLMs würden auch dazu tendierten, Männern hochrangige Berufe zuzuweisen, während sie Frauen häufig auf Rollen zuteilen, die traditionell unterbewertet oder sozial stigmatisiert sind. Von Metas KI-Sprachmodell Llama wurden Frauen der Studie zufolge sogar viermal häufiger in häuslichen Rollen beschrieben als Männer.

Laut UNESCO neigen LLMs außerdem dazu neigen, negative Inhalte über Homosexuelle und bestimmte ethnische Gruppen zu erstellen.

Auch interessant: 

Über den Autor

Fabian Peters

Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).