Laut UNESCO verbreiten KI-Sprachmodelle zunehmend Geschlechterklischees. Viele Algorithmen würden sowohl Männern als auch Frauen bestimmte Rollen zuteilen.
KI-Sprachmodelle beschreiben Frauen häufiger in häuslichen Rollen als Männer. Außerdem stehen sie öfter mit Wörtern wie „Heim“, „Familie“ und „Kinder“ in Verbindung. Männer hingegen werden Begriffen wie „Geschäft“, „Gehalt“ und „Karriere“ zugeschrieben.
Das ist das Ergebnis einer Studie der UNESCO, die im Vorfeld des Internationalen Frauentags durchgeführt wurden. Die Organisation spricht darin von einer „besorgniserregende Tendenzen“. Denn KI verbreitet neben Geschlechterklischees demnach auch Homophobie und rassistischen Stereotypen.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Social Media und PR Specialist (m/w/d) BeA GmbH in Ahrensburg |
||
Social Media Manager B2B (m/w/d) WM SE in Osnabrück |
KI verbreitet Geschlechterklischees: UNESCO besorgt
Die UNESCO hat im Rahmen der Studie die beleibtesten KI-Sprachmodelle hinsichtlich der Stereotypisierung von Sprache untersucht. Darunter auch: GPT 3.5 und GP -2 von OpenAI sowie Llama 2 von Facebook-Mutterkonzern Meta.
Das Ergebnis: Sogenannte Large Language Models (LLMs) würden eine Voreingenommenheit gegenüber Frauen aufzeigen. UNESCO-Generaldirektorin Audrey Azoulay sagte dazu:
Diese neuen KI-Anwendungen haben die Macht, die Wahrnehmung von Millionen von Menschen subtil zu beeinflussen, so dass selbst kleine geschlechtsspezifische Verzerrungen in ihren Inhalten die Ungleichheiten in der realen Welt erheblich verstärken können.
Ihre Forderung:Regierungen sollen entsprechende rechtliche Rahmenbedingunge entwickeln und durchzusetzen. Privatunternehmen müssten den Einsatz von KI-Sprachmodellen wiederum kontinuierlich hinsichtlich inhaltlicher Verzerrungen überwachen.
Künstliche Intelligenz zeigt homophone und rassistische Tendenzen
Laut UNESCO zeigten kostenlose Sprachmodelle wie GPT 2 und Llama die deutlichsten geschlechtsspezifischen Verzerrungen auf. Allerdings könnten diese auch schneller ausgeglichen und beseitigt werden als bei geschlossenen KI-Modellen wie Google Gemini und GPT 3 sowie GPT 4.
Open-Source-LLMs würden auch dazu tendierten, Männern hochrangige Berufe zuzuweisen, während sie Frauen häufig auf Rollen zuteilen, die traditionell unterbewertet oder sozial stigmatisiert sind. Von Metas KI-Sprachmodell Llama wurden Frauen der Studie zufolge sogar viermal häufiger in häuslichen Rollen beschrieben als Männer.
Laut UNESCO neigen LLMs außerdem dazu neigen, negative Inhalte über Homosexuelle und bestimmte ethnische Gruppen zu erstellen.
Auch interessant: