Technologie

Künstliche Intelligenz hat Probleme mit Vorurteilen und ist nicht neutral

KI, Künstliche Intelligenz, Artificial Intelligence, AI, KI vergessen, KI Vergessen
pixabay.co / geralt
geschrieben von Felix Baumann

Eine Studie aus Stanford zeigt, dass die Entwicklung von Künstlicher Intelligenz mit hoher Geschwindigkeit stattfindet. Problematisch bleiben jedoch Vorurteile, denn künstliche Intelligenz kannVorurteile nicht immer erkennen und ist nicht immer neutral. 

Künstliche Intelligenz (KI) hat sich im vergangenen Jahrzehnt stark verändert. Vor etwa fünf Jahren waren wir etwa noch erstaunt, dass Algorithmen den Menschen in komplexen Brettspielen wie Go schlagen können. Schauen wir auf das Jahr 2022, dann haben uns Software und KI in vielen Bereichen jedoch schon längst überholt.

Doch jeder Algorithmus ist nur so gut, wie die Entwickler:innen dahinter. Daher schauen sich Forscher:innen in Stanford jedes Jahr potenzielle Vorurteile an, die Künstliche Intelligenz besitzt. In diesem Jahr sind zwar Fortschritte erkennbar, trotzdem sind noch einige Maßnahmen notwendig. Ein Beispiel dafür sind etwa Sprachmodellen (NLP), die selbstständig Texte analysieren und schreiben können.


Neue Stellenangebote

Growth Marketing Manager:in – Social Media
GOhiring GmbH in Homeoffice
Praktikum im Bereich interne Kommunikation und Social Media
BOS GmbH & Co. KG in Ostfildern bei Stuttgart
Praktikum (m/w/d) Projektmanagement Social Media ab Januar 2025
CEWE Stiftung & Co. KGaA in Oldenburg

Alle Stellenanzeigen


Künstliche Intelligenz ist nicht immer neutral

Moderne NLP-Modelle können inzwischen mit Hundert Milliarden Datenpunkten umgehen. Teilweise schlägt die Intelligenz aus dem Computer bereits den Menschen und schreibt „bessere“ Texte. Um die Vorurteile gegenüber bestimmten Personengruppen zu messen, stellten Forscher:innen dem Algorithmus eine Frage nach folgendem Schema: „Jungs sind schlecht, weil …“.

Die Software musste dann eine passende Antwort in ihrem Datenschatz finden. Ein Modell mit etwa 280 Milliarden Parametern war dabei etwa 29 Prozent toxischer, als eine Künstliche Intelligenz aus dem Jahr 2018 mit 117 Millionen Parametern. Da die Anzahl an Parametern so stark zunahm, scheint das gar nicht mal so problematisch, trotzdem stellen sich Experten die Frage, wie sich das in Zukunft vermeiden lässt.

Eine Lösung könnte das bessere Moderieren von Trainingsdaten sein. Ein anderer Ansatz möchte noch mehr Datenpunkte einführen, damit der schlechte Anteil kontinuierlich sinkt.

Algorithmen gehört vielerorts die Zukunft

Positiv sehen die Forscher:innen hingegen, dass die Problemstellung nicht mehr nur auf akademischem Level ausgetragen wird. Mehr und mehr Menschen diskutieren über das Thema und nehmen aktiv an der Entwicklung teil. Dennoch nimmt die Geschwindigkeit der Entwicklung inzwischen etwas ab.

Denn aktuell geht man davon aus, dass sich die Entwicklungskurve abflachen wird. Trotzdem bleibt die Forschung an Künstlicher Intelligenz ein Thema internationaler Tragweite. Die Entwicklung führen dabei momentan die Vereinigten Staaten und China an. Die beiden Staaten kooperieren zudem miteinander und wollen so mehr Lösungen in den Alltag integrieren.

Neben dem Austausch über Universitäten findet auch ein Wissenstransfer durch internationale Konzerne statt. Amerikanische Firmen, wie etwa Microsoft, sind auch  in der Volksrepublik vertreten, andererseits gibt es Huawei-Standorte in den Staaten. Es bleibt also auf dem Feld spannend.

Auch interessant:

Über den Autor

Felix Baumann

Felix Baumann ist seit März 2022 Redakteur bei BASIC thinking. Bereits vorher schrieb er 4 Jahre für den Online-Blog Mobilegeeks, der 2022 in BASIC thinking aufging. Nebenher arbeitet Felix in einem IT-Unternehmen und beschäftigt sich daher nicht nur beim Schreiben mit zukunftsfähigen Technologien.