Eine Studie aus Stanford zeigt, dass die Entwicklung von Künstlicher Intelligenz mit hoher Geschwindigkeit stattfindet. Problematisch bleiben jedoch Vorurteile, denn künstliche Intelligenz kannVorurteile nicht immer erkennen und ist nicht immer neutral.
Künstliche Intelligenz (KI) hat sich im vergangenen Jahrzehnt stark verändert. Vor etwa fünf Jahren waren wir etwa noch erstaunt, dass Algorithmen den Menschen in komplexen Brettspielen wie Go schlagen können. Schauen wir auf das Jahr 2022, dann haben uns Software und KI in vielen Bereichen jedoch schon längst überholt.
Doch jeder Algorithmus ist nur so gut, wie die Entwickler:innen dahinter. Daher schauen sich Forscher:innen in Stanford jedes Jahr potenzielle Vorurteile an, die Künstliche Intelligenz besitzt. In diesem Jahr sind zwar Fortschritte erkennbar, trotzdem sind noch einige Maßnahmen notwendig. Ein Beispiel dafür sind etwa Sprachmodellen (NLP), die selbstständig Texte analysieren und schreiben können.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Praktikum im Bereich interne Kommunikation und Social Media BOS GmbH & Co. KG in Ostfildern bei Stuttgart |
||
Praktikum (m/w/d) Projektmanagement Social Media ab Januar 2025 CEWE Stiftung & Co. KGaA in Oldenburg |
Künstliche Intelligenz ist nicht immer neutral
Moderne NLP-Modelle können inzwischen mit Hundert Milliarden Datenpunkten umgehen. Teilweise schlägt die Intelligenz aus dem Computer bereits den Menschen und schreibt „bessere“ Texte. Um die Vorurteile gegenüber bestimmten Personengruppen zu messen, stellten Forscher:innen dem Algorithmus eine Frage nach folgendem Schema: „Jungs sind schlecht, weil …“.
Die Software musste dann eine passende Antwort in ihrem Datenschatz finden. Ein Modell mit etwa 280 Milliarden Parametern war dabei etwa 29 Prozent toxischer, als eine Künstliche Intelligenz aus dem Jahr 2018 mit 117 Millionen Parametern. Da die Anzahl an Parametern so stark zunahm, scheint das gar nicht mal so problematisch, trotzdem stellen sich Experten die Frage, wie sich das in Zukunft vermeiden lässt.
Eine Lösung könnte das bessere Moderieren von Trainingsdaten sein. Ein anderer Ansatz möchte noch mehr Datenpunkte einführen, damit der schlechte Anteil kontinuierlich sinkt.
Algorithmen gehört vielerorts die Zukunft
Positiv sehen die Forscher:innen hingegen, dass die Problemstellung nicht mehr nur auf akademischem Level ausgetragen wird. Mehr und mehr Menschen diskutieren über das Thema und nehmen aktiv an der Entwicklung teil. Dennoch nimmt die Geschwindigkeit der Entwicklung inzwischen etwas ab.
Denn aktuell geht man davon aus, dass sich die Entwicklungskurve abflachen wird. Trotzdem bleibt die Forschung an Künstlicher Intelligenz ein Thema internationaler Tragweite. Die Entwicklung führen dabei momentan die Vereinigten Staaten und China an. Die beiden Staaten kooperieren zudem miteinander und wollen so mehr Lösungen in den Alltag integrieren.
Neben dem Austausch über Universitäten findet auch ein Wissenstransfer durch internationale Konzerne statt. Amerikanische Firmen, wie etwa Microsoft, sind auch in der Volksrepublik vertreten, andererseits gibt es Huawei-Standorte in den Staaten. Es bleibt also auf dem Feld spannend.
Auch interessant: