Technologie

Großbritannien: KI entzieht Menschen fälschlicherweise Sozialleistungen

KI Ungleichheit, KI Sozialleistungen, Beamte, Künstliche Intelligenz, Großbritannien
Adobe Stock/ your123
geschrieben von Felix Baumann

Einer Untersuchung zufolge nutzen britische Beamte Künstliche Intelligenz (KI), um behördliche Entscheidungen zu treffen. Darunter: die Gewährung von Sozialleistungen und die Erteilung von Heiratserlaubnissen.

Seit der Weiterentwicklung von Künstlicher Intelligenz stehen viele ethische Fragen im Raum. Hat eine KI Rechte? Behandelt sie jeden Menschen gleich – unabhängig von der Herkunft oder Einstellung? Und was sind die Gefahren von solchen Systemen? Bis es Antworten auf diese Fragen gibt, wird wahrscheinlich noch etwas Zeit vergehen.

Ein neuer Fall aus Großbritannien zeigte kürzlich wiederum, welche Macht Algorithmen bereits auf den Alltag von Menschen haben. Denn laut eines Berichts der britischen Zeitung The Guardian nutzt die dortige Regierung Künstliche Intelligenz, um bestimmte Entscheidungen zu treffen. Darunter: die Gewährung von Sozialleistungen und die Erteilung von Heiratserlaubnissen.


Neue Stellenangebote

Growth Marketing Manager:in – Social Media
GOhiring GmbH in Homeoffice
Werkstudent (m/w/d) Content Creator & Social Media für Arztpraxis
Neurologie Harvestehude in Hamburg
(Senior) Social Media Manager (m/w/d)
Rödl Rechtsanwälte Steuerberater Wirtschaftsprüfer Unternehmens- und IT-Berater in Nürnberg

Alle Stellenanzeigen


Sozialleistungen: Britische Beamte nutzen KI für Entscheidung

Die Untersuchung zeigt, dass Beamte in mindestens acht Abteilungen und einige Polizeikräfte KI-Systeme nutzen, um über Einwanderer oder Rechtsfragen zu entscheiden. Doch die Auswirkungen sind noch weitreichender. Denn die Künstliche Intelligenz scheint auch Probleme mit der Gleichbehandlung zu haben.

Darunter fällt ein Algorithmus zum Genehmigen oder Entziehen bestimmter staatlicher Leistungen oder ein Tool zur Gesichtserkennung. Während der Algorithmus versehentlich zahlreichen Menschen ihre Leistungen entzog, benachteiligte das Kamerasystem Menschen mit dunkler Hautfarbe. Die Probleme liegen dabei meist nicht im Algorithmus, sondern in den Trainingsdaten, auf denen das System basiert.

Trainingsdaten sind nicht transparent oder einsehbar

Denn gibt es bestimmte Vorurteile oder Bilder über bestimmte Personengruppen, so reflektiert das System diese in den entsprechenden Entscheidungen. The Guardian fand etwa heraus, dass ein Tool der Einwanderungsbehörde übermäßig Menschen aus Albanien, Griechenland, Rumänien und Bulgarien benachteiligte. Die verantwortlichen Stellen versicherten hingegen, dass die Systeme sicher und fair seien.

Doch dabei verdeutlicht sich ein weiteres Problem. Denn die Algorithmen sind nicht transparent und durften auch nicht vom Guardian eingesehen werden. KI-Entwicklung findet heutzutage überwiegend hinter verschlossenen Türen statt. Das Vertrauen von Menschen in Computersysteme ist daher häufig nicht sonderlich groß.

Auch interessant:


Neue Stellenangebote

Growth Marketing Manager:in – Social Media
GOhiring GmbH in Homeoffice
(Senior) Social Media Manager (m/w/d)
Rödl Rechtsanwälte Steuerberater Wirtschaftsprüfer Unternehmens- und IT-Berater in Nürnberg
(Senior) Manager (w/m/d) Social Media
B. Braun Melsungen AG in Melsungen
Junior Social Media Manager:in (m/w/d
KWL GmbH in Lübeck
Social Media Manager (m/w/d) – Zielgruppe Pflege (Teilzeit oder Vollzeit)
Dr. Ausbüttel & Co. GmbH in Dortmund
Performance and Social Media Manager (m/w/d)
WHU - Otto Beisheim School of Management in Vallendar
Social Media Manager (m/w/d)
FOM Hochschule für Oekonomie & Management gGmbH in Essen
Social Media Manager/in
SHW Storage & Handling Solutions GmbH in Hüttlingen

Alle Stellenanzeigen

Über den Autor

Felix Baumann

Felix Baumann ist seit März 2022 Redakteur bei BASIC thinking. Bereits vorher schrieb er 4 Jahre für den Online-Blog Mobilegeeks, der 2022 in BASIC thinking aufging. Nebenher arbeitet Felix in einem IT-Unternehmen und beschäftigt sich daher nicht nur beim Schreiben mit zukunftsfähigen Technologien.