Einer Untersuchung zufolge nutzen britische Beamte Künstliche Intelligenz (KI), um behördliche Entscheidungen zu treffen. Darunter: die Gewährung von Sozialleistungen und die Erteilung von Heiratserlaubnissen.
Seit der Weiterentwicklung von Künstlicher Intelligenz stehen viele ethische Fragen im Raum. Hat eine KI Rechte? Behandelt sie jeden Menschen gleich – unabhängig von der Herkunft oder Einstellung? Und was sind die Gefahren von solchen Systemen? Bis es Antworten auf diese Fragen gibt, wird wahrscheinlich noch etwas Zeit vergehen.
Ein neuer Fall aus Großbritannien zeigte kürzlich wiederum, welche Macht Algorithmen bereits auf den Alltag von Menschen haben. Denn laut eines Berichts der britischen Zeitung The Guardian nutzt die dortige Regierung Künstliche Intelligenz, um bestimmte Entscheidungen zu treffen. Darunter: die Gewährung von Sozialleistungen und die Erteilung von Heiratserlaubnissen.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Mitarbeiter (m/w/d) Marketing mit Schwerpunkt Social Media und Videoproduktion meinestadt.de in Weimar |
||
Social Media Manager (m/w/d) IG Metall in Frankfurt am Main |
Sozialleistungen: Britische Beamte nutzen KI für Entscheidung
Die Untersuchung zeigt, dass Beamte in mindestens acht Abteilungen und einige Polizeikräfte KI-Systeme nutzen, um über Einwanderer oder Rechtsfragen zu entscheiden. Doch die Auswirkungen sind noch weitreichender. Denn die Künstliche Intelligenz scheint auch Probleme mit der Gleichbehandlung zu haben.
Darunter fällt ein Algorithmus zum Genehmigen oder Entziehen bestimmter staatlicher Leistungen oder ein Tool zur Gesichtserkennung. Während der Algorithmus versehentlich zahlreichen Menschen ihre Leistungen entzog, benachteiligte das Kamerasystem Menschen mit dunkler Hautfarbe. Die Probleme liegen dabei meist nicht im Algorithmus, sondern in den Trainingsdaten, auf denen das System basiert.
Trainingsdaten sind nicht transparent oder einsehbar
Denn gibt es bestimmte Vorurteile oder Bilder über bestimmte Personengruppen, so reflektiert das System diese in den entsprechenden Entscheidungen. The Guardian fand etwa heraus, dass ein Tool der Einwanderungsbehörde übermäßig Menschen aus Albanien, Griechenland, Rumänien und Bulgarien benachteiligte. Die verantwortlichen Stellen versicherten hingegen, dass die Systeme sicher und fair seien.
Doch dabei verdeutlicht sich ein weiteres Problem. Denn die Algorithmen sind nicht transparent und durften auch nicht vom Guardian eingesehen werden. KI-Entwicklung findet heutzutage überwiegend hinter verschlossenen Türen statt. Das Vertrauen von Menschen in Computersysteme ist daher häufig nicht sonderlich groß.
Auch interessant: