Künstliche Intelligenz findet bereits in vielen Bereichen des täglichen Lebens Anwendung. Doch laut einer neuen Studie könnte der Einsatz von KI in der Schule zur Diskriminierung von Schülern führen.
Künstliche Intelligenz wird vermehr auch im Bildungsbereich eingesetzt. Doch eine Studie, die im Auftrag der niederländischen Regierung durchgeführt wurde, warnt nun vor Diskriminierung.
Denn laut den Ergebnissen könne der Einsatz von Algorithmen in der Bildungstechnologie zur Benachteiligung bestimmter Gruppen führen. Die Studie weist darauf hin, dass Lernsysteme, die KI nutzen, bestimmte Schüler:innen benachteiligen können, obwohl sie ihnen eigentlich personalisiert Bildungsinhalte bieten sollen.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
ournalist (m/w/d) als Leiter PR und Social-Media NOMOS Glashütte/SA Roland Schwertner KG in Berlin |
||
Head of Social Media (m/w/d) Deichmann SE in Mülheim an der Ruhr (45478) |
Benachteiligung durch KI in der Schule
Die Forschenden haben für ihre Studie untersucht, welchen Einsatz Algorithmen in der Grundschule sowie in höheren Bildungsbereichen finden. Demnach nutzen viele Schulen in den Niederlanden adaptive Lernsysteme, die ihre Übungen automatisch an die Leistungen der Schüler:innen anpassen.
Diese Lernsysteme sind darauf ausgelegt, Schüler:innen gezielt zu unterstützen. Sind diese Systeme allerdings schlecht konzipiert, sei es möglich, bestehende Vorurteile zu verstärken.
„Leider spielen Vorurteile gegenüber bestimmten Schülergruppen im Bildungswesen bereits eine Rolle“, heißt es in dem Bericht des Niederländischen Instituts für Menschenrechte aus dem die NL Times zitiert. Schüler:innen aus einkommensschwachen Familien oder deren Eltern oder Großeltern in die Niederlande eingewandert sind werden demnach niedrigere Schulempfehlungen ausgesprochen – unabhängig von ihren Testergebnissen.
Um dieses Problem zu beheben und die Ungleichheiten nicht weiter zu verstärken, müsse man die Systeme „rigoros an unterschiedlichen Schülerpopulationen“ testen.
KI-Systeme schätzen Lernstile falsch ein
Problematisch sei auch die Einschätzung der Lernstile von einzelnen Schüler:innen, wenn diese von der Norm abweichen. Die Systeme stufe Kinder mit Aufmerksamkeitsdefiziten oder Legasthenie falsch ein und könne es so in seinem Fortschritt behindern.
„Jeder Schüler hat das Recht, sich zu entwickeln und in der Bildung gleich behandelt zu werden“, heißt es in dem Bericht. Dafür sei es besonders wichtig, die Implementierung von KI-gestützten Lernsystemen kritisch zu bewerten.
Schulen müssen und können den Softwareanbietern Anforderungen in den Bereichen Gleichbehandlung, Datenschutz, Autonomie und Transparenz auferlegen.
Aber nicht nur die Schulen seien dabei gefragt. Das Niederländische Institut für Menschenrechte nimmt auch die Politik in die Verantwortung. Diese müsse eine aktivere Rolle in diesem Prozess spielen und klare Standards für Entwickler:innen von Bildungssoftware festlegen.
Auch interessiert: