Der KI-Chatbot „ChatGPT“ generiert Texte, die sich von menschlichen kaum unterscheiden lassen. Neben einer Künstlichen Intelligenz bedarf es dafür unzählige Trainingsdaten. Doch die stammen unter anderem aus Kenia. Billiglohnarbeiter mussten dort offenbar traumatisierende Texte lesen, um die KI zu optimieren.
ChatGPT sorgt derzeit für Furore. Denn die Künstliche Intelligenz liefert erstaunliche Texte und Ergebnisse, die sich von menschlichen kaum noch unterscheiden lassen. Doch dafür bedarf es nicht nur Algorithmen, sondern auch unzählige Trainingsdaten.
Das Problem bisheriger KI-Modelle: Sie können Vorurteile, Falschinformationen und Hass und Hetz im Netz nicht einordnen beziehungsweise vermeiden. Doch damit ChatGPT genau das gelingt, setzt Entwickler OpenAI vor allem auf menschliche Eingaben, um die KI zu trainieren.
Neue Stellenangebote
Mitarbeiter*in (m/w/d) für Social Media, Öffentlichkeitsarbeit und Städtepartnerschaft (m/w/d) meinestadt.de in Sachsenheim |
||
Content Creator / Social Media / Marketing (m/w/d) Delitzscher Schokoladenfabrik GmbH in Delitzsch |
||
Content Creator / Social Media / Marketing (m/w/d) Halloren Schokoladenfabrik AG in Delitzsch |
ChatGPT: Das schmutzige Geschäft mit Billiglohnarbeitern aus Kenia
Doch so löblich das zunächst auch klingen mag, desto unlöblicher scheint die Realität. Denn wie das Time-Magazine berichtet, hat OpenAI das Datenunternehmen Sama angeheuert, das seinen Hauptsitz ebenfalls in San Francisco hat, um ChatGPT mit Trainingsdaten zu versorgen.
Die Angestellten von Sama agieren jedoch überwiegend aus Ländern wie Kenia, Uganda und Indien. Der Knackpunkt: Das Unternehmen beschäftigte seit November 2021 im Auftrag von OpenAI rund drei Dutzend Billiglohnarbeiter aus Kenia. Je nach Dienstalter und Leistung erhielten sie dafür zwischen 1,32 und 1,5 US-Dollar Stundenlohn.
ChatGPT: Sama-Mitarbeiter bezeichnet Inhalte als „Folter“
Laut Times entspricht das zwar ungefähr dem Gehalt einer Empfangsangestellten in einem Hotel in der kenianischen Hauptstadt Nairobi. Allerdings ließ sich OpenAI die Dienste von Sama offenbar einen vertraglich vereinbarten Stundensatz in Höhe von 12,50 US-Dollar – und damit neun Mal mehr – kosten.
Ein Sama-Sprecher rechtfertigte die große Differenz derweil mit der Begründung, dass das Unternehmen damit sämtliche Kosten hätte abdecken müssen. Prekär: Die Arbeiter mussten sich dafür jedoch mit teilweise traumatisierenden Texten und Inhalten auseinandersetzen. Darunter: Mord, Tierquälerei und sexualisierte Gewalt (auch gegen Kinder).
Ein Sama-Mitarbeiter bezeichnete die Inhalte gegenüber dem Times-Magazine sogar als Folter. Dem Bericht zufolge sei die Darstellung einiger Inhalte laut US-amerikanischen Gesetz zudem verboten. Die Arbeitsbedingungen in Kenia seien außerdem schlecht und hätten nicht dem US-Mindestlohn entsprochen – und das obwohl OpenAI und Sama beide im Silicon Valley sitzen.
OpenAI widerspricht nicht – Sama beendet Zusammenarbeit vorzeitig
OpenAI hat den Vorwürfen bislang nicht widersprochen. Im Gegenteil: Das Unternehmen teilte Berichten zufolge in einer Stellungnahme mit, dass solche Trainingsdaten essenziell seien:
Die Klassifizierung und das Filtern von schädlichen Inhalten ist ein notwendiger Schritt zur Minimierung von gewalttätigen und sexuellen Inhalten in Trainingsdaten sowie bei der Entwicklung von Tools, die so etwas entdecken können.
Sama hat den Vetrag mit OpenAI mittlerweile vorzeitig aufgelöst – rund acht Monate vor dessen Ablauf. Das Unternehmen teilte seinerseits mit, dass es seine Richtlinien überarbeitet habe und aus dem Geschäft mit der Moderation von Inhalten aussteigen wolle.
Auch interessant: