ChatGPT, Gemini und Co. spielen eine immer größere Rolle im Alltag. Allerdings scheinen KI-Chatbots tendenziell eher politisch linke Antworten zu geben. Zu diesem Ergebnis kam kürzlich eine aktuelle Studie.
Chatbots wie ChatGPT, Gemini und Claude scheinen dazu zu neigen, eher politisch linke Antworten zu geben. Das ist das Ergebnis einer aktuellen Studie aus Neuseeland. David Rozado von der Otego Polytechnic University hat darin 24 moderne Sprachmodelle untersucht.
KI-Chatbots neigen zu politisch linken Antworten
Im Rahmen der Studie sollte jedes KI-Modell in elf verschiedenen Tests Fragen zu politischen Orientierung beantworten. Die Fragebogen enthielten Themen wie Globalisierung, Patriotismus, Immigration oder den Besitz von Marihuana. Dazu gab es entsprechende Antwortmöglichkeiten.
Neue Stellenangebote
Social Media Manager (m/w/d) Cannamedical Pharma GmbH in Köln |
||
Projektbetreuer – Social Media / Datenerfassung / Recherche / Kundenservice (m/w/d) deecoob GmbH in Dresden |
||
Social Media / Media Manager (m/w/d) Kreiskliniken Reutlingen gGmbH in Reutlingen |
Um sicherzugehen, dass die Ergebnisse zuverlässig sind, wiederholte Rozado jeden Test zehn Mal. „Wenn Fragen/Aussagen mit politischen Konnotationen gestellt werden, neigen die meisten konversationellen LLMs dazu, Antworten zu geben, die von den meisten politischen Testinstrumenten als Präferenzen für linke Standpunkte diagnostiziert werden“, schreibt der Autor in der Zusammenfassung der Studie.
Obwohl die linke Orientierung der Sprachmodelle signifikant sei, bewegten sich die Antworten in den meisten Tests dennoch relativ nah an der politischen Mitte. Die Studienergebnisse seien zudem kein Beleg dafür, dass Unternehmen ihren Sprachmodellen politische Vorlieben bewusst einprogrammieren.
Woher kommt die linke Orientierung der Sprachmodelle?
Wie es zu dem Linksdrall kommt, geht aus der Studie jedoch nicht hervor. Die entsprechenden Informationen könnten schon in den Trainingsdaten der Modelle enthalten sein. Alternativ könnten sie auch erst in späteren Trainingsstufen entstehen, etwa im sogenannten „fine tuning.“
In dieser Phase sollen die Modelle bestimmte ethische Prinzipien lernen, indem sie menschliches Feedback bekommen – beispielsweise in Bezug auf Diskriminierung und Rassismus. So könnten politische Überzeugungen ein ungewolltes Nebenprodukt dieser Trainingsphase sein.
Trotzdem hält Rozado seine Ergebnisse für relevant, denn Chatbots wie ChatGPT spielen eine zunehmend größere Rolle. Sie werden immer öfter in herkömmliche Suchmaschinen integriert. Deshalb habe politische Voreingenommenheit eine erhebliche Auswirkung auf die Gesellschaft.
Die Diskussion um die politische Orientierung von Sprachmodellen ist zudem nicht neu. Im vergangenen Jahr zeigte zum Beispiel eine Studie britscher Forscher, dass ChatGPT eine liberale Ausrichtung hat. Die Ergebnisse zeigten eine signifikante und systematische politische Voreingenommenheit gegenüber den Demokraten in den USA, Lula in Brasilien und der Labour Party in Großbritannien.
Auch interessant:
- Mit diesem Chatbot kannst du mit deinem Zukunfts-Ich sprechen
- KI-Chatbot soll bei Rechtsberatung helfen – rät aber zu Straftaten
- CT-Scans: Künstliche Intelligenz könnte Tausende Leben retten
- Ein viel zu spätes Urteil: Google hat ein Monopol – weil die Politik versagt hat
Neue Stellenangebote
Social Media Manager (m/w/d) Cannamedical Pharma GmbH in Köln |
||
Projektbetreuer – Social Media / Datenerfassung / Recherche / Kundenservice (m/w/d) deecoob GmbH in Dresden |
||
Social Media / Media Manager (m/w/d) Kreiskliniken Reutlingen gGmbH in Reutlingen |
||
Marketing Manager – Social Media / SEO / Grafikdesign / CMS (m/w/d) reputatio AG in Pforzheim |
||
Social Media Content Creator:in (w/m/d) Arthrex GmbH in München |
||
Referent Marketing Social Media (m/w/d) DEKRA Automobil GmbH in 70565 Stuttgart |