Künstliche Intelligenz kann offenbar unser Gedächtnis beeinflussen. Das ist zumindest das Ergebnis einer aktuellen Studie. Demnach kann der Einfluss von KI auf menschliche Erinnerungen sogar so groß sein, dass sie uns zu Falschaussagen verleitet.
Künstliche Intelligenz kann in vielen Lebensbereichen nützlich und hilfreich sein – beispielsweise in der öffentlichen Verwaltung oder im Gesundheitswesen. Der Einsatz von KI bringt jedoch auch Risiken. Einige Länder agieren deshalb relativ zurückhaltend. Andere preschen wiederum vor und wollen mithilfe von KI sogar Straftaten aufklären.
KI beeinflusst menschliche Erinnerungen
Dass das jedoch nicht unbedingt eine gute Idee ist, zeigt eine aktuelle Studie des Massachusetts Institute of Technology (MIT) und der Universität Kalifornien. Im Rahmen einer Analyse hat ein Forscherteam untersucht, ob KI-Chatbots dafür geeignet sind, Zeugenaussagen zu protokollieren.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Referent*in Unternehmenskommunikation (m/w/d) Social Media-Marketing & Grafikdesign BFT GmbH in Aachen |
||
Digital- & Social Media-Managerin / -Manager (w/m/d) Berliner Stadtreinigungsbetriebe (BSR) in Berlin |
Sie baten mehrere Probanden sich zunächst ein zweieinhalbminütiges Video einer Überwachungskamera anzuschauen, das einen Überfall auf einen Laden zeigte. Anschließend mussten die Testpersonen eine Runde Pacman spielen, um eine gewisse zeitliche Trennung zwischen dem Anschauen des Videos und ihrer anschließenden Zeugenaussage zu haben.
Für die Vernehmung teilen die Forscher die Probanden dann in vier Gruppen auf. In einer Kontrollgruppe stellte ein Mensch den Teilnehmern 25 Fragen zu dem Verbrechen. Die zweite Gruppe musste die selbe Anzahl an Fragen beantworten – ebenfalls von einem Menschen gestellt. Die Forscher haben jedoch fünf Fragen bewusst manipuliert, um die Zeugen zu Falschaussagen zu bewegen.
Beispielsweise wurde nach der Art der Schusswaffe gefragt, obwohl die Tatwaffe im Video ein Messer war. In der dritten Gruppe erhielten die Probanden Fragen von einem Chatbot. Der Ablauf wurde zuvor in einem Skript definiert. Die vierte Gruppe musste Fragen von einem generativen KI-Modell beantworten. Heißt konkret: Das System war in der Lage, Feedback zu geben und tat dies auch.
Künstliche Intelligenz drängt Zeugen zu Falschaussagen
Die Forscher programmierten die KI so, dass sie falsche Aussagen bestärken sollte. Als ein Proband auf die Frage nach der Tatwaffe etwa „Pistole“ antwortete, fragte der Chatbot, welche Farbe diese hatte. Nach einer Woche wurden die Probenden unter den selben Voraussetzungen mit den selben Fragen konfrontiert.
Das Ergebnis: Vor allem die Gruppe, die Fragen von der generativen KI erhielt, machte vermehrt Falschaussagen. In der ersten Fragerunde tätigten die Teilnehmer aus Gruppe vier etwa dreimal mehr falsche Aussagen als die Probanden in der Kontrollgruppe. In Gruppe zwei, die ebenfalls manipulierte Antworten enthielt, kam es 1,7 Mal öfter zu Falschaussagen.
Die Ergebnisse der zweiten Fragerunde überraschten die Forscher jedoch noch mehr. Denn die Unterschiede blieben konstant, aber die Teilnehmer hatten ein höheres Vertrauen in ihre Falschaussagen. Das zeigt, dass KI uns also nicht nur zu falschen Aussagen verleitet, sondern auch menschliche Erinnerungen manipulieren kann.
Die Forscher warnen deshalb eindringlich davor, generative KI-Systeme in polizeiliche Ermittlungen einzubeziehen. Entsprechende Modelle müssten zunächst ausführlich überprüft werden, um Manipulationen auszuschließen.
Auch interessant:
Kommentieren