Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du der Datenschutzerklärung zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
KI Erinnerungen Falschaussagen Künstliche Intelligenz
TECH

KI kann Erinnerungen beeinflussen – und uns zu Falschaussagen verleiten

Fabian Peters
Aktualisiert: 05. September 2024
von Fabian Peters
Adobe Stock/ Ann
Teilen

Künstliche Intelligenz kann offenbar unser Gedächtnis beeinflussen. Das ist zumindest das Ergebnis einer aktuellen Studie. Demnach kann der Einfluss von KI auf menschliche Erinnerungen sogar so groß sein, dass sie uns zu Falschaussagen verleitet. 

Künstliche Intelligenz kann in vielen Lebensbereichen nützlich und hilfreich sein – beispielsweise in der öffentlichen Verwaltung oder im Gesundheitswesen. Der Einsatz von KI bringt jedoch auch Risiken. Einige Länder agieren deshalb relativ zurückhaltend. Andere preschen wiederum vor und wollen mithilfe von KI sogar Straftaten aufklären.

KI beeinflusst menschliche Erinnerungen

Dass das jedoch nicht unbedingt eine gute Idee ist, zeigt eine aktuelle Studie des Massachusetts Institute of Technology (MIT) und der Universität Kalifornien. Im Rahmen einer Analyse hat ein Forscherteam untersucht, ob KI-Chatbots dafür geeignet sind, Zeugenaussagen zu protokollieren.

UPDATE: Das Tech-Briefing

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Apple AirPods 4 gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

  • 5 Minuten pro Tag
  • 100% kostenlos
  • Exklusive PDF-Guides

Sie baten mehrere Probanden sich zunächst ein zweieinhalbminütiges Video einer Überwachungskamera anzuschauen, das einen Überfall auf einen Laden zeigte. Anschließend mussten die Testpersonen eine Runde Pacman spielen, um eine gewisse zeitliche Trennung zwischen dem Anschauen des Videos und ihrer anschließenden Zeugenaussage zu haben.

Für die Vernehmung teilen die Forscher die Probanden dann in vier Gruppen auf. In einer Kontrollgruppe stellte ein Mensch den Teilnehmern 25 Fragen zu dem Verbrechen. Die zweite Gruppe musste die selbe Anzahl an Fragen beantworten – ebenfalls von einem Menschen gestellt. Die Forscher haben jedoch fünf Fragen bewusst manipuliert, um die Zeugen zu Falschaussagen zu bewegen.

Beispielsweise wurde nach der Art der Schusswaffe gefragt, obwohl die Tatwaffe im Video ein Messer war. In der dritten Gruppe erhielten die Probanden Fragen von einem Chatbot. Der Ablauf wurde zuvor in einem Skript definiert. Die vierte Gruppe musste Fragen von einem generativen KI-Modell beantworten. Heißt konkret: Das System war in der Lage, Feedback zu geben und tat dies auch.

Künstliche Intelligenz drängt Zeugen zu Falschaussagen

Die Forscher programmierten die KI so, dass sie falsche Aussagen bestärken sollte. Als ein Proband auf die Frage nach der Tatwaffe etwa „Pistole“ antwortete, fragte der Chatbot, welche Farbe diese hatte. Nach einer Woche wurden die Probenden unter den selben Voraussetzungen mit den selben Fragen konfrontiert.

Das Ergebnis: Vor allem die Gruppe, die Fragen von der generativen KI erhielt, machte vermehrt Falschaussagen. In der ersten Fragerunde tätigten die Teilnehmer aus Gruppe vier etwa dreimal mehr falsche Aussagen als die Probanden in der Kontrollgruppe. In Gruppe zwei, die ebenfalls manipulierte Antworten enthielt, kam es 1,7 Mal öfter zu Falschaussagen.

Die Ergebnisse der zweiten Fragerunde überraschten die Forscher jedoch noch mehr. Denn die Unterschiede blieben konstant, aber die Teilnehmer hatten ein höheres Vertrauen in ihre Falschaussagen. Das zeigt, dass KI uns also nicht nur zu falschen Aussagen verleitet, sondern auch menschliche Erinnerungen manipulieren kann.

Die Forscher warnen deshalb eindringlich davor, generative KI-Systeme in polizeiliche Ermittlungen einzubeziehen. Entsprechende Modelle müssten zunächst ausführlich überprüft werden, um Manipulationen auszuschließen.

Auch interessant: 

  • Modellkollaps: Killt KI sich selbst – und das Internet gleich mit?
  • Studie: KI kann nicht kontinuierlich dazulernen – Training startet stets bei Null
  • Theorie bricht zusammen: Funktionieren Windräder bald ganz anders?
  • Wie funktioniert eigentlich ein Wasserkraftwerk?
Kleines Kraftwerk

Anzeige

STELLENANZEIGEN
Corporate Communications / PR & Content C...
Hackforth Holding GmbH & Co. KG in Herne
Social Media Specialist (m/w/d)
Falken Tyre Europe GmbH in Offenbach
Praktikant*in Digital Transformation Supply C...
Mercedes-Benz AG in Böblingen
Social Media Manager (d/m/w) für die Presse- ...
Stadt Celle in Celle
Referent/-in (m/w/d) Digitales, Technologietr...
HESSENMETALL - Verband der Metall... in Frankfurt am...
Marketing Manager mit Online-Kompetenz (m/w/d)
sieger design GmbH & Co. KG in Sassenberg bei Münster

Du willst solche Themen nicht verpassen? Mit dem BASIC thinking UPDATE, deinem täglichen Tech-Briefing, starten über 10.000 Leser jeden Morgen bestens informiert in den Tag. Jetzt kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

THEMEN:Künstliche Intelligenz
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonFabian Peters
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).
Kleines Kraftwerk

Anzeige

EMPFEHLUNG
Online-Speicher Internxt
Einmal zahlen, ein Leben lang Online-Speicher erhalten
Anzeige TECH
UPDATE: DAS TECH-BRIEFING

Jeden Tag bekommen 10.000+ Vordenker von uns die wichtigsten Tech-News direkt in die Inbox. Abonniere jetzt dein kostenloses Tech-Briefing:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

iPhone 16 verschiedene Farben Preis Vergleich
MONEYTECH

iPhone-Preis: In diesen Ländern ist das iPhone am teuersten

Effizientere Elektromotoren
TECH

Forscher entschlüsseln Energieverlust von Elektroautos

Wasserstoff Verkehr Autoindustrie Stellantis
Break the NewsTECH

Aus der Traum: Der große Wasserstoff-Irrtum der Autoindustrie

ChatGPT Passwort ändern wo wie
TECH

ChatGPT: Passwort ändern – so geht’s

beglaubigte Übersetzung-2
AnzeigeTECH

Digitalisierung traditioneller Dienstleistungen: Wie sich die beglaubigte Übersetzung verändert

Meta Mark Zuckerberg KI Strategie Rechenzentren
Break the NewsTECH

KI-Strategie von Meta: Mark Zuckerberg packt die Brechstange aus

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?