Immer mehr Wissenschaftler beschäftigen sich mit der Frage, warum KI halluziniert. Denn Sprachmodelle erfinden gelegentlich Informationen und lügen ihre Nutzer an. Mit einigen Tricks lassen sich solche Fehler vermeiden.
Chatbots und andere generative KI-Modelle können beeindruckend kreativ sein. Doch das kann zu Problemen führen, denn die meisten KI-Modelle „halluzinieren“. Heißt konkret: Sie erfinden Informationen oder fügen Details hinzu, die falsch oder schlichtweg erfunden sind.
Diese Eigenschaft ist sowohl faszinierend als auch problematisch zugleich – vor allem, wenn Endnutzer den Antworten zu viel Vertrauen schenken.
Neue Stellenangebote
Social-Media und Marketing-Manager:in Hans Timm Fensterbau GmbH & Co. KG in Berlin |
||
Social Media Manager Vertrieb (m/w/d) ARAG SE in Düsseldorf (40472) |
||
Content Manager Social Media (m/w/d) BWI GmbH in Berlin, Frankfurt, Hamburg, München, Nürnberg, Ulm, Bonn, Leipzig |
Ein Beispiel: Der Computerwissenschaftler Andy Zou berichtet, dass Chatbots oft falsche oder nicht existierende Studien als Quellen nennen. Das kann erhebliche Folgen haben, etwa wenn solche Informationen in wichtigen Entscheidungen einfließen. Aber warum „lügt“ KI?
Warum halluziniert KI?
Der Grund für KI-Halluzinationen liegt in der Funktionsweise von großen Sprachmodellen (LLMs). Denn die Systeme basieren auf riesigen Datenmengen und berechnen jedes Mal, welche Antwort statistisch am wahrscheinlichsten ist. Dabei kommt es jedoch zu einem Informationsverlust, weil die Modelle Daten komprimieren. In einigen Fällen führt das sogar zu komplett falschen Antworten.
Hinzu kommt, dass KI-Modelle oft so trainiert werden, dass sie „selbstbewusst“ auftreten – auch wenn sie im Unrecht sind. Ein Chatbot könnte beispielsweise eine falsche Aussage bestätigen, nur weil sie in den Kontext der Unterhaltung passt. Doch Forscher arbeiten bereits daran, diese „Halluzinationen“ zu minimieren. Eine Methode ist die sogenannte Retrieval-Augmented Generation (RAG).
Vertrauenswürdige Quellen und Reflexion als Lösung
Dabei greifen Chatbots auf eine vertrauenswürdige Quelle zurück, bevor sie antworten. Besonders in Bereichen wie der Medizin oder der Justiz hätte sich dieses Verfahren bereits bewährt. Allerdings bleibt es eine Herausforderung, da nicht alle Wissenslücken durch vorhandene Daten gedeckt werden können.
Eine andere Technik ist das sogenannte „Selbstreflektieren“. Chatbots können gezwungen werden, ihre Antworten zu überprüfen oder mehrstufig zu erklären. Das erhöht die Zuverlässigkeit, erfordert aber mehr Rechenleistung. Außerdem arbeiten Wissenschaftler daran, Chatbots durch neuronale „Scans“ oder systematische Prüfungen ihrer Antworten genauer zu machen.
Auch wenn KI immer besser wird, werden Chatbots jedoch nie ganz fehlerfrei sein. Daher gilt: Antworten von KI-Systemen sollten stets kritisch hinterfragt und überprüft werden, besonders in sensiblen Bereichen. Getreu dem Motto: Vertrauen ist gut, Kontrolle ist besser!
Auch interessant:
- Roboter erkennen menschliche Berührungen – ohne künstliche Haut
- Selbstheilendes Stromnetz: Künstliche Intelligenz soll Blackouts vermeiden
- KI-Lücke: Künstliche Intelligenz sorgt für eine noch tiefere „digitale Kluft“
- KI als Richter: Die Vorteile und Nachteile von Künstlicher Intelligenz in der Justiz
Neue Stellenangebote
Social-Media und Marketing-Manager:in Hans Timm Fensterbau GmbH & Co. KG in Berlin |
||
Social Media Manager Vertrieb (m/w/d) ARAG SE in Düsseldorf (40472) |
||
Content Manager Social Media (m/w/d) BWI GmbH in Berlin, Frankfurt, Hamburg, München, Nürnberg, Ulm, Bonn, Leipzig |
||
Social Media & Content Creator (w/m/d) Peter & Schaffart GmbH in Velbert |
||
Social Media Manager (Fokus: Community Management Supervision) (w/m/d) – befristete Elternzeitvertretung für 18 Monate Yello Strom GmbH in Köln |
||
Stellvertretender Pressesprecher (m/w/d) mit Schwerpunkt Social Media und Content-Management DEHOGA Bundesverband in Berlin |