Künstliche Intelligenz neigt gelegentlich dazu, falsche oder erfundene Informationen zu generieren. In solchen Fällen sprechen Experten davon, dass ein Sprachmodell halluziniert. Doch was genau sind KI-Halluzinationen?
Im Bereich Künstliche Intelligenz wurden in den vergangenen Jahren enorme Fortschritte erzielt. Vor allem generative KI und große Sprachmodelle (Large Language Models) wie ChatGPT oder Google Gemini sind in der Lage, Texte, Bilder, Videos und sogar Musik zu generieren.
Doch trotz dieser durchaus beeindruckenden Fähigkeiten gibt es eine zentrale Schwachstelle dieser Systeme: sogenannte KI-Halluzinationen. Dieser Begriff beschreibt eine Art von Fehlern, bei denen einen KI Inhalte erzeugt, die zwar realistisch erscheinen, aber faktisch falsch oder erfunden sind.
Laut Fraunhofer Institut für Experimentelles Software Engineering treten Halluzinationen in KI-Systemen auf, wenn ein KI-Modell Informationen generiert, die nicht mit der Realität oder den zugrunde liegenden Daten übereinstimmen. Doch es gibt verschiedene Ursachen für das Phänomen.
Was sind KI-Halluzinationen?
Die Trainingsdaten sind die Grundlage und ein wichtiger Faktor für ein gut funktionierendes KI-System. Der Hintergrund: Unternehmen trainieren Künstliche Intelligenz mit riesigen Datenmengen, die aus dem Internet, Büchern, wissenschaftlichen Artikeln oder anderen Quellen stammen.
Sind diese Daten fehlerhaft, veraltet oder unvollständig, kann sich ein Modell falsche Informationen aneignen und diesespäter wiedergeben. Ein weiteres Problem tritt auf, wenn Nutzer ein KI-System mit sehr spezifischen Fragen oder einem Thema, zu dem es nur wenig Informationen gibt, konfrontieren.
Darunter fallen etwa wissenschaftliche Fachfragen oder wenig erforschte historische Ereignisse. In solchen Fällen versucht die KI, eine plausible Antwort zu generieren – auch wenn sie keine verlässlichen Daten dazu hat. Neben den Daten spielt auch die Art und Weise, wie KI-Modelle Inhalte generieren, eine Rolle.
Sprachmodelle wie ChatGPT arbeiten etwa probabilistisch. Das heißt, sie wählen die wahrscheinlichste Wortfolge aus, die auf eine Anfrage passt. Wenn eine KI also eine Antwort formuliert, nutzt sie mathematische Wahrscheinlichkeiten statt echtes Wissen oder Verständnis. Das kann dazu führen, dass sie Flaschinformationen oder sogar völlig erfundene Inhalte produziert.
Künstliche Intelligenz erfindet Informationen
Ein klassisches Beispiel für eine KI-Halluzination ist das Erfinden von Quellen oder Zitaten. Fragt man ein Sprachmodell etwa nach einer wissenschaftlichen Studie, die eine bestimmte These belegt, kann es passieren, dass die KI eine seriös klingende, aber völlig erfundene Publikation zitiert.
Darunter fallen auch nicht existierende Autornamen und einer falschen DOI-Indintifikationsnummern. Solche Fehler können für wissenschaftliche Arbeiten oder journalistische Recherchen problematisch sein. Auch bei der Bildgenerierung treten häufig Halluzinationen auf.
Frühere Versionen von KI-Bildgeneratoren hatten beispielsweise große Probleme mit der Darstellung menschlichen Hände. Sie generierten häufig Bilder von Menschen mit sechs oder mehr Fingern, da sie Schwierigkeiten hatten, die anatomischen Strukturen korrekt nachzubilden.
Noch kritischer wird es, wenn KI in sensiblen Bereichen wie der Medizin oder Justiz eingesetzt wird. Denn falsche Diagnosen oder irreführende rechtliche Einschätzungen können schwerwiegende Konsequenzen haben, wenn Nutzer diese als vertrauenswürdige Informationen behandeln.
KI-Halluzinationen erkennen und vermeiden
Das Erkennen von Halluzinationen ist nicht immer einfach, da die generierten Inhalte oft sehr überzeugend wirken. Trotzdem gibt es Strategien, um die Fehlerwahrscheinlichkeit zu reduzieren. Wenn eine KI eine Behauptung aufstellt, sollte man versuchen, diese durch unabhängige und seriöse Quellen zu verifizieren. Manchmal kann es auch helfen, dieselbe Frage mehreren KI-Modellen zu stellen. Falls die Antworten stark variieren, ist Vorsicht geboten.
Eine technische Lösung besteht darin, Sprachmodelle mit externen Datenbanken zu verknüpfen. Dadurch kann die KI nicht nur aus ihrem internen Wissen schöpfen, sondern gezielt auf verlässliche Quellen zugreifen. Vor allem in kritischen Bereichen sollten KI-generierte Inhalte jedoch immer von Experten überprüft werden, bevor sie weiterverwendet werden.
Fazit: KI-Halluzinationen sind problematisch, aber ein lösbares Problem
KI-Halluzinationen stellten ein großes Problem dar, das die Verlässlichkeit generativer KI einschränkt. Allerdings gibt es bereits Forschungsansätze, um diese Fehler zu minimieren – sei es durch bessere Trainingsmethoden, den Einsatz von Faktenprüfungssystemen oder die Integration externer Wissensquellen.
Solange KI-Modelle nicht zwischen Wahrheit und Fiktion unterscheiden können, ist es aber notwendig, Antworten kritisch zu hinterfragen.
Mit einem bewussten Umgang und der richtigen Strategie lassen sich viele Fehler erkennen und vermeiden. Die Entwicklung generativer KI ist aber auch lange noch nicht abgeschlossen. Heißt konkret: Die Fähigkeit von KI-Systemen werden sich weiter verbessern, um Halluzinationen zu reduzieren und KI-Systeme präziser und vertrauenswürdiger zu machen.
Auch interessant: