Künstliche Intelligenz ist darauf ausgelegt, richtige und kluge Antworten zu geben. Doch der Schein kann trügen. Denn dank dem Kluger-Hans-Effekt liefert KI oft Ergebnisse, ohne diese tatsächlich zu „verstehen“. Das kann durchaus problematisch sein.
Große KI-Modelle sind darauf ausgelegt, Fragen zu beantworten und Probleme zu lösen. Damit sie dazu in der Lage sind, müssen sie zunächst mit unzähligen Daten trainiert werden.
Dafür gibt es verschiedene Vorgehensweisen, beispielsweise das Supervised Learning oder das Unsupervised Learning – also überwachtes oder nicht überwachtes Lernen. Doch gerade beim umüberwachten Lernen können Probleme auftreten, die zu gefährlichen Fehlern führen können.
Ein Forschungsteam der TU Berlin warnt davor, dass vor allem beim Unsupervised Learning von KI der sogenannte Kluger-Hans-Effekt auftreten kann. Dieser führt zwar dazu, dass KI-Modelle richtige Antworten geben, dies aber aus den falschen Gründen tun.
KI: Was ist der Kluger-Hans-Effekt?
Tritt der Kluger-Hans-Effekt bei einem KI-Modell ein, ist er für Nutzer zunächst nicht bemerkbar. Denn das Modell erkennt das richtige Muster und gibt dementsprechend auch die richtige Antwort aus. Allerdings stehen dafür keine fundierten Quellen im Hintergrund, sondern beispielsweise handschriftliche Notizen.
Für ihre Untersuchung haben die Forscher der TU Berlin ein KI-Modell genau auf diese Schwachstelle getestet. Anhand von Röntgenbildern der Lunge sollte das Modell unterscheiden, bei welchen Patienten eine Infektion vorliegt und bei welchen nicht.
Anfänglich zeigte die untersuchte KI gute Ergebnisse. Allerdings nur, solange die Röntgenbilder relativ einheitlich waren. Als die Forscher auf weniger einheitliche Röntgenbildern zurückgreifen mussten, gab es in den Ergebnissen zahlreiche Fehler.
Das Problem lag im Training des KI-Modells. Denn dieses hatte nie gelernt, Infektionen der Lunge in Röntgenbildern zu erkennen. Stattdessen hat es Notizen am Bildrand genutzt, um zu unterscheiden, ob eine Infektion vorliegt oder nicht. Diese Vorgehensweise wird in der Psychologie Kluger-Hans-Effekt bezeichnet, der auch für KI-Systeme anwendbar ist. Der Effekt wurde nach einem Pferd benannt, das angeblich rechnen und buchstabieren konnte.
Es hat bei Tests immer so lange mit dem Huf aufgetreten, bis ihm die richtige Antwort vorlag. Allerdings konnte das Pferd mit dem Namen Hans natürlich weder rechnen noch buchstabieren. Es hatte lediglich gelernt, den Fragesteller so genau zu beobachten, dass es antizipieren konnte, wie viele Hufklopfer von ihm erwartet wurden. Dafür nahm es die Mimik des Gegenübers genau wahr.
Vorgetäuschtes Wissen
War hingegen kein Fragesteller anwesend, kam es zu zahlreichen Fehlern bei der Lösung der Aufgaben durch das Pferd. Dieser Effekt tritt nun auch bei KI-Modellen auf, wenn sie beispielsweise nicht auf handschriftliche Hinweise zurückgreifen können.
Der Kluger-Hans-Effekt kann für KI-Modelle langfristig zu vielen Problemen führen. Vor allem, da sie immer öfter für wichtige Entscheidungen eingesetzt werden.
So beispielsweise im medizinischen Bereich, wie die Untersuchung der TU Berlin gezeigt hat. Denn wird KI eingesetzt, um Diagnosen zu stellen, müssen sich die Anwender darauf verlassen können, dass am Ende das richtige Ergebnis herauskommt.
Der Kluger-Hans-Effekt tritt vor allem beim Training von KI auf, wenn diese selbst nach neuen Mustern in Datensätzen sucht, die vielleicht für den Menschen viel zu komplex sind. Allerdings kommt es dabei oft dazu, dass KI ihr Wissen vortäuscht und nur so tut, als könne sie Probleme lösen. Das kann vor allem dann gefährlich werden, wenn KI in Bereichen wie Bildung, Medizin oder Sicherheit zum Einsatz kommt.
Auch interessant: