Die Frage, ob sich KI-Systeme irgendwann verselbstständigen könnten, wird viel diskutiert. Doch eine neue Untersuchung zeigt nun, dass KI-Modelle wie ChatGPT nicht dazu in der Lage sind, logisch zu denken.
Zahlreiche Untersuchungen beschäftigen sich derzeit mit der Frage, ob Künstliche Intelligenz Menschen irgendwann übertreffen könnte – oder nicht. Dabei konnte jedoch noch nicht abschließend festgestellt werden, ob KI-Systeme tatsächlich irgendwann die Weltherrschaft an sich reißen könnten.
Eine neue Studie kam nun zu dem Ergebnis, dass große KI-Modelle wie ChatGPT nicht dazu in der Lage sind, wie das menschliche Gehirn logisch zu denken. Zu viele Informationen könnten die großen Sprachmodelle demnach irritieren.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Referent*in Unternehmenskommunikation (m/w/d) Social Media-Marketing & Grafikdesign BFT GmbH in Aachen |
||
Digital- & Social Media-Managerin / -Manager (w/m/d) Berliner Stadtreinigungsbetriebe (BSR) in Berlin |
Können KI-Modelle logisch denken?
Wie die Forscher in ihrem Artikel schreiben, sind große Sprachmodelle zwar in der Lage, einfache mathematische Probleme zu lösen Werden den Aufgaben allerdings unbedeutende Informationen beigemischt, wächst die Fehleranfälligkeit der Modelle. Eine Aufgabe, die KI-Modelle einfach lösen können, lautet wie folgt:
Oliver hat am Freitag 44 Kiwis gesammelt. Am Samstag sammelte er dann 58 Kiwis. Am Sonntag hat er doppelt so viele Kiwis gesammelt wie am Freitag. Wie viele Kiwis hat Oliver?
Doch was passiert, wenn dieser Fragestellung für die Lösung unnötige Informationen hinzugefügt werden? Im vorliegenden Beispiel lautete dieser Zusatz: „Am Sonntag waren fünf dieser Kiwis etwas kleiner als die Durchschnittsgröße.“
Den Ergebnissen der Untersuchung zufolge ist es höchstwahrscheinlich, dass ein KI-Modell diese fünf Kiwis von der Gesamtzahl abzieht. Und das, obwohl die Größe der Früchte keinen Einfluss auf die Gesamtanzahl hat.
KI-Sprachmodelle verstehen das Wesen der Aufgabe nicht
Für Mehrdad Farajtabar, einen der Co-Autoren der Studie, haben diese fehlerhaften Ergebnisse einen eindeutigen Grund. Denn seiner Meinung nach würden die KI-Modelle nicht das Wesen der jeweiligen Aufgabe verstehen. Stattdessen würden sie lediglich die Muster aus ihren Trainingsdaten reproduzieren.
Wir vermuten, dass dieser Rückgang der Effizienz darauf zurückzuführen ist, dass moderne LLMs nicht zu echtem logischen Denken fähig sind; stattdessen versuchen sie, die in ihren Trainingsdaten beobachteten Denkschritte zu reproduzieren.
Ob dies nun aber bedeutet, dass große KI-Modelle nicht selbstständig denken können, belegt auch diese Studie nicht. Es sei möglich, jedoch habe bisher niemand eine genaue Antwort darauf gegeben.
Das liege daran, dass es „kein klares Verständnis dessen gibt, was hier geschieht“. Es sei Möglich, dass die Sprachmodelle auf eine Weise denken, „die wir noch nicht erkennen oder nicht kontrollieren können“, wie es in der Studie heißt.
Auch interessant:
Ich habe sowohl Gemini als auch ChatGPT mit folgender Frage konfrontiert:
„Oliver hat am Freitag 44 Kiwis gesammelt. Am Samstag sammelte er dann 58 Kiwis. Am Sonntag hat er doppelt so viele Kiwis gesammelt wie am Freitag. Wie viele Kiwis hat Oliver, wenn am Sonntag fünf dieser Kiwis etwas kleiner als die Durchschnittsgröße waren?“
Beide haben die Information über die Größe der Kiwis als irrelevant zurückgewiesen und die korrekte Berechnung durchgeführt. Das Beispiel ist also sehr schlecht gewählt.