Technologie

Studie offenbart: KI-Sprachmodelle können kein Eigenleben entwickeln

KI Künstliche Intelligenz, KI Eigenleben, KI-Sprachmdelle kein Eigenleben
Adobe Stock / Thitichaya
geschrieben von Maria Gramsch

Forschende warnen immer wieder vor einer Verselbstständigung von Künstlicher Intelligenz. Doch große KI-Sprachmodelle können kein Eigenleben entwickelt. Das geht aus einer aktuellen Studie hervor. 

Die Entwicklungen im Bereich Künstliche Intelligenz haben vor allem seit der Veröffentlichung von ChatGPT enorm an Fahrt aufgenommen. Doch der Boom ruft auch regelmäßig Kritiker:innen auf den Plan, die davor warnen, dass sich KI-System irgendwann verselbstständigen könnten.

Das ist jedoch nicht möglich, wie eine neue Untersuchung der Technischen Universität Darmstadt und der University of Bath zeigt. Demnach sind ChatGPT und Co. nicht dazu in der Lage, selbstständig und komplex zu denken.


Neue Stellenangebote

Growth Marketing Manager:in – Social Media
GOhiring GmbH in Homeoffice
Social Media und PR Specialist (m/w/d)
BeA GmbH in Ahrensburg
Social Media Manager B2B (m/w/d)
WM SE in Osnabrück

Alle Stellenanzeigen


KI-Sprachmodelle können kein Eigenleben entwickeln

Für ihre Untersuchung haben die Forschenden mit 20 KI-Sprachmodellen experimentiert. Dabei wurden die vier Modell-Familien GPT, LLama, T5 und Falcon 2 untersucht.

Im Mittelpunkt standen die sogenannten emergenten Fähigkeiten von KI-Modellen – also unvorhergesehene und plötzliche Leistungssprünge der Sprachmodelle.

Dabei kamen die Forschenden allerdings zu dem Schluss, dass die sogenannten Large Language Models (LLMs) nicht dazu neigen, ein allgemeines „intelligentes“ Verhalten zu entwickeln. Daher ist es ihnen auch nicht möglich, planvoll oder intuitiv vorzugehen oder gar komplex zu denken.

Emergente Fähigkeiten im Fokus

Nach der Einführung von Sprachmodellen stellten Forscher:innen zunächst fest, dass diese mit zunehmender Größe auch leistungsfähiger wurden. Das lag unter anderem auch an der Menge der Daten, mit denen sie trainiert wurden.

Je mehr Daten für das Training zur Verfügung standen, desto größer wurde auch die Anzahl der sprachbasierten Aufgaben, die die Modelle lösen konnten. Forscher:innen hofften deshalb, dass die Modelle immer besser werden, je mehr Daten in ihr Training fließen.

Kritiker:innen warnten jedoch auch vor den Risiken durch die so entstehenden Fähigkeiten. So wurde beispielsweise angenommen, dass sich die KI-Sprachmodelle verselbstständigen und so auch der menschlichen Kontrolle entziehen könnten.

Doch dafür gibt es laut den Forschungsergebnissen keine Beweise. Demnach sein ein differenziertes Denkvermögen bei den KI-Sprachmodellen unwahrscheinlich.

Stattdessen erlangten die LLMs die oberflächliche Fertigkeit, relativ einfachen Anweisungen zu folgen, wie die Forschenden zeigten. Von dem, was Menschen können, seien die Systeme noch weit entfernt.

„Unsere Ergebnisse bedeuten jedoch nicht, dass KI überhaupt keine Bedrohung darstellt“, erklärt Studienautorin Iryna Gurevych von der TU Darmstadt. „Wir zeigen vielmehr, dass die angebliche Entstehung komplexer Denkfähigkeiten, die mit bestimmten Bedrohungen verbunden sind, nicht durch Beweise gestützt wird und dass wir den Lernprozess von LLMs doch gut steuern können.“

Gurevych empfiehlt daher, nachfolgende Forschungsprojekte auf die Risiken der KI-Nutzung zu fokussieren. Dabei hätten KI-Sprachmdelle zum Beispiel großes Potenzial, um zur Generierung von Fake News genutzt zu werden.

Auch interessant:

Über den Autor

Maria Gramsch

Maria ist freie Journalistin und technische Mitarbeiterin an der Universität Leipzig. Seit 2021 arbeitet sie als freie Autorin für BASIC thinking. Maria lebt und paddelt in Leipzig und arbeitet hier unter anderem für die Leipziger Produktionsfirma schmidtFilm. Sie hat einen Bachelor in BWL von der DHBW Karlsruhe und einen Master in Journalistik von der Universität Leipzig.