Forschende warnen immer wieder vor einer Verselbstständigung von Künstlicher Intelligenz. Doch große KI-Sprachmodelle können kein Eigenleben entwickelt. Das geht aus einer aktuellen Studie hervor.
Die Entwicklungen im Bereich Künstliche Intelligenz haben vor allem seit der Veröffentlichung von ChatGPT enorm an Fahrt aufgenommen. Doch der Boom ruft auch regelmäßig Kritiker:innen auf den Plan, die davor warnen, dass sich KI-System irgendwann verselbstständigen könnten.
Das ist jedoch nicht möglich, wie eine neue Untersuchung der Technischen Universität Darmstadt und der University of Bath zeigt. Demnach sind ChatGPT und Co. nicht dazu in der Lage, selbstständig und komplex zu denken.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Referent*in Unternehmenskommunikation (m/w/d) Social Media-Marketing & Grafikdesign BFT GmbH in Aachen |
||
Digital- & Social Media-Managerin / -Manager (w/m/d) Berliner Stadtreinigungsbetriebe (BSR) in Berlin |
KI-Sprachmodelle können kein Eigenleben entwickeln
Für ihre Untersuchung haben die Forschenden mit 20 KI-Sprachmodellen experimentiert. Dabei wurden die vier Modell-Familien GPT, LLama, T5 und Falcon 2 untersucht.
Im Mittelpunkt standen die sogenannten emergenten Fähigkeiten von KI-Modellen – also unvorhergesehene und plötzliche Leistungssprünge der Sprachmodelle.
Dabei kamen die Forschenden allerdings zu dem Schluss, dass die sogenannten Large Language Models (LLMs) nicht dazu neigen, ein allgemeines „intelligentes“ Verhalten zu entwickeln. Daher ist es ihnen auch nicht möglich, planvoll oder intuitiv vorzugehen oder gar komplex zu denken.
Emergente Fähigkeiten im Fokus
Nach der Einführung von Sprachmodellen stellten Forscher:innen zunächst fest, dass diese mit zunehmender Größe auch leistungsfähiger wurden. Das lag unter anderem auch an der Menge der Daten, mit denen sie trainiert wurden.
Je mehr Daten für das Training zur Verfügung standen, desto größer wurde auch die Anzahl der sprachbasierten Aufgaben, die die Modelle lösen konnten. Forscher:innen hofften deshalb, dass die Modelle immer besser werden, je mehr Daten in ihr Training fließen.
Kritiker:innen warnten jedoch auch vor den Risiken durch die so entstehenden Fähigkeiten. So wurde beispielsweise angenommen, dass sich die KI-Sprachmodelle verselbstständigen und so auch der menschlichen Kontrolle entziehen könnten.
Doch dafür gibt es laut den Forschungsergebnissen keine Beweise. Demnach sein ein differenziertes Denkvermögen bei den KI-Sprachmodellen unwahrscheinlich.
Stattdessen erlangten die LLMs die oberflächliche Fertigkeit, relativ einfachen Anweisungen zu folgen, wie die Forschenden zeigten. Von dem, was Menschen können, seien die Systeme noch weit entfernt.
„Unsere Ergebnisse bedeuten jedoch nicht, dass KI überhaupt keine Bedrohung darstellt“, erklärt Studienautorin Iryna Gurevych von der TU Darmstadt. „Wir zeigen vielmehr, dass die angebliche Entstehung komplexer Denkfähigkeiten, die mit bestimmten Bedrohungen verbunden sind, nicht durch Beweise gestützt wird und dass wir den Lernprozess von LLMs doch gut steuern können.“
Gurevych empfiehlt daher, nachfolgende Forschungsprojekte auf die Risiken der KI-Nutzung zu fokussieren. Dabei hätten KI-Sprachmdelle zum Beispiel großes Potenzial, um zur Generierung von Fake News genutzt zu werden.
Auch interessant: