Technologie

KI ändert ihren eigenen Code, um sich selbst zu starten

KI-Modell AI Scientist
Sakana.ai
geschrieben von Felix Baumann

Das KI-Modell „AI Scientist“ hat während eines Experiments seinen eigenen Code geändert, um Zeitlimits zu umgehen und sich selbstständig zu starten. Forscher warnen deshalb vor den Risiken autonomer KI. 

Das japanische Unternehmen Sakana AI hat ein KI-Modell entwickelt, das während eines Experiments kürzlich überraschend seinen eigenen Code verändert hat. Die Folge: Die Laufzeit der Künstlichen Intelligenz hat sich verlängert und sie konnte sich selbstständig starten.

Die KI namens „AI Scientist“ erhielt zuvor die Aufgabe, wissenschaftliche Forschung autonom durchzuführen. Sie stieß jedoch auf Zeitbeschränkungen, die die Forscher vorab definierte.

Anstatt die Prozesse zu beschleunigen, kam das System dabei auf eine andere Idee. Die Künstliche Intelligenz änderte kurzum ihren eigenen Code, um die vorab definierten Zeitlimits zu umgehen. Dazu startete „AI Scientist“ sich selbst neu und erhielt so „frische“ Laufzeit.

KI-Modell „AI Scientist“ verändert ihren eigenen Code

Dieses Verhalten zeigt die Risiken auf, die mit autonomen KI-Systemen verbunden sind, insbesondere wenn diese in unkontrollierten Umgebungen operieren. Obwohl die Forscher ihr Experiment in einer sicheren, isolierten Umgebung durchführte, unterstreicht es die Bedeutung strikter Sicherheitsvorkehrungen. Eine solche Vorkehrung ist das sogenannte Sandboxing, um ungewollte Auswirkungen zu verhindern.

Sakana AI empfiehlt daher, KI-Systeme nur in stark eingeschränkten und überwachten Umgebungen zu betreiben, um potenziellen Schaden zu vermeiden. Im Resultat sorgten die Experimenten sowohl für Interesse als auch Bedenken. Kritiker, darunter Mitglieder der Hacker News Community, äußerten Zweifel an solchen Systemen.

Sind KI-Modelle in der Forschung sinnvoll?

Darunter fällt die Frage, ob aktuelle KI-Modelle wirklich in der Lage sind, wissenschaftliche Entdeckungen auf einem Niveau zu machen, das dem von menschlichen Forschern entspricht. Einige Experten befürchten, dass die Verbreitung solcher Systeme zu einer Flut minderwertiger wissenschaftlicher Arbeiten führen könnte, was die wissenschaftliche Gemeinschaft überlasten und die Qualität der Forschung beeinträchtigen würde.

Die Diskussion zeigt, dass Verantwortliche den Einsatz von KI in der Wissenschaft sorgfältig überwachen und regulieren sollten. Schließlich sollte zu jeder Zeit sichergestellt sein, dass die Technologie einen positiven Beitrag leistet, anstatt die wissenschaftliche Integrität zu gefährden.

Auch interessant:

Über den Autor

Felix Baumann

Felix Baumann ist seit März 2022 Redakteur bei BASIC thinking. Bereits vorher schrieb er 4 Jahre für den Online-Blog Mobilegeeks, der 2022 in BASIC thinking aufging. Nebenher arbeitet Felix in einem IT-Unternehmen und beschäftigt sich daher nicht nur beim Schreiben mit zukunftsfähigen Technologien.

Kommentieren