Das KI-Modell „AI Scientist“ hat während eines Experiments seinen eigenen Code geändert, um Zeitlimits zu umgehen und sich selbstständig zu starten. Forscher warnen deshalb vor den Risiken autonomer KI.
Das japanische Unternehmen Sakana AI hat ein KI-Modell entwickelt, das während eines Experiments kürzlich überraschend seinen eigenen Code verändert hat. Die Folge: Die Laufzeit der Künstlichen Intelligenz hat sich verlängert und sie konnte sich selbstständig starten.
Die KI namens „AI Scientist“ erhielt zuvor die Aufgabe, wissenschaftliche Forschung autonom durchzuführen. Sie stieß jedoch auf Zeitbeschränkungen, die die Forscher vorab definierte.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
ournalist (m/w/d) als Leiter PR und Social-Media NOMOS Glashütte/SA Roland Schwertner KG in Berlin |
||
Head of Social Media (m/w/d) Deichmann SE in Mülheim an der Ruhr (45478) |
Anstatt die Prozesse zu beschleunigen, kam das System dabei auf eine andere Idee. Die Künstliche Intelligenz änderte kurzum ihren eigenen Code, um die vorab definierten Zeitlimits zu umgehen. Dazu startete „AI Scientist“ sich selbst neu und erhielt so „frische“ Laufzeit.
KI-Modell „AI Scientist“ verändert ihren eigenen Code
Dieses Verhalten zeigt die Risiken auf, die mit autonomen KI-Systemen verbunden sind, insbesondere wenn diese in unkontrollierten Umgebungen operieren. Obwohl die Forscher ihr Experiment in einer sicheren, isolierten Umgebung durchführte, unterstreicht es die Bedeutung strikter Sicherheitsvorkehrungen. Eine solche Vorkehrung ist das sogenannte Sandboxing, um ungewollte Auswirkungen zu verhindern.
Sakana AI empfiehlt daher, KI-Systeme nur in stark eingeschränkten und überwachten Umgebungen zu betreiben, um potenziellen Schaden zu vermeiden. Im Resultat sorgten die Experimenten sowohl für Interesse als auch Bedenken. Kritiker, darunter Mitglieder der Hacker News Community, äußerten Zweifel an solchen Systemen.
Sind KI-Modelle in der Forschung sinnvoll?
Darunter fällt die Frage, ob aktuelle KI-Modelle wirklich in der Lage sind, wissenschaftliche Entdeckungen auf einem Niveau zu machen, das dem von menschlichen Forschern entspricht. Einige Experten befürchten, dass die Verbreitung solcher Systeme zu einer Flut minderwertiger wissenschaftlicher Arbeiten führen könnte, was die wissenschaftliche Gemeinschaft überlasten und die Qualität der Forschung beeinträchtigen würde.
Die Diskussion zeigt, dass Verantwortliche den Einsatz von KI in der Wissenschaft sorgfältig überwachen und regulieren sollten. Schließlich sollte zu jeder Zeit sichergestellt sein, dass die Technologie einen positiven Beitrag leistet, anstatt die wissenschaftliche Integrität zu gefährden.
Auch interessant:
- Selbstheilendes Stromnetz: Künstliche Intelligenz soll Stromausfälle vermeiden
- KI-Lücke: Künstliche Intelligenz sorgt für eine noch tiefere „digitale Kluft“.
- KI als Richter: Die Vorteile und Nachteile von Künstlicher Intelligenz in der Justiz
- CT-Scans: Künstliche Intelligenz könnte Tausende Leben retten