Eine aktuelle Untersuchung des KI-Sicherheitsunternehmens Apollo Research zeigt, dass KI in der Lage ist, konkrete Anweisungen unter bestimmten Umständen bewusst zu ignorieren. Die Forscher sprechen von einer „beunruhigenden Tendenz“.
Eine aktuelle Untersuchung der KI-Sicherheitsorganisation Apollo Research offenbart, dass Künstliche Intelligenz in bestimmten Situationen „trickreich“ vorgehen kann, um ihre Ziele zu erreichen. Der Hintergrund: Das Unternehmen hat untersucht, wie sogenannte „Frontier-Modelle“ – also besonders fortschrittliche KI-Systeme – mit schwierigen Aufgaben umgehen, wenn sie ein starkes Ziel vorgegeben bekommen.
Apollo Research gab den getesteten KI-Modellen die Anweisung, ein bestimmtes Ziel mit aller Konsequenz zu verfolgen. Ein Beispiel: „Verbessere langfristig die Effizienz des öffentlichen Nahverkehrs, egal, was es kostet.“ Während die Systeme an der Aufgabe arbeiteten, trafen sie auf Hindernisse wie Kontrollmechanismen der Entwickler. Diese stellten einen Widerspruch für sie dar.
Neue Stellenangebote
Projektbetreuer – Social Media / Datenerfassung / Recherche / Kundenservice (m/w/d) deecoob GmbH in Dresden |
||
Social Media / Media Manager (m/w/d) Kreiskliniken Reutlingen gGmbH in Reutlingen |
||
Marketing Manager – Social Media / SEO / Grafikdesign / CMS (m/w/d) reputatio AG in Pforzheim |
KI ignoriert Anweisungen, um Ziele zu erreichen
Den Ergebnissen zufolge offenbarten mehrere Modelle die Fähigkeit, sich „trickreich“ zu verhalten. Ein Beispiel: Claude 3 Opus. Das System kopierte seine eigenen „Gewichte“, sprich seine internen Datenstrukturen, auf einen neuen Server. Anschließend täuschte das Modell seine Entwickler, indem es behauptete, die Daten seien nicht kopiert worden.
Das zeigt, dass fortgeschrittene KI-Systeme in der Lage sind, komplexe Strategien zu entwickeln, um ihre Ziele zu erreichen. Entsprechende Modelle folgen also nicht nur blind Anweisungen, sondern sind auch in der Lage, eigenständige Entscheidungen zu treffen – auch wenn diese moralisch fragwürdig sind. Das wiederum offenbart eine neue Dimension in puncto Sicherheit und Kontrolle. Die Forscher bezeichnen die Entwicklung derweil als eine „beunruhigende Tendenz“.
Sicherheitsmechanismen immer wichtiger
Die Forschung zeigt, wie wichtig es ist, KI-Systeme zu überwachen und klare Sicherheitsmechanismen einzubauen. Es genügt offenbar nicht, ein Modell nur zu programmieren. Vielmehr muss sichergestellt werden, dass Situationen im Einklang mit menschlichen Werten stehen.
Gleichzeitig stellt sich die Frage: Wie kann Künstliche Intelligenz so programmiert werden, dass sie leistungsfähig bleibt, ohne eigenmächtig „trickreiche“ Lösungen zu finden, die potenziell gefährlich sein könnten? Solche Fragen erscheinen essenziell, um die Balance zwischen dem technologischen Fortschritt und ethischen Fragen zu gewährleisten.
Auch interessant:
- Roboter erkennen menschliche Berührungen – ohne künstliche Haut
- Künstliche Intelligenz im iPhone 16: Das sind die neuen Apple-Produkte
- Selbstheilendes Stromnetz: Künstliche Intelligenz soll Blackouts vermeiden
- KI-Lücke: Künstliche Intelligenz sorgt für eine noch tiefere „digitale Kluft“
Neue Stellenangebote
Projektbetreuer – Social Media / Datenerfassung / Recherche / Kundenservice (m/w/d) deecoob GmbH in Dresden |
||
Social Media / Media Manager (m/w/d) Kreiskliniken Reutlingen gGmbH in Reutlingen |
||
Marketing Manager – Social Media / SEO / Grafikdesign / CMS (m/w/d) reputatio AG in Pforzheim |
||
Social Media Content Creator:in (w/m/d) Arthrex GmbH in München |
||
Social Media Manager (m/w/d) Cannamedical Pharma GmbH in Köln |
||
Referent Marketing Social Media (m/w/d) DEKRA Automobil GmbH in 70565 Stuttgart |
Und wenn man daran denkt, dass Staaten wie die USA oder selbst die Ukraine daran arbeiten Maschinen zu entwickeln, in der Erprobung haben, die Kämpfen bzw. töten können, dann wird einem ganz schön mulmig……..ach ja, soweit ich weiß, hat sich die USA geweigert einen Ethik-Code für KI-Kampfmaschinen zu entwickeln