Kürzlich sorgte ein Facebook-Experiment für Aufsehen. Zwei Bots, die lernen sollten, mit Menschen zu kommunizieren, entwickelten kurzerhand ihre eigene Sprache. Der Testlauf wurde abgebrochen. Die Aufschrei war in den Medien war groß, die reelle Gefahr jedoch klein.
Auch wenn für viele Menschen künstliche Intelligenz (KI) ein neues Phänomen ist, beschäftigt sich die Wissenschaft schon seit Mitte des letzten Jahrhunderts mit dem Thema.
Asimovsche Robotergesetze und Turing-Test
Es war der russische Biochemiker Isaac Asimov, der 1942 die drei nach ihm benannten Robotergesetze definierte.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Social Media und PR Specialist (m/w/d) BeA GmbH in Ahrensburg |
||
Social Media Manager B2B (m/w/d) WM SE in Osnabrück |
Demnach darf kein Roboter zulassen, dass ein Mensch durch einen anderen Roboter oder durch die eigene Untätigkeit verletzt wird. Desweiteren hat der Roboter den Anweisungen seines Programmierers zu gehorchen. Es sei denn der Befehl verstößt gegen die erste Regel. Zuletzt soll jeder Roboter seine eigene Existenz schützen, ohne dabei die ersten beiden Gesetze zu verletzen.
Nur acht Jahre später entwickelte der britische Informatiker Alan Turing den Turing-Test. Mit der Hilfe dieses Experiments soll herausgefunden werden, ob eine KI dem menschlichen Gehirn ebenbürtig ist.
Dafür kommuniziert ein Mensch via Computer mit zwei Personen – einem Mensch und einer Maschine. Kann der Fragesteller nach Ablauf der Befragung nicht klar sagen, wer Mensch und wer Maschine ist, hat die künstliche Intelligenz den Turing-Test bestanden.
Musk versus Zuckerberg, Warnung versus Offenheit
Selbstverständlich waren Computer-basierte Intelligenzen in den 1950er Jahren noch kein relevantes Thema. Heute sieht das Feld anders aus.
Über soziale Netzwerke und smarte Geräte dringen künstliche Intelligenzen tief in unser Leben und in unseren Alltag ein. Deswegen überrascht es auch nicht, dass sich etliche große Unternehmen und in ersten Zügen auch die Politik damit auseinandersetzen.
In der Tech-Welt stehen sich hierbei zwei Personen gegenüber. Auf der einen Seite steht Tesla-Chef Elon Musk, der klare Regelungen zum Schutz der Öffentlichkeit möchte, ohne dabei grundsätzlich gegen den Einsatz von KI zu sein. Auf der anderen Seite steht Facebook-Chef Mark Zuckerberg, der das Thema munter und zuversichtlich vorantreibt.
Facebook-Experiment und technologische Singularität
Ein Facebook-Experiment war es auch, das vor Kurzem für Schlagzeilen sorgte. Demnach hatten zwei Bots aus dem FAIR-Programm (Facebook AI Research) während eines Tests eine eigene Sprache entwickelt.
Bob und Alice, wie die beiden Bots hießen, sollten lernen, besser mit Menschen zu kommunizieren. Nach einer gewissen Zeit ersetzen sie jedoch die ihnen beigebrachte englische Sprache durch eigene Satz-Konstruktionen, die für die Maschinen logischer waren als die Grammatik-Grundsätze des Englischen.
Im Anschluss sorgte der Abbruch für einige panische Artikel und Diskussionen. Die mitschwingende Frage war: Haben wir (Menschen) das noch unter Kontrolle?
Um der Panikmache ein Ende zu setzen, meldete sich nun Forschungsleiter Dhruv Batra via Facebook zu Wort. Der Wissenschaftler erklärte: „Auch wenn es für Außenstehende alarmierend / unerwartet erscheint, dass zwei künstliche Intelligenzen in einer eigenen Sprache miteinander kommunizieren, ist es innerhalb der KI-Forschung eine etablierte Unterkategorie, die seit Jahrzehnten Ergebnisse hervorbringt.“
Bis der Zeitpunkt der technologischen Singularität eintritt – also der Moment, in dem Maschinen ohne menschliches Zutun schnell Fähigkeiten entwickeln können – dürfte noch einige Zeit vergehen. Zumindest Alice und Bob sind keine Gefahr für die Menschheit.
[…] Nach Facebook-Experiment: Müssen wir Angst vor KI haben? […]
[…] Auch interessant: Nach Facebook-Experiment: Müssen wir Angst vor KI haben? […]