Wie soll ein intelligentes Fahrzeug im Straßenverkehr agieren? Nach menschlich-moralischen Maßstäben? Oder eher doch kühl-berechnend und auf möglichst wenige Opfer bedacht? Dass die Entscheidung nicht immer leicht fällt, zeigt ein Projekt, das das renommierte MIT gestartet hat.
Im vergangenen Jahr ist viel geschrieben worden über autonome Fahrzeuge. Auch die Unfälle des fahrerlosen Autos von Google haben dazu beigetragen, dass über das Thema nun auch jenseits professioneller Fachzirkel diskutiert wird.
Eines steht fest: Ein Teil der Debatte sollte ethischen Gesichtspunkten gewidmet sein, also auch der Frage, wie sich ein sogenanntes intelligentes Fahrzeug verhalten soll, wenn ein Unfall offenbar unabwendbar ist.
Neue Stellenangebote
Content- & Social Media Manager:in (m/w/d) fischerAppelt in Hamburg |
||
Content Creator Social Media (m/w/d) Erlebnisbauernhof Gertrudenhof GmbH in Hürth |
||
Studentisches Praktikum – Video- & Social-Media-Marketing im Bankwesen (m/w/d) Taunus Sparkasse in Bad Homburg vor der Höhe |
Dass sich aus solchen Situationen schwierige Fragestellungen ergeben können, ist klar. Berühmt ist das Beispiel um die Entscheidung, ob die führerlose Maschine lieber ein (auf der Straße spielendes) Kind oder eine (korrekt auf dem Fußgängerweg spazierende) ältere Dame umfahren soll.
Die „Moral Machine“ fragt den Menschen
Das Massachusetts Institute of Technology (MIT) hat mit der „Moral Machine“ eine Website gebaut, auf der man als Nutzer und Mensch entscheiden soll, wer in konkreten Verkehrssituationen und im Fall eines unabwendbaren Unfalls umgefahren wird. Stets bleiben einem zwei Wahlmöglichkeiten.
Man möchte mit dem Experiment Daten darüber gewinnen, wie Menschen in einem moralischen Dilemma entscheiden, schreibt das Institut auf seiner Website:
This website aims to take the discussion further, by providing a platform for 1) building a crowd-sourced picture of human opinion on how machines should make decisions when faced with moral dilemmas, and 2) crowd-sourcing assembly and discussion of potential scenarios of moral consequence.
Wer sich selbst testen möchte, kann das tun, direkt hier.