Inspiriert vom Artikel „Lotterie des Sterbens“, den Manfred Dworschak für die aktuelle Ausgabe des „Spiegel“ geschrieben hat, möchte ich hier über ein spannendes Thema diskutieren, das unsere Gesellschaft in den kommenden Jahren ziemlich beschäftigen dürfte.
Es geht um selbstfahrende Autos und ihre computergestützten Entscheidungen. Was mir nach dem Lesen des genannten Artikels vor allem in Erinnerung geblieben ist, ist der Begriff des „optimalen Unfalls“. Es klingt paradox, aber Ziel der selbstfahrenden Autos wird es sein, Unfälle zu optimieren, das heißt: das Unvermeidbare in halbwegs geregelte Bahnen zu lenken, um möglichst wenig Schaden zu erzeugen.
Hört sich plausibel an. Dennoch ist es mit einer ganzen Reihe von Fragestellungen vor allem ethischer Natur verbunden, wie Manfred Dworschak ausführt. Heruntergebrochen lautet die Frage: Wie wird ein Auto zukünftig programmiert? Welche Variablen soll es im Vorfeld eines sich ereignenden Unfalls in die Kalkulation einberechnen? Etwas konkreter könnte eine Frage lauten: Soll im Falle eines unvermeidbaren Unfalls die ordnungsgemäß auf dem Bürgersteig gehende Oma oder die auf der Straße herumtollenden Kinder (die mit hoher Wahrscheinlichkeit noch mehr Lebensjahre vor sich haben als die alte Dame) geopfert werden?
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Social Media und PR Specialist (m/w/d) BeA GmbH in Ahrensburg |
||
Social Media Manager B2B (m/w/d) WM SE in Osnabrück |
Solche Entscheidungen dürften künftig vom Computer und nicht mehr vom (ohnehin in solch einer Situation völlig überforderten) Fahrer getroffen werden. Und die Gesellschaft muss sich Gedanken darüber machen, welche ethischen Grundwerte in eine rational arbeitende Software eingearbeitet werden sollen.
Unfälle – das scheint schon jetzt festzustehen – werden zwar in absoluten Zahlen abnehmen. Aber sie werden sich möglicherweise jeder Logik entziehen, wenn es um die Betroffenen, die Opfer, geht.
Technologie handelt stets nach klaren Vorgaben, in die ethische Überlegungen unter Umständen eingearbeitet werden sollten – und eben nicht nach Gefühl. Eine andere Möglichkeit freilich wäre es, im Falle eines sich ankündigenden Unfalls die Elektronik zurückzufahren und wieder den Fahrer entscheiden zu lassen. In diesem Fall bliebe der Fortschritt aus.
Und was meinen Sie? Wie wird sich die Diskussion entwickeln?
Es ist für Sie ein Fortschritt, eine ethische Entscheidung von einer Maschine entscheiden zu lassen? Ein Programm enscheidet zw. I und O.
Jeder Opferanwalt wird sich freuen, ist das Opfer doch letztlich dem Zufall überlassen. Entsprechend angreifbar ist das System, ergo der Hersteller.
Versagt der Fahrer, liegt menschliches Versagen vor, die Frage der Haftung ist klar.
Ich frage mich, warum überall dieses absolute Randthema diskutiert wird. Wichtig ist, dass autonome Fahrzeuge vielleicht 90% der Unfälle vermeiden – DAS ist das Ziel (neben automatischem Taxiverkehr). Die Kernfrage ist deshalb: Kann man dann noch manuelles Lenken verantworten bzw. wie wird das juristisch und versicherungstechnisch beurteilt werden?
Die interessantere Fragestellung ist doch, ob das Auto seinen Fahrer opfern sollte, wenn dadurch anderen Menschen das Leben gerettet wird.
Auch wenn das eine absolute Ausnahmesituation ist, so geht es doch um einen ganz entscheidenden Faktor der Akzeptanz. Würde man selber in so ein Fahrzeug steigen? Und wie ist die Akzeptanz von Außenstehenden wenn ein Fahrzeug eher durch eine Menschenmenge fährt, als seinen Fahrer zu gefährden?
[…] steht fest: Ein Teil der Debatte sollte ethischen Gesichtspunkten gewidmet sein, also auch der Frage, wie sich ein sogenanntes intelligentes Fahrzeug verhalten soll, […]
[…] Auch interessant: Gedanken über den optimalen Autounfall […]
[…] Gedanken über den „optimalen Autounfall“ […]