Computer, Mensch oder doch etwa ein Brötchen: Wer war Schuld an dem Tesla-Autopilot-Unfall im Januar 2018 in Kalifornien? Das National Transportation Safety Board hat die Untersuchung abgeschlossen und nun seine offizielle Einschätzung veröffentlicht.
Im Januar 2018 fährt ein Tesla-Fahrer seinen Tesla Model S (Baujahr 2014) durch Culver City, Kalifornien. Er hat den Autopiloten eingeschaltet und fährt mit dem Fahrzeug in ein (unbesetztes) Feuerwehrauto.
Niemand wird bei dem Unfall verletzt. Trotzdem beginnt die US-Verkehrssicherheitsbehörde, das National Transportation Safety Board (NTSB), eine offizielle Untersuchung, um zu klären, wer eigentlich Schuld war. Lag es am Autofahrer oder etwa am Autopiloten von Tesla?
Neue Stellenangebote
Content- & Social Media Manager:in (m/w/d) fischerAppelt in Hamburg |
||
Content Creator Social Media (m/w/d) Erlebnisbauernhof Gertrudenhof GmbH in Hürth |
||
Studentisches Praktikum – Video- & Social-Media-Marketing im Bankwesen (m/w/d) Taunus Sparkasse in Bad Homburg vor der Höhe |
Jetzt hat das NTSB seine Ergebnisse veröffentlicht.
Anweisungen vom Autopiloten zu spät
Demnach trägt der Autopilot von Tesla eine Teilschuld an dem Unfall. Was war passiert?
Wenn der Autopilot eingeschaltet ist, übernimmt er die Lenkung, die Geschwindigkeitsregelung und kann auch die Spur wechseln. Dafür folgt er einem „Lead Vehicle“, also einem Fahrzeug, an dem er sich in Sachen Abstand und Geschwindigkeit orientieren kann.
Kurz vor dem Unfall wechselte das Lead Vehicle vor dem Tesla die Spur. Danach bemerkte das System auf der Suche nach einem neuen Lead Vehicle ein stehendes Hindernis im Weg (den Feuerwehrwagen) und gab eine Kollisionswarnung aus. Diese erfolgte allerdings lediglich 490 Millisekunden vor dem Einschlag.
Selbst wenn der Fahrer hier reagiert hätte, wäre es viel zu spät gewesen. Daher findet das NTSB, dass die Technologie von Tesla eine Teilschuld an dem Unfall trägt.
Das ist damit das zweite Mal, dass die US-Behörde sagt, der Autopilot von Tesla sei zumindest teilweise mit für einen Unfall verantwortlich. Hat damit die Technologie versagt? Ganz so einfach ist es nicht.
Fahrer ignorierte Anweisungen vom System
Denn die Untersuchung hat auch gezeigt, dass der Fahrer den Autopiloten 14 Minuten vor dem Unfall aktiviert hatte und 13 Minuten lang das Lenkrad nicht angefasst hatte. Das ist zu lang!
Dementsprechend hatte der Autopilot den Fahrer in dieser Zeit viermal dazu aufgefordert, das Lenkrad anzufassen. Der Fahrer ignorierte dies. Hätte er, wie aufgefordert, eher zum Lenkrad gegriffen, hätte er möglicherweise den Unfall vermeiden können.
Darüber hinaus hatte der Fahrer die Fahrbahn auch nicht wirklich im Blick. Augenzeugen hatten ihn mit dem Blick nach unten beobachtet und vermutet, er habe ein Handy benutzt. Das sei nicht der Fall gewesen, beteuerte der Fahrer. Er habe aber Kaffee getrunken und ein Brötchen gegessen.
Ist also das Brötchen Schuld? Natürlich nicht. Doch die Unaufmerksamkeit der Fahrer im Zusammenhang mit dem Autopiloten ist ein Problem, das immer wieder bei Tesla auftaucht.
Verstehen Tesla-Fahrer Autopiloten nicht?
Obwohl das Unternehmen und auch Verkäufer die Kunden dahingehend informieren, trainieren und auch Sicherheitsanweisungen für den Gebrauch der autonomen Systeme mitgeben, ignorieren Fahrer diese manchmal.
Beziehungsweise: Sie denken, dass ein System namens „Autopilot“ von alleine fährt. Tatsächlich kann der Autopilot von Tesla nur ein paar Fahrfunktionen selbstständig übernehmen und während keiner Zeit sollten Fahrer unaufmerksam sein oder das Verkehrsgeschehen aus dem Blick verlieren.
Ehrlicherweise muss man aber sagen, dass man damit von Autofahrern etwas ziemlich Unmenschliches verlangt. Studien* zeigen nämlich, dass Menschen katastrophal darin sind, wenn sie nahezu reibungslos funktionierende Computer überwachen müssen.
Auch Sicherheitsfahrer von Waymo haben beispielsweise schon Unfälle dadurch verursacht, dass sie beim Überprüfen des autonomen Systems einfach eingeschlafen sind.
Kann man Tesla wirklich dafür verantwortlich machen, dass Autofahrer ihre eigenen Fahrzeuge nicht richtig verstehen? Oder, dass Menschen so grottenschlecht darin sind, Roboter zu überwachen?
Sollte Tesla mehr tun?
Ja und nein. Zum einen hat Tesla seit diesem Unfall seine Technologie, von Kamera über Sensoren bis Radar verbessert. Auch werden wir Menschen wohl nie gut darin sein, fast perfekte Systeme zu überwachen. Und, dass Kaffeetrinken und Brötchenessen beim Fahren nicht ideal sind, sollte eigentlich auch jedem Autofahrer klar sein.
Doch es gäbe zum Beispiel auch die Option, mit anderen Technologien, wie etwa mit Sensoren im Auto, die Fahrer stärker zu kontrollieren. Diese Sensoren messen zum Beispiel Herzschlag oder Augenschlag und können anhand dessen ermitteln, ob der Fahrer konzentriert ist oder eben nicht.
Bei Ablenkung können sie dann laut Alarm schlagen. Das Wall Street Journal berichtet, dass Tesla diese Technologien angeblich geprüft, und abgelehnt habe.
Das US-Verbraucherportal Consumer Reports hat genau deshalb Tesla immer wieder kritisiert. „Wenn du mich einmal hereinlegst, schäm dich! Beim zweiten Mal bin ich selbst Schuld. Wenn du mich vier, fünf oder jetzt sechsmal hereinlegst – das ist zu viel“, sagte David Friedman, Direktor von Consumer Reports gegenüber Wired.
Er fordert darum, dass Tesla dringend seinen Autopiloten verbessern sollte.
Ist Fahren ohne Autopilot noch unsicherer?
Elon Musk dagegen hat immer wieder gesagt, dass wir – trotz dieser Unfälle – mit selbstfahrenden Autos sicherer unterwegs sind als ohne.
So sagte er einmal gegenüber Journalisten: „Es ist wirklich unglaublich unverantwortlich für einen Journalisten mit Integrität einen Artikel zu schreiben, der Menschen glauben lässt, Autonomie sei weniger sicher. Denn Menschen könnten die Technologie dann tatsächlich ausschalten und dann sterben.“
Zum Weiterlesen