Tesla testet mal wieder eine Betaversion für seinen Autopiloten. Doch erste Videos zeigen viele Beinah-Unfälle. Wie sicher sind die Autopilot-Updates? Und: Sollten die Software-Updates stärker reguliert werden? Eine neue US-Regulierung scheint es auf Tesla abgesehen zu haben.
Teslas Autopilot steht schon seit Jahren in der Diskussion. Denn immer wieder sind Tesla-Fahrer:innen in tödliche Unfälle verwickelt, während sie den Fahrassistenten aktiviert haben.
Jetzt testet Tesla für ausgewählte Beta-User mal wieder ein neues Autopilot-Update. Doch erste Videos zeigen beunruhigende Beinah-Unfälle, die das Assistenzsystem alles andere als sicher erscheinen lassen.
Neue Stellenangebote
Mitarbeiter*in (m/w/d) für Social Media, Öffentlichkeitsarbeit und Städtepartnerschaft (m/w/d) meinestadt.de in Sachsenheim |
||
Content Creator / Social Media / Marketing (m/w/d) Delitzscher Schokoladenfabrik GmbH in Delitzsch |
||
Content Creator / Social Media / Marketing (m/w/d) Halloren Schokoladenfabrik AG in Delitzsch |
Autopilot-Updates: Besorgniserregende Videos
So teilte Elektroauto-Fan Taylor Ogan das Video einer solchen Probefahrt mit der Autopilot-Update-Version FSD Beta 9 auf Twitter. In dem kurzen Ausschnitt sieht man, wie der Fahrer mit dem aktivierten Autopiloten das Lenkrad loslässt und dabei wiederholt beinahe einen Unfall baut.
Watch a Tesla employee take a 26-minute drive in downtown San Francisco on Tesla’s highly anticipated FSD Beta V9.
Keep in mind, Tesla calls this „Full Self-Driving“. Imagine 150,000 of these on the road, @SecretaryPete. Be safe out there.
Full video: https://t.co/r7OUIY4oZa pic.twitter.com/Et3uc0EkEv
— Taylor Ogan (@TaylorOgan) July 12, 2021
Im kompletten Video scheint das Auto mehrmals beinahe in ein anderes Fahrzeug zu fahren. Auch scheint der Autopilot massive Probleme damit zu haben, Fahrspuren richtig zu erkennen, sodass der Testfahrer immer wieder das Lenkrad übernehmen muss.
Entsprechend kritisieren Ogan, aber auch viele weitere Nutzer:innen, dass Tesla diese Technologie „voll selbstfahrend“ nennt. Denn das Problem ist weniger die Technologie hinter dem Autopiloten, sondern vielmehr der Name.
Tesla Autopilot ist nicht voll selbstfahrend
Während viele Expert:innen glauben, dass das Assistenzsystem bei Tesla zu den besten der Industrie gehört, sind Bezeichnungen wie „Autopilot“ oder „voll selbstfahrender“ Modus irreführend.
Denn sie suggerieren, dass es sich bei der Technologie um ein (voll) autonomes Fahrzeug handelt, also nach der Einordnung der Society of Automotive Engineers (SAE) mindestens ein Fahrzeug der Autonomie-Stufe drei.
Entsprechend verhalten sich Autofahrer:innen auch so, dass sie mit aktiviertem Autopiloten oftmals die Augen von der Straße und die Hände vom Lenkrad nehmen und davon ausgehen, der Tesla könne von alleine fahren.
Tesla-Autopilot ist ein Assistenzsystem
Nur: Das kann er nicht. Denn der Tesla-Autopilot ist genau genommen ein Assistenzsystem, wenn auch ein sehr weit entwickeltes. Es entspricht der SAE-Stufe zwei, bei der das Fahrzeug gewisse Funktionen zeitweise übernehmen kann, aber die Aufmerksamkeit des Fahrers zu jeder Zeit gefordert ist.
Tesla weist Fahrer:innen auch immer wieder darauf hin. Dennoch kommt es immer wieder zu schweren und auch tödlichen Unfällen, weil Fahrer:innen dem System zu viel zutrauen.
Noch problematischer ist es, wenn – wie im Video – eine noch nicht völlig ausgereifte Betaversion eines Autopilot-Updates im Straßenverkehr unterwegs ist.
Autopilot-Updates regulieren
Entsprechend fordern sowohl Verbraucherschutzorganisationen als auch Autofahrer:innen immer wieder, dass insbesondere die Testversionen der Autopilot-Updates stärker reguliert werden müssten.
Tatsächlich ist es fragwürdig, wie die Beta-Tester:innen, die auch keine besondere Qualifikation für derartige Fahrten haben, die Technologie im Straßenverkehr einsetzen. Denn dabei gefährden sie möglicherweise andere Personen, die sich nicht einmal dessen bewusst sind, dass jemand im Autopilot-Modus fährt.
In Deutschland beispielsweise wäre so etwas nach Straßenverkehrsordnung gar nicht erlaubt. Doch auch in den USA könnte es hier bald mehr Einschränkungen geben.
Neues Gesetz zwingt zur Berichterstattung
Die US-Bundesbehörde für Straßen- und Fahrzeugsicherheit NHTSA hat jetzt nämlich eine neue Regel eingeführt, die es genau auf den Autopiloten von Tesla abgesehen zu haben scheint, wie einige vermuten.
Es könnte auch ein Versuch der Wiedergutmachung der NHTSA sein. Denn in der Vergangenheit hat die Behörde dem Tesla-Autopiloten in einer Studie sehr gute Noten verliehen. Die Studie zeigte sich bei genauerer Untersuchung jedoch als lückenhaft.
Nach der neuen Regulierung müssen nun jedenfalls ab sofort Autohersteller Unfälle innerhalb eines Tages melden, wenn Assistenzsysteme daran mitbeteiligt sind. Das gilt für Assistenzsysteme von Autonomiestufe zwei bis fünf. Dies würde also auch Teslas Autopiloten einschließen.
Bislang waren derartige Berichte auf freiwilliger Basis, um so Industriegeheimnisse und innovative Technologieentwicklungen zu schützen – zumindest auf Bundesebene. In einigen US-Bundesstaaten wie Kalifornien, wo viele Autohersteller aufgrund der Wetterbedingungen ihre autonomen Technologien testen, gibt es striktere Regeln.
Tesla schweigt
Nahezu alle Autobauer in den USA haben die neue Regel begrüßt – mit Ausnahme von Tesla. Das Unternehmen hat sich bislang zu dem Thema ausgeschweigen. Die Autobauer erhoffen sich dadurch aber weniger Missbrauch sowie eine bessere Akzeptanz der Technologie, die durch die Tesla-Unfälle einen schlechten Ruf genießt.
Es ist also durchaus möglich, dass dadurch auch Tesla bei seinen Updates nachbessern könnte, um so in Zukunft Unfälle zu vermeiden. Es gibt beispielsweise Hinweise, dass Tesla eine Kamera herausbringen möchte, die das Verhalten der Autofahrer:innen im Autopilot-Modus überwachen soll.
Soweit bekannt, gab es seit der Einführung des Tesla-Autopiloten im Jahr 2015 weltweit 19 Tote aus Unfällen, in denen die Technologie aktiviert war.
Auch interessant: