Massenkarambolage in San Francisco Elon Musk setzt voll auf den Autopiloten – doch der verursacht immer öfter schwere Unfälle

Tesla Model 3
Ein Tesla Model 3 bremste auf der Bay Bridge plötzlich ab – insgesamt acht Fahrzeuge waren in den darauffolgenden Unfall verwickelt.
© Dylan Stewart / Picture Alliance
Im November ereignete sich in den USA ein schwerer Unfall mit acht Fahrzeugen. Verursacht wurde er durch einen Tesla, der sich unberechenbar verhielt. Nun zeigt ein Video, was passiert ist – und macht ein Problem deutlich.

Ende November kam es auf der Bay Bridge in San Francisco, USA, zu einem schweren Unfall. Auslöser war ein Tesla, der plötzlich nicht nur die Spur wechselte, sondern kurz darauf recht abrupt bremste. Anschließend kam es zu einer Massenkarambolage. Der Fahrer sagte den Behörden, er sei dieses Manöver nicht selbst gefahren, sondern habe sich zum Zeitpunkt des Unfalls von Teslas "Full Self Driving"-Modus (FSD) chauffieren lassen. Die Software sei es schließlich auch gewesen, die aus unerklärlichen Gründen den Haltevorgang eingeleitet habe.

Diese Aussage konnte bis heute nicht bestätigt werden, passt aber zu einem Verhaltensmuster des Fahrzeugs, über das sich auch andere Tesla-Kunden bereits beschwerten.

Der Fall landete schnell in den Berichten amerikanischer Fernsehsender, allerdings ohne Aufnahmen des Unfalls. Dem Magazin "The Intercept" ist es nun gelungen, über eine offizielle Behördenanfrage an den Unfallbericht und Aufnahmen der California Highway Patrol zu gelangen.

Unfallvideo zeigt unberechenbares Verhalten des Tesla

Das Video bestätigt die Beschreibung des Fahrers, wie es zu dem Unfall gekommen ist. Im Polizeibericht heißt es, "Full Self Driving" habe zum Zeitpunkt des Unfalls offenbar nicht korrekt funktioniert – zumindest habe der Fahrer das bei der Vernehmung gesagt. Im Bericht der Highway Patrol gibt der Beamte an, diese Angabe nicht verifizieren zu können.

An dieser Stelle hat unsere Redaktion Inhalte von Twitter / X integriert.
Aufgrund Ihrer Datenschutz-Einstellungen wurden diese Inhalte nicht geladen, um Ihre Privatsphäre zu schützen.

Es heißt, am Unfalltag habe das Auto Version 11 der aktuellen FSD-Beta genutzt. Ein Tesla mit dieser Software sei ausdrücklich nicht als "autonomes Fahrzeug" klassifiziert, weshalb dem Fahrer der Vorwurf gemacht wird, bei Eintreten der Fehlfunktion nicht umgehend gehandelt zu haben. Auch Tesla schreibt im Kleingedruckten, dass die "Autopilot"-Funktion das Fahrzeug "nicht in ein selbstfahrendes Auto verwandle".

Das Bremsmanöver ist offenbar kein Einzelfall. Die "Washington Post" berichtete schon im Februar 2022, dass immer mehr Beschwerden über plötzliche Bremsungen bei aktivem FSD bei der Bundesbehörde eingehen würden. Das Phänomen, in den USA als "phantom braking" (Phantombremse) bekannt, hat also schon vor dem Unfall in San Francisco für zahlreiche Probleme gesorgt. Der Bericht sprach von 107 Beschwerden in nur drei Monaten.

Der Zeitpunkt des Unfalls fiel für den Autohersteller äußert ungünstig. Nur wenige Stunden zuvor schrieb Tesla-Chef Elon Musk auf Twitter, dass "Full Self Driving" in Nordamerika ab sofort für jeden zur Verfügung stehe, der die Funktion für sein Auto gebucht hat. Zuvor erhielten nur ausgewählte Personen Zugriff darauf.

Hunderte Unfälle gehen auf das Konto von Tesla

Für die US-Bundesbehörde für Straßen- und Fahrzeugsicherheit (NHTSA) bedeutet das nur eine weitere Untersuchung von Hunderten. Im Zeitraum zwischen Juli 2021 und Juni 2022 stehe der "Autopilot" – oder "Full Self Driving" – mit 273 Unfällen in Verbindung. Von 329 Unfällen, die in Verbindung mit erweiterten Fahrassistenzsystemen stehen, gingen laut Behörde 70 Prozent auf das Konto von Tesla, heißt es in einem weiteren Bericht der "Washington Post".

In den USA kommt es immer wieder zu Zwischenfällen im Zusammenhang mit Teslas "Full Self Driving"-Modus. Manchmal wird er auch als "Autopilot" bezeichnet, abhängig von dessen Funktionsumfang. Diese Bezeichnungen weckten bei den Menschen die Erwartung, nicht mehr auf den Verkehr achten zu müssen. Erst Ende Dezember 2022 verbot der Staat Kalifornien dem Unternehmen die offenbar missverständlichen Produktnamen.

Elon Musk will Hand-am-Lenkrad-Pflicht abschaffen

Für Tesla geht es um mehr, als nur kaputte Fahrzeuge. In einem Interview sagte Elon Musk: "Full Self-Driving zu meistern macht für Tesla den Unterschied zwischen einem sehr hohen Firmenwert und der Wertlosigkeit." Immer wieder bewirbt Musk den Autopiloten und FSD, Unfälle und Fehler spielt das Unternehmen in der Regel runter oder verweist auf eine falsche Bedienung.

Eine Besserung scheint nicht in Sicht, sollten die Behörden nicht einschreiten. Im Gegenteil. Ende Dezember fragte ein Nutzer Elon Musk auf Twitter, ob es nicht möglich sei, die ständigen Warnungen abzuschalten, die Fahrer daran erinnern, die Hände am Lenkrad zu lassen. Der Vorschlag: Wer 10.000 Meilen mit FSD gefahren ist, soll es abschalten dürfen. Musk antwortete: "Ich stimme zu, im Januar bringen wir dafür ein Update." Bisher ist es nicht erschienen.

Wenige Tage vor Musks Tweet veröffentlichte Tesla das FSD-Update auf Version 2022.44.30.5, welches Strafen für unaufmerksame Fahrer einführte. Wer seine Hände künftig zu oft vom Lenkrad nimmt, wird für die Nutzung der Funktion bis zu zwei Wochen gesperrt. Wie das mit den Aussagen des Chefs zu vereinbaren ist, weiß nur er.

PRODUKTE & TIPPS

Kaufkosmos

Mehr zum Thema