VG-Wort Pixel

Elektroauto Drei von drei "Kindern" platt: Tesla Autopilot fällt bei Test angeblich krachend durch

Tesla Model 3
Das Model 3 ist ein solides Elektroauto, aber an der Software sollte Tesla noch arbeiten.
© Andreas Haas / Imago Images
In den USA fahren rund 100.000 Teslas mit einer Beta-Version des sogenannten "Autopiloten". Der Name suggeriert, dass das Auto damit ohne Hilfe eines Menschen sicher ans Ziel kommt. Ein Test will nun zeigen, dass sich zumindest Kinder vor den Fahrzeugen in Acht nehmen sollten.

Seit Jahren streiten Experten mit Tesla: Viele halten die Software für vollautonomes Fahren, die Tesla "Autopilot", beziehungsweise "FSD", nennt, für unausgereift und den Namen somit für gefährlich. Besonders in den USA, wo, anders als in der EU, aktuelle Software als Beta-Version im öffentlichen Straßenverkehr getestet wird, lehnen sich viele Tesla-Fahrer buchstäblich zurück und lassen das Auto die Arbeit machen. Der Softwareentwickler Dan O'Dowd will aufzeigen, dass das Vertrauen in die Software böse Folgen haben kann.

Fernsehwerbung mit Warnung vor Tesla

Für seinen Test, welcher im Namen des "Dawn Projects", einer Initiative für sichere Software, durchgeführt wurde, nahm Milliardär O'Dowd viel Geld in die Hand – denn geplant ist die Ausstrahlung der Resultate im amerikanischen Fernsehprogramm. Das Video, welches ausgestrahlt werden soll, warnt eindringlich vor Teslas Software.

Der Sprecher des Videos bezieht sich auf Zitate von Tesla-CEO Elon Musk, der den "Autopiloten" mehrfach als herausragende Technik bewarb – und schließt die Frage an, ob die Software funktioniert. Anschließend zeigt das Video ein Tesla Model 3, welches in drei Versuchen gleich drei Mal ungebremst gegen eine Kinderattrappe fährt – und diese ohne jeglichen Eingriff ummäht.

Es folgt die Warnung, dass 100.000 Personen auf amerikanischen Straßen mit dieser Software als Tester unterwegs seien – und sich daraus eine große Gefahr ergebe. Dan O'Dowd, der im Video als "Präsident und CEO von Green Hills Software" vorgestellt wird, bezeichnet die Beta-Software als "schlimmste Software, die er jemals gesehen habe" – und ruft Zuschauende dazu auf, den US-Kongress davon zu überzeugen, Tesla die Erlaubnis für den "Autopiloten" zu entziehen.

Tester gilt als befangen

In den sozialen Medien zieht das Video weite Kreise – und ist nicht ganz unumstritten. Denn "Green Hills Software", die Firma, deren Profite in die Tasche O'Dowds wandern, stellt ebenfalls Software für autonome Autos her, beispielsweise für aktuelle BMW iX-Modelle. Außerdem ist die Kampagne, die O'Dowd gegen Tesla fährt, keinesfalls neu. So warnt der Softwarentwickler alle paar Monate vor dem Autopiloten, beispielsweise mit einer ganzseitigen Anzeige in der "New York Times" im Januar oder regelmäßigen Tweets. Schon im April schrieb das Magazin "Politico", Dan O'Dowd wolle Musk "zerstören".

Der gesamte Test ist also mit Vorsicht zu genießen, da eindeutig ein Interessenkonflikt besteht. Dennoch sind die Ergebnisse erst einmal nicht von der Hand zu weisen, wie es scheint. Ausführlich beschreibt das "Dawn Project" auf der eigenen Homepage, welche Methodik angewandt wurde und wie die Ergebnisse ausfielen. Fazit: Gleich mehrfach überfuhr das Fahrzeug die Puppe mit voller Wucht, ohne davor zu warnen.

Weiteres Video kommt zu gleichem Ergebnis

Auch ein anderer Twitter-Nutzer namens Taylor Ogan, offenbar ein Investor mit Anteilen diverser Elektroauto-Hersteller, zeigt ein ähnliches Video. Dort ist ein weißer Tesla zu sehen, der gegen ein Fahrzeug eines anderen Herstellers antritt. Doch im Gegensatz zum Konkurrenzprodukt bügelt der Tesla augenscheinlich kompromisslos über die Puppe. Als Grund nennt Ogan das fehlende Laser-Scan-System Lidar, dem sich Musk seit jeher vehement verweigert und es als nutzlos bezeichnet.

Auch bei diesem Video ist es für den Hintergrund wichtig zu wissen, dass der gezeigte Test offenbar von der Firma Luminar durchgeführt wurde, deren Geschäft aus dem Vertrieb von Lidar-Systemen besteht.

"Ein Tesla erkennt Pappe"

Die Gegenargumente von Tesla-Fans und -Verteidigern sind zahlreich. Sie reichen von der recht haltlosen Argumentation, ein Tesla "können Pappe von einem echten Kind unterscheiden" bis hin zu Videos, die aus einem ähnlichen Versuchsaufbau bestehen, aber gänzlich andere Resultate zeigen. So schreibt der Twitter-Nutzer "tesladriver2022": "Ich habe gerade Dan O'Dowds Werbung mit dem Pappkameraden zerstört. Nicht nur hat mein Tesla das Kind korrekt erkannt, sondern es jedes Mal verlässlich umfahren."

Bemängelt wird der Testaufbau allerdings deshalb, weil die Parameter ungleich seien – O'Dowd habe die Fahrbahn absichtlich begrenzt, beim Gegenbeweis habe man dem Tesla deutlich mehr Platz gelassen.

Aber: Auch unabhängige Prüfungen wie der Euro NCAP-Test zeigen keine groben Mängel am Verhalten eines Tesla. So sieht man im Video zum Test eines Tesla Model 3, dass das Auto Hindernissen und Personen – auch in Form von Puppen – verlässlich ausweicht.

Der Teufel steckt in den Updates

Ein Problem ist der "Autopilot" dennoch. Denn erstens suggeriert der Name vollständige Autonomität des Autos, welche Tesla weder in der EU, noch in den USA wirklich hat, zweitens basiert jeder Test auf einer anderen Software – und Tesla macht Fahrer im öffentlichen Straßenverkehr zu Testpersonen. 

Nicht nur einmal hat Tesla aufgrund dieser Strategie eine Software zurückgezogen, weil sich nach deren Veröffentlichung herausstellte, dass sich Fehler eingeschlichen hatten und zu Problemen oder gefährlichen Fahrmanövern führen konnten. 

Tesla schreibt selbst auf die Frage, ob es sich bei dem System um eine Möglichkeit handelt, autonom zu fahren: "Noch nicht. Alle Tesla-Fahrzeuge erfordern eine aktive Fahrerüberwachung und sind nicht autonom. Mit dem FSD-Computer erwarten wir, dass wir Milliarden von Kilometern Erfahrung mit unseren Funktionen sammeln, um ein neues Maß an Autonomie zu erreichen. Die Bereitstellung und Verwendung von Autonomiefunktionen erfordern eine nachgewiesene Zuverlässigkeit, die das Vermögen von menschlichen Fahrern weit überschreitet."

Und genau das ist ein Dilemma für den Hersteller: Wie soll man Milliarden von Kilometern in einer angemessenen Zeitspanne abspulen, wenn man die Kunden nicht einbinden darf? Theoretisch könnte man andere Hersteller mit ähnlichen Zielen danach fragen, die seltener wegen toter Pappkameraden in der Presse auftauchen.

Quellen: Dawn Project, What Car, Tesla, Politico, Handelsblatt


Mehr zum Thema



Newsticker