VG-Wort Pixel

Autonomes Fahren Sicherheitsexperten: Teslas neue "Full Self Driving"-Beta-Software fährt "wie ein betrunkener Fahrer"

Tesla Self-Driving-Modus in einem Demonstrations-Video
Teslas Self-Driving-Modus in einem Demonstrations-Video
© Tesla / PR
In den USA spielt Tesla eine Beta-Version für autonomes Fahren auf. Der "Consumer Report" kritisiert den Flächenversuch auf öffentlichen Straßen scharf.

Teslas Umgang mit dem Autopiloten führte immer wieder zu Kritik. Tesla verspreche und suggeriere dem Konsumenten mehr, als das Programm leisten könne. Das sei gefährlich, auch wenn der aufmerksame Kunde gewissermaßen im "Kleingedruckten" dann doch über die Grenzen des Systems aufgeklärt wird.

Seit etwa einer Woche wird Teslas "Full Self-Driving"-Beta-Software auf öffentlichen Straßen eingesetzt. Nun melden sich in den USA die Sicherheitsexperten des einflussreichen "Consumer Reports" ("CR") zu Wort und kritisieren den Einsatz einer Beta-Version im öffentlichen Straßenverkehr – ohne weitere Sicherheitsvorkehrungen – scharf.

FSD beta 9 ist eine Vorversion eines "Full Self-Driving"-Modus. Das Problem fängt schon mit dem Namen an, denn das System leistet keine vollständige Autonomie. Das Software-Update automatisiert viele Fahrsituationen, mit der neuen Software kann das Fahrzeug durch Kreuzungen und Stadtstraßen navigieren – doch nur unter der Aufsicht des Fahrers. Doch: "Videos von FSD Beta 9 in Aktion zeigen kein System, welches das Fahren sicherer oder gar weniger stressig macht", so Jake Fisher, Leiter des Auto Test Centers des "CR". "Die Verbraucher dienen einfach als Testingenieure für die Entwicklung einer Technologie ohne ausreichenden Sicherheitsschutz."

Feldversuch mit Unbeteiligten

Fisher kritisiert, dass Tesla nicht wenigstens die vorhandene Technik nutzt, um die Aufmerksamkeit der Fahrer zu überwachen. "Es reicht nicht, dass Tesla die Leute bittet, aufzupassen - das System muss sicherstellen, dass die Leute engagiert und konzentriert sind, wenn das System in Betrieb ist." Er empfiehlt, die fahrzeuginternen Fahrerüberwachungssysteme einzusetzen, um sicherzustellen, dass die Fahrer ihre Augen auf der Straße haben. "Wir wissen bereits, dass Tests zur Entwicklung selbstfahrender Systeme ohne adäquate Fahrerunterstützung tödlich enden können - und werden."

Tatsächlich scheint die Software leistungsfähiger zu sein, das mache sie im Alltag aber gefährlicher. Fisher: "Wenn eine Software die meiste Zeit gut funktioniert, kann ein kleiner Fehler katastrophale Folgen haben, weil die Fahrer dem System mehr vertrauen und weniger eingreifen, wenn es nötig ist."

Weit von wirklicher Autonomie entfernt

Andere Experten sind von den Leistungen der Beta-Software entsetzt. Selika Josiah Talbott, Professorin an der American University School of Public Affairs in Washington, D. C., sagte, dass sie Videos, gesehen habe, in denen der Tesla sich "fast wie ein betrunkener Fahrer" verhalten und Mühe gehabt hätte, zwischen den Fahrspurlinien zu bleiben. "Er schlängelt sich nach links, er schlängelt sich nach rechts", sagt sie. "Während seine Rechtskurven recht solide zu sein scheinen, sind die Linkskurven ziemlich wild."

"Es ist schwer von außen zu sagen, was genau das Problem ist, wenn man sich die Videos anschaut. Aber es ist klar, dass die Software ein Problem mit der Objekterkennung und/oder -klassifizierung hat", sagt Missy Cummings, Automatisierungsexpertin und Leiterin des Humans and Autonomy Laboratory an der Duke University in Durham, N.C. Sie schließe nicht aus, dass es möglich sei, das Tesla irgendwann in der Zukunft selbstfahrende Autos baue. "Aber sind sie jetzt schon so weit? Nein. Sind sie sogar nahe dran? Nein."

"Es ist ein sehr Silicon-Valley-artiges Ethos, seine Software zu 80 Prozent fertigzustellen, sie dann zu veröffentlichen und die Benutzer die Probleme herausfinden zu lassen", so Cummings weiter. "Und vielleicht ist das für ein Handy okay, aber nicht für ein sicherheitskritisches System."

Staatliche Regeln nötig 

Teslas Kurs könne die ganze Industrie schädigen, fürchtet Jason Levine, Geschäftsführer des Center for Auto Safety, "Fahrzeughersteller, die sich dafür entscheiden, ihre ungeprüfte Technologie mit den Besitzern ihrer Fahrzeuge und in der Öffentlichkeit ohne Zustimmung zu testen, werfen im besten Fall die Sache der Sicherheit zurück und führen im schlimmsten Fall zu vermeidbaren Unfällen und Todesfällen".

"CR" kritisiert das ganze Vorgehen, eine Beta-Version in der Öffentlichkeit auszuprobieren. Bryan Reimer, Professor am MIT sagte dem "CR", dass "die Fahrer ein Bewusstsein für das erhöhte Risiko haben, das sie eingehen, während andere Verkehrsteilnehmer - Autofahrer, Fußgänger, Radfahrer usw. - sich nicht bewusst sind, dass sie sich in der Nähe eines Testfahrzeugs befinden. Sie haben nicht zugestimmt, so ein Risiko einzugehen."

Tesla wird seit einiger Zeit für seinen hemdsärmeligen und kostensparenden Stil beim autonomen Fahren kritisiert. Gründer Elon Musk verteidigt etwa aggressiv die Entscheidung, bei den Tesla-Modellen auf zusätzliche Lidar-Sensoren zu verzichten. Andere Firmen, die selbstfahrende Autos entwickeln, wie Argo AI, Cruise und Waymo, sagten dem "CR", dass sie Softwaretests nur auf private Strecken beschränken und ausgebildete Fahrer als Beobachter einsetzen.

Der "CR" fordert, dass in den USA strenge, vernünftige Sicherheitsregeln eingeführt werden und dass die Hersteller für ihre Fehler haften müssen. William Wallace, Manager für Sicherheitspolitik beim "CR": "Andernfalls werden einige Unternehmen unsere öffentlichen Straßen einfach wie ein privates Testgelände behandeln, ohne dass sie für die Sicherheit verantwortlich gemacht werden."


Mehr zum Thema


Wissenscommunity


Newsticker