HOME

Autonomes Fahren: Kann man selbstfahrenden Autos überhaupt vertrauen?

Die Technik autonomer Fahrzeuge ist weit fortgeschritten. Erfolg haben aber kann sie nur, wenn sich die Menschen auf sie einlassen. Genau daran arbeiten derzeit Ingenieure und Psychologen.

Von Frank Ochmann

Autonome Autos: Ingenieure werben um Vertrauen in die neue Technik

Zukunftsauto ohne Lenkrad – der für 2019 geplante Chevrolet Cruise AV

Die Katastrophe traf Joshua Brown in gelöster Stimmung. Neun Monate schon hatte er seinen halb autonom fahrenden Tesla S und in dieser Zeit über 70.000 Kilometer zurückgelegt. Der 40-jährige Irak-Veteran liebte die fortschrittliche Technik, war in den Wagen vernarrt, sagen Freunde; "Tessy" nannte er das Gefährt liebevoll. Dann aber, am 7. Mai 2016, übersah "Tessy" einen Sattelschlepper. Und Joshua Brown starb. Glimpflich davon kam kürzlich ein anderer Tesla-Fahrer. Sein Wagen schob sich im autonomen Modus unter einen Feuerlöschzug, doch niemand wurde verletzt. Ob tatsächlich der Autopilot für den Crash verantwortlich ist, wie der Mann behauptet, wird derzeit untersucht. Mulmige Gefühle aber bleiben in jedem Fall.

Und die zeigen sich schon länger: Drei Viertel der Befragten in den USA, so eine Umfrage der American Automobile Association, haben Angst, in ein automatisches Fahrzeug einzusteigen. Und bei einer Umfrage des ADAC Ende 2016 glaubten zwar die meisten an den unaufhaltsamen Siegeszug des autonomen Fahrens, doch nur etwa ein Drittel der Befragten war an einem solchen Pkw selbst interessiert. Dabei ist der Faktor, der diese Roboter auf Rädern für die einen attraktiv macht, derselbe, der viele andere zögern lässt – die Sicherheit. Zwar glauben viele, es könnte durch das automatische Fahren weniger Unfälle geben. Doch die Hälfte der Befragten gab auch an, ihnen sei unwohl bei dem Gedanken, die Kontrolle über das Auto an das Auto abzugeben.

Vertrauen ist eine Sache des Gefühls, nicht des Kalküls

Es fehlt also am Vertrauen. Ohne Vertrauen ihrer potenziellen Nutzer aber lässt sich auch die durchdachteste Technik nicht flächendeckend einführen. Jack Weast, Chefkonstrukteur für autonome Fahrsysteme beim Hightechkonzern Intel, drückt das so aus: "Wenn die Kunden ihre Kinder nicht in ein solches Fahrzeug setzen wollen, gibt es keinen Markt." Höher könnte die Anforderung an ein derartiges Steuerungssystem kaum sein. Dabei sind die Zahlen durchaus ermutigend. Mehr als 200 Millionen automatisch gefahrene Kilometer war alles gut gelaufen, wie Tesla-Chef Elon Musk nach dem Tod von Joshua Brown twitterte. Und auch Brown würde womöglich noch leben, hätte er die Warnungen des Bordcomputers beachtet und die Steuerung seines Wagens rechtzeitig übernommen. Sechsmal wurde er vor dem Crash akustisch aufgefordert, die Hände wieder ans Lenkrad zu legen, das ergab die Untersuchung der US-Aufsichtsbehörde für die Verkehrssicherheit. Dazu erfolgten sieben optische Warnungen der Instrumentenanzeige. Im Januar 2017 wurde der Fall zu den Akten gelegt. Fazit: Das technische System hatte fehlerlos gearbeitet.

Der Mercedes F 015, der etwa für das Jahr 2030 konzipiert wurde

Der Mercedes F 015, der etwa für das Jahr 2030 konzipiert wurde

Doch hat die Maschine einen moralischen Anspruch auf Rechtfertigung? Kann "Tessy" einem Menschen vorwerfen, sein Vertrauen sei in tödlichen Leichtsinn umgeschlagen? Nach wissenschaftlichen Schätzungen könnte autonomes Fahren fast so viele Leben retten wie das Impfen gegen Infektionskrankheiten – nämlich etwa 30.000 pro Jahr allein in den USA. Weltweit bliebe einer Million Menschen ein vorzeitiges Ende erspart, wenn Computer auf der Straße steuerten. Doch so ticken unsere Hirne nicht. Das Gesicht eines Opfers wiegt meist schwerer als eine zwar imposante, doch gesichtslose Zahl. Vertrauen ist eine Sache des Gefühls, nicht des Kalküls. Das haben längst auch die Verfechter des autonomen Verkehrs verstanden, und so wird derzeit viel darüber geforscht, wie es der beherrschenden Technik in einem selbststeuernden Fahrzeug gelingen könnte, den ihr ausgelieferten Insassen gute Gefühle zu bereiten. Wer sich schon einmal dabei ertappt hat, den Wagen am Wochenende nicht nur gewaschen, sondern auch noch liebevoll gestreichelt zu haben, kennt intuitiv zumindest eine Lösung des Problems: Aus dem "Es" muss ein "Du" werden. Von der "Mensch-Maschine-Schnittstelle" sprechen Experten wie die Psychologin Nadja Schömig vom Würzburger Institut für Verkehrswissenschaften, unter dessen Auftraggebern kein deutscher Automobilkonzern fehlt. Denn sie alle müssen wissen, wie man Mensch und Maschine in einer glücklichen Beziehung vereinen kann.

"Zum Vertrauen gehört, dass sich der Fahrer zu jeder Zeit über den Zustand des Systems bewusst sein muss", sagt Schömig. Er muss also wissen, welche Aufgaben genau der Computer übernimmt und wann der Mensch wieder gefragt ist, weil das Auto womöglich gefährliches Terrain erreicht hat. Solche Entscheidungen sind eine Gratwanderung, denn natürlich soll sich der Mensch während des autonomen Fahrens entspannen und mit etwas anderem als dem Geschehen auf der Straße beschäftigen können. "Doch ganz wichtig ist es, kein übermäßiges Vertrauen zu erzeugen", warnt die Würzburger Psychologin. "Denn dann überschätzt der Fahrer die Fähigkeiten des Systems und reagiert nicht mehr angemessen." Die Vertrauensfrage an der "Mensch-Maschine-Schnittstelle" hat also mindestens zwei Ebenen: Einerseits sollen potenzielle Fahrer – und Kunden – von der Sicherheit des angebotenen autonomen Pkws ganz und gar überzeugt sein. Sitzen sie aber erst einmal drin, darf ihr Vertrauen nicht zu groß werden.

Überschätzung kann bei Mensch wie Maschine tödliche Folgen haben

Tatsächlich braucht es gar nicht viel, um im Kopf eines Menschen das Gefühl von Geborgenheit und Verständnis zu wecken. Das liegt zum Beispiel daran, dass unser Gehirn nach einem ansprechbaren Gegenüber geradezu lechzt und darum noch hinter der krudesten Computerstimme eine ansprechbare Persönlichkeit vermutet. So wussten die Versuchsteilnehmer 2001 bei einer Studie an der Stanford University ganz genau, dass während der Tests eine Maschine mit ihnen sprach. Für ihr Verhalten aber spielte das keine große Rolle. Die Forscher konnten zeigen, dass es mit einfachen akustischen Variablen wie Lautstärke, Tonhöhe und Schnelligkeit der Sprache möglich war, die Illusion eines eher extrovertierten oder zurückhaltenden Charakters zu erzeugen. Der Clou: Je mehr dieser künstliche Charakter dem der jeweiligen Versuchsperson entsprach, desto vertrauenswürdiger erschien ihr der Computer – und desto mehr waren die Probanden auch bereit, seinen Empfehlungen zu folgen. Im Fall der Stanford-Studie war das der Kauf eines bestimmten Buches, dessen Rezension der Computer mal so und mal anders vorgelesen hatte.

Ein Affe beist in den Maschndraht seines Käfigs, während Rauch die Sicht vernebelt

Doch auch Fahrzeugcomputer konnten schon menschliches Vertrauen gewinnen, nicht nur von Technikfreaks, wie Joshua Brown einer war. Selbst Skeptiker ließen sich ohne größeren Widerstand umstimmen, wie etwa kürzlich Versuche von Intel zeigten. Voraussetzung für den Vertrauenserweis war, dass sich die Probanden menschlich angenommen fühlten. So half es, wenn der Fahrcomputer seine Entscheidungen erläuterte und zum Beispiel ein Bremsen ankündigte, weil er Fußgänger entdeckt hatte, die über die Straße wollten. Selbst ein kurzes "Hallo" aus einem Lautsprecher im Auto konnte anfänglich noch zögerliche Fahrgäste schon in Sicherheit wiegen. "Wer denkt, dass ihn das Auto mag, nimmt offenbar auch an, es würde sich deshalb mehr anstrengen, seine Sache gut zu machen – und das ist furchtbar besorgniserregend", sagt Stanford-Forscherin Wendy Ju, die an diesen Untersuchungen beteiligt war. Denn Überschätzung kann bei Mensch wie Maschine tödliche Folgen haben. Beim Design von "Mensch-Maschine-Schnittstellen" ist es darum nicht das Ziel, möglichst grenzenloses Vertrauen zu erzeugen. Vielmehr müssen den Nutzern mögliche Fehlerquellen bewusst gemacht werden. Denn Vertrauen wird allenfalls zu Beginn auf Vorschuss gewährt. Sind die danach gemachten Erfahrungen enttäuschend, wird es wieder entzogen. Wie also sollte die Erfahrung konkret sein?

Soll sich ein automatisiertes System wie ein 'normaler' Fahrer verhalten?

"Im Forschungsmittelpunkt steht derzeit besonders die Frage, ob sich ein automatisiertes System wie ein 'normaler' Fahrer verhalten soll", sagt die Psychologin Nadja Schömig. Das betrifft einerseits die Regeltreue zur Straßenverkehrsordnung, aber auch den Fahrstil. "Dabei zeigt sich, dass die Wünsche an das System auch vom Alter abhängen." Jüngere Probanden unter 45 Jahren fühlten sich beim autonomen Fahren besonders dann wohl, wenn ihr eigener Fahrstil kopiert wurde. Ältere Versuchsteilnehmer dagegen hielten die eigene Fahrweise eher für nicht vertrauenerweckend. Einig waren sich dagegen Probandengruppen mit unterschiedlichem Fahrstil: "Beide Fahrergruppen präferierten den defensiven Fahrstil für das automatisierte Fahrzeug." Sicher ist halt sicher.

Life Hacks "Auto": So wissen Sie immer, auf welcher Seite der Tankdeckel ist

Sollen bald viele autonome Pkws auf die Straßen kommen, stellt sich die Vertrauensfrage aber nicht nur für deren Insassen, sondern auch für andere Verkehrsteilnehmer. Sollten autonome Fahrzeuge zum Beispiel nach außen kenntlich gemacht werden? So ließe sich das Verhalten des Selbstfahrers für andere womöglich besser einschätzen, vermutet Nadja Schömig. Denn eine sonst alltägliche Kommunikation von Fahrer zu Fahrer oder auch zwischen Autofahrer und Fußgänger per Handzeichen oder Kopfnicken ist im Fall der autonomen Maschine nicht oder zumindest nicht einfach möglich. Durch eine äußere Markierung wäre auf der Straße zumindest klar, mit wem man es zu tun hat. "Andererseits könnte das aber auch wieder zu überhöhten Erwartungen an das System führen", befürchtet die Psychologin. In diesem Fall würde die Gefahr einer Überschätzung auch von außen drohen und nicht nur von den Passagieren. "Zu dieser Frage ist noch nicht viel geforscht worden. Das wird sich aber bald ändern."

Was auch immer dabei herauskommt – am Ende kann kein autonomes Fahrzeug dem Menschen die Entscheidung abnehmen, ob er dem Computer am Steuer traut oder nicht und ob er selbst seine Kinder dem Automaten überlassen würde. Nadja Schömig hat einen Sohn. Würde sie den mit gutem Gewissen in ein solches Fahrzeug setzen? Einen fahrerlosen Schulbus zum Beispiel? Ihre Antwort, so sagt sie, sei eher die der Mutter als die der Wissenschaftlerin: "Ich muss meinen Sohn derzeit einem Fahrer anvertrauen und darauf hoffen, dass der nicht betrunken oder übermüdet den Schulbus lenkt. Ein automatisiertes System wird hundertmal mehr überwacht und geprüft als ein Busfahrer. Auch wenn ich meinen Sohn selbst zur Schule fahre, habe ich keine hundertprozentige Sicherheit. Ein Restrisiko bleibt immer."

Reaktionen auf Tesla-Auto im All: "Hätte Musk nicht erst Steckdosen hinschießen sollen?"
Themen in diesem Artikel

Wissenscommunity