Automatische Spracherkennung Auto stoppt lallende Fahrer

Man steigt ins Auto, doch es startet nicht, weil der Fahrer betrunken ist. Noch eine Vision, doch Wissenschaftler aus München arbeiten an einer Software, die Betrunkene an der Stimme erkennt.

Es ist ein Uhr morgens, Sie steigen in Ihr Auto und es fragt Sie, wie es Ihnen geht, was es zum Abendessen gab und ob Ihre Fußballmannschaft gestern gewonnen hat. Sie antworten freundlich, stecken den Schlüssel ins Schloss und drehen ihn um. Nichts passiert. Das Auto lässt sich nicht starten. Der Grund dafür ist ganz einfach: Das Auto hat das Sprachmuster analysiert und festgestellt, dass Sie höchstwahrscheinlich ein paar Bierchen zu viel hatten. Bestimmt rät es Ihnen, lieber ein Taxi zu nehmen. Gerne würde es das auch sofort für Sie bestellen.

So könnte die Zukunft für so manchen Autofahrer aussehen. Seit Jahren arbeitet die Autoindustrie an Methoden, um alkoholisierte Fahrer zu erkennen und sie von einer Trunkenheitsfahrt abzuhalten. Nissan etwa präsentierte bereits im Jahr 2007 ein Konzeptfahrzeug, in dem verschiedene Sensoren die Verkehrstauglichkeit des Fahrers überprüfen sollten. Duft- und Schweißsensoren für den Atem und die Handfläche sowie eine Gesichtskamera sollten in der Studie Anzeichen von Alkoholkonsum erkennen und dann den Motor nicht starten lassen.

"Die Köchin mit dem Tupfenkopftuch kocht Karpfen in dem Kupferkochtopf"

Ein anderer Ansatz ist die sogenannte Alcohol Language Corpus (ALC) der Ludwig-Maximilian-Universität in München. Dafür haben die Wissenschaftler des Instituts für Rechtsmedizin 162 Männer und Frauen betrunken gemacht, in ein stehendes Auto gesetzt und sie Texte aufsagen lassen. Wieviel Bier oder Wein sie tranken, entschieden die Tespersonen selbst. Dann mussten sie einzelne Ziffern, Buchstaben und Worte, aber auch ganze Sätze wie "Die Köchin mit dem Tupfenkopftuch kocht Karpfen in dem Kupferkochtopf" in das Mikrofon sprachen. Entstanden ist eine rund 30 GB umfassende Datenbank.

"Rund ein Drittel des gesammelten Sprachmaterials war autospezifisch, also bezog sich auf die Sprachsteuerung von etwa Radio oder Navi", sagt Christian Heinrich, der als Co-Author an dem Projekt mitgewirkt hat zum stern. Die Spracherkennung funktioniert allerdings nur individuell. Jeder Fahrer muss persönlich das System besprechen, damit ein auf ihn angepasstes Muster entsteht. In modernen Autos könnten man dies mit einer Aufzeichnungsfunktion im Alltag ganz nebenbei erledigen, meint Heinrich.

Genauigkeit von über 70 Prozent

Hunderprozentig arbeitet das System allerdings nicht. Einer Studie der University of Columbia aus dem Jahr 2011 zufolge ist eine Erkennung nicht sicher vor Ungenauigkeiten. Die Computeralgorithmen, die den Zustand des Fahrers anhand der Sprachdaten bewerten sollen, haben nur eine Genauigkeit von über 70 Prozent.

Unterstützung erforderlich

Das ändert sich aber, wenn mehrere Erkennungssysteme miteinander kombiniert werden. Aus der Fülle der Informationen kann so eine recht genaues Bild über den Zustand des Fahrers entstehen – und das nicht erst in ferner Zukunft. "Unterstützt etwa von einer Kamera, die Augen- und Körperbewegungen auswertet, könnte die Spracherkennung schon zeitnah eine marktreife Lösung sein", sagt Heinrich.

So ein komplexes System ist aufwändig, dürfte im Alltag aber akzeptiert werden, weil die Analyse unauffällig arbeitet. Sehr viel einfacher sind Testgeräte, die den Atemalkohol messen. Atemtester baut allerdings niemand freiwillig in sein Auto ein. Nur wenn Gesetze oder Urteile es verlangen, werden sie installiert. Eine weitere Nachteil: Die einfache Technik lässt sich leicht überlisten. Das dürfte bei der Gesichts- und Spracherkennung schwieriger sein.