Auch wenn sich Alexa bisher nicht zur gewünschten Shopping-Begleitung mit Milliarden-Umsätzen entwickelt hat, geht die Arbeit für Amazon an dem Projekt stetig weiter. Vor allem auch für jene, die ohne Alexa kaum noch können – Menschen mit Behinderungen, denen zu Bewältigung des Alltags nur die Sprache bleibt. Der stern sprach mit Dr. Philipp Berger, Alexa-Chef in Deutschland, Sven Paukstadt, Alexa-Experte und verantwortlich für das Projekt "Alexa für Alle" und Hamoun Kamai, einem Alexa-Nutzer der ersten Stunde, der seit einem Unfall von den Schultern abwärts gelähmt ist, über das inklusive Projekt – und was es einigen wirklich bedeutet.
Herr Kamai, wo genau hilft Ihnen Alexa im Alltag?
Kamai: Die Frage ist eher: Was macht sie nicht? Ich bin von den Schultern abwärts gelähmt und kann Technik nur per Sprache nutzen. Das betrifft mittlerweile mein gesamtes Zuhause. Türen öffnen, Fernseher bedienen, Beleuchtung und Raumtemperatur steuern – alles mache ich mit Alexa.
Unterstützt Alexa das alles ab Werk?
Kamai: Vieles, ja. Aber bei einer Lösung für die Steuerung von meinem Pflegebett musste ich mir was eigenes ausdenken. Das ist nicht immer einfach, aber aufgrund der vielen Smart-Home-Produkte, die man einbinden kann, immerhin irgendwie möglich. Und wenn ich mal ein Problem habe, spreche ich direkt mit Amazon.
Wie gestaltet sich diese Zusammenarbeit und an wen wendet man sich da?
Kamai: Ich habe mich damals, als zum Start von Alexa, einfach an die Kommunikationsabteilung gewandt. Das mache ich heute noch, weil man mich dort kennt.
Ist das tatsächlich der gewünschte Weg?
Paukstadt: Der Weg, den Hamoun gewählt hat, war damals sicher der richtige. Viele kontaktieren uns auch über die sozialen Medien, dort haben wir ja auch Mitarbeiter:innen sitzen, die entsprechende Anfragen an uns weiterleiten. Es gibt zudem ein E-Mail-Postfach, das heißt alexa-fuer-alle@amazon.de, an das man sich wenden kann. Eine weitere Möglichkeit, uns zu erreichen, geht über die Partnerverbände, mit denen wir arbeiten, beispielsweise die Josefs-Gesellschaft, die Deutsche Alzheimer Gesellschaft oder das Deutsche Rote Kreuz. Dort gibt es immer wieder Testreihen, an denen Interessierte teilnehmen können. Das Feedback daraus oder weiterführende Ideen werden meist mit uns geteilt.
War das von Anfang an geplant, Alexa mit einem Fokus auf Menschen mit Behinderung zu entwickeln oder ergab sich das per Zufall?
Dr. Berger: Ja und nein. Es liegt nahe, dass man Menschen mit Behinderungen einbezieht, wenn man ein Produkt, welches auf Sprachsteuerung basiert, entwickelt. Zum Beispiel denkt man da sofort an Blinde. Auf der anderen Seite waren wir vor all den Jahren noch an einem ganz anderen Punkt. Da war es etwas Besonderes, überhaupt eine Sprachsteuerung im Raum zu haben – die Feinheiten kamen dann nach und nach.
Weil die Kunden die Technik auch erst einmal entdecken mussten.
Dr. Berger: Natürlich. Vor all den Jahren wussten wir noch nicht, wie der Kunde überhaupt mit Alexa interagiert. Es gab eine Handvoll Features und dann haben wir sehr schnell gemerkt: Wir haben nicht damit gerechnet, wie es genutzt wird.
Wie ist das gemeint?
Dr. Berger: Interaktionen wie ein tägliches Guten Morgen an Alexa – da hatten wir am Anfang keinen so starken Fokus wie heute, weil wir zunächst überrascht waren, wie sehr die Menschen mit Alexa in den Dialog gehen wollen. Wir gingen davon aus, dass Alexa funktional sein musste und kein so starker Alltagsbegleiter. Zum Glück war die Entwicklung von Alexa immer schon recht ergebnisoffen, sodass wir Anpassungen berücksichtigen konnten.
Die da wären?
Dr. Berger: Bei älteren Menschen oder Kindern, die mit Alexa sprechen, kommt es beispielsweise immer wieder zu Denkpausen – sowas muss man erstmal in der Praxis erleben, bevor man darauf optimieren kann. Dieses sogenannte adaptive Zuhören kam dann. Damit bleibt Alexa nach dem Aktivierungswort länger auf Empfang und gleicht so Probleme der Menschen aus, die Schwierigkeiten bei der Artikulation haben. Es zeigt, dass wir das Feedback verschiedener Kundengruppen aufnehmen, um das Produkt weiterzuentwickeln - Alexa für alle eben.
Für alle heißt für mich auch: für Taube. Die können Alexa ja noch nicht in ihren Alltag integrieren.
Paukstadt: Das wissen wir. Aber auch da haben wir schon dran gedacht, auch wenn das natürlich bei einer Sprachsteuerung mit Tonwiedergabe ein echtes Problem ist. Theoretisch könnte man die Alexa-Geräte, die heute schon mit einer Kamera und einem Bildschirm arbeiten, fit für die Eingabe von Gebärdensprache machen. Das ist aber komplizierter als man denkt, denn Gebärdensprache wirklich zu verstehen und korrekt zu verarbeiten, ist sehr schwierig, da sie nicht international gleich ist, sondern sich stark unterscheidet. Was wir bei der Sprache als Dialekt kennen, gibt es auch dort. Eine Mammutaufgabe. Das können wir nicht von heute auf morgen stemmen, sondern werden es dann verfügbar machen, wenn es die Technik und der Aufwand erlauben.
Außerdem können diese Menschen ja Touchscreens bedienen.
Dr. Berger: Was Buttons und Erweiterungen auf grafischer Ebene betrifft, sind wir gut aufgestellt. Es gibt sogar physische Knöpfe, an die sich Alexa-Routinen ohne Sprachbefehl binden lassen. Dabei haben wir nicht nur Taube Menschen im Sinn, sondern auch Alzheimer-Erkrankte, denen sowas helfen kann, den Alltag zu strukturieren. Das geht über ganz einfache Routinen, etwa einen Schalter für das Hochfahren aller Rollos oder den Start eines sonst vielleicht zu komplizierten Videocalls mit der Familie.
Paukstadt: In solchen Fällen helfen dann auch die Untertitel bei den Geräten mit Bildschirmen, also den Echo-Show-Geräten.
Das klingt alles sehr rund. Fehlt denn irgendwas für den perfekten Alltag?
Kamai: Ja, absolut. Seit ich Alexa nutze, ist mir die Kommunikation zu simpel. Ich würde mir echte Dialoge wünschen, die im besten Fall auf Vorwissen basieren. So ein echter Co-Pilot für den Alltag.
Wie Jarvis bei Iron Man.
Kamai: Das wäre der Traum, ja. Wenn Alexa dann noch in der Lage wäre, mir bei neuen Projekten, zum Beispiel meiner Bettsteuerung, Tipps zu geben, wie ich das am besten einrichte und was ich dafür brauche, wäre das super nützlich.
Könnte dabei ein Large-Language-Model wie ChatGPT helfen?
Dr. Berger: Es ist vereinbar, aber da gibt es viele Schritte, die wir gehen müssen. Generative AI muss erst noch richtig in die physische Welt angebunden werden, damit man damit auch Dinge wirklich steuern kann. Etwas wie ChatGPT reicht da nicht.
Weil ChatGPT auch viele Fehler macht.
Dr. Berger: Die Halluzinationen sind ein Problem, ja. Manchmal erzählt das System einfach Unsinn und die Daten basieren auf recht alten Wissensständen, was für einen Sprachassistenten mit Alltagsfunktion nicht gut ist. Das soll nicht heißen, dass wir damit nicht arbeiten. LLMs helfen uns enorm dabei, große Textmengen zu verarbeiten und Alexa damit anzulernen. Und wir optimieren das Alexa-Erlebnis kontinuierlich. Dazu haben wir vor kurzem weitere, auf generativer KI basierende Alexa-Funktionen angekündigt.
Was machen Menschen, die auf Alexa angewiesen sind, eigentlich, wenn das Internet ausfällt?
Kamai: Da grätsche ich dazwischen. Das ist eigentlich unerheblich, da mir bei einem Internetausfall sowieso fast alle Geräte den Dienst versagen. Ob ich die dann noch mit Sprachbefehlen erreiche, oder nicht, spielt keine Rolle. Funktionierendes Internet muss einfach da sein, deswegen spielen Offline-Funktionen in meinen Augen keine große Rolle – es sei denn natürlich, das ganze Ökosystem kommuniziert auf lokaler Ebene. Tut es aber leider nicht.