Forscher des Karlsruher Instituts für Technologie
(KIT) haben aus Gehirnströmen Laute, Wörter und ganze Sätze
rekonstruiert. Ausgewertet wurden Daten der Gehirnströme von sieben Epilepsiepatienten in den USA: Ihnen lag während des Sprechens ein Elektrodennetz direkt auf der Großhirnrinde. Ärzte hatten die Gehirne für ihre Epilepsie-Behandlung ohnehin freigelegt. Mit Elektroden, die von außen auf den Kopf angelegt werden und so die elektrische Aktivität des Gehirns messen, sind solche spezifischen Aufzeichnungen noch nicht möglich.
Neben einem besseren Verständnis der Sprachprozesse könnte der sogenannte Brain-to-Text ein Baustein sein, um Locked-in-Patienten zukünftig eine sprachliche Kommunikation zu ermöglichen. Beim Locked-in-Syndrom sind Menschen zwar bei Bewusstsein, aber gelähmt und damit unfähig, sich der Außenwelt verständlich zu machen.
"Zum ersten Mal können wir das Gehirn beim Sprechen beobachten",
sagte Informatik-Professorin Tanja Schultz. Die Forscher können nun
praktisch zusehen, wie das Gehirn den Sprechvorgang plant und dann
die Muskeln der Artikulationsorgane mittels der Neuronen in der
Großhirnrinde aktiviert, bevor die eigentliche Sprache hörbar wird.
Sichtbar gemacht wurden die Aktivitäten mit Hilfe von Farben: "Je
höher die Aktivität, umso heißer die Farbe, erklärte Schultz.
Noch weit von akustischer Spracherkennung entfernt
Die Patienten waren zuvor gebeten worden, bestimmte Texte zu sprechen - etwa eine Rede des ehemaligen US-Präsidenten John F. Kennedy oder auch einfache Kinderreime. Die Forscher wussten also zunächst, welche Laute wann gesprochen wurden und legten mit Hilfe der dabei gemessenen Hirnströme Datenbanken mit Prototypen von etwa 50 verschiedenen Lauten an.
Auf Basis von Algorithmen gelang es anschließend, allein anhand der
Gehirnströme zu verstehen, was gesagt wurde. Dazu werden Laute im
Kontext von Wörtern und ganzen Satzphrasen betrachtet. "Wir bekommen damit schöne Ergebnisse, die in der Qualität zwar noch weit von der akustischen Spracherkennung entfernt, aber schon deutlich besser sind, als wenn man rät", sagte Schultz.
Knackpunkt der vierjährigen Forschung ist bislang die geringe
Datenbasis von nur sieben Patienten, von denen jeweils höchstens fünf
Minuten Sprache vorliegen. Die Wissenschaftler wollen ihre Analysen
daher ausweiten.