VG-Wort Pixel

Hoffnung für Locked-in-Patienten Sprache kann aus Hirnströmen rekonstruiert werden

Aus Gehirnströmen lässt sich Sprache rekonstruieren
Zum ersten Mal konnten Forscher das Gehirn beim Sprechen beobachten. 
© picture alliance
Locked-in-Patienten sind vollständig gelähmt und können sich daher nicht mitteilen. Forschern ist es nun gelungen, aus Hirnströmen Wörter und ganze Sätze zu rekonstruieren.

Forscher des Karlsruher Instituts für Technologie
(KIT) haben aus Gehirnströmen Laute, Wörter und ganze Sätze
rekonstruiert. Ausgewertet wurden Daten der Gehirnströme von sieben Epilepsiepatienten in den USA: Ihnen lag während des Sprechens ein Elektrodennetz direkt auf der Großhirnrinde. Ärzte hatten die Gehirne für ihre Epilepsie-Behandlung ohnehin freigelegt. Mit Elektroden, die von außen auf den Kopf angelegt werden und so die elektrische Aktivität des Gehirns messen, sind solche spezifischen Aufzeichnungen noch nicht möglich.

Neben einem besseren Verständnis der Sprachprozesse könnte der sogenannte Brain-to-Text ein Baustein sein, um Locked-in-Patienten zukünftig eine sprachliche Kommunikation zu ermöglichen. Beim Locked-in-Syndrom sind Menschen zwar bei Bewusstsein, aber gelähmt und damit unfähig, sich der Außenwelt verständlich zu machen.

"Zum ersten Mal können wir das Gehirn beim Sprechen beobachten",
sagte Informatik-Professorin Tanja Schultz. Die Forscher können nun
praktisch zusehen, wie das Gehirn den Sprechvorgang plant und dann
die Muskeln der Artikulationsorgane mittels der Neuronen in der
Großhirnrinde aktiviert, bevor die eigentliche Sprache hörbar wird.
Sichtbar gemacht wurden die Aktivitäten mit Hilfe von Farben: "Je
höher die Aktivität, umso heißer die Farbe, erklärte Schultz.

Noch weit von akustischer Spracherkennung entfernt

Die Patienten waren zuvor gebeten worden, bestimmte Texte zu sprechen - etwa eine Rede des ehemaligen US-Präsidenten John F. Kennedy oder auch einfache Kinderreime. Die Forscher wussten also zunächst, welche Laute wann gesprochen wurden und legten mit Hilfe der dabei gemessenen Hirnströme Datenbanken mit Prototypen von etwa 50 verschiedenen Lauten an.

Auf Basis von Algorithmen gelang es anschließend, allein anhand der

Gehirnströme zu verstehen, was gesagt wurde. Dazu werden Laute im
Kontext von Wörtern und ganzen Satzphrasen betrachtet. "Wir bekommen damit schöne Ergebnisse, die in der Qualität zwar noch weit von der akustischen Spracherkennung entfernt, aber schon deutlich besser sind, als wenn man rät", sagte Schultz.

Knackpunkt der vierjährigen Forschung ist bislang die geringe
Datenbasis von nur sieben Patienten, von denen jeweils höchstens fünf
Minuten Sprache vorliegen. Die Wissenschaftler wollen ihre Analysen
daher ausweiten. 

mh/DPA

Mehr zum Thema


Wissenscommunity


Newsticker