"Hey, teacher, leave them kids alone!" Na, hören Sie es schon? Mit "Another Brick in the Wall" hat die britische Rockband Pink Floyd einen Ohrwurm in die Welt gesetzt, der seit mehr als vier Jahrzehnten regelmäßig durch unzählige Köpfe spukt. Wortwörtlich. Nur müsste heute spätestens beim Einsatz des leicht schaurigen Kinderchors die Frage eigentlich lauten: Na, denken Sie es schon?
Forscher der University of California in Berkeley konnten offenbar genau das nachweisen. Sie wandelten mithilfe künstlicher Intelligenz die Gehirnwellen von Probanden, die den Song hörten, in Audiowellen um. Einfacher gesagt: Sie übersetzten einen Gedanken in echte Töne – ein lebendiger Ohrwurm, sozusagen.
Forscher übersetzen Song von Pink Floyd aus den Gedanken von Probanden
"Wir brauchen keine Gedankenkontrolle", tönt der Chor im Rock-Klassiker von 1979. Immerhin ging es in dem Fall nicht um das Steuern. Ein Mensch hört einen Song, ein Computer schaut dem Menschen beim Zuhören zu – und übersetzt dessen Gedanken wieder in Musik. Was wie so vieles einst nach Science Fiction klang, ist heute einfach nur Science – echte, angewandte Wissenschaft.
Laut einer am Dienstag im Fachmagazin "PLoS Biology" veröffentlichen Studie ist es einem Forscherteam gelungen, Hirnaktivitäten von Probanden, die das bekannte Lied "Another Brick in the Wall" hörten, zu analysieren und die neuronalen Muster mittels KI in eine Audiospur umzudeuten.
Das Ergebnis ist jedoch ein wissenschaftlicher Durchbruch, der für viele Menschen der erste Schritt in ein neues, selbstbestimmteres Leben sein könnte.
Zugegeben: Die gedankliche Übersetzung von Pink Floyds Welthit ist sicher keine fein abgemischte Ohrenfreude. Die KI-gestützte Musik klingt im besten Fall gedämpft. Es hört sich in etwa so an, als würde ein Alien den Song vom Boden eines Sees trällern:
Die Forschungsergebnisse machten den Unterschied zwischen Musik und Sprache sichtbar. Hörten die Probanden Musik, leuchteten vornehmlich Elektroden auf der rechten Hirnhälfte. Bei Sprache sei es genau anders herum. Das könnte auch erklären, warum Menschen, die nach einem Schlaganfall nicht mehr deutlich sprechen können, teils noch klar verständlich singen können.
Wissenschaftlich spricht vieles für Pink Floyd – und auch nicht-wissenschaftlich
Jetzt "kann man tatsächlich dem Gehirn zuhören und die Musik wiederherstellen, die die Person gehört hat", erklärt Gerwin Schalk, der mit seinem Labor im chinesischen Shanghai Daten für die Studie sammelte, der "New York Times" (NYT).
Bereits zuvor war es den Wissenschaftlern gelungen, einzelne Wörter aus elektrischen Signalen zu ziehen – sogar dann, wenn die Teilnehmer stumm blieben. Studienleiter Robert Knight von der University of California in Berkeley hatte einen seiner Doktoranden Ludovic Bellier das Ganze mit Musik versuchen lassen – angeblich, weil er selbst in einer Band war.
Und warum gerade dieser Song? Die Kombination aus 41 Sekunden Text und rund zweieinhalb Minuten unterschiedlichster Instrumentalmusik sei besonders gut geeignet, um die Hirnreaktion auf Worte und Melodien zu beobachten. "Der weniger wissenschaftliche Grund könnte sein, dass wir Pink Floyd einfach sehr mögen", sagte Studienautor Bellier der Zeitschrift "Scientific American". Ganz abgesehen davon: "Wenn sie gesagt hätten: 'Ich kann mir diesen Müll nicht anhören', wären die Daten schrecklich gewesen", meint Schalk gegenüber der NYT.
Gedankenlesen nur mit OP?
Das große Aber: Damit das Ganze funktionierte, mussten die Probanden Elektroden auf der Hirnoberfläche implantiert haben. Daher waren alle 29 Probanden der Studie Epilepsiepatienten. Ihnen hatte man im Rahmen der Behandlung ein Netz der nadelähnlichen Elektroden implantiert.
Das sei auch der Grund, warum die Nachbildung so gedämpft klingt – die Forscher konnten nur die Teile des Hirns untersuchen, die von den Elektroden erfasst wurden. Mehr Elektroden gleich besserer Klang, so die Annahme. In Zukunft hoffen sie, auf chirurgische Eingriffe verzichten zu können. Zum Beispiel, indem sie deutlich empfindlichere Elektroden auf der Kopfhaut setzen.
Immerhin ist es Kollegen der University of Texas in Austin in diesem Jahr bereits Ähnliches ganz ohne OP gelungen. Dank MRT-Scans und KI konnten Wissenschaftler hier Gedanken in Fließtext umwandeln. Dabei kamen zwar keine genauen Wörter heraus, wohl aber der Kern der Sätze – und all das eben ohne operativen Eingriff.
Bisherige Methoden, Hirnströme in auf diese Weise Sprache zu übersetzen, sind jedoch kaum praktikabel: Für einen Buchstaben braucht es rund 20 Sekunden.
Kunst durch künstliche Intelligenz: Midjourney und die Zukunft der Kreativität

Digitale Sprachprothesen: KI könnte Tausenden eine Stimme geben
Die Forscher aus Berkeley hoffen, dass sie auf ähnliche Weise in Zukunft nicht nur Musik, sondern auch Sprache vollständig rekonstruieren können – mit all ihren Nuancen und Gefühlen. Dadurch könnten sie Menschen, die sich nicht mehr verständigen können, buchstäblich eine Stimme verleihen.
Eine Hürde stellte laut Schalk bislang die sogenannte "Prosodie" dar. Denn Sprache besteht eben nicht nur aus Worten, sondern auch aus Rhythmus, Pausen, Intonation, Akzenten und Emotionen. Deren Zusammenspiel ist es, was menschliche Sprache am Ende von mechanischem Kauderwelsch unterscheidet. "Anstatt roboterhaft zu sagen: 'Ich. Liebe. Du', kann man schreien: 'Ich liebe dich!'", erklärt Knight.
Indem Forscher besser nachvollziehen können, wie unser Gehirn Musik verarbeitet, hoffen sie, die diese Lücke zu schließen. Eine neue Generation von "Sprachprothesen" soll also nicht nur "stumpf" Gedanken in Worte übersetzen, sondern auch die dazugehörigen Emotionen mitliefern. Vermutlich standen die Chancen nie besser.
Quellen: "Plos Biology"; "New York Times"; "The Guardian"; "Scientific American"