Karlsruhe – Sprache ist eine der Aufgaben der menschlichen Großhirnrinde. Sprachprozesse drücken sich in Hirnströmen aus, die mittels Elektroden direkt am Kortex aufgezeichnet werden können. Forschern des Karlsruher Instituts für Technologie (KIT) ist es nun erstmals gelungen, direkt aus Gehirnströmen Laute, Wörter und ganze Sätze zu rekonstruieren.

Ausgewertet wurden Daten der Gehirnströme von sieben Epilepsiepatienten in den USA, denen im Zuge ihrer neurologischen Behandlung am offenen Gehirn ein Elektrodennetz direkt auf die Großhirnrinde gelegt wurde.

"Schon lange wurde darüber spekuliert, ob die direkte Kommunikation zwischen Mensch und Maschine über Gehirnströme möglich ist", erklärt Tanja Schultz, die mit Ihrem Team die Studie in "Frontiers in Neuroscience" veröffentlichte. "Wir konnten nun zeigen, dass aus Gehirnströmen einzelne Sprachlaute und kontinuierlich gesprochene komplette Sätze erkannt werden können."

Dem Gehirn beim Sprechen zusehen

Mit Elektroden, die von außen auf dem Kopf angebracht werden, sind solche Aufzeichnungen allerdings noch nicht möglich. Dank der freiwilligen Teilnahme der Epilepsiepatienten konnten die Forscher nun aber praktisch zusehen, wie das Gehirn den Sprechvorgang plant und dann die Muskeln der Artikulationsorgane mittels der Neuronen in der Großhirnrinde aktiviert, bevor die eigentliche Sprache hörbar wird. Sichtbar gemacht wurden die Aktivitäten mit Hilfe von Farben.

Die Patienten waren zuvor gebeten worden, bestimmte Texte zu sprechen – etwa eine Rede des ehemaligen US-Präsidenten John F. Kennedy oder auch einfache Kinderreime. Die Forscher wussten also zunächst, welche Laute wann gesprochen wurden und legten mit Hilfe der dabei gemessenen Hirnströme Datenbanken mit Prototypen von etwa 50 verschiedenen Lauten an.

Ausweitung geplant

Auf Basis von Algorithmen gelang es anschließend, allein anhand der Gehirnströme zu verstehen, was gesagt wurde. Dazu werden Laute im Kontext von Wörtern und ganzen Satzphrasen betrachtet. "Wir bekommen damit schöne Ergebnisse, die in der Qualität zwar noch weit von der akustischen Spracherkennung entfernt, aber schon deutlich besser sind, als wenn man rät", sagte Schultz.

Problematisch ist die bisher geringe Datenbasis von nur sieben Patienten, von denen jeweils höchsten fünf Minuten Sprache vorliegen. Die Wissenschafter wollen ihre Analysen daher ausweiten. Neben einem besseren Verständnis der Sprachprozesse könnte der sogenannte Brain-to-Text "ein Baustein sein, um Locked-in-Patienten zukünftig eine sprachliche Kommunikation zu ermöglichen". Beim Locked-in-Syndrom sind Menschen zwar bei Bewusstsein, jedoch körperlich weitgehend gelähmt und damit unfähig, sich der Außenwelt verständlich zu machen. (APA, red, 21.6.2015)