Lippenlesen: Wie wir mit den Augen hören

6. November 2012, 16:33

Ist es in der Umgebung laut, dann hilft es, dem Gesprächspartner auf den Mund zu schauen - Forscher untersuchten nun die neuronalen Grundlagen dieses Phänomens

Jeder, der sich in einem lauten Lokal zu unterhalten versucht, weiß, wie schwierig das oft ist. Warum die Kommunikation bei hohem Umgebungs-Geräuschpegel überhaupt funktioniert, liegt daran, dass wir dem Gegenüber die Worte von den Lippen ablesen. Deutsche Forscher haben nun die neuronalen Grundlagen dieses Phänomens näher untersucht. Sie konnten zeigen, dass Wörter und Lippenbewegungen einander umso besser zugeordnet werden, je größer die Aktivität in einer bestimmten Region im Schläfenlappen des Gehirns ist. Im sogenannten oberen temporalen Sulcus (STS) werden visuelle und auditive Informationen miteinander verknüpft.

Im Alltag versuchen wir selten bewusst, anderen die Worte von den Lippen abzulesen. Doch in einer lauten Umgebung ist es oft sehr hilfreich, dem Gesprächspartner auf den Mund zu schauen. Warum das so ist, erklärt Helen Blank, Wissenschafterin am Leipziger Max-Planck-Institut für Kognitions- und Neurowissenschaften: "Indem unser Gehirn beim Lippenlesen Informationen aus verschiedenen sensorischen Quellen verbindet, verbessert sich das Sprachverstehen". In einer aktuellen Studie hat die Mitarbeiterin der Max-Planck-Forschungsgruppe "Neuronale Mechanismen zwischenmenschlicher Kommunikation" näher untersucht, auf welche Weise visuelle und auditorische Areale des Gehirns beim Lippenlesen zusammenarbeiten.

Verknüpfte Informationen

Im Experiment hörten Probanden zunächst kurze Sätze, dabei wurde ihre Hirnaktivität mithilfe funktioneller Magnetresonanztomografie gemessen. Darauf folgte jeweils ein kurzes tonloses Video von einer sprechenden Person. Per Knopfdruck gaben die Teilnehmer danach an, ob Wörter und Mundbewegung ihrer Meinung nach zusammengepasst hatten. War dies nicht der Fall, reagierte ein Teil des Netzwerks von Hirnarealen, das visuelle und auditorische Informationen verknüpft, mit erhöhter Aktivität und erhöhte seine Verbindung zu auditorischen Sprachregionen.

"Wahrscheinlich entsteht durch die akustische Vorinformation eine Erwartungshaltung darüber, welche Lippenbewegungen man sehen wird", vermutet Blank. "Ein Widerspruch zwischen Vorhersage und dem tatsächlich Wahrgenommenen wird im STS als Fehler registriert." Wie stark die Aktivität in diesem Areal ausfiel, hing direkt mit den Lippenlese-Fähigkeiten zusammen: Je stärker sie war, desto häufiger lagen die Teilnehmer im Experiment richtig. "Bei den besten Lippenlesern wurde also ein besonders starkes Fehlersignal generiert", sagt Blank.

Anwendungen in der den klinischen Wissenschaften

Dieser Effekt ist offenbar spezifisch für Sprache: Er trat nicht auf, wenn Probanden entscheiden sollte, ob die Identität der Stimme und des Gesichtes zusammen passten. Die Studie ist ein wichtiges Ergebnis nicht nur für die Grundlagenforschung auf diesem Gebiet. Besseres Wissen darüber, wie das Hirn Gehörtes und Gesehenes bei der Sprachverarbeitung miteinander verbindet, könnte auch in den klinischen Wissenschaften Anwendung finden. "Menschen mit Hörstörungen sind oft sehr stark auf das Lippenlesen angewiesen", sagt Blank. Weiterführende Studien könnten etwa untersuchen, was im Gehirn passiert, wenn Lippenlesen bewusst trainiert oder mit Zeichensprache kombiniert wird, so die Forscherin. (red, derstandard.at, 06.11.2012)

Share if you care
7 Postings
Die Möglichkeit von Lesen an den Lippen hägt stark von der jeweiligen Sprache ab.

ich war heuer mit meinem sohn bei der delphintherapie. immer wenn ich meinen sohn mit der der therapeutin mit zom beim schwimmen filmte, konnte ich genau verstehen, was sie mit meinem sohn sprach. ohne filmen nahm ich nicht einmal ein wispern wahr.

kann ich nur ein lied davon singen

da ich zurzeit viel mit synchronisierung von alten filmaufnahmen mit ihren dazugehoerigen tonaufzeichnungen (magnet) welche durch alterung geschrumpft sind habe. sehr oft ist es nur das gefuehl das sagt es stimmt was nicht und die korrektur um ein frame (0,04sec) laesst die sache endlich als einheit wirken. wobei man vorher nicht einmal genau sagen kann ob es vor oder zurueck gehoert.

Das stimmt schon mit der verknüpften information - ich hab des öfteren die erfahrung gemacht dass cih in lauten lokalen meine brille aufsetzen muss um mein gegenüber besser zu verstehen.

Vielleicht ist dieses als-Fehler-Empfinden auch ein Mitgrund warum Leute, die vorwiegend Originalfassungen von TV-Serien etc sehen, oft so eine starke Abneigung gegen Synchronisationen entwickeln?

In einer BBC-Doku war übrigens kürzlich eine recht eindrucksvolle Demonstration wie stark das Sehen das Hören beeinflusst:
https://www.youtube.com/watch?v=G-lN8vWm3m0

ich wollte auch sowas schreiben

ich finde die lippensynchronität einfach toll. und nicht nur das gerade eine aussage kommt, wenn sich die lippen irgendwie bewegen, sondern das es tatsächlich zusammenpasst.

das man nebenbei viel englisch lernt, ist ein anderes kapitel, aber definitiv eine positive nebenwirkung.

den link werde ich mir anschauen, wenn ich mal ein bisserl mehr zeit finde... ist definitiv vorgemerkt. :-)

Die Kommentare von Usern und Userinnen geben nicht notwendigerweise die Meinung der Redaktion wieder. Die Redaktion behält sich vor, Kommentare, welche straf- oder zivilrechtliche Normen verletzen, den guten Sitten widersprechen oder sonst dem Ansehen des Mediums zuwiderlaufen (siehe ausführliche Forenregeln), zu entfernen. Der/Die Benutzer/in kann diesfalls keine Ansprüche stellen. Weiters behält sich die derStandard.at GmbH vor, Schadenersatzansprüche geltend zu machen und strafrechtlich relevante Tatbestände zur Anzeige zu bringen.