Refine
Year of publication
- 2010 (1)
Document Type
- Doctoral Thesis (1) (remove)
Language
- German (1) (remove)
Has Fulltext
- yes (1)
Is part of the Bibliography
- no (1)
Institute
- Medizin (1)
Die menschliche Kommunikation von Angesicht zu Angesicht findet hauptsächlich auf audiovisueller Ebene statt. Normalerweise liefert der Gesprächspartner sowohl visuelle als auch auditorische Information. Es ist einfacher jemanden zu verstehen, wenn ein visueller Eingang vorliegt, weil visuelle Signale wie Mund- oder Zungenbewegungen komplementäre Informationen zum auditorischen Eingang liefern. In dieser Studie wurden die Hypothesen aufgestellt, dass (I) sowohl die Spracherkennung als auch die Stimmenerkennung bei fehlendem visuellem Eingang durch Zugriff auf visuelle Sprecher-spezifische Informationen optimiert werden kann und, dass (11) diese Optimierung auf Gehirnarealen für die visuelle Gesichtsverarbeitung beruht. Diesen Hypothesen wurde mit Hilfe von Verhaltenstests und der funktionellen Bildgebung in zwei Gruppen nachgegangen: Probanden mit einer mangelnden Fähigkeit, Gesichter zu erkennen (Prosopagnosie), und entsprechende Kontrollprobanden. Die Ergebnisse zeigten, dass das Beobachten einer bestimmten Person beim Reden für 2 min die darauffolgende rein auditorische Spracherkennung sowie die Stimmenerkennung verbessert. Bei beiden Gruppen, sowohl bei den Prosopagnostikern als auch bei den Kontrollprobanden, konnten die verbesserten Verhaltensdaten beim Erkennen des Sprachinhalts auf ein Areal zurückgeführt werden, das für die Verarbeitung von Gesichtsbewegungen zuständig ist. Bessere Verhaltensdaten bei der Stimmenerkennung konnten nur bei den Kontrollprobanden nachgewiesen werden, was auf einem Areal beruht, das der Verarbeitung der Gesichtserkennung zugeordnet wird. Diese Befunde stellen gängige unisensorische Modelle der Sprachverarbeitung infrage, da hier gezeigt werden konnte, dass das Gehirn selbst bei der rein auditorischen Spracherkennung auf zuvor gelernte audiovisuelle Zusammenhänge zurückgreift um die Kommunikation zu optimieren. Das legt die Möglichkeit nahe, dass dieser Optimierung Sprecher-spezifische audiovisuelle interne Modelle zugrunde liegen, welche benutzt werden, um ein sprechendes Gesicht zu simulieren.