Arbeitsteilung im Gehirn beim Hören entdeckt
Ein Forscherteam der New York City University (NYU) School of Medicine und des Max-Planck-Instituts für empirische Ästhetik hat eine neue Arbeitsteilung zwischen den beiden Hemisphären in unserem Gehirn beim Verstehen von Wörtern und Geräuschen entdeckt
Das ist ein Ergebnis, das neue Einblicke in die Verarbeitung von Sprache bietet und Wege aufzeigt, wie Störungen des Hörvermögens behandelt werden können.
„Unsere Ergebnisse eröffnen ein neues Verständnis der Arbeitsteilung zwischen rechter und linker Hemisphäre“, sagt Adeen Flinker, Hauptautor der Studie und Assistenzprofessor an der Abteilung für Neurologie der NYU School of Medicine. „Beide Hirnhälften übernehmen beim Zuhören gleichzeitig stattfindende, aber unterschiedliche Aufgaben.
Während die linke Hemisphäre misst, wie Geräusche sich zeitlich verändern – zum Beispiel beim langsameren oder schnelleren Sprechen –, ist die rechte Seite stärker auf Frequenzänderungen ausgerichtet, die mit Veränderungen in der Tonhöhe zusammenhängen.“
Klinische Beobachtungen aus dem 19. Jahrhundert haben bereits gezeigt, dass Schäden an der linken Hemisphäre, jedoch nicht an der rechten, die Sprachverarbeitung beeinträchtigen. Bisher konnten Wissenschaftler eine Reihe von Hypothesen über die Aufgaben der linken und rechten Hemisphäre beim Sprechen, beim Verstehen von Sprache und bei anderen kognitiven Vorgängen aufstellen. Weiterhin diskutiert werden jedoch die neuronalen Mechanismen, die den zerebralen Asymmetrien zugrunde liegen.
In der Studie, die in der Zeitschrift Nature Human Behavior erschienen ist, verfolgten die Wissenschaftler das übergeordnete Ziel, die grundlegenden Mechanismen der Sprachanalyse vertiefend zu erforschen, auch mit dem Hintergrund, neue Diagnose- und Behandlungswerkzeuge für Sprachstörungen zu entwickeln.
Dafür manipulierten die Forscher Sprachaufzeichnungen für eine Reihe von insgesamt fünf Studien, bei denen menschliches Verhalten sowie Gehirnaktivitäten erforscht wurden. In den Studien kamen dabei sowohlMagnetenzephalographie (MEG), welche die Messungen von winzigen durch die Hirnaktivität erzeugten Magnetfeldern erlaubt, als auch Elektrokortikographie (ECoG), die Aufnahmen direkt aus dem Gehirn der Patienten ermöglicht, zum Einsatz.
„Wir hoffen, dass dieser Ansatz einen Rahmen dafür bietet, um die Ähnlichkeiten und Unterschiede zwischen der menschlichen und nicht-menschlichen Verarbeitung von Kommunikationssignalen aufzuzeigen“, ergänzt Flinker.
Quelle:
Mitteilung des Max-Planck-Instituts für empirische Ästhetik vom 27. März 2019
Originalpublikation:
Flinker, A., Doyle, W. K., Mehta, A. D., Devinsky, O., Poeppel, D. (2019). Spectrotemporal modulation provides a unifying framework for auditory cortical asymmetries. Nature Human Behaviour. doi: 10.1038/s41562-019-0548-z