Auf die Plätze, Sprache, los! Bereits Neugeborene erkennen komplexe Tonfolgen

Töne aktivieren sprachrelevante Netzwerke im Gehirn

Sprachwissenschafterin Jutta Mueller von der Universität Wien hat gemeinsam mit einem internationalen Team aus Zürich und Tokio erforscht, dass Babys bereits kurz nach der Geburt komplexe Abfolgen von Tönen erlernen können, die wie in der Sprache Regeln folgen. Damit ist nun der lange ausstehende Beweis gelungen, dass die Fähigkeit, Abhängigkeiten zwischen nicht-benachbarten akustischen Signalen wahrzunehmen, angeboren ist.

Die Ergebnisse dieser wissenschaftlichen Studie wurden aktuell in der renommierten Fachzeitschrift PLOS Biology veröffentlicht.

Dass bereits Babys die Fähigkeit besitzen, aufeinanderfolgende Laut- oder Silbenfolgen zu lernen, ist seit vielen Jahren bekannt.

Gerade in der menschlichen Sprache treten aber besonders häufig Sequenzen auf, in denen Elemente miteinander verknüpft werden müssen, die eben nicht aufeinander folgen. In dem Satz „Ich weiß, dass du die Hausaufgabe nicht gemacht hast“ stehen beispielsweise das Pronomen „du“ und die grammatische Endung „-st“ in Beziehung zueinander.

In der Sprachentwicklungsforschung wird die Beherrschung solcher Regeln in der Muttersprache ab dem zweiten Lebensjahr beobachtet. Lernexperimente haben jedoch gezeigt, dass Regeln zwischen solchen nicht benachbarten Elementen bereits im Alter von fünf Monaten identifiziert werden können, und zwar auch in nichtsprachlichen akustischen Signalen – zum Beispiel zwischen Tönen.

„Auch unsere nächsten Verwandten, die Schimpansen, können komplexe akustische Muster entdecken, wenn sie in Tönen versteckt sind“, so Studien-Co-Autor Simon Townsend von der Universität Zürich.

Akustische Mustererkennung ist angeboren

Obwohl es viele Hinweise gab, dass die Fähigkeit, Regeln zwischen nicht benachbarten akustischen Signalen zu erkennen, angeboren ist, fehlte bisher der entscheidende Nachweis. Diesen erbrachte das Forschungsteam nun durch die Beobachtung der Hirnaktivität von Neugeborenen und sechs Monate alten Babys beim Hören komplexer Tonfolgen.

Nur wenige Tage alten Babys wurden Tonsequenzen vorgespielt, in denen jeweils ein erster Ton mit einem nicht-benachbarten dritten Ton verknüpft war.

Nach nur sechs Minuten Beschallung mit zwei verschiedenen Arten von Tonsequenzen wurden den Babys Tonsequenzen mit demselben Muster, jedoch in einer anderen Tonhöhe vorgespielt. Die neuen Sequenzen waren entweder korrekt oder enthielten einen Fehler in der Abfolge. Die Gehirnsignale, die mittels Nahinfrarotspektroskopie während der Präsentation dieser Sequenzen gemessen wurden, verrieten, dass das neugeborene Gehirn zwischen korrekten und inkorrekten Sequenzen unterscheiden konnte.

Töne aktivieren sprachrelevante Netzwerke im Gehirn

„Der frontale Kortex, also der Teil des Gehirns im Stirnbereich, spielte bei den Neugeborenen eine entscheidende Rolle“, erklärt Yasuyo Minagawa von der Keio Universität in Tokio. Wie stark der Frontalkortex auf fehlerhafte Sequenzen reagierte, hing jedoch mit der Aktivierung eines vorwiegend linkshemisphärischen Netzwerks zusammen, das auch für die Sprachverarbeitung wichtig ist.

Interessanterweise zeigten Babys im Alter von sechs Monaten eine Aktivierung in genau diesem Netzwerk, wenn sie zwischen korrekten und inkorrekten Sequenzen unterschieden. Die Forscher*innen schließen daraus, dass komplexe Tonfolgen von Anfang an sprachrelevante Netzwerke aktivieren, die sich dann im Verlauf der ersten sechs Lebensmonate stabilisieren und spezifischer reagieren.

Frühe Lernerfahrungen sind entscheidend

„Die Ergebnisse zeigen, dass unser Gehirn von Anfang an in der Lage ist, auf komplexe Muster wie Sprache zu reagieren. Die Vernetzung von Hirnarealen während des Lernprozesses bei Neugeborenen deutet darauf hin, dass frühe Lernerfahrungen entscheidend für die Bildung von Netzwerken sein könnten, die später die Verarbeitung komplexer akustischer Muster unterstützen“, erklärt Jutta Mueller vom Institut für Sprachwissenschaft an der Universität Wien.

Diese Erkenntnisse helfen, die Bedeutung komplexer Umgebungsreize für die Entwicklung des Gehirns zu verstehen. Dies ist vor allem dann relevant, wenn wichtige Reize fehlen oder nicht gut verarbeitet werden können, zum Beispiel bei Frühgeborenen. Nicht zuletzt zeigen die Ergebnisse, so die Autor*innen, dass auch nicht-sprachliche akustische Signale, wie die untersuchten Tonfolgen, sprachrelevante Netzwerke im Gehirn ansprechen können. Damit eröffnen sich auch interessante Möglichkeiten für die frühe Sprachförderung, zum Beispiel durch Musik.

Quelle:
Universität Wien - Mitteilung vom 25. Oktober 2024

Originalpublikation:
Lin Cai, Takeshi Arimitsu, Naomi Shinohara, Takao Takahashi, Yoko Hakuno, Masahiro Hata, Ei-ichi Hoshino, Stuart K. Watson, Simon W. Townsend, Jutta L. Mueller & Yasuyo Minagawa (2024). Functional reorganization of brain regions supporting artificial grammar learning across the first half year of life. PLOS Biology.
https://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.3002610