Der Mensch wird bereits mit hoch entwickelten auditiven Fähigkeiten geboren. Das zeigt einmal mehr eine Sprachwissenschafterin der Uni Wien mit Beteiligung von Kolleginnen und Kollegen aus Zürich und Tokio im Fachjournal "PLOS Biology". Demnach können schon Neugeborene Tonfolgen mit nicht benachbarten Signalen erkennen, die - wie in der Sprache - Regeln folgen. Solche komplexen akustischen Muster dürften früh sprachrelevante Netzwerke im Gehirn aktivieren.
Verschiedene Studien haben die beeindruckenden Fähigkeiten von Babys im auditiven Bereich gezeigt. Sie können aufeinanderfolgende Laute oder Silben lernen. Ab fünf Monaten sind sie in der Lage, Regeln in komplexeren Tonfolgen zu identifizieren. Das hat besondere Bedeutung für den Spracherwerb, da Regeln für nicht benachbarte akustische Elemente sinnvolle Verknüpfungen über eine gewisse Entfernung hinweg ermöglichen. Dadurch können komplexe und hierarchische Satzstrukturen gebildet werden.
Als Beispiel dafür nennt Jutta Mueller vom Institut für Sprachwissenschaft der Universität Wien in einer Aussendung den Satz "Ich weiß, dass du die Hausaufgabe nicht gemacht hast". Darin stehen das Pronomen "du" und die grammatische Endung "-st" in Beziehung zueinander.
Es habe viele Hinweise gegeben, dass die Fähigkeit angeboren ist, solche Regeln zwischen nicht benachbarten akustischen Signalen - gleich ob als Tonfolge oder in Form von Sprache - zu erkennen. Der entscheidende Nachweis dafür habe aber bisher gefehlt.
Analyse mittels Nahinfrarotspektroskopie
Mueller hat gemeinsam mit dem Team um Simon Townsend von der Uni Zürich und Yasuyo Minagawa von der Keio Universität in Tokio mittels Nahinfrarotspektroskopie die Hirnaktivität von Neugeborenen und sechs Monate alten Babys beim Hören komplexer Tonfolgen beobachtet. Den ein bis fünf Tage alten Kindern wurden sechs Minuten lang spezielle Tonfolgen vorgespielt.
In den Sequenzen war jeweils ein erster Ton mit einem nicht benachbarten dritten Ton verknüpft. Danach hörten die Babys Tonsequenzen mit demselben Muster, nur in einer anderen Tonhöhe. Die Tonabfolge war dabei korrekt oder enthielt Fehler in der Abfolge.
"Die Gehirnaktivität der Neugeborenen zeigte nach einer kurzen Lernphase signifikante Unterschiede zwischen korrekten und inkorrekten Tonsequenzen im linken Bereich des präfrontalen Kortex", erklärte Mueller gegenüber der APA. Das Gehirn kann also diese Unterschiede erkennen und von Anfang an auf komplexe Muster wie Sprache reagieren.
Wie stark der hinter der Stirn liegende präfrontale Kortex auf fehlerhafte Tonfolgen reagierte, hing mit der Aktivierung von Netzwerken in der linken Gehirnhälfte zusammen. Diese Gehirnregionen, etwa der Gyrus supramarginalis (SMG) oder der Superiore Temporale Gyrus (STG), sind auch für die Sprachverarbeitung wichtig.
Frühe Vernetzung ist entscheidende
Die Forscher schließen daraus, dass komplexe Tonfolgen von Anfang an sprachrelevante Netzwerke aktivieren, die sich im Verlauf der ersten Lebensmonate stabilisieren und spezifischer reagieren. "Die Vernetzung von Hirnarealen während des Lernprozesses deutet darauf hin, dass frühe Lernerfahrungen entscheidend für die Bildung von Netzwerken sein könnten, die später die Verarbeitung komplexer akustischer Muster unterstützen", so Mueller.
Die neuen Erkenntnisse über die Bedeutung komplexer Umgebungsreize für die Entwicklung des Gehirns seien vor allem dann relevant, wenn wichtige Reize fehlen oder nicht gut verarbeitet werden können, etwa bei Frühchen. Weil offensichtlich auch nicht-sprachliche akustische Signale sprachrelevante Netzwerke im Gehirn ansprechen können, würden sich auch Möglichkeiten für eine frühe Sprachförderung eröffnen, etwa durch Musik.
APA/red Foto: APA/APA/dpa/Marijan Murat