Einführung
Die Fähigkeit zu sprechen ist ein grundlegendes Merkmal des Menschseins. Sie ermöglicht uns, Gedanken, Ideen und Emotionen auszudrücken und mit anderen zu kommunizieren. Doch was passiert eigentlich in unserem Gehirn, wenn wir sprechen? Die moderne Neurowissenschaft hat in den letzten Jahren erhebliche Fortschritte bei der Erforschung der neuronalen Grundlagen der Sprache erzielt. Diese Erkenntnisse sind nicht nur für das Verständnis der menschlichen Kognition von Bedeutung, sondern eröffnen auch neue Möglichkeiten für die Behandlung von Sprachstörungen.
Die neuronalen Grundlagen der Sprache
Sprachareale im Gehirn
Sprache wird bei den allermeisten Menschen vor allem in der linken Gehirnhälfte verarbeitet. Eine Region im Bereich der linken Schläfe prüft die Kategorie der eintreffenden Worte. Sie baut gemeinsam mit dem Broca-Areal, das auch in Höhe der linken Schläfe liegt und für die Grammatik zuständig ist, die Satzstruktur auf. Hinter dem linken Ohr befindet sich das Wernicke-Areal, das die Bedeutung der Wörter, also ihren semantischen Gehalt misst. Hinzu kommen noch die Gehirnbereiche, die etwa die Mundmotorik und die Lautbildung steuern.
Neuronale Netzwerke und Sprachverarbeitung
Die Gehirnforschung hat gezeigt, dass für das Sprechen eine ganze Anzahl von Gehirnarealen zuständig ist, die parallel arbeiten, um ein so kompliziertes Verhalten zu bewerkstelligen. Die Aktivität dieser Gehirnareale ist eng miteinander verknüpft und bildet komplexe neuronale Netzwerke, die für die verschiedenen Aspekte der Sprachverarbeitung verantwortlich sind.
Die Rolle der Gehirnaktivität beim Sprechen
Wenn wir sprechen, werden die entsprechenden Areale im Gehirn aktiviert. Die Aktivität dieser Areale kann mit Hilfe moderner bildgebender Verfahren wie der funktionellen Magnetresonanztomographie (fMRT) gemessen werden. Die fMRT ermöglicht es, die Veränderungen im Blutfluss im Gehirn zu beobachten, die mit der neuronalen Aktivität einhergehen.
Aktuelle Forschungsergebnisse
Entschlüsselung der inneren Sprache
Wissenschaftler der Stanford University in den USA haben die Gehirnaktivität im Zusammenhang mit der inneren Sprache, also dem alltäglichen Selbstgespräch des Menschen, lokalisiert und diese innere Sprache mit einer Genauigkeit von 74 Prozent entschlüsselt. Die in der Fachzeitschrift Cell Press veröffentlichten Studienergebnisse könnten die Voraussetzungen dafür sein, die innere Sprache mit Hilfe einer Gehirn-Computer-Schnittstelle, kurz BCI (Brain-Computer-Interface) in Echtzeit zu entschlüsseln.
Lesen Sie auch: Faszination Nesseltiere: Wie sie ohne Gehirn leben
Bilaterale Sprachverarbeitung
Ein Experiment von US-Forschern wirft die gängige Ansicht über den Haufen, dass unser Gehirn Sprache asymmetrisch verarbeitet, wobei eine Gehirnhälfte aktiver ist als die andere. Die Forscher fanden heraus, dass die Aktivität beim Übergang von der sensorischen Sprachverarbeitung zum motorischen Sprechen bilateral stattfindet, also in beiden Gehirnhälften nahezu gleich stark ist.
Überaktives Netzwerk bei Stottern
Wissenschaftler des Max-Planck-Instituts für Kognitions- und Neurowissenschaften in Leipzig und der Universitätsmedizin Göttingen haben herausgefunden, dass ein überaktives Netzwerk im vorderen Bereich des Gehirns eine wesentliche Rolle für das Stottern spielen könnte. Die Überaktivität in den Regionen auf der rechten Hirnseite scheint der eigentliche Grund für das Stottern zu sein.
Neuronale Elemente der Sprachproduktion
Forschenden des Massachusetts General Hospital ist es gelungen, die Sprachproduktion im Gehirn auf neuronaler Ebene exakt nachzuverfolgen. Sie identifizierten einzelne Hirnzellen, die an der Sprachproduktion beteiligt sind, und fanden heraus, dass es im Gehirn getrennte Gruppen von Neuronen gibt, die für das Sprechen und für das Zuhören zuständig sind.
Sprachgenerierung aus Gedanken
Forschern aus San Francisco ist es gelungen, Gedanken per Sprachgenerator auszusprechen. Dafür wurden beim Sprechen aktivierte Nervensignale ausgewertet und in Laute umgewandelt.
Sprachdecoder
Eines Tages könnten Menschen, die ihre Fähigkeit zu sprechen verloren haben, ihre Stimme wiederfinden. Die Studie, die im Fachmagazin „Nature“ erschien, befasst sich mit Daten von Patienten, deren Gehirne aufgrund des Risikos eines epileptischen Anfalls überwacht wurden. Zu diesem Zweck wurden Elektroden direkt auf der Oberfläche ihres Gehirns angebracht. Während die Patienten hunderte Sätze vorlasen - einige davon aus Märchen oder bekannten Kindergeschichten wie „Dornröschen“ und „Alice im Wunderland“ -, maßen die Elektroden leichte Fluktuationen in der elektrischen Aktivität des Gehirns. Diese Übersetzung erfolgte durch einen Zwischenschritt, bei der die Hirnaktivität mit einer komplexen Simulation des Vokaltrakts verknüpft wurde. Um Gedanken in Sätze umzuwandeln, nutzten Anumanchipalli und seine Kollegen Elektroden, die direkt an der Hirnoberfläche angebracht wurden. Obwohl es sich um einen invasiven Eingriff handelt, ist die direkte Beobachtung der Schlüssel zum Erfolg. Nachdem Sie die Daten gesammelt hatten, speisten die Forscher die aufgezeichneten Signale in zwei neutrale Netzwerke ein, welche die Prozesse im Gehirn simulierten, um in den komplexen Daten Muster zu finden. Das erste Netzwerk schloss darauf, welche Bewegungssignale das Gehirn den Lippen, der Zunge und dem Kiefer sendete. Das zweite übersetzt diese Bewegungen in künstliche Sprache. Als nächstes folgte der echte Test: Konnten andere Menschen die künstliche Sprache verstehen? Um das zu prüfen, rekrutierten die Forscher 1.755 englische Muttersprachler. Die Teilnehmer hörten sich 101 Sätze in der synthetischen Sprache an und versuchten dann, das Gehörte niederzuschreiben. Dabei wählten sie aus einer Gruppe von 25 oder 50 Worten aus. Ihre Trefferquote belief sich dabei jeweils auf 43 bzw. Nicht jede Hörprobe war dabei gleichermaßen verständlich. Einige einfache Sätze wie „Is this seesaw safe?“ (dt.: „Ist diese Wippe sicher?“) wurden jedes Mal fehlerfrei transkribiert. Einige Laute konnten zudem leichter decodiert werden als andere. Die Autoren der “Nature“-Studie nutzten einen zweistufigen Prozess, um die synthetische Sprache deutlicher zu machen. Für ihre Arbeit nahmen die Forscher die Hirnaktivität und Sprache von sechs Menschen auf, denen operativ ein Gehirntumor entfernt wurde. Dafür nutzten sie, ähnlich wie die Verfasser der „Nature-„Studie, Elektroden, die direkt am Gehirn angebracht wurden. Dann trainierte das Team ein neutrales Netzwerk, die gesprochenen Worte der Teilnehmer mit der jeweiligen Hirnaktivität zu assoziieren. Das System gestalteten sie so, dass es bereits mit einem Audio-Input von 8 bis 13 Minuten arbeiten konnte. Im Anschluss speisten die Forscher die Daten aus dem neuronalen Netzwerk in ein Programm ein, welches sie in Sprache umwandelte.
Lesen Sie auch: Lesen Sie mehr über die neuesten Fortschritte in der Neurowissenschaft.
Bedeutung für die Behandlung von Sprachstörungen
Die Fortschritte in der Erforschung der neuronalen Grundlagen der Sprache haben erhebliche Auswirkungen auf die Behandlung von Sprachstörungen. Die Entwicklung von Gehirn-Computer-Schnittstellen (BCIs) ermöglicht es, die Gehirnaktivität von Menschen mit Sprachstörungen zu nutzen, um Kommunikationshilfen zu steuern.
Sprachassistenztechnologien
Die Sprachpathologin Melanie Fried-Oken fragt: „Wäre das nicht großartig, wenn man das einem Dreijährigen geben könnte, der dann mit seiner Umwelt interagieren kann, wenn er das vorher nicht konnte?“
Anwendung bei ALS und Schlaganfällen
Die beiden Teams und andere Wissenschaftler auf der ganzen Welt hoffen, dass sie damit Menschen helfen können, die ihrer Fähigkeit zu sprechen beraubt wurden. Nicht selten geschieht das aufgrund neurodegenerativer Erkrankungen wie amyotropher Lateralsklerose (ALS) oder Schlaganfällen. In der Anfangsphase könnten ALS-Patienten das System sogar noch mit gesprochener Sprache trainieren. Die Autoren führen auch Schlaganfälle als Anwendungsgebiet an.
Herausforderungen und zukünftige Entwicklungen
Bis diese Technologie in die Hände - oder Gehirne - von Patienten gelangt, ist es aber noch ein weiter Weg. Es ist noch unklar, ob dieselben Algorithmen da funktionieren oder nicht. Anumanchipalli und sein Team versuchten, diese Problematik bei einigen Tests zu adressieren, indem sie die Teilnehmer dazu aufforderten, die Sätze nicht zu sprechen, sondern nur die entsprechenden Mundbewegungen zu machen. Auf diese Weise konnten sie zwar ebenfalls Sprache synthetisieren, die Audioclips waren aber nicht so akkurat wie jene, die mit gesprochenem Input erstellt wurden.
Lernen und Spracherwerb in der frühen Kindheit
Die Bedeutung der Gehirnentwicklung für den Spracherwerb
Die Gehirnforschung ermöglicht ein besseres und vertieftes Verständnis der Grundlagen des Spracherwerbs auf der Ebene der Gehirnentwicklung. Das Gehirn besteht etwa aus 100 Milliarden Nervenzellen. Wichtig für die Funktion des Gehirns sind aber vor allem die Verbindungen zwischen den Nervenzellen (Axone, Dendriten usw.). Die Anzahl der Verbindungen beträgt bei einem Neugeborenen etwa 50 Billionen. All das, was mit Lernen oder Gehirnentwicklung zu tun hat, beruht auf dem Wachstum bzw. den Veränderungen dieser Verbindungen zwischen den Nervenzellen.
Lesen Sie auch: Tinnitus und Gehirnaktivität: Ein detaillierter Einblick
Sensible Phasen des Spracherwerbs
Es gibt für eine Reihe von Entwicklungsprozessen solche sensiblen Phasen. Wenn es um den Spracherwerb bzw. das Sprechen geht, dann erfolgen die beschriebenen Prozesse in den "Spracharealen", also dem Broca-Areal und dem Wernicke-Areal. Hier beginnen dann die Verbindungen zwischen den Neuronen zu wuchern. In diesem Zeitfenster sind die entstehenden Verbindungen und die synaptischen Kontakte darauf angewiesen, von der Umgebung, also durch Umweltreize aktiviert zu werden. Unterbleibt das, verkümmern die sprießenden Nervenzellverschaltungen wieder. Deshalb ist es gerade dann wichtig, ein "sprechendes" Umfeld zu haben, was ja in aller Regel durch die Eltern oder die Familie gegeben ist.
Die Rolle der Umwelt für die Gehirnentwicklung
Es hängt also von der Umwelt ab, ob sich neuronale Verschaltungen entwickeln, stabilisieren oder auch wieder verkümmern. Denn die fehlende Benutzung synaptischer Kontakte führt dazu, dass eine Verbindung wieder verschwindet. Die Gehirnentwicklung wird bestimmt durch den Grundsatz: "Use it or loose it".
Konsequenzen für die Sprachförderung
Das Grundprinzip, dass kindliches Lernen neurobiologisch ein Prozess ist, bei dem Neues auf bisher Vorhandenes aufbaut, unterstreicht noch einmal die Bedeutung der Beherrschung der deutschen Sprache in der Schule. Wenn bestimmte grundlegende Lernschritte aufgrund fehlender Sprachkenntnisse nicht gelingen, wird auch darauf aufbauendes Lernen scheitern.
tags: #gehirn #beim #sprechen #beobachten