Die Verarbeitung von Sprache im Gehirn ist ein komplexer Prozess, der verschiedene Modalitäten und Hirnregionen involviert. Traditionell wurde angenommen, dass Sprache primär durch auditive Reize verarbeitet wird, doch die Forschung hat gezeigt, dass visuelle Informationen, insbesondere Bilder und Gesten, eine entscheidende Rolle spielen. Dieser Artikel untersucht, wie das Gehirn Sprache in Bildern verarbeitet, und beleuchtet die neuronalen Mechanismen und die Bedeutung der dualen Kodierung für das Lernen und Verstehen.
Duale Kodierung: Die Kombination von Sprache und Bildern
Die duale Kodierung, also die Kombination von Sprache und Bildern oder Gesten, gilt beim Lernen als besonders wirksam. Dadurch entstehen im Gehirn zusätzliche Verknüpfungen, die das Verstehen und Erinnern erleichtern. Dieses Konzept steht im Gegensatz zu dem Mythos der "Lerntypen", der besagt, dass der Unterricht auf den bevorzugten Sinneskanal jedes Kindes zugeschnitten werden sollte. Während die Idee der Lerntypen weit verbreitet ist, ist die duale Kodierung wissenschaftlich fundiert und bietet eine effektivere Methode zur Förderung des Lernens.
Eine Studie mit 89 Schülern der fünften Klasse in New York untersuchte die Wirkung von Bildern auf das Lernen neuer naturwissenschaftlicher Fachbegriffe. Die Schüler wurden in Gruppen aufgeteilt, wobei einige nur mit Wörtern lernten, während andere Sprache mit Bildern kombinierten. Die Ergebnisse zeigten, dass die Gruppen, die Bilder verwendeten, deutlich besser abschnitten als die Gruppe, die nur mit Wörtern arbeitete. Dieser Befund wird durch zahlreiche andere Studien gestützt, die zeigen, dass die Kombination von Sprache mit Bildern oder Gesten das Lernen in verschiedenen Bereichen verbessert, einschließlich des Vokabellernens in Fremdsprachen und des Verständnisses von Konzepten in Fächern wie Sozialkunde.
Eine Metaanalyse aus dem Jahr 2020, die 39 experimentelle Studien zwischen 1985 und 2018 umfasste, untersuchte die Wirkung von Grafiken auf das Leseverständnis. Die Autoren kamen zu dem Schluss, dass passende Grafiken das Textverständnis über Altersstufen hinweg verbessern. Die theoretische Grundlage für diese Ergebnisse ist die Dual-Coding-Theorie des Psychologen Allan Paivio, die besagt, dass das Gehirn verbale und visuelle Informationen in teilweise getrennten Kanälen verarbeitet.
Die Rolle des Broca-Areals bei der Verarbeitung von Gebärdensprache
Die Sprachfähigkeit ist eines der wesentlichen Merkmale, das den Menschen von anderen Tieren unterscheidet. Viele Menschen würden wohl intuitiv Sprache und Sprechen gleichsetzen. Die kognitionswissenschaftliche Forschung zu Gebärdensprachen seit den 60er Jahren zeichnet jedoch ein anderes Bild: Heute ist klar, Gebärdensprachen sind vollwertige autonome Sprachen und verfügen über eine komplexe Organisation auf mehreren sprachlichen Ebenen wie Grammatik und Bedeutung.
Lesen Sie auch: Faszination Nesseltiere: Wie sie ohne Gehirn leben
Obwohl Gebärdensprache auf visuellen Signalen basiert, greift sie im Gehirn auf ähnliche Strukturen wie Lautsprachen zu. Wissenschaftler des Max-Planck-Instituts für Kognitions- und Neurowissenschaften (MPI CBS) haben herausgefunden, dass das Broca-Areal in der linken Hirnhälfte der zentrale Knotenpunkt sowohl in gebärdeter als auch gesprochener Form ist. Dies deutet darauf hin, dass unser Gehirn generell darauf ausgerichtet ist, Grammatik und Bedeutung von Sprache zu verarbeiten, unabhängig von der Modalität.
Frühere Studien zur Verarbeitung von Gebärdensprache im menschlichen Gehirn hatten bereits einige Ähnlichkeiten und auch Unterschiede zwischen Gebärden- und Lautsprachen gefunden. Forscher des MPI CBS wollten nun wissen, welche Hirnregionen tatsächlich über verschiedene Studien hinweg in die Verarbeitung von Gebärdensprache involviert sind - und wie groß dabei die Überschneidung mit Hirnregionen ist, die Hörende für die Lautsprachverarbeitung nutzen. In einer aktuell im Fachmagazin Human Brain Mapping erschienen Meta-Studie bündelten sie Daten aus auf der ganzen Welt durchgeführten Experimenten zur Verarbeitung von Gebärdensprache. „Eine Meta-Studie gibt uns die Möglichkeit ein Gesamtbild der neuronalen Grundlagen von Gebärdensprache zu bekommen.
Die Forscher fanden heraus, dass vor allem das sogenannte Broca-Areal im Stirnhirn der linken Hirnhälfte eine der Regionen ist, die bei der Verarbeitung von Gebärdensprache in fast jeder der ausgewerteten Studien involviert war. Von dieser Hirnregion ist bereits lange bekannt, dass sie eine zentrale Rolle in der Lautsprache spielt und dort etwa für die Grammatik und Bedeutung zum Einsatz kommt. Um ihre Ergebnisse aus der aktuellen Metastudie besser einordnen zu können, glichen die Wissenschaftler ihre Ergebnisse mit einer Datenbank ab, die mehrere tausend Studien mit Hirnscans enthält. Und tatsächlich: Die Leipziger Forscher konnten bestätigen, dass es eine Übersc¬hneidung zwischen Laut- und Gebärdensprache im Broca-Areal gibt. Außerdem konnten sie zeigen, welche Rolle das rechte Stirnhirn - das Pendant zum Broca-Areal auf der linken Seite - spielt. Dieses trat in vielen der ausgewerteten Studien zur Gebärdensprache ebenfalls immer wieder auf, weil es nicht-sprachliche Aspekte wie räumliche oder soziale Informationen des Gegenübers verarbeitet. Das heißt, Bewegungen von Händen, Gesicht und Körper - aus welchen Gebärden bestehen - nehmen Gehörlose und Hörende zwar prinzipiell ähnlich wahr. Nur bei Gehörlosen aktivieren sie jedoch zusätzlich das Sprachnetzwerk in der linken Hirnhälfte, inklusive des Broca-Areals.
Die Ergebnisse zeigen: Das Broca-Areal in der linken Hirnhälfte ist ein zentraler Knotenpunkt im Sprachnetzwerk des menschlichen Gehirns. Es arbeitet - je nachdem ob Menschen Sprache in Form von Gebärden, Lauten oder Schrift verwenden - mit anderen Netzwerken zusammen. Das Broca-Areal verarbeite damit nicht nur, wie bislang bekannt, gesprochene und geschriebene Sprache, sondern generell abstrakte sprachliche Informationen in jeder Form von Sprache. „Das Gehirn ist also auf Sprache an sich spezialisiert, nicht auf das Sprechen“, erläutert Patrick C. Trettenbrein, Erstautor der Publikation und Doktorand am MPI CBS.
Diese Erkenntnisse deuten darauf hin, dass das Broca-Areal eine zentrale Rolle bei der Verarbeitung von Sprache spielt, unabhängig von der Modalität. Es ist nicht nur für die Verarbeitung von gesprochener und geschriebener Sprache zuständig, sondern auch für die Verarbeitung von Gebärdensprache. Dies unterstreicht die Fähigkeit des Gehirns, abstrakte sprachliche Informationen in verschiedenen Formen zu verarbeiten.
Lesen Sie auch: Lesen Sie mehr über die neuesten Fortschritte in der Neurowissenschaft.
Symbolische Gesten und Sprachzentren
Eine Studie am US-amerikanischen National Institute of Health in Bethesda untersuchte die Gehirnaktivität von Freiwilligen während der Verwendung von symbolischen Gesten. Diese Gesten, die eine gelernte Bedeutung haben, bilden ein Mittelding zwischen Gebärden der Zeichensprache und Pantomime. Die Ergebnisse zeigten, dass das Gehirn auf symbolische Gesten ähnlich reagierte wie auf gesprochene Wörter und Sätze. Genauer gesagt wurden neben anderen auch die klassischen Sprachzentren Broca- und Wernicke-Areal aktiviert.
Diese Ergebnisse legen nahe, dass große Teile des Sprachsystems Kommunikationsaufgaben übernehmen können, die von der konkreten Darbietungsform unabhängig sind. Demnach wird einer für sich genommen inhaltsleeren Form - sei es nun eine Lautfolge oder eine Handbewegung - eine Bedeutung zugewiesen.
Die Verarbeitung von Bildern im Gehirn
Bilder und Visualisierungen befördern den Lernprozess nur dann, wenn das Bildverstehen über einen bewussten Verarbeitungsprozess gelaufen ist. Daher kommt es bei unterrichtlichen Visualisierungen darauf an, die Fähigkeit und die Bereitschaft der Schülerinnen und Schüler zu fördern, Bilder gekonnt zu verarbeiten. Diese Verarbeitungsprozesse setzen spezifische Kenntnisse piktoraler Kodierungen voraus, die im Unterricht erworben werden müssen. Erst mit dem Erwerb dieser "Bildsprachen" kann das lernpsychologische Potenzial vieler Bilder auch wirklich genutzt werden.
Die Verarbeitung visueller Informationen im Gehirn ist ein komplexer Prozess, der verschiedene Hirnregionen involviert. Der visuelle Cortex, der sich im Okzipitallappen befindet, ist für die Verarbeitung von visuellen Reizen zuständig. Von dort aus werden die Informationen an andere Hirnregionen weitergeleitet, die für die Interpretation und Bedeutung zuständig sind.
Praktische Anwendungen für den Unterricht
Für den Unterricht bedeutet das: Statt sich an vermeintlichen Lerntypen zu orientieren, sollten Lehrkräfte möglichst viele Wege eröffnen, um Inhalte zu verarbeiten. Eigene Bilder anregen: Lernende sollten selbst kleine Skizzen, Concept-Maps oder Symbole erstellen. Wichtig ist jedoch: Mehr ist nicht automatisch besser. Überladene Präsentationsfolien oder Arbeitsblätter können das Arbeitsgedächtnis überlasten.
Lesen Sie auch: Tinnitus und Gehirnaktivität: Ein detaillierter Einblick
Weitere Erkenntnisse zur Sprachverarbeitung im Gehirn
Sprache ist ein komplexes Phänomen, an dessen Produktion und Rezeption sehr viele Teile des Gehirns beteiligt sind. Wenn wir sprechen, benutzen wir neben Zunge und Kehlkopf auch Lippen, Gaumen inklusive Bogen, Segel und Zäpfchen sowie Rachen, Kehldeckel und Lunge. Auch Zähne und der Nasenraum sind für die Artikulation wichtig. Beim Verstehen analysiert unser Gehirn das Gehörte nach räumlichen und zeitlichen Merkmalen und gleicht es dann mit gespeicherten Wortformen, grammatikalischen Regeln, Satzstrukturen und Bedeutungen ab. Beim Sprechen ruft es Bedeutungen, Grammatik und Wortformen ab, gliedert sie metrisch, phonologisch und silbisch, überführt sie in motorische Arbeitsanweisungen und gibt sie an die Artikulationsorgane weiter.
Neben dem Broca- und Wernicke-Areal sind viele weitere Hirnstrukturen für die Verarbeitung von Sprache nötig. Diese umfassen große Teile des Temporal-, Parietal- und Frontallappens und sind nicht auf Sprechen oder Verstehen spezialisiert, sondern übernehmen vermutlich differenzierte Aufgaben, wie zum Beispiel die Entschlüsselung komplexer Syntax. Um ihre Aufgabe zu erfüllen, sind mehrere Regionen über Faserbündel miteinander verbunden und wirken als Netzwerk zusammen. Sprache wird hauptsächlich in einer Hirnhälfte verarbeitet, der so genannten dominanten Hirnhälfte. Bei Rechtshändern, also der Mehrheit der Bevölkerung, ist dies die linke. Jedoch spielt auch die nicht-dominante, also meist rechte Hirnhälfte eine wichtige Rolle bei der Sprachverarbeitung. Während in der dominanten Hirnhälfte vorwiegend die Laute und der Satzbau verarbeitet werden, ist die andere Hirnhälfte dafür zuständig, die Satzmelodie zu verstehen.
Neuronale Worterkennung: Wie das Gehirn Wortgrenzen erkennt
Bei unserer Muttersprache können wir Anfang und Ende einzelner Wörter hören, bei Fremdsprachen nicht. Neuronale Worterkennung: Fremdsprachen sind für unser Gehirn das reinste Kuddelmuddel aus nahtlos ineinanderfließenden Wörtern. Wie unser Gehirn darin Ordnung schafft, haben nun Forschende herausgefunden. Demnach lernen wir die Muster unserer Muttersprache oder einer uns vertrauten Sprache erst durch jahrelange Übung zu erkennen und können dadurch einzelne Wörter heraushören.
Wenn wir normal sprechen, machen wir meist keine bewussten Pausen zwischen den einzelnen Wörtern. Dennoch nehmen wir diese unausgesprochenen „Leerzeichen“ bei unseren Mitmenschen mühelos wahr - allerdings nur, wenn wir unserer Muttersprache lauschen. Bei Fremdsprachen können wir die Wortgrenzen hingegen nicht hören und nehmen das Gesprochene zunächst als kontinuierlichen Fluss wahr.
Der Gyrus temporalis superior (STG) liegt im Temporallappen der Großhirnrinde und verarbeitet verschiedene Sprachlaute. Aus früheren Studien ist bekannt, dass es in unserem Gehirn mehrere Areale gibt, die an der Verarbeitung von Sprache beteiligt sind. Doch spielt dieses Hirnareal darüber hinaus auch eine Rolle bei der Erkennung von Wortgrenzen? Dieser Frage sind nun Forschende um Ilina Bhaya-Grossman, Yizhen Zhang und Matthew Leonard von der University of California in San Francisco in zwei Studien nachgegangen.
An der ersten Studie nahmen 20 Testpersonen teil, die nur Spanisch, Englisch oder Mandarin als Muttersprache hatten. Die Forschenden spielten den Teilnehmenden jeweils rund 20 Minuten lang verschiedene Sätze auf Englisch, Spanisch und Mandarin vor und zeichneten parallel deren Hirnaktivität auf. Die Auswertung ergab: Unabhängig von der gehörten Sprache traten sehr ähnliche Aktivitätsmuster im Gyrus temporalis superior (STG) auf. Doch die Daten zeigten auch: Wenn die Teilnehmenden ihre Muttersprache oder eine ihnen gut bekannte Sprache hörten, wurden bestimmte Neuronen in diesem Hirnareal stärker aktiv. Diese Nervenzellen reagierten dann zusätzlich auf Betonungen oder andere Klangreize, die Wortanfang oder -ende markieren.
In einer zweiten Studie wiederholten die Forschenden das Experiment mit 16 englischsprachigen Probanden und englischen Radionachrichten. Dabei stellten sie fest, dass diese Neuronen sich nach einem Wortende-Signal sehr schnell regenerieren und in den Ausgangszustand zurückkehren. „Es ist wie eine Art Neustart, bei dem das Gehirn ein erkanntes Wort verarbeitet und sich dann zurücksetzt, damit es mit dem nächsten Wort weitermachen kann“, erklärt Leonard. „Das beweist, dass der STG nicht nur Laute wahrnimmt, sondern mithilfe von Erfahrung Wörter während des Sprechens identifiziert“, so Seniorautor Edward Chang von der University of California in San Francisco.
Die Studien belegen damit, dass verschiedene Aspekte von Sprache nicht zwingend in unterschiedlichen Hirnarealen, sondern im Falle des Gyrus temporalis superior auch in ein und demselben Areal gleichzeitig verarbeitet werden. Das erklärt auch, warum Verletzungen dieser Hirnregion das Sprachverständnis beeinträchtigen können, selbst wenn das Gehör einer Person intakt ist. Folgestudien sollen diese entdeckten Zusammenhänge nun auch am Beispiel anderer Sprachen überprüfen.
Synchronisation von Hirnwellen bei Gebärdensprache
Nicht-hörende Menschen können in verschiedenen Gebärdensprachen kommunizieren. Die Informationen werden dabei nicht durch Lautäußerungen, sondern durch die gleichzeitige Bewegung mehrerer Körperteile übermittelt. Zum Einsatz kommen dabei vor allem Hände und Finger, zudem Oberkörper, Kopf, Blickrichtung, Augenbrauen und Mund. Im Schnitt produzieren die Sprecher zwei Bewegungssignale pro Sekunde - Gebärdensprache ist damit deutlich langsamer als Lautsprache. Aber wie genau übersetzt unser Gehirn diese visuellen Informationen in Wörter? Wie wandelt sich die Sprachverarbeitung mit mehr Übung? Die zeitliche Synchronisation fand mittels Delta-Hirnwellen im Frequenzbereich zwischen 0,5 und 2,5 Hertz statt.
Wie das menschliche Gehirn Gebärdensprache verarbeitet, haben nun Forschende um Chiara Rivolta vom Baskischen Zentrum für Kognition, Gehirn und Sprache in Donostia-San Sebastián näher untersucht. Dafür nahmen sie Videos von Kurzgeschichten in spanischer und russischer Gebärdensprache auf und ließen anschließend 28 hörende Probanden diese Videos betrachten. Die Hälfte der Testpersonen beherrschte nur die spanische Gebärdensprache, die andere Hälfte keine der beiden Sprachen. Parallel dazu nahmen die Forschenden mithilfe von Magnetoenzephalographie die Hirnaktivität der Probanden auf.
Die Analyse ergab: Bei allen Testpersonen waren Hirnareale und neuronale Netzwerke aktiv, die für die Verarbeitung visueller Signale zuständig sind, darunter der rechte Temporallappen. Bei allen Teilnehmenden synchronisierte sich zudem diese Hirnaktivität mit den sichtbaren Bewegungen der Gebärdensprecher, vor allem der Handbewegungen. Entsprechend der Frequenz der Bewegungssignale von rund zwei Hertz, waren an dieser zeitlichen Synchronisation vor allem Delta-Hirnwellen im Frequenzbereich zwischen 0,5 und 2,5 Hertz beteiligt. „Höhere Frequenzbänder wie Theta scheinen bei der Erzeugung und Verarbeitung von Zeichen hingegen keine relevante Rolle zu spielen“, so das Team um Rivolta.
Die Befunde zeigen, dass sich unser Gehirn nicht nur mit den rhythmischen Mustern der gesprochenen Sprache synchronisiert - ein Phänomen, das bereits aus früheren Studien bekannt war -, sondern auch mit den Bewegungsmustern der Gebärdensprache. Rivolta und ihre Kollegen vermuten, dass diese zeitliche Synchronisation von neuronalen Signalen in beiden Fällen das Sprachverständnis erleichtert.
tags: #gehirn #verarbeitet #sprache #in #bildern