Das menschliche Gehirn ist ein komplexes Organ, dessen Funktionsweise bis heute nicht vollständig entschlüsselt ist. Insbesondere die Sprachverarbeitung stellt eine besondere Herausforderung für die Neurowissenschaften dar. Traditionell werden zwei Hirnareale, das Broca- und das Wernicke-Areal, als die zentralen Sprachzentren angesehen. Dieser Artikel beleuchtet die Unterschiede und Funktionen dieser beiden Areale, stellt aber auch neue Erkenntnisse vor, die das klassische Verständnis der Sprachverarbeitung im Gehirn in Frage stellen.
Das klassische Modell der Sprachverarbeitung
Lange Zeit galt die Lehrmeinung, dass unser Gehirn Sprache asymmetrisch verarbeitet, wobei eine Gehirnhälfte aktiver ist als die andere. Bei den meisten Menschen, insbesondere bei Rechtshändern, liegen die wichtigen Sprachzentren auf der linken Seite des Gehirns. Dieses Modell basiert im Wesentlichen auf den Erkenntnissen von Paul Broca und Carl Wernicke aus dem 19. Jahrhundert.
Das Broca-Areal: Sprachproduktion
Der französische Arzt Paul Broca beschrieb 1861 erstmals einen Patienten, der aufgrund eines Gehirntumors im linken Stirnlappen eine erworbene Sprachstörung entwickelte. Dieser Patient konnte nur noch die Silbe „an“ aussprechen, obwohl sein Sprachverständnis intakt war. Broca folgerte daraus, dass die Fähigkeit zur Sprachproduktion im Stirnlappen lokalisiert ist. Das frontale Sprachareal wurde daraufhin als Broca-Areal bezeichnet, die entsprechende Sprachstörung als Broca-Aphasie.
Das Broca-Areal befindet sich in der dominanten Gehirnhälfte, in der Regel links bei Rechtshändern und rechts bei Linkshändern. Genauer gesagt liegt es im Gyrus frontalis inferior („untere Stirnwindung“) innerhalb der Partes triangularis („dreieckiger“ Teil) und opercularis (etwa: „Deckelteil“).
Nach der klassischen Auffassung ist das Broca-Areal für die Sprachbildung verantwortlich. Zu seinen Aufgaben gehören vor allem motorische Aspekte der Sprache, wie die Lautbildung und -analyse sowie die Aussprache von Wörtern. Darüber hinaus steuert das Broca-Areal die grammatikalische Korrektheit von Sätzen und die richtige Betonung der Sprache. Es sorgt dafür, dass Tonlage, Satzmelodie und Sprachrhythmus so aufeinander abgestimmt werden, dass die Zusammenarbeit aller Sprechorgane zu einer optimalen Aussprache führt.
Lesen Sie auch: Abiturwissen: Neurobiologie verständlich erklärt
Eine Schädigung des Broca-Areals führt zur sogenannten motorischen Broca-Aphasie. Betroffene sprechen häufig stockend und verlangsamt, formulieren im Telegrammstil oder verwechseln Laute miteinander. Vor allem Wörter ohne eigene Bedeutung, wie Artikel oder Präpositionen, werden oft weggelassen.
Das Wernicke-Areal: Sprachverständnis
Kurze Zeit später beschrieb der deutsche Neurologe Karl Wernicke eine komplementäre Störung. Er beobachtete Patienten, die zwar flüssig sprechen konnten, deren Sprachverständnis aber schwer gestört war. Die Obduktion ergab eine Lokalisation der Störung im linken Schläfenlappen, das entsprechende Areal wird heute als Wernicke-Areal bezeichnet.
Das Wernicke-Areal befindet sich im Temporallappen und zum Teil auch im Parietallappen der dominanten Gehirnhälfte. Es ist vor allem für das Verstehen von Sprache entscheidend. Zusammen mit dem Broca-Areal bildet es das Sprachzentrum im Gehirn.
Eine Schädigung des Wernicke-Areals führt zu einer sensorischen Wernicke-Aphasie. Betroffene können Sprache kaum noch entschlüsseln und reden wie ein Wasserfall, wobei ihre Wörterflut verworren und unverständlich ist.
Das Wernicke-Lichtheim-Modell
Wernicke entwickelte als erster ein neurologisches Modell der menschlichen Sprache und ihrer Störungen. Akustische Signale werden von den Ohren zum primären Hörkortex im Temporallappen geleitet. Vom Wernicke-Areal gibt es eine Verbindung, das sogenannte Bogenbündel, zum motorischen Broca-Areal im linken Frontallappen. Hier werden nach Wernicke die „Bewegungsbilder für Sprache“ gespeichert, die die Sprachproduktion ermöglichen. Die Verbindung zum primär motorischen Kortex im Stirnlappen und von dort zur Muskulatur des Sprechapparates bilden die Verbindung zu den ausführenden Organen des Sprach- bzw. Sprechsystems.
Lesen Sie auch: Nervenzellen: Aufbau und Funktion
Wernicke postulierte, dass eine Unterbrechung des Informationsflusses im Bogenbündel zu einer Nachsprechaphasie führen würde. Als später tatsächlich eine relativ isolierte Störung des Nachsprechens bei Läsionen des Bogenbündels gefunden wurde, galt dies als eine wichtige Bestätigung seines Modells.
Das von Lichtheim vervollständigte neurologisch basierte Sprachmodell und die entsprechende klinische Klassifikation der Aphasien hielt sich gut hundert Jahre. Es bildet weiterhin die Basis der klinischen Klassifikation von Aphasien.
Neue Erkenntnisse zur Sprachverarbeitung
Obwohl das klassische Modell der Sprachverarbeitung nach wie vor von Bedeutung ist, haben neuere Forschungen gezeigt, dass es unzureichend ist und vielfach widerlegt wurde.
Kritik am klassischen Modell
Bei sorgfältiger Testung zeigt sich, dass sogenannte Broca-Aphasiker in der Regel keine isolierte motorische Sprachstörung haben. Es finden sich auch deutliche Verständnisstörungen, nicht auf der Wortebene, sondern vielmehr auf der Satzebene. Komplexe Sätze mit Passivkonstruktionen und mehreren Satzobjekten werden nicht verstanden. Linguistisch lässt sich diese Aphasieform besser als Syntaxstörung beschreiben, die sowohl die Sprachproduktion als auch das Verständnis betrifft. Zusätzlich bestehen Störungen in Bereichen der Phonologie und der Morphologie.
Ähnlich betrifft die Wernicke-Aphasie nicht nur die sensorische Modalität. Auch die Ausdrucksfähigkeit bzw. Sprachproduktion dieser Patienten ist schwer gestört, wobei Sprachfluss und Satzkonstruktionen sowie der Gebrauch von Funktionswörtern mit vorwiegend syntaktischer Funktion relativ intakt erscheinen. Linguistisch lässt sich die Wernicke-Aphasie besser als Störung der Semantik erklären, die sowohl das Sprachverständnis als auch die Sprachproduktion betrifft.
Lesen Sie auch: Die Rolle des Somas im Aufbau einer Nervenzelle
Sowohl neuropathologische Untersuchungen bei Obduktionen als auch moderne bildgebende Verfahren haben gezeigt, dass es nicht zwei scharf abgegrenzte Sprachzentren gibt. Stattdessen sind an der Sprachverarbeitung und Sprachproduktion viele Hirnareale im Stirn-, Scheitel- und Schläfenlappen beteiligt. Darüber hinaus sind auch subkortikale Areale wie der Thalamus, die Basalganglien und das Kleinhirn an der Sprachverarbeitung beteiligt. Man spricht von sogenannten Neuronalen Netzwerken, um die diffuse Verteilung und vielfache Verbindung der an der Sprachverarbeitung beteiligten Hirnareale zu betonen.
Bilaterale Sprachverarbeitung
Eine aktuelle Studie von Gregory Cogan von der New York University und seinen Kollegen hat nun bei normal Sprachfähigen direkt nachverfolgt, welche Hirnareale beim Hören und Sprechen aktiv sind. Möglich wurde dies durch 16 Patienten, denen wegen ihrer Epilepsie Elektroden auf die Hirnoberfläche der linken, rechten oder beider Hirnhälften eingepflanzt worden waren.
Die Patienten nahmen an drei verschiedenen Tests teil:
- Hören einer einfachen Sprachsilbe und laute Wiederholung nach zwei Sekunden.
- Hören einer Silbe und stumme Nachahmung durch Bewegung der Lippen.
- Passives Hören der Silben.
Das Ergebnis war überraschend: „Im Gegensatz zu einem der Kerndogmen von Gehirn und Sprache fand die Aktivität beim Übergang von der sensorischen Sprachverarbeitung zum motorischen Sprechen bilateral statt“, berichten Cogan und seine Kollegen. Die von den Elektroden aufgezeichnete Reaktion war in beiden Gehirnhälften nahezu gleich stark. Um auszuschließen, dass die Hauptarbeit doch in der linken Hemisphäre stattfand und die rechte nur nachträglich die Signale empfing, verglichen die Forscher die zeitliche Abfolge der Aktivität. „Unsere Daten sprechen dafür, dass das sensorisch-motorische Sprachsystem bilateral ist“, konstatieren die Forscher. Entgegen der gängigen Lehrmeinung umfasst es beide Gehirnhälften.
Die Rolle der rechten Hemisphäre
Während die sogenannte propositionale Sprache ganz überwiegend in der sprachdominanten linken Hirnhälfte lokalisiert ist, leistet die rechte Hirnhälfte einen wichtigen Beitrag bei der Verarbeitung der Prosodie, das heißt von Sprachrhythmus und Sprachmelodie. Damit leistet die rechte Hirnhälfte einen wichtigen Beitrag für die Unterscheidung von Fragen, Aussagen oder Befehlen, oder auch zum Verständnis von Ironie.
Genetische Grundlagen der Sprachlateralisierung
Forscher am Max-Planck-Institut für Psycholinguistik in Nijmegen fahnden nach genetischen Spuren für die Asymmetrie des Gehirns. Sie untersuchen, ob es Genvariationen gibt, die die Ausprägung bestimmter Hirnregionen beeinflussen.
Eine Studie von Francks und Guadalupe analysierte Bilder von Hirnscans von mehr als 2300 gesunden Männern und Frauen. Dabei konzentrierten sich die Wissenschaftler auf das Planum temporale - eine Hirnregion, die mit der Verarbeitung von Sprache und Musik in Verbindung gebracht wird. Die Ergebnisse zeigten, dass diese Region im weiblichen Gehirn weniger stark lateralisiert ist als bei Männern.
Weitere Untersuchungen ergaben, dass im Zusammenhang mit der Ausprägung der Linksasymmetrie im Planum temporale besonders viele SNPs in Genen gefunden wurden, die am Steroidhormon-Stoffwechsel beteiligt sind, also unter anderem bei der Synthese männlicher und weiblicher Geschlechtshormone. Und tatsächlich scheint sich die Funktion der Steroidhormone sowohl bei Männern als auch bei Frauen auf die Lateralisierung des Planum temporale auszuwirken.
Die Suche nach den genetischen Ursachen für die Lateralisierung gleicht jedoch der berühmten Suche nach der Nadel im Heuhaufen. Es gibt nicht eine einzelne Genvariationen, die über die Händigkeit oder die Asymmetrie des Gehirns entscheidet. Vielmehr scheint eine Vielzahl von Variationen im Genom letztlich zu der anatomischen Ausprägung zu führen.
Bedeutung für die Therapie von Aphasien
Ein besseres Verständnis der Aphasien ist nicht nur von akademischem Interesse. Neue, modellgeleitete Therapieansätze in der Logopädie versprechen bessere Heilungschancen für aphasische Patienten.
Initial bestand logopädische Therapie hauptsächlich aus einfachen Sprech- und Verständnisübungen. Unter dem Einfluss moderner kommunikationspsychologischer Theorien wurde dieser pragmatische Aspekt der Sprache in der modernen Logopädie viel stärker berücksichtigt. So können Aphasiker zum Beispiel angeleitet werden, gezielter Kontext-Hinweise in der Kommunikation zu nutzen. Auch die Tatsache, dass die Prosodie, also Sprachmelodie und Sprachrhythmus, teilweise in unbeschädigten rechtscerebralen Arealen verarbeitet werden, kann durch geeignete Strategien genutzt werden.
Die Integration von neurolinguistischen Modellen in logopädische Therapiekonzepte bedeutet einen weiteren wichtigen Fortschritt bei der Behandlung von Aphasien. Für die Ebene der Einzelwortverarbeitung ermöglicht zum Beispiel das Logogen-Modell diagnostisch das Erstellen eines Störungsprofils, aus dem ein individuell angepasster Therapieplan abgeleitet werden kann. Dadurch können gezielt spezielle Routen der Sprachverarbeitung trainiert werden, um so das vorhandene Kompensationpotential besser auszuschöpfen.
Sprachverständnis fördern
Ein ausgeprägtes Sprachverständnis ist die Grundlage für effektive Kommunikation und akademischen Erfolg. In einer Welt, in der Sprache eine zentrale Rolle spielt, ist es wichtig, kontinuierlich an der Verbesserung des eigenen Sprachverständnisses zu arbeiten.
Tipps zur Verbesserung des Sprachverständnisses
- Regelmäßiges Lesen: Bücher, Zeitschriften und Online-Artikel erhöhen das Verständnis für Wortgebrauch und Satzstrukturen.
- Hörverständnis schulen: Durch das Hören von Podcasts, Nachrichten und Hörbüchern wird das auditive Verständnis gefördert.
- Gespräche führen: Das aktive Sprechen und Zuhören bei Unterhaltungen verbessert sowohl das rezeptive als auch das expressive Sprachverständnis.
- Neue Wörter lernen: Das regelmäßige Lernen neuer Vokabeln und Redewendungen erweitert den Wortschatz und vertieft das Sprachverständnis.
- Sprachtandems: Sprachaustausch mit Muttersprachlern bietet praktische Anwendungsmöglichkeiten und fördert das kulturelle Verständnis.
Rezeptives vs. auditives Sprachverständnis
Rezeptives Sprachverständnis bezieht sich auf die Fähigkeit, gelesene oder gehörte Sprache zu verstehen und zu verarbeiten. Es umfasst das Leseverstehen und das Hörverstehen. Auditives Sprachverständnis ist spezifisch das Verständnis von Sprache, die durch das Hören aufgenommen wird. Es umfasst die Fähigkeit, Worte, Sätze und die dahinterliegende Bedeutung aus Gesprochenem zu extrahieren.
Übungen für das Sprachverständnis
- Hörverstehensaufgaben mit Podcasts, Hörbüchern und Radiosendungen
- Nachrichten und Filme in der Originalsprache ansehen
- Transkriptionsübungen
- Dialogübungen mit Muttersprachlern
- Leseverständnisübungen mit Texten verschiedener Genres und Schwierigkeitsgrade
- Rätselspiele und Wortspiele
- Rollenspiele
- Visualisierungsübungen