Die Trugschlüsse des Gehirns: Psychologische Fehlinterpretationen von Wörtern

Die menschliche Sprachwahrnehmung ist ein komplexer Prozess, der weit über das bloße Hören und Verstehen von Wörtern hinausgeht. Sie umfasst die Aufnahme, Interpretation und Verarbeitung von Sprache in all ihren Formen - sei es geschrieben, gesprochen oder in Gebärdensprache ausgedrückt. Die Forschung auf diesem Gebiet konzentriert sich darauf, wie wir Laute erkennen, ihre Bedeutung entschlüsseln und so gesprochene Sprache verstehen. Dieser Artikel beleuchtet die Mechanismen der Sprachwahrnehmung im Gehirn, die kategoriale Sprachwahrnehmung, das Segmentierungsproblem sowie Störungen der Sprachwahrnehmung und geht auf die psychologischen Aspekte ein, die zu Fehlinterpretationen führen können.

Der Weg des Schalls: Sprachwahrnehmung im Gehirn

Der Prozess der Sprachwahrnehmung beginnt im Außenohr, wo Schallwellen aufgenommen und über den Gehörgang zum Mittelohr weitergeleitet werden. Hier verstärkt das Trommelfell die Schallwellen und überträgt sie auf die Gehörknöchelchen - Hammer, Amboss und Steigbügel. Diese Knöchelchen sind mit dem ovalen Fenster verbunden, dem Eingang zum Innenohr. Die Cochlea, auch Hörschnecke genannt, wandelt den Schall schließlich in neuronale Signale um, die über den Hörnerv an die zuständigen Areale im Gehirn weitergeleitet werden. Dort werden die einzelnen Sprachlaute, Silben und Wörter identifiziert.

Die Informationsweiterleitung im Gehirn erfolgt über Neuronen, die ankommende Signale durch elektrische Impulse (Aktions- und Ruhepotentiale) weiterleiten. Die Wissenschaft geht davon aus, dass verschiedene Hirnareale an der Sprachwahrnehmung und -verarbeitung beteiligt sind. Erkenntnisse darüber werden vor allem durch die Untersuchung von Schlaganfallpatienten gewonnen, die nach der Erkrankung mithilfe funktioneller Bildgebungsverfahren erneut das Sprechen lernen müssen.

Ein Schlaganfall entsteht, wenn Blutgefäße im Gehirn durch ein Blutgerinnsel verschlossen werden, was zu einer Unterversorgung des Gehirngewebes mit Sauerstoff führt. Dies kann zum Absterben von Zellen und zu verschiedenen Störungen führen, darunter Seh-, Sprach- oder Koordinationsstörungen. Funktionelle Bildgebungsverfahren ermöglichen es, die Aktivität bestimmter Hirnbereiche während des Sprechens darzustellen.

Eine zentrale Rolle bei der Sprachverarbeitung spielt der auditive Kortex, der als Endpunkt des Hörnervs und als eine Art Hörzentrum fungiert. Hier werden alle ankommenden neuronalen Sprachsignale verarbeitet. Das Sprachverständnis selbst wird dem Wernicke-Areal zugeschrieben, während die Verarbeitung grammatikalischer Aspekte und die Sprachbildung dem Broca-Areal zugeordnet werden. Diese beiden Areale bilden die Hauptkomponenten der Sprachverarbeitung.

Lesen Sie auch: Demenz und Sprachprobleme

Kategoriale Sprachwahrnehmung: Vom Laut zum Wort

Sprache ist mehr als nur eine Aneinanderreihung von Sätzen und Wörtern. Es handelt sich um einen vielschichtigen Prozess, der auf der Ebene der einzelnen Laute, den sogenannten Phonemen, beginnt. Aus diesen Phonemen setzen sich die Morpheme oder Phonemsequenzen zusammen, die basierend auf dem Vorwissen einer Person kategorial in Worteinheiten verbunden werden.

Ein Morphem ist die kleinste bedeutungstragende Einheit einer Sprache, die aus einem oder mehreren Phonemen besteht. Eine Sprache verfügt in der Regel über 30 bis 40 Phoneme. Beispielsweise besteht das Standarddeutsche aus etwa 40 Phonemen, davon 20 Vokalphoneme und 20 konsonantische Phoneme. Die Phoneme dienen somit der Unterscheidung zwischen Wörtern unterschiedlicher Bedeutung.

Die Bildung von Worteinheiten lässt sich am Beispiel des Wortes "Schal" verdeutlichen. Es besteht aus den Lauten "Sch", "a" und "l", die zuerst einzeln wahrgenommen werden. Erst durch ausreichend Vorwissen können diese Laute zusammengesetzt und als "Schal" (ʃɑl) verstanden werden. Dasselbe gilt für das Wort "Tischbein", das aus den Lauten "T", "i", "sch", "b", "ei" und "n" besteht (tɪʃbɑ͡ɪn).

Die Phonemsequenzen werden schließlich ebenfalls auf Basis des vorhandenen Wissens zu Satzeinheiten verbunden und mit dem Sprachgedächtnis abgeglichen. Wenn ein Morphem von diesem wiedererkannt wird, weil es ein bereits existierendes Wort beinhaltet, kann das Gehirn der Sequenz eine Bedeutung zuordnen. In unserem Gedächtnis sind Wörter (Phonemsequenzen) samt ihrer Bedeutung gespeichert, nicht jedoch die einzelnen Laute und Lautfolgen, aus denen sie bestehen. Deshalb muss ein Wort jedes Mal, wenn wir es hören, in seine einzelnen Phoneme zerlegt werden, damit diese anschließend einzeln analysiert werden können.

Das Segmentierungsproblem: Wo beginnt und endet ein Wort?

Bereits in den frühsten Stadien der Sprachentwicklung muss ein Kind lernen, den Sprachstrom der Umweltsprache zu verarbeiten und ihn in sprachlich relevante Einheiten (Segmente) zu untergliedern. Das heißt, ein Kind muss erfahren, wie es die ganzen Geräusche und Wortfetzen um sich herum filtert und Wichtiges weiterverarbeitet. Im ersten Lebensjahr liegt der Fokus der Sprachwahrnehmung auf der Verarbeitung und Kategorisierung bzw. Segmentierung von Betonung, Pausensetzung und Phrasenstrukturgesetzen, also den sogenannten prosodischen Merkmalen der gesprochenen Sprache.

Lesen Sie auch: Gedächtnistest zur Demenz-Früherkennung

Die Segmentierfähigkeit ist die Fähigkeit, größere sprachliche Einheiten (Wörter, Sätze) in kleinere Einzelteile (Silben, Laute) zu zerlegen. Dieser Vorgang findet auf verschiedenen sprachlichen Ebenen statt: Textebene (Zerlegung des Textes in Sätze und Phrasen), Satzebene (Zerlegung in einzelne Wörter) und Wortebene (Zerlegung in Silben und einzelne Laute).

Das Segmentierungsproblem besteht darin, Wörter bzw. Phoneme in der gesprochenen Sprache voneinander zu trennen. Obwohl wir Sprache als einen gleichmäßigen Strom aufeinanderfolgender Laute wahrnehmen, ist diese Linearität im Sprachschall selbst nicht wirklich vorhanden. Sprachschall kann von vorausgehender und nachfolgender Sprache beeinflusst werden, wodurch die Segmentierung erschwert wird.

Ein Beispiel hierfür ist das englische Wort "ice cream". Beim Hören muss das Gehirn entscheiden, ob es sich tatsächlich um "ice cream" oder um "I scream" handelt. Dafür muss der ankommende Sprachschall erst in seine einzelnen Phoneme zerlegt und nacheinander wieder zusammengesetzt werden, um den Unterschied zu erkennen und die richtige Bedeutung zu identifizieren.

Motor-Theorie der Sprachwahrnehmung: Nachahmung als Schlüssel zum Verständnis

Die Motor-Theorie der Sprachwahrnehmung besagt, dass der Mensch ankommende akustische Signale unbewusst nachahmt und dadurch interpretiert. Dies wird besonders deutlich beim Lippenlesen, bei dem gehörlose Menschen die Sprache von den Lippen ihres Gegenübers ablesen. Um zu verstehen, was die andere Person sagt, muss bereits eine Vorstellung davon vorhanden sein, welche Lippenbewegung für welches Wort bzw. welchen Laut steht.

Die Motor-Theorie baut auf dem Zusammenhang zwischen Sprachwahrnehmung und Spracherzeugung auf. Wahrgenommene akustische Signale werden in Abhängigkeit von artikulatorischen Gesten, die im Gehirn gespeichert sind, entschlüsselt. Artikulatorische Gesten sind Bewegungen, die mit den Artikulationsorganen (Zunge, Unterkiefer, Lippen) erzeugt werden. Im Gehirn existiert bereits eine Vorstellung davon, welcher Laut zu welcher artikulatorischen Geste gehört.

Lesen Sie auch: 5-Wörter-Test bei DemTect

Frequenzen der Sprachwahrnehmung: Der Bereich des Hörbaren

Die menschliche Sprache besteht aus Schallwellen, die über die Luft an das Ohr gelangen. Das menschliche Ohr kann akustische Signale nur in einem bestimmten Frequenzbereich wahrnehmen. Personen mit einem gesunden Hörvermögen vernehmen Frequenzen zwischen 20 und 20.000 Hz. Der Hauptsprachbereich, der für die Wahrnehmung von Sprache verantwortlich ist, umfasst die Frequenzen zwischen circa 0,2 und 4 kHz (200 und 4.000 Hz). In diesem Bereich ist das menschliche Ohr besonders empfindlich für Schall. Der Schalldruckpegel, gemessen in Dezibel (dB), gibt an, mit welchem Druck die Schallwellen auf das Trommelfell treffen.

Entwicklung der Sprachwahrnehmung bei Kindern: Ein Prozess von Geburt an

Die Sprachwahrnehmung beginnt nicht erst mit der Geburt, sondern bereits im Mutterleib. Ab dem fünften Schwangerschaftsmonat ist der Fötus in der Lage, Laute wahrzunehmen. In den ersten Lebensmonaten entwickelt sich die Sprachwahrnehmung kontinuierlich weiter:

  • 5. bis 6. Schwangerschaftsmonat: Lautwahrnehmung
  • 8. Schwangerschaftsmonat: Lautunterscheidung (Erkennung einer Vertauschung zweier Silben)
  • 0. bis 3. Lebensmonat: Beginn der kategorialen Lautunterscheidung, Erkennen der mütterlichen Stimme und des Betonungsmusters der vorherrschenden Sprache
  • 4. bis 6. Lebensmonat: Erkennen des eigenen Namens, verstärktes Erkennen von Lauten der eigenen Sprache und Erkennen von Satzgrenzen aufgrund von prosodisch-rhythmischer Muster
  • 7. bis 8. Lebensmonat: Erkennen einsilbiger, unbetonter Funktionswörter (Präpositionen, Artikel)
  • 9. bis 12. Lebensmonat: Erkennen von syntaktischen Grenzen innerhalb eines Satzes, Erkennen von Regeln für die Kombination von Konsonanten und Vokalen in der Zielsprache
  • 14. Lebensmonat: Erkennen von syntaktischen Einheiten
  • 17. Lebensmonat: Erkennen von Wortstellungsregeln

Störungen der Sprachwahrnehmung: Wenn das Gehirn falsch hört

Störungen der Sprachwahrnehmung können verschiedene Bereiche betreffen und werden nach dem entsprechenden Ort gruppiert: Ohr, Hörbahn oder Gehirn. Sie können die Aufnahme, Weiterleitung und Verarbeitung der auditiven Information beeinträchtigen.

Konduktive Hörstörungen betreffen das Mittelohr. Zwar kommt das Schallsignal ungestört am Trommelfell an, jedoch ist die Weiterleitung des Signals über die Gehörknöchelchen gestört. Infolgedessen wird das wahrgenommene Sprachsignal gedämpft.

Psychologische Aspekte von Fehlinterpretationen: Mehr als nur Hören

Die Sprachwahrnehmung ist eng mit psychologischen Prozessen verbunden, die zu Fehlinterpretationen führen können. Dazu gehören:

  • Aufmerksamkeit: Mangelnde Aufmerksamkeit kann dazu führen, dass wichtige Details überhört oder falsch interpretiert werden.
  • Erwartungen: Unsere Erwartungen beeinflussen, wie wir Sprache wahrnehmen. Wir neigen dazu, das zu hören, was wir erwarten zu hören, auch wenn es nicht das ist, was tatsächlich gesagt wurde.
  • Emotionen: Emotionen können unsere Sprachwahrnehmung verzerren. In emotional aufgeladenen Situationen sind wir anfälliger für Fehlinterpretationen.
  • Vorurteile: Vorurteile können dazu führen, dass wir Sprache selektiv wahrnehmen und interpretieren, um unsere bestehenden Überzeugungen zu bestätigen.
  • Kontext: Der Kontext, in dem Sprache verwendet wird, ist entscheidend für das Verständnis. Ohne den richtigen Kontext können Wörter und Sätze leicht missverstanden werden.

tags: #3 #worter #sagen #falsch #gehirn