Informationsübertragung vom Ohr zum Gehirn: Ein umfassender Überblick

Sprachassistenten sind aus vielen Haushalten nicht mehr wegzudenken. Ihre Spracherkennung basiert meist auf maschinellem Lernen, einem Zweig der künstlichen Intelligenz. Doch wie funktioniert die Informationsübertragung vom Ohr zum Gehirn beim Menschen? Dieser Artikel beleuchtet die komplexen Prozesse, die es uns ermöglichen, Schallwellen in verständliche Informationen umzuwandeln, und geht dabei auf verschiedene Aspekte ein, von der Funktionsweise des Ohrs bis hin zu den neuronalen Prozessen im Gehirn.

Das Ohr: Ein komplexes Organ für die Schallaufnahme

Das Ohr ist ein hochentwickeltes Organ, das Schallwellen aufnimmt und in elektrische Signale umwandelt, die vom Gehirn interpretiert werden können. Der Hörvorgang beginnt mit der Schallaufnahme. Schallwellen, die durch Geräusche, Musik oder Sprache erzeugt werden, gelangen durch das Außenohr (Ohrmuschel) in den Gehörgang und treffen dort auf das Trommelfell. Das Trommelfell beginnt dann, in Reaktion auf die Schallwellen zu schwingen und leitet diese Bewegungen an das Mittelohr weiter.

Im Mittelohr übertragen die drei Gehörknöchelchen - Hammer, Amboss und Steigbügel - die Schwingungen des Trommelfells und verstärken sie. Diese Verstärkung erleichtert es, auch leise Geräusche wahrzunehmen und in das Innenohr weiterzuleiten. Am Übergang zwischen Mittelohr und Innenohr liegt das ovale Fenster, eine hauchdünne Membran. Es empfängt die von den Gehörknöchelchen verstärkten Schallwellen und leitet diese in die Hörschnecke (Cochlea) weiter, um die Flüssigkeitsbewegung im Innenohr anzuregen.

Die Cochlea: Umwandlung von Schall in elektrische Signale

Im Innenohr beginnt die Umwandlung der Schallwellen in elektrische Signale, die das Gehirn interpretieren kann. Das Innenohr enthält die Hörschnecke (Cochlea), das Corti-Organ und die Haarsinneszellen. Die Hörschnecke ist eine mit Flüssigkeit gefüllte, spiralige Struktur, die die Schwingungen aus dem Mittelohr aufnimmt. Diese Schwingungen erzeugen in der Flüssigkeit wellenartige Bewegungen, die in einer bestimmte Weise auf die Haarsinneszellen wirken. Hohe Frequenzen (hohe Töne) stimulieren die Haarsinneszellen am Anfang der Hörschnecke (nahe beim ovalen Fenster). Tiefe Frequenzen (tiefe Töne) erreichen die Haarsinneszellen am Ende der Hörschnecke, also im Bereich der Schneckenspitze.

Das Corti-Organ liegt in der Hörschnecke, wo sich auch die Haarsinneszellen befinden. Diese Zellen wandeln die mechanischen Schwingungen der Flüssigkeit im Innenohr in elektrische Impulse um, die über den Hörnerv an das Gehirn weitergeleitet werden. Die Haarsinneszellen spielen eine Schlüsselrolle bei der Schallverarbeitung. Je nach Frequenz und Intensität der Schallwellen werden unterschiedliche Gruppen dieser Zellen stimuliert, was eine feine Differenzierung von Tönen und Lautstärken ermöglicht. Diese Zellen sind sehr empfindlich, aber auch anfällig für Schäden durch laute Geräusche.

Lesen Sie auch: Faszination Nesseltiere: Wie sie ohne Gehirn leben

Der Hörnerv: Weiterleitung der Signale zum Gehirn

Die elektrischen Impulse, die von den Haarsinneszellen erzeugt werden, werden über den Hörnerv zum Gehirn transportiert. Der Hörnerv ist eine Linie aus Nervenzellen, die bis zum auditiven Cortex, einem Teil des Gehirns, reicht. Die im Schallreiz enthaltene Information wird einfach kodiert an das Gehirn weitergeleitet.

Die Rolle des Gehirns: Hörverarbeitung und Interpretation

Nach der Umwandlung der Schallwellen in elektrische Signale werden diese über die Hörnerven von den Haarsinneszellen zur Hörrinde im Gehirn transportiert, wo die eigentliche Hörverarbeitung erfolgt. Im Gehirn werden die Signale analysiert und in verschiedene Informationen aufgeschlüsselt. Dies umfasst die räumliche Orientierung, das Filtern von Nebengeräuschen, das Fokussieren auf bestimmte Klangquellen (wie eine Stimme in einem vollen Raum) und das Erkennen von Klängen und Wörtern. Diese Fähigkeiten ermöglichen es jedem Normalhörenden, sich in komplexen akustischen Umgebungen zurechtzufinden und wichtige Informationen aus dem Schall herauszufiltern.

Spezialisierte Nervennetze führen dort eine Schallanalyse durch. Die notwendigen neuronalen Netze müssen sich im Kleinkindesalter bilden und funktionell reifen. Dazu ist die Wahrnehmung von Schallreizen unabdingbar. Ist die Funktion des Innenohrs gestört, läuft die Reifung des zentralen Hörsystems nicht ab. Der anfänglich periphere Hörschaden führt zu irreversiblen zentralnervösen Defiziten: zu Taubheit. Zentrale Reifungsprozesse können im späteren Lebensalter nicht nachgeholt werden. Will man einem hörgestörten Kind zu normaler Sprachentwicklung verhelfen, muss die Diagnose früh gestellt werden.

Die Tonhöhe wird codiert, indem unterschiedliche Frequenzen die Sinneszellen an unterschiedlichen Orten anregen. Dieses Ortsprinzip (Tonotopie) findet sich auch anderswo in der Hörbahn. Höhere Lautstärke wirkt sich aus, indem die beteiligten Neuronen in schnellerer Folge feuern und mehr Neuronen aktiv sind. Richtungsinformation gewinnt das Gehirn durch Lautstärken- und Laufzeitunterschiede an den beiden Ohren sowie durch Veränderungen im Klangbild, die durch die räumlichen Verhältnisse sowie durch die Geometrie des Kopfes und den Ohrmuscheln entstehen. An den verschiedenen Stationen der Verarbeitung auditorischer Signale im Gehirn sind Neuronen mit höchst unterschiedlicher Spezialisierung beteiligt. Dabei sind viele Zusammenhänge noch nicht erforscht.

Schallarten und ihre Verarbeitung

Auch wenn uns Schall immer in Form von schnellen Luftdruckschwankungen erreicht, physikalisch gesehen also immer mehr oder weniger dasselbe Phänomen ist, unterscheidet man je nach zeitlichem Verlauf verschiedene Schallarten. Die einfachste Variante ist ein Ton: eine reine Schwingung einer einzelnen Frequenz mit der Wellenform einer Sinuskurve. Ein Klang besteht demgegenüber aus Ton plus Oberschwingungen, enthält also neben dem Grundton (oder den Grundtönen) auch Anteile mit der doppelten, dreifachen, vielfachen Frequenz. Die Wellenform ist damit komplexer als beim Ton, aber weiterhin regelmäßig: Sie wiederholt sich periodisch. Je nach Verhältnis, in dem die Obertöne zusammengesetzt sind, klingt ein Klang nach Flöte, Geige, Klavierakkord etc. Ist die Wellenform nicht periodisch, sondern ganz unregelmäßig, spricht man von einem Geräusch. Dazu zählt jede Form von Rauschen, aber auch der Schall, der beim Sprechen den Mund verlässt.

Lesen Sie auch: Lesen Sie mehr über die neuesten Fortschritte in der Neurowissenschaft.

Das Gehör ist in der Lage, dem Schall vielerlei Information zu entnehmen - und das allein auf Basis der Luftdruckschwankungen, die das Ohr erreichen. Schallwellen lassen sich allein durch Frequenz und Amplitude beschreiben. Die Frequenz gibt dabei an, wie häufig sich die Schwingung innerhalb einer Sekunde wiederholt und spiegelt die Tonhöhe wider. Die Amplitude drückt aus, mit welcher Auslenkung die Welle um die Ruhelage schwingt. Sie ist ein Maß für den Schalldruck und damit für die Lautstärke.

Entscheidend für die Analyse ist die Basilarmembran, die die Schwingungen aufnimmt und an das Corti-Organ weiterleitet, wo Haarzellen die mechanische Information aufnehmen und in ein neurologisches Signal übersetzen, das die Hörbahn hinaufrast. Die gut drei Zentimeter lange Basilarmembran in der Innenohrschnecke ist an einem Ende schmal und steif, am anderen breit und weich. Hohe Töne lösen nahe dem schmalen, steifen Ende resonante Schwingungen aus und stimulieren die dort befindlichen Haarzellen. Tiefe Töne dagegen führen am anderen Ende zur größten Auslenkung, sodass ganz andere Nervenzellen Impulse empfangen. Und bei einem Frequenzgemisch werden die Zellen an mehreren Stellen gleichzeitig aktiv. Im Prinzip kann man sich die Basilarmembran einer entrollten Hörschnecke wie die Tastatur eines Klaviers vorstellen, auf der die verschiedenen Töne nebeneinander angeordnet sind. Diese systematische Organisation von charakteristischen Frequenzen nennt man Tonotopie.

Was die Wellenform alleine jedoch nicht verrät, ist die Richtung, aus der ein Geräusch kommt. Um auch diese - oftmals entscheidende - Information herauszuhören, kombiniert das auditorische System gleich drei Mechanismen. Am offensichtlichsten ist wohl der Intensitätsunterschied. Der Kopf wirft - vor allem bei Schallwellen mit hoher Frequenz - eine Art akustischen Schatten: Befindet sich die Schallquelle rechts, hören wir das Geräusch auf der linken Seite etwas leiser als auf der rechten. Die Richtungsortung per Intensitätsdifferenz versagt allerdings bei tiefen Tönen: Dann ist die Wellenlänge groß, und der Schall kann praktisch ungehindert um den Kopf herumlaufen. In diesem Fall wird der Laufzeitunterschied besonders wichtig: Aufgrund der Schallgeschwindigkeit in Luft trifft eine von seitlich rechts kommende Schallwelle am rechten Ohr um etwa 0,0006 Sekunden früher ein als am linken. Auch diesen kleinen Zeitverzug nutzen die Neuronen, die Signale von beiden Ohren empfangen, zur Lokalisation der Geräuschquelle. Bereits im Hirnstamm gibt es Bereiche, die den Input von beiden Ohren verarbeiten - ebenso in den höheren auditorischen Arealen. So werden auch kleine Intensitätsunterschiede wahrgenommen und in Richtungsinformation übersetzt. Eine weitere wichtige Information gewinnen wir aus der absoluten Intensität eines Geräusches, denn es nimmt mit zunehmendem Abstand schnell ab. Weder Intensitäts- noch Laufzeitunterschiede erklären allerdings, warum wir auch unterscheiden können, ob Geräusche von schräg rechts vorn oder schräg rechts hinten kommen - oder gar von oben oder unten. Hier greift der dritte Mechanismus: Die Form des Kopfes und vor allem der Ohrmuscheln sorgt für ein komplexes Muster von Schallschatten und Schallschatten-Reflexionen, das sich je nach Frequenz und Richtung des ankommenden Schalls unterscheidet. Beispielsweise dämpft die Ohrmuschel bei von hinten kommenden Geräuschen hohe Frequenzen stärker als tiefe. Ein Knall hinter uns klingt deshalb etwas dumpfer, als wenn vor uns etwas explodiert. Und kommt der Knall von oben, ist der Frequenzgang wieder etwas anders. Diese feinen Variationen weiß das Gehirn so zu interpretieren, dass es die Richtung erkennt.

Klar ist, dass die beteiligten Neuronen ganz verschiedenartige Spezialisierungen aufweisen: Manche feuern, solange ein Ton bestimmter Frequenz erklingt, andere nur, wenn er anfängt und/oder aufhört. Manche Neuronen vergleichen die Signale beider Ohren, andere reagieren selektiv bei bestimmten Intensitäten, wieder andere durchkämmen alles Gehörte auf spezifische Lautmuster. Das ermöglicht letztlich feinste Unterscheidungen: Wir können Ereignisse an der Art des Knalls, Personen am Geräusch ihrer Schritte, Stimmungen am Klang der Stimme identifizieren.

Botenstoffe und ihre Bedeutung für das Hören

Unser Nervensystem enthält etwa 100 Milliarden Nervenzellen, die über circa 100 Billionen Kontaktstellen, sogenannte Synapsen, miteinander kommunizieren. Die Kommunikation erfolgt durch Botenstoffe, die für die Informationsweiterleitung zwischen Sinnes- und Nervenzellen sorgen und erlaubt es, Umweltreize zu verarbeiten, zu lernen und unser Verhalten zu steuern. Auch beim Prozess des Hörens spielen Botenstoffe bei der Übertragung der Schallinformation eine grundlegende Rolle und können ursächlich für Störungen des Hörsinns sein.

Lesen Sie auch: Tinnitus und Gehirnaktivität: Ein detaillierter Einblick

Wissenschaftler haben die Synapsen zwischen den Haarsinneszellen im Innenohr und den Nervenzellen des Hörnervs untersucht. Hier wird die eintreffende Schallinformation in ein Nervensignal umgewandelt, das den Schalleindruck präzise an das Gehirn übermittelt. Dabei ging es vor allem um die Frage, wie die Synapsen die Freisetzung des Botenstoffs Glutamat an den Schallreiz koppeln. Glutamat ist eine Aminosäure, die unter anderem an der Reizweiterleitung zwischen Sinnes- und Nervenzellen beteiligt ist. Innerhalb der Sinneszellen wird das Glutamat in „Bläschen“, sogenannten Vesikeln, zur Synapse transportiert. Der eintreffende Schall aktiviert Kalzium-Kanäle an den Synapsen, durch die Kalzium-Ionen in die Zelle gelangen und die Freisetzung von Glutamat an den Synapsen der Haarsinneszellen sorgen. Die Ergebnisse zeigen, wie die Glutamat-Freisetzung dabei mit der Stärke des Reizes zunimmt, wie also ein „Schallsignal“ in ein „Glutamatsignal“ umgewandelt wird. Die Hauptdarsteller bei diesem Prozess sind die Kalzium-Kanäle, die Kalzium-Ionen und die synaptischen Vesikel, die offenbar nur wenige millionstel Millimeter von den Kanälen entfernt liegen.

Die Ergebnisse zeigen, dass immer ein Kalzium-Kanal und ein Vesikel eine funktionelle Einheit bilden. Jeder der auf den Vesikeln befindlichen Kalzium-Sensoren, die für die Botenstoff-Freisetzung sorgen, muss dabei offenbar vier Kalzium-Ionen binden, bevor schließlich Botenstoffe an die benachbarte Nervenzelle des Hörnervs gesendet werden.

Hörstörungen und Behandlungsmöglichkeiten

Hörstörungen sind sehr häufig: Nach Angaben der Weltgesundheitsorganisation (WHO) leiden etwa 466 Millionen Menschen, dies entspricht etwa fünf Prozent der Weltbevölkerung, unter einer versorgungsbedürftigen Schwerhörigkeit. Die elementaren Prozesse des Hörens zu verstehen, ist eine wichtige Voraussetzung, um zukünftig bessere Methoden zur Behandlung von Schwerhörigkeit zu entwickeln.

Wird bei einem Säugling eine Synapsen-Schwerhörigkeit festgestellt, kann ihm derzeit nur ein sogenanntes Cochlea-Implantat späteres Hören und Sprechen ermöglichen. Im Idealfall wird das Implantat im ersten Lebensjahr eingesetzt, noch bevor das Kind zu sprechen beginnt. „In den ersten Lebensjahren werden im Gehirn viele synaptische Verbindungen aus- und umgebaut“, erläutert Moser. „Wenn während dieser Phase im Gehirn zu wenige Hörreize aus den Ohren ankommen, werden viele Verbindungen nicht korrekt geknüpft. Später lässt sich dies kaum mehr kompensieren.“

Cochlea-Implantate werden nicht nur taub geborenen Kindern, sondern zunehmend auch schwersthörigen Erwachsenen eingesetzt. Die Implantate übernehmen die Funktion der Hörschnecke und umgehen die Sinneszellen. Sie reizen die Nervenzellen des Hörnervs also direkt. Bei der Implantation werden ein Elektrodenträger mit - je nach Modell - 12 bis 24 Elektroden in die Hörschnecke geschoben und ein elektrischer Stimulator nebst Empfangsspule und Magnetkopplung hinter der Ohrmuschel im Schädelknochen platziert. Ein daran gekoppelter Sprachprozessor zerlegt Schall in seine Frequenzen und überträgt die Frequenz-, Zeit- und Lautstärkeinformation an den Stimulator. Nach dem Einsetzen elektrischer Cochlea-Implantate müssen die Patientinnen und Patienten das Hören wieder neu lernen, denn die geringe Anzahl an Elektroden schränkt die Wahrnehmung unterschiedlicher Tonhöhen stark ein.

Die Hoffnung der Wissenschaftler ruht deshalb auf sogenannten optischen Cochlea-Implantaten, an denen seit einigen Jahren geforscht wird. Die Idee: Die Schallinformation wird nicht elektrisch, sondern durch Licht übertragen. Wenn es funktioniert, wäre das ein Meilenstein. Der Klang von Sprache und Musik könnte dadurch sehr viel natürlicher und nuancenreicher werden.

Die Bedeutung der Synchronisation im Gehirn

Meistens geben unsere beiden Ohren dem Gehirn unterschiedlichen Input. Trotzdem nehmen wir Gesagtes immer als einheitliche Sprachlaute wahr. Dies geschieht durch den Abgleich der beteiligten Hirnareale mit Hilfe von Gamma-Wellen, wie Neurolinguisten herausgefunden haben. Eigentlich ist es erstaunlich, dass wir nicht alles zweimal hören: Denn unsere Ohren sitzen auf gegenüberliegenden Seiten des Kopfes und die meisten Töne erreichen die Ohrmuscheln zeitlich leicht versetzt. «Dies hilft uns zwar zu bestimmen, aus welcher Richtung Geräusche kommen, bedeutet aber auch, dass unser Gehirn die Informationen beider Ohren zusammenführen muss. Ansonsten würden wir ein Echo hören», erklärt Basil Preisig. Hinzu kommt, dass Input vom rechten Ohr zuerst die linke Hirnhälfte und Input vom linken Ohr zuerst die rechte Hirnhälfte erreicht. Die beiden Hälften übernehmen bei der Sprachverarbeitung unterschiedliche Aufgaben: Die linke Seite ist für die Unterscheidung der Silben zuständig, die rechte erkennt die Sprachmelodie.

Die Synchronisation der Gamma-Wellen scheint also die verschiedenen Inputs der beiden Hirnhälften miteinander abzugleichen und so für einen eindeutigen akustischen Eindruck zu sorgen. «Unsere Resultate unterstützen die Idee, dass die durch Gamma-Wellen vermittelte Synchronisation zwischen verschiedenen Hirnarealen ein grundlegender Mechanismus für die neuronale Integration ist», sagt Preisig. Diese Erkenntnisse könnten in naher Zukunft auch Anwendung in der Klinik finden. «Frühere Studien zeigen, dass Störungen der Verbindung zwischen den beiden Hirnhälften mit auditiven Phantomwahrnehmungen wie Tinnitus und Stimmenhören einhergehen», so Preisig.

tags: #infobahn #von #ohr #zum #gehirn