Einleitung
Unser Gehirn, ein komplexes Netzwerk aus über 100 Milliarden Nervenzellen (Neuronen), ist die Grundlage für unsere kognitiven und emotionalen Fähigkeiten. Diese Neuronen unterscheiden sich je nach Position und Funktion stark und sind in der Lage, Signale zu empfangen, zu senden, zu verstärken, zu unterdrücken, zu verändern oder umzuwandeln. Jedes Neuron fungiert als Schalteinheit in einem hochvernetzten Netzwerk und kann mit Dutzenden bis Tausenden anderer Nervenzellen in direktem Kontakt stehen und Signale austauschen.
Die Signalübertragung erfolgt an hochspezialisierten Kontaktpunkten, den sogenannten Synapsen. Synapsen sind die kleinsten Recheneinheiten in unserem Gehirn und müssen Signale schnell und zuverlässig übertragen und sich anpassen können, wenn sich die Signalweiterleitung ändern soll. Daher ist es nicht verwunderlich, dass viele neurodegenerative Erkrankungen auf Prozesse zurückzuführen sind, die direkt an Synapsen stattfinden oder die Signalweiterleitung an Synapsen beeinflussen.
Wie Nervenzellen mit Sprache umgehen
Die Hirnforschung hat in den letzten Jahren erhebliche Fortschritte gemacht, insbesondere bei der Untersuchung, was in unserem Gehirn geschieht, wenn wir sprechen oder gesprochene Worte hören. Zwei US-amerikanische Forschungsgruppen haben mithilfe von Neuropixel-Sonden, die die elektrische Aktivität von Hunderten von Neuronen gleichzeitig messen, genau verfolgt, welche Hirnzellen beim Hören und Sprechen aktiv sind.
Die Herausforderung der Sprachverarbeitung
Sprache zeichnet sich durch eine zeitliche Abfolge von Lauten aus, wobei Phoneme als kleinste bedeutungstragende Elemente zu Silben und Wörtern kombiniert werden. Trotz der Fortschritte in der Hirnforschung ist noch immer unklar, wie das Gehirn die Identität und die Abfolge solcher Phoneme analysiert. Erkennen bestimmte Neurone jeweils ein einzelnes Phonem wie /r/, /a/ oder /t/? Oder reagieren individuelle Hirnzellen selektiv auf Gruppen von Phonemen, wie es im visuellen Kortex beim Erkennen von Gesichtern geschieht? Und wie codieren Neurone Phonemsequenzen wie /rot/ oder /tor/?
Neuropixel-Sonden enthüllen neuronale Aktivität
Um diese Fragen zu klären, haben Wissenschaftler mithilfe von Elektroden beobachtet, was im menschlichen Gehirn beim Sprechen und Hören geschieht. Im Jahr 2022 gelang es den Arbeitsgruppen von Ziv Williams von der Harvard Medical School und Edward Chang von der University of California in San Francisco, Aktivitätsmessungen einzelner Hirnzellen durch Neuropixel-Sonden bei wachen Patienten durchzuführen, die sich einer Hirnoperation unterziehen mussten.
Lesen Sie auch: Hirntumor: Antworten auf Ihre Fragen
Chang und seine Kollegen zeichneten die neuronale Aktivität im Gyrus temporalis superior des auditorischen Kortex auf, einer Region, die Sprachlaute verarbeitet, bevor die Bedeutungen der Wörter von anderen Hirnarealen erfasst werden. Williams' Gruppe konzentrierte sich auf die Frage, welche Neurone sich beim Sprechen regen, und analysierte mit derselben Technik einen Teil des präfrontalen Kortex, der an der Wortplanung und dem Satzbau beteiligt ist.
Neuronale Reaktionen auf Phonemgruppen
Die Analysen der beiden Teams führten zu zwei wichtigen Erkenntnissen. Erstens reagieren einzelne Neurone tatsächlich auf Gruppen von Phonemen. Zweitens offenbarten die Studien, wie Neuronenpopulationen bei der Sprachwahrnehmung und -produktion koordiniert zusammenwirken. Sobald die Versuchsteilnehmer Sprache hörten, reagierten Neurone sowohl im auditorischen als auch im präfrontalen Kortex auf ähnlich artikulierte Phonemklassen und nicht speziell auf einzelne Phoneme.
Dabei regten sich jeweils Hirnzellen, die im auditorischen Kortex räumlich nahe beieinanderlagen. Dies führte dazu, dass die Probanden Schwierigkeiten hatten, zwischen Wörtern zu unterscheiden, die aus verschiedenen Phonemen bestehen, die aber aus derselben Lautgruppe stammen. Im Gegensatz dazu aktivierten Wörter mit Phonemen aus unterschiedlichen Gruppen auch jeweils andere Neuronenpopulationen. Darüber hinaus antworteten die Zellen des auditorischen Kortex auch bei nicht sprachlichen Signalen wie Satzanfängen jeweils unterschiedlich.
Die Gruppierung von auf ähnliche Reize spezialisierten Neuronen erinnert an die Organisation in kortikale Säulen, die sich über mehrere Schichten der Großhirnrinde erstrecken. Räumlich begrenzte Neuronenpopulationen scheinen als Recheneinheiten für die Sprachverarbeitung zu dienen, die sprachspezifische Informationen mit anderen akustischen Reizen zusammenführen. Eine solche Integration könnte erklären, warum wir dieselben Phoneme von verschiedenen Sprechern oder bei geänderter Tonlage immer noch erkennen.
Vorauseilende Hirnaktivität bei der Wortplanung
Die Messungen aus Williams' Arbeitsgruppe zeigten, dass sich bestimmte Neurone im präfrontalen Kortex nicht nur dann regten, wenn die Probanden Begriffe mit ähnlich klingenden Phonemen formulierten, sondern auch bei nur gedachten, noch nicht ausgesprochenen Wörtern. Die zeitlichen Aktivitätsmuster der Neuronenpopulationen spiegelten somit die Wortplanung des Gehirns wider, so dass die für bestimmte Phoneme zuständigen Hirnzellen schon vor dem Aussprechen der Silbe tätig wurden. Eine derartige vorauseilende Hirnaktivität ließ sich gleichfalls im motorischen Kortex von still sitzenden Rhesusaffen beobachten, unmittelbar bevor sich die Tiere bewegten. Hier scheint sich ein allgemeines Prinzip der motorischen Produktion zu verbergen.
Lesen Sie auch: Überblick Hirnstrommessung
Offene Fragen und zukünftige Forschung
Die sich ergänzenden Ansätze der beiden Teams könnten das Verständnis über Ähnlichkeiten und Unterschiede beim auditorischen und präfrontalen Kortex verbessern. Eine Schlüsselfrage bleibt jedoch bestehen: Wie übersetzt das Gehirn den Wortklang in eine Sequenz koordinierter neuronaler Aktivitäten, die nötig sind, um durch Muskelbewegung das Wort richtig auszusprechen? Oder anders formuliert: Wie übermittelt der auditorische Kortex gehörte Informationen an motorische Zentren für eine korrekte Sprachproduktion?
Simultane Aufzeichnungen aus dem auditorischen sowie dem präfrontalen Kortex sollten das Rätsel lösen, wie die Produktion und die Wahrnehmung von Sprache zusammenlaufen und wie Informationen von den jeweiligen Hirnzentren hin- und herfließen.
Die Rolle von Serotonin bei der internen Kommunikation des Gehirns
Unser Gehirn befindet sich in einem ständigen Selbstgespräch, das fortwährend durch äußere Reize beeinflusst wird. Dabei müssen aktuelle Sinneswahrnehmungen und laufende Hirnaktivität aufeinander abgestimmt werden. Ein Forschungsteam der Neurowissenschaft an der Ruhr-Universität Bochum (RUB) hat herausgefunden, wie der Botenstoff Serotonin diese Prozesse im Gehirn reguliert.
Dirk Jancke, Leiter der Arbeitsgruppe Optical Imaging am Institut für Neuroinformatik, vergleicht das Problem des Gehirns, interne und externe Informationen aufeinander abzustimmen, mit einer Familiendiskussion, die durch einen Telefonanruf unterbrochen wird. Um sowohl die Familiendiskussion im Hintergrund ungestört fortsetzen zu können als auch das Gespräch mit dem Anrufer, müssen die jeweiligen Lautstärken angepasst werden.
Experimente zeigten, dass ein Anstieg des Serotoninlevels im visuellen Cortex, der Seheindrücke verarbeitet, eine Abschwächung von Aktivitäten aufgrund visueller Reize und eine Abschwächung von Signalen interner Kommunikation bewirkt. Fehlfunktionen beim Zusammenspiel dieser Rezeptoren bergen allerdings die Gefahr, dass verschiedene Informationskanäle aus dem Gleichgewicht geraten.
Lesen Sie auch: Mehr über Cartoons und das Gehirn
Aufgabenverteilung der Gehirnhälften beim Sprechen
Wenn wir sprechen, benötigen wir dazu beide Gehirnhälften, von denen jede einen Teil der komplexen Aufgabe übernimmt, Laute zu formen, die Stimme zu modulieren und das Gesprochene zu überprüfen. Christian Kell von der Klinik für Neurologie der Goethe-Universität Frankfurt erklärt, dass die Aufgabenverteilung der Hirnhälften anders ist als bisher angenommen. Während die linke Hirnhälfte bei der Sprachkontrolle zeitliche Aspekte wie Übergänge zwischen Sprachlauten kontrolliert, ist die rechte Gehirnhälfte für das Klangspektrum zuständig.
Diese Aufgabenteilung in zeitliche beziehungsweise spektrale Verarbeitung beim Sprechen konnte sein Team zusammen mit der Phonetikerin Dr. Susanne Fuchs zeigen. Eine mögliche Erklärung für diese Form der Arbeitsteilung zwischen den beiden Hirnhälften wäre, dass die linke Hirnhälfte generell schnelle Abläufe, wie die Übergänge zwischen Sprachlauten, besser analysiert als die rechte. Die rechte Hirnhälfte könnte besser langsamere Abläufe kontrollieren, die zur Analyse des Klangspektrums benötigt werden.
Hirnkopplung in Gesprächen
Bei einem guten Gespräch stellen sich die Gehirne der Beteiligten aufeinander ein: Die Aktivitätsmuster sind bei Sprecher und Zuhörer nahezu vollständig deckungsgleich - beim Zuhörer setzt die Aktivität lediglich mit wenigen Sekunden Verzögerung ein, hat ein US-Forscherteam gezeigt. Es gibt allerdings zwei Voraussetzungen für eine erfolgreiche Hirnkopplung: Die beiden Beteiligten müssen die gleiche Sprache sprechen, und es müssen tatsächlich Informationen vermittelt werden.
Trifft dies zu, nutzen die Gesprächspartner offenbar beide die gleichen Netzwerke im Gehirn - und zwar sowohl die für die Äußerung von Sprache zuständigen als auch die für deren Verstehen. Die Forscher nutzten eine vereinfachte Gesprächssimulation, bei der ein Proband eine Begebenheit aus seinem Leben erzählte und dabei seine Hirnaktivität aufgezeichnet wurde. Anschließend spielten sie einem anderen Teilnehmer die Aufnahme dieser Erzählung vor und maßen ebenfalls dessen Hirnaktivität.
Beim Vergleich der Messungen ergab sich eine sehr viel umfangreichere Kopplung der beiden Gehirne als erwartet: Nicht nur Hör- und Sprachzentrum zeigten ein voneinander abhängiges Aktivitätsmuster, sondern auch solche Areale, die für höhere kognitive Funktionen zuständig sind. Die meisten dieser Bereiche leuchteten dabei im Verlauf der Erzählung beim Sprecher etwas früher auf als beim Zuhörer - ein erwarteter Effekt, da der Zuhörer den Lautstrom zuerst in Worte gliedern und dann deren Bedeutung entschlüsseln muss. Dieser Effekt scheint eine wichtige Rolle beim Verständnis von Sprache zu spielen. Denn je stärker die Kopplung in diesen Bereichen war, desto besser hatte der Zuhörer erfasst, was der Sprecher erzählte. Vermutlich handelt es sich daher um eine Art Voraussage-System, das das Gehirn auf kommende Informationen vorbereitet.
Interessanterweise seien unter den gekoppelten Arealen auch solche zu finden gewesen, die für soziale Aspekte von Kommunikation wie für die Einschätzung des emotionalen Zustandes beim Gegenüber zuständig sind. Zudem scheine das Spiegelneuronen-System beteiligt gewesen zu sein.
Entschlüsselung der inneren Sprache
Wissenschaftler der Stanford University haben die Gehirnaktivität im Zusammenhang mit der inneren Sprache, also dem alltäglichen Selbstgespräch des Menschen, lokalisiert und diese innere Sprache mit einer Genauigkeit von 74 Prozent entschlüsselt. Die Studienergebnisse könnten die Voraussetzungen dafür sein, die innere Sprache mit Hilfe einer Gehirn-Computer-Schnittstelle (BCI) in Echtzeit zu entschlüsseln.
Das Team um Frank Willett zeichnete die neuronale Aktivität über Mikroelektroden auf, die in den motorischen Kortex von schwer gelähmten Probanden implantiert wurden. Willet und Kollegen fanden heraus, dass Sprachversuche und innere Sprache überlappende Regionen im Gehirn aktivieren und ähnliche Muster neuronaler Aktivität hervorrufen. Die innere Sprache zeigte allerdings eine schwächere Aktivität als die Sprachversuche.
Forschung zur synaptischen Plastizität
In der Abteilung für Synaptische Plastizität wird untersucht, wie Neuronen über Synapsen miteinander kommunizieren, welche Proteine sie verwenden, wie sie diese z.B. während Lernprozessen anpassen und welche Fehler sich bei verschiedenen Krankheiten einschleichen. Dabei war man besonders daran interessiert, das „synaptische Repertoire“ einzelner Klassen von Nervenzellen in unterschiedlichen Hirnregionen zu bestimmen: Welche Proteine werden dort verwendet? Wie sehr unterscheiden sich verschiedene Klassen von Synapsen, wie z.B. verstärkende („exzitatorische") und hemmende („inhibitorische“) Synapsen? Und ist eine exzitatorische Synapse in einem Bereich des Hirns vergleichbar mit einer exzitatorischen Synapse in einem anderen Bereich?
Um diese Fragen zu beantworten, wurden genetische, biochemische und biophysikalische Methoden angewendet. Zunächst wurden die entsprechenden Neuronen und ihre Synapsen in transgenen Tieren so markiert, dass nur die Neuronen, die von Interesse sind, einen fluoreszenten Farbstoff produzieren. Damit konnten die entsprechenden Zellen - und ihre Synapsen - aus den anderen Milliarden Nervenzellen herausgefischt werden. Dabei wurden die Synapsen zunächst biochemisch aufgetrennt und dann über Fluoreszenz die für uns interessanten Synapsen herausgesucht. Um dann die Zusammensetzung der Proteine in einer Synapse zu untersuchen, wurden die Proteine in kleinere, für uns gut messbare Segmente geschnitten und mit einem Massenspektrometer analysiert. Dieses Verfahren erlaubt es, tausende von Proteinen über ihr molekulares Gewicht separat zu identifizieren und ihre Anzahl zu bestimmen: Wir bekommen damit ein genaues Bild davon, welche Proteine in einer Synapse vorliegen, und können vergleichen, wie sich unterschiedliche Arten von Synapsen unterscheiden - und welche Proteine für die neuronale Kommunikation eingesetzt werden oder diese regulieren.
In einer aktuellen Studie wurden so 18 verschiedene Arten von Synapsen aus insgesamt fünf verschiedenen Hirnregionen untersucht. Dabei konnte die Verteilung von ca. 2300 Proteinen an Synapsen erfasst und über 1800 verschiedene Proteine identifiziert werden, die in bestimmten Synapsen-Typen angereichert sind. Diese detaillierte Analyse ermöglicht es nun, zu untersuchen, wie Neuronen unterschiedliche Formen der Signalweiterleitung und Signalverarbeitung auf molekularer Ebene umsetzen. Während es für einige dieser Synapsen-Typen schon Vorkenntnisse zur synaptischen Zusammensetzung gab, konnte das bekannte „synaptische Repertoire“ für manche Synapsen-Typen mehr als verdoppeln. So wurden z.B. exzitatorische und inhibitorische Synapsen untersucht, die genau entgegengesetzte Aufgaben haben. Dabei wurden sowohl Proteine gefunden, die an allen Synapsen gleichermaßen vorkommen, als auch Proteine, die exklusiv sind für bestimmte Arten von Synapsen und womöglich für deren spezialisierte Funktionen verantwortlich sind.
Zusätzlich zu diesen grundlegenden Erkenntnissen liefert diese Studie auch Ergebnisse, die für die Diagnose oder Behandlung von Krankheiten verwendbar sein können. So ist zum Beispiel bekannt, dass dopaminerge Synapsen besonders im hohem Alter eine hohe Sensitivität für oxidativen Stress besitzen. Die molekulare Ursache dafür war bis heute nicht bekannt. In diesen Daten wurde nun gefunden, dass genau an diesen Synapsen das Protein „Oxr1“ fehlt, ein Protein, das bekannterweise gegen oxidativen Stress schützt.
Autismus und neuronale Kommunikation
Eine Studie amerikanischer Forscher deutet darauf hin, dass Autismus auf einem Kommunikationsproblem im Gehirn basiert: Bestimmte Gehirnregionen scheinen bei Autisten anders miteinander zu kommunizieren als bei Gesunden. Dies wurde mithilfe extrem genauer Messungen der Gehirnströme, des so genannten EEG, entdeckt. Dabei ist der Austausch zwischen einigen Regionen stärker als bei Vergleichspersonen ohne Autismus, zwischen anderen Regionen jedoch schwächer.
Die Wissenschaftler untersuchten 18 Autisten und 18 gesunde Vergleichspersonen im Alter zwischen 19 und 38 Jahren. Teilnahmevoraussetzung war ein Intelligenzquotient von mindestens 80. Die Forscher brachten insgesamt 124 Elektroden auf der Kopfhaut jedes Probanden an und konnten so winzige elektrische Ströme des Gehirns, die durch die Aktivität der Nervenzellen entstehen, räumlich präzise erfassen.
In zwei Bereichen unterschieden sich die Autisten von Gesunden: Erstens zeigten sie in der linken Gehirnhälfte, die vor allem für Sprache zuständig ist, eine stärkere Aktivität in niedrigen Frequenzbereichen, dem Theta- und Delta-Bereich. Dies könnte die Schwierigkeiten erklären, die Autisten bei der Kommunikation mit anderen Menschen haben. Zum anderen waren Verbindungen zwischen dem Stirnhirn und den übrigen Teilen des Gehirns bei den Autisten weniger aktiv.
Das Forscherteam hofft, aus seinen Ergebnissen auch praktische Konsequenzen ziehen zu können. Das Aktivitätsmuster, das die Forscher bei den Autisten beobachtet haben, sei relativ typisch. Die Ergebnisse der Forscher stimmen auch mit anderen Studien überein, in denen Autisten im Magnetresonanztomographen untersucht wurden. Mit diesem Verfahren kann das ganze Gehirn bildhaft aufgenommen werden und die Aktivität einzelner Regionen mit der von Gesunden verglichen werden.