Die Beziehung zwischen Musik, Sprache und dem Gehirn ist ein komplexes und faszinierendes Forschungsfeld. Neurowissenschaftler und Psychologen untersuchen seit Jahrzehnten, wie unser Gehirn Musik und Sprache verarbeitet, und entdecken dabei immer wieder überraschende Verbindungen und Wechselwirkungen. Dieser Artikel beleuchtet die aktuellen neurowissenschaftlichen Erkenntnisse und Herausforderungen in diesem Bereich und geht auf die Frage ein, warum es überhaupt sinnvoll ist, Musik und Sprache gemeinsam zu betrachten.
Die Anfänge einer Forschungskarriere
Die Neurowissenschaftlerin und Psychologin Dr. Daniela Sammler, mit der ein Interview geführt wurde, kam über die Klinik zu diesen Fragen. Sie war fasziniert davon, dass Menschen nach einem Schlaganfall plötzlich nicht mehr sprechen oder Sprache verstehen können und isolierte Sprachstörungen entwickeln. Gleichzeitig gab es Hinweise darauf, dass Gesang und Musik diesen Menschen helfen können, wieder zur Sprache zu finden. Dieser klinische Gedanke war der Ausgangspunkt für ihre Forschungskarriere.
Von der Klinik zur Grundlagenforschung
Die Forschung zu Musik und Sprache erwies sich als äußerst komplex. Musik ist nicht einfach nur Musik, sondern besteht aus vielen kleinen Einzelleistungen. Das Gleiche gilt für die Sprache. Sammler spezialisierte sich auf die Grammatik in Musik und Sprache und untersuchte Gemeinsamkeiten und Unterschiede sowie die beteiligten Hirnareale.
Dabei entfernte sie sich immer weiter von der Klinik und tauchte tiefer in die Grundlagenwissenschaft ein, bis hin zur basalen Akustik. Das Feld wurde immer größer und kontroverser. Während einige Forscher Gemeinsamkeiten in der Verarbeitung von Musik und Sprache betonten, sahen andere diese beiden Bereiche als völlig verschieden an. Diese unterschiedlichen Meinungen werden bis heute diskutiert.
Arbeitsteilung im Gehirn
Früher dachte man, dass Sprache vor allem in der linken und Musik in der rechten Hirnhälfte verarbeitet wird. Heute wissen wir, dass es komplexer ist. Sprache ist akustisch äußerst komplex und besteht sowohl aus zeitlichen als auch aus klanglichen Merkmalen. Viele Studien deuten darauf hin, dass sich unsere beiden Hirnhälften unterschiedlich auf diese Aspekte spezialisiert haben, was als "Lateralisierung" bezeichnet wird.
Lesen Sie auch: Faszination Nesseltiere: Wie sie ohne Gehirn leben
Die linke Hirnhälfte ist besser darin, temporale Informationen präzise zu entschlüsseln, also die zeitliche Struktur akustischer Signale wie den Zeitpunkt des Einsetzens eines Lautes oder die Geschwindigkeit der Lautabfolge. Es geht also um schnelle Veränderungen im Sprachsignal, wie beim Hören von Konsonanten, Silben oder Sprachrhythmus. Die rechte Hirnhälfte hingegen ist sensibler für spektrale Informationen, also Klangfarbe, Tonhöhe oder Melodiebögen, wie wir sie in der Sprachmelodie (Prosodie) oder der Musik wahrnehmen.
Diese Spezialisierung gilt nicht nur beim Zuhören, sondern auch bei der Sprachproduktion. Unser Gehirn nutzt diese Aufgabenteilung, um über das Gehör unsere Aussprache laufend zu kontrollieren. Die linke Seite überwacht dabei mehr das Timing, während die rechte eher auf die Klangqualität achtet.
Lebenslange Faszination und Aha-Erlebnisse
Für Sammler war der Einstieg in das Thema Musik und Sprache ein unerwarteter, aber entscheidender Moment. Während eines Erasmus-Jahres in Straßburg lernte sie eine Professorin kennen, die ihr Interesse an diesem Gebiet weckte. Zurück in Leipzig ergab sich durch einen Zufall die Möglichkeit, am Max-Planck-Institut für Kognitions- und Neurowissenschaften ein Praktikum bei Stefan Koelsch zu absolvieren, der gerade eine Forschungsgruppe zu Musikkognition aufbaute. Dieser Moment war entscheidend für ihren weiteren Werdegang.
Ein weiteres Aha-Erlebnis hatte Sammler bei der Analyse von Daten von Patienten mit implantierten Elektroden auf dem Kortex zur Epilepsie-Diagnostik. Nach mühsamer Datenerhebung und -analyse erkannte sie, dass Musik und Sprache tatsächlich an derselben Stelle im Gehirn verarbeitet werden. Diese Erkenntnis, die sie kurz vor der Abgabe ihrer Doktorarbeit gewann, war ein wichtiger Erfolg für ihre Forschung.
Musik und Sprache gehen Hand in Hand
Musik und Sprache begleiten uns seit Anbeginn der Menschheitsgeschichte. Obwohl sie auf den ersten Blick unterschiedlich erscheinen, weisen sie auffällige Parallelen in ihrer Struktur und Verarbeitung auf. Beide basieren auf zeitlich strukturierten akustischen Signalen, nutzen Rhythmus und Melodie und folgen regelbasierten Organisationsprinzipien, einer Art "Grammatik".
Lesen Sie auch: Lesen Sie mehr über die neuesten Fortschritte in der Neurowissenschaft.
Erkenntnisse aus der Neurowissenschaft deuten darauf hin, dass Musik und Sprache teilweise auf überlappende neuronale Netzwerke im Gehirn zugreifen, etwa im auditorischen Kortex, im Broca-Areal (Verarbeitung von Syntax) sowie im frontotemporalen Kortex. Untersuchungen deuten auch darauf hin, dass Syntax sowohl in Sprache als auch Musik ähnliche Bereiche im Hirn aktivieren. Auch rhythmische Verarbeitung scheint in beiden Domänen auf ähnliche kognitive und neurale Mechanismen zu beruhen.
Einige Theorien vermuten sogar eine evolutionäre Vorform beider Systeme: eine "Musilanguage" oder "protomusikalische Kommunikation". Diese soll eine frühe Form sozialer Lautkommunikation gewesen sein, aus der sich Musik und Sprache später spezialisiert entwickelt haben könnten. Für diese Hypothese sprechen auch Beobachtungen aus der Entwicklungspsychologie: Schon Neugeborene reagieren sensibel auf prosodische Muster und Rhythmus - lange bevor sie Sprache oder Melodie im engeren Sinn verstehen können.
Warum Musik und Sprache gemeinsam betrachten?
Es mag zunächst überraschen, Musik und Sprache gemeinsam zu betrachten, da sie als zwei verschiedene Dinge erscheinen. Die Idee dahinter ist jedoch, dass sie einen gemeinsamen Vorfahren haben könnten, den man möglicherweise noch heute entdecken kann, wenn man genau hinschaut. Beide Domänen haben Melodie und Grammatik. Es gibt ähnliche Grundmuster, die erklären könnten, warum das eine dem anderen helfen kann oder warum sie häufig gemeinsam auftreten, wie in Songs.
Musik und Sprache bilden ein Kontinuum. Poesie hat einen musikalischen Einschlag, während Rap einen starken Fokus auf Sprache und Wörter legt. Es ist daher sinnvoll, beide zu untersuchen, um von dem einen abzuleiten, was in dem anderen passiert, und sich gegenseitig zu inspirieren.
Technisch gesehen ist es jedoch nicht immer einfach, Musik und Sprache zu vergleichen, da man erst das eine Feld verstehen muss, um das andere erforschen zu können. Man muss sich genau überlegen, auf welchem Level man vergleicht. Oberflächliche Gemeinsamkeiten können schnell zu tiefgründigen Unterschieden führen. Die Frage ist, ob das Gehirn diese ähnlich oder verschieden betrachtet und verarbeitet und wie es überhaupt möglich ist, dass sich das gegenseitig beeinflusst. Warum treten sie so häufig gemeinsam auf und wie kann das eine das andere beeinflussen?
Lesen Sie auch: Tinnitus und Gehirnaktivität: Ein detaillierter Einblick
Der Einfluss von Musik auf Sprache und umgekehrt
Oft hört man, dass musikalisches Training das Sprachverständnis oder generell das Sprachvermögen verbessert. Umgekehrt nutzen Musiker häufig Sprache, um in der Musik besser zu werden, beispielsweise durch Rhythmustraining, bei dem bestimmte Muster und Worte mitgesprochen und mitgeklopft werden.
Die Forschung, die untersucht, ob Musik einen Einfluss auf die Sprache hat, ist weitaus umfangreicher als die Forschung, die untersucht, ob Sprache einen Einfluss auf die Musik hat. Dies liegt zum Teil daran, dass wir davon ausgehen, dass wir alle Sprachexperten sind, da wir alle sprechen.
Neuroplastizität: Wie Musik das Gehirn verändert
Musik hat nicht nur eine unmittelbare Wirkung auf unser Gehirn, sondern kann es sogar verändern. Musik besteht aus Tönen, Melodien und Rhythmen, die an unterschiedlichen Stellen im Gehirn verarbeitet werden. Durch das Klopfen kommen sensorische und motorische Informationen hinzu, die im linken Frontal- und im Parietallappen verarbeitet werden. Je komplexer der Rhythmus wird, desto mehr Hirnareale sind gefragt.
Wenn uns Musik gefällt, werden Neurotransmitter wie Dopamin und Serotonin ausgeschüttet, die die Neuronen aktivieren. Wenn wir Musik spielen, singen oder tanzen, werden noch mehr Hirnbereiche aktiviert, die die zeitlichen Abläufe planen, sich konzentrieren, Erinnerungen abrufen, Bewegungen kontrollieren und Emotionen aktivieren müssen.
Diese Komplexität führt zu einer Veränderung des Gehirns. Die Nerven verschalten sich neu, und die Wahrnehmung, die Motorik und das emotionale Erleben verändern sich. Besonders stark ist diese Veränderung, wenn Kinder schon früh anfangen, zu singen oder Musik zu machen. Aber auch später und sogar in sehr hohem Alter können sich Musik und Musizieren positiv auf die Neuroplastizität auswirken.
Musik als Brücke zwischen Fühlen und Verstehen
Es ist nachgewiesen, dass Musik wie eine Brücke zwischen Fühlen und Verstehen ist. Freudvolle Beschäftigung mit Musik kann sich positiv auf den Erwerb von Sprache, auf das Gedächtnis und auf die Konzentrationsfähigkeit auswirken.
Professor Nina Kraus von der Northwestern University in Evanston demonstrierte, dass es möglich ist, durch die Messung von Gehirnströmen herauszufinden, welche Musik ein Mensch gerade hört. Die "Musik im Gehirn" hört sich bei jedem Menschen ein wenig anders an, und aus diesen Unterschieden kann man interessante Schlussfolgerungen ziehen.
So konnte Kraus zeigen, dass Kleinkinder mit viel neuronalem Rauschen in der Schule signifikant häufiger Lernprobleme haben. Offenbar lässt die Qualität der Datenverarbeitung im auditiven Bereich des Gehirns auch Schlussfolgerungen für Hirnbereiche zu, die für andere Leistungen zuständig sind. Kraus fand auch heraus, dass die Gehirne von Kindern, deren Eltern einer bildungsfernen Schicht angehören, beim Hören von Musik deutlich mehr Rauschen produzieren.
Kraus fand heraus, dass Kindern mit drohender Lernschwäche geholfen werden kann, wenn man sie rechtzeitig identifiziert und sie ein Musikinstrument spielen lernen lässt. Nach zwei Jahren Musikunterricht ging das Rauschen zurück, und die Leistungsfähigkeit des Gehirns steigerte sich insgesamt.
Musiker können einzelne Stimmen in einer schwierigen Gesprächssituation besser herausfiltern als Nichtmusiker. Das Musizieren hält das Gehirn jung. In Musikerhirnen gibt es deutlich weniger "neuronales Rauschen" als in den Köpfen von Nichtmusikern. Das Musizieren verbessert die menschliche Kommunikation.
Die positiven Wirkungen von Musik
Musik hat eine sehr große biologische Wirkung und verursacht langfristige Effekte bei den Gehirnfunktionen. Das Musizieren und Hören von Musik verbessert insbesondere die menschliche Kommunikation.
Musik kann außerdem die Stimmung verbessern und das Gehirn anregen. Sie wirkt sich auf Herzschlag, Verdauung und andere Organfunktionen aus, weshalb Musikliebhaber möglicherweise gesünder und glücklicher leben.
Musik ermöglicht es Menschen, dazuzugehören und Gemeinschaft zu erleben. Schon durch die grundlegenden Elemente wie Takt oder Tonleiter, die dafür sorgen, dass alle an der Musik teilhaben können. Musik hilft uns, unsere Emotionen zu regulieren. Sie kann autonome Reaktionen wie den Herzschlag und den Hormonhaushalt verändern und motorische Impulse auslösen.
Musiktherapie
Musik wird auch bei konkreten Erkrankungen als Musiktherapie eingesetzt. Dabei gibt es Formen, bei denen die Teilnehmenden selbst Musik machen oder sich zumindest aktiv mit ihr beschäftigen, und das passive Zuhören. Solche Musiktherapien kommen in den unterschiedlichsten Bereichen zum Einsatz und werden zunehmend in klinischen Studien untersucht. Ein Anwendungsgebiet ist beispielsweise die Demenz. Auch Kinder, die ihre Aggressionen nicht gut kontrollieren können, können von einer musikalischen Gruppentherapie profitieren.
Die Rolle des Kleinhirns
Eine Forschergruppe um Dr. Isabelle Straub und Prof. Dr. Stefan Hallermann der Universität Leipzig fand heraus, dass die Körnerzellen im Kleinhirn systematische Unterschiede aufweisen. Das erlaubt den Körnerzellen, Informationen ähnlich wie MP3-Musikdateien zu speichern.
Körnerzellen können elektrische Impulse mit spezifischen Frequenzen erkennen und weiterleiten. Sie funktionieren ähnlich wie ein Sieb und filtern spezifische Informationen nach ihren Frequenzen aus. Die Fähigkeit, Signale anhand ihrer Wiederholungsrate zu zerlegen, ähnelt der Fourier-Transformation, die bei der digitalen Kompression von Musikdateien in MP3s verwendet wird.
Musik zur Konzentrationssteigerung
Musik kann auch die Konzentration steigern. Studien zeigen, dass beim Hören der passenden Musik die Aktivierung des präfrontalen Cortex für Aufmerksamkeit und Fokus direkt messbar ist und bestimmte Musik mit 60 bis 70 Beats pro Minute die Konzentrationsfähigkeit deutlich steigert.
Musik kann die emotionale Verfassung regulieren und dadurch indirekt die Konzentrationsfähigkeit steigern. Die Wahl der richtigen Musik ist entscheidend. Instrumentale Musik ohne Gesang, klassische Kompositionen oder Ambient Sounds sind meist am effektivsten.