Was unser Gehirn über die Muttersprache verrät: Studien enthüllen erstaunliche Erkenntnisse

Als einzigartiges Merkmal des Menschen ermöglicht uns die Sprache, uns durch das gesprochene Wort zu verständigen. Weltweit existieren etwa 7.000 Sprachen, die nicht nur der Kommunikation dienen, sondern auch Gemeinschaft und kulturelle Identität prägen. Dieser Artikel beleuchtet, was die Forschung über den Ursprung der Sprache, ihre Verarbeitung im Gehirn und ihren Einfluss auf unser Denken herausgefunden hat.

Der Ursprung der Sprache: Ein Blick in die Vergangenheit

Die Frage, wann der Mensch zu sprechen begann, ist unter Forschern umstritten, da Sprache ein flüchtiges Medium ist, das kaum Spuren hinterlässt. Forscher verschiedener Max-Planck-Institute suchen in Linguistik, Genetik, Paläontologie und Archäologie nach Antworten. Sie fanden Hinweise darauf, dass Sprechfähigkeit und moderne Sprache mindestens bis zum letzten gemeinsamen Vorfahren von Neandertaler und Homo Sapiens vor etwa 500.000 Jahren zurückreichen und in einem allmählichen Prozess der Koevolution von Kultur und Genen entstanden sind.

Der Homo heidelbergensis, der mutmaßliche Vorfahre beider Arten, verfügte vor rund 500.000 Jahren über die anatomischen Voraussetzungen, Laute zu hören und mit Hilfe von Kehlkopf und Zungenbein zu bilden. Das Sprachzentrum im Gehirn ist jedoch wesentlich älter: "Vor zwei Millionen Jahren sieht man, dass die Sprachzentren 'Broca' und 'Wernicke' beginnen sich auszubilden", so Paläobiologe Friedemann Schrenk vom Forschungsinstitut Senckenberg. Anhand von Innenausgüssen des Gehirns unserer Vorfahren können Forschende die Ausstülpungen dieser Hirnregionen bereits zu diesem frühen Zeitpunkt der Menschheitsgeschichte nachweisen.

Es gilt als sicher, dass Sprache nicht durch eine einzelne, plötzliche Veränderung im Erbgut des Menschen entstand, sondern über einen langen Zeitraum hinweg. Das Gen FOXP2, das bereits beim Neandertaler das gleiche Protein kodierte wie beim modernen Menschen, spielt ebenfalls eine Rolle. Am Ende beeinflussen eine Reihe von genetischen und kulturellen Faktoren die einzigartige Sprachfähigkeit des Menschen.

Menschliche Sprache vs. Tierkommunikation

Um zu verstehen, warum Menschen sprechen können und andere Lebewesen nicht, muss man definieren, was menschliche Sprache ausmacht. Sprechen ist mehr als reiner Informationsaustausch. Menschenaffen und Hunde können beispielsweise Symbolbilder oder akustische Laute mit Gegenständen oder Verhaltensweisen verknüpfen. Ein Hund versteht "Platz" und legt sich hin, aber er kann Laute nicht nach grammatikalischen Regeln verknüpfen.

Lesen Sie auch: Darm-Hirn-Achse: Neueste Forschungsergebnisse

Angela D. Friederici betont: "Menschen sind die einzigen Lebewesen, die Sprachelemente, also einzelne Phrasen logisch kombinieren können. Das kann kein Tier." Menschenaffen kommunizieren zwar mit Mimik, Händen und Füßen und können gezielt Laute formen, aber die fehlende Verschaltung relevanter Bereiche im Gehirn verhindert die Sprachentwicklung.

Forschende an der Universität Wien wiesen nach, dass Affen problemlos fünf verschiedene Vokale und eine Reihe von Konsonanten erzeugen können. Britische Wissenschaftler zeigten, dass Orang-Utans neue Laute lernen und die Tonhöhe ihrer Stimme kontrollieren können. Affen haben also nicht aufgrund mangelnder anatomischer Möglichkeiten keine Sprache entwickelt, sondern aufgrund der fehlenden neuronalen Verbindungen.

Friederici konnte beweisen, dass die Fasciculus Arcuatus genannte Hirnstruktur beim Menschen entscheidend für das Sprechvermögen ist. "Diese bogenförmige Faserverbindung verbindet beim Menschen das Broca-Areal, das vor allem für die Grammatik zuständig ist, mit dem Wernicke-Areal, das die Bedeutung von Wörtern verarbeitet. Beide Regionen können über diese Faserverbindung miteinander Informationen austauschen", erklärt die Neuropsychologin. Bei Affen ist der Fasciculus Arcuatus nur in Ansätzen vorhanden, während der Mensch von Geburt an über eine im Hirn angelegte Sprachfähigkeit verfügt. Um den Fasciculus Arcuatus und damit Sprache aber tatsächlich auszubilden, müsse das bestimmte Regelsystem einer jeden Sprache jedoch erlernt werden.

Der Spracherwerb: Von Babyschreien zu komplexen Sätzen

Babys ahmen beim Schreien die Sprache ihrer Umgebung nach. Die ersten Laute, die Babys im Alter von etwa vier oder fünf Monaten von sich geben, klingen zwar schon nach Worten, sind aber erst einmal Nachahmung. Wie Intonation und Melodie einer Sprache klingt, hat der Fötus bereits im Bauch der Mutter gehört und sich eingeprägt.

Nach der Geburt imitiert das Neugeborene zunächst das Gehörte beim Schreien. Wissenschaftler konnten zeigen, dass sich bereits in den ersten Tagen die "Schreimelodie" französischer und deutscher Säuglinge deutlich unterscheidet. Babys schreien sozusagen in ihrer jeweiligen Muttersprache. Nach ein paar Monaten beginnt dann die sogenannte Lallphase, in der der Säugling mit seiner Zunge, mit Stimme und Atmung experimentiert.

Lesen Sie auch: Bewusstsein und Neuro-Yoga: Eine Verbindung

Vom Brabbeln zum Artikulieren erster Worte bis zum Formulieren ganzer Sätze ist es aber ein weiter Weg, auf dem jedes Kind eine geistige Höchstleistung vollbringt. Manche Babys sprechen bereits mit acht Monaten erste Wörter, andere Kinder erst mit zwei oder drei Jahren. Wie genau die Kleinen gehörte Sprache verarbeiten, ist bislang noch wenig erforscht. Wissenschaftler vom Max-Planck-Institut (MPI) für Psycholinguistik untersuchen dies mit neurowissenschaftlichen Ansätzen, Computermodellen, Verhaltensexperimenten und detaillierten Untersuchungen alltäglicher Unterhaltungen.

Dabei zeigt sich, dass Babys sehr früh ein Bewusstsein für Sprache entwickeln, lange bevor sie selbst zu sprechen beginnen. Beispielsweise steigt die Aufmerksamkeit von Säuglingen deutlich, wenn sie häufig genutzte Begriffe in einem Satz hören. "Babys können in wenigen Minuten aus gesprochenen Sätzen komplexe statistische Muster extrahieren. Wir können das Gleiche mit Affen trainieren, aber es braucht hunderte Versuche, ehe ihnen das gelingt", sagt MPI-Forscherin Caroline Rowland. Für Kleinkinder, die die Sprache neu lernen müssen, bestehe die Herausforderung später darin, in diesem Fluss aus Silben Begriffe zu erkennen. Unterschiedliche Betonungen, Sprechpausen und Sprachmelodie, Gesten und Blicke machen die menschliche Sprache dabei zu einem unendlich komplizierten Gebilde. Wie Kinder sich beim Spracherwerb darin zurechtfinden ist eine vielschichtige Frage, die noch lange nicht komplett beantwortet ist.

Sprachvielfalt und Sprachfamilien

Rund 7.000 verschiedene Sprachen werden derzeit von den etwa acht Milliarden Menschen rund um den Globus gesprochen, dazu eine riesige Zahl von Dialekten. Sprachwissenschaftler zählen dabei grundsätzlich nur lebende Sprachen, also Sprachen, die im täglichen Leben verwendet werden. Diese Sprachen werden in digitalen Datenbanken dokumentiert, wie beispielsweise Ethnologue, einem der größten Sprachenverzeichnisse weltweit.

Da Sprachen dynamisch sind, verändert sich die Zahl der gesprochenen Sprachen ständig, zumal es mitunter schwierig ist, Dialekte und eigenständige Sprachen zu unterscheiden. Zugleich gibt es eine Fülle von Sprachen, die nicht geschrieben werden. Sie werden durch mündliche Traditionen, Geschichten, Lieder, Poesie und Rituale übermittelt.

Wie sich die unzähligen Sprachen im Laufe der Jahrtausende um den Globus verbreiteten konnten, ist nach wie vor nicht endgültig geklärt. Moderne Sprachforscher gehen davon aus, dass sich Sprache in einem komplexen Zusammenspiel aus äußeren Einflüssen wie sozialer und geistiger Anpassung, neuronaler Entwicklung, aber auch Klima und Ökosystem herausbildete. So gibt es beispielsweise einen starken Zusammenhang zwischen sprachlicher Vielfalt und Biodiversität. Dort, wo es die meisten Arten von Pflanzen und Tieren gibt, werden die meisten Sprachen gesprochen.

Lesen Sie auch: Menschliches Gehirn: Speicherkapazität

Über die indoeuropäische Sprachfamilie, zu der auch die deutsche Sprache gehört, haben Forschende herausgefunden, dass das Indoeuropäische schon vor mehr als 8.000 Jahren südlich des Kaukasus entstand. Das Deutsche und die meisten anderen europäischen Sprachen entwickelten sich aus dieser Ursprache aber erst vor etwa 5.000 Jahren.

Sprachfamilie und Sprachebenen: Ein kurzer Überblick

  • Sprachfamilie: Sprachen mit nachweislich gemeinsamer Herkunft. Die romanischen Sprachen leiten sich beispielsweise aus dem Lateinischen ab, das zur indogermanischen Sprachfamilie gehört.
  • Amtssprache: Die Sprache(n), in der die Regierung eines Landes mit staatlichen Stellen und Bürgern kommuniziert. In Deutschland ist die Amtssprache Deutsch.
  • Dialekt und Akzent: Der Dialekt ist eine kulturell anerkannte, gesprochene Variation der Standardsprache mit eigener Aussprache, eigenem Vokabular und eigener Grammatik. Ein Akzent bezieht sich hingegen nur auf Merkmale der Aussprache.
  • Sprachebenen: Die Sprachebene hängt vom Verhältnis der Gesprächspartner und der Umgebung ab. Es gibt Umgangssprache, Standardsprache und gehobene Sprache.

Der Einfluss der Muttersprache auf unser Denken

Jeder Mensch hat mindestens eine Muttersprache, ein Werkzeug zur Kommunikation, das wir selbstverständlich nutzen. Die erste Sprache, die wir lernen, beeinflusst, mit wem wir uns austauschen können. Eine Studie amerikanischer Forschenden in der Zeitschrift Current Biology verglich die melodischen und rhythmischen Fähigkeiten von fast einer halben Million Menschen aus aller Welt. Dabei zeigte sich, dass Muttersprachler einer Tonsprache besser zwischen subtilen Melodien unterscheiden können.

Bei nicht-tonalen Sprachen wie Englisch oder Deutsch wird die Tonhöhe von Silben abgesenkt oder angehoben, um Fragen zu stellen oder Emotionen auszudrücken. In Tonsprachen verändert sich das Klangmuster einer Silbe und damit die Bedeutung des Wortes. Wer eine Tonsprache spricht, braucht also ein sehr feines Gespür für Tonhöhen.

Tonfolgen vs. Nicht-Tonfolgen: Eine Studie

Das Forschungsteam sammelte Daten mithilfe eines webbasierten Citizen-Science-Experiments, an dem 459.066 Menschen aus 203 Ländern teilnahmen. Die Probanden lösten verschiedene musikalische Aufgaben, um ihre Fähigkeit zu testen, subtile Unterschiede in Melodien zu erkennen.

Das Ergebnis: „Menschen, die eine Tonsprache als Muttersprache haben, sind im Durchschnitt besser in der Lage, zwischen Melodien zu unterscheiden, als Sprecher nicht-tonaler Sprachen“, sagt Liu. Die Forschenden führen das darauf zurück, dass Tonsprachensprecher gelernt haben, diesen akustischen Merkmalen ihre Aufmerksamkeit zu schenken.

Die Studie ist nicht die erste, die untersucht hat, ob Sprecher tonaler Sprachen musikalischer sind. Der Aufbau des Experiments ermöglichte es, eine Vielzahl von Sprechern verschiedener Sprachen, deren kultureller Hintergrund sich stark unterscheidet, neutral zu vergleichen. Das Sprechen einer bestimmten Sprache sei jedoch kein Ersatz für Musikunterricht. „Der musikalische Vorteil, den Tonsprachensprecher gegenüber nicht-tonalen Muttersprachlern haben, entspricht im Schnitt etwa 50 Prozent dessen, was man sich durch Musikunterricht aneignen kann“, sagt Hilton.

Gesten und Spracherwerb: Eine neurowissenschaftliche Perspektive

Gesten helfen beim Vokabellernen. Um den Effekt zu verstehen, führten meine Kollegen und ich ein Experiment mittels funktioneller Magnetresonanztomographie des Gehirns durch. Dafür lernten 33 Probanden 92 Vokabeln aus der Kunstsprache Vimmi. Am sechsten Experimenttag wurden 18 zufällig gewählte Probanden einer Magnetresonanztomographie unterzogen. Bekannte Wörter aus dem Training wurden mit unbekannten Wörtern vermischt bzw. akustisch und visuell dargeboten. Die Gehirnaktivität der Probanden während der Wahrnehmung wurde mitunter auch mit der Ruheaktivität verglichen, die sie aufwiesen, wenn sie lediglich im Scanner lagen und keine Aufgaben ausführten (in den so genannten «silence»-Phasen).

Wir wollten wissen, wie Wörter, die mithilfe von Gesten gelernt wurden, im Gehirn repräsentiert sind. Unsere Annahme war, dass die Anwendung der Lernstrategie zur Bildung komplexer Netzwerke im Gehirn führt, weil sich Sprachareale mit sensomotorischen Gebieten der Gehirnrinde verbinden. Diese komplexen Netzwerke, so die Vermutung, speichern das Wort in der Fremdsprache an verschiedenen Orten im Gehirn und machen es schneller und nachhaltiger abrufbar.

Die statistische Auswertung der Gehirnaktivität aller achtzehn Probanden bestätigte die Hypothese. Gestische Unterstützung führte zur Ausbildung eines ausgedehnten Netzwerkes, das mehrere Areale der Gehirnrinde miteinander verband, die während des Lernens beansprucht werden. Darüber hinaus werden Gebiete der Gehirnrinde, die Bewegungsvorbereitung steuern, durch blosses Hören und Lesen aktiv. Dies zeigt, dass die ausgeführte Bewegung im Wortnetzwerk gespeichert ist: Sobald die Testperson das gelernte Wort akustisch und visuell erkennt, werden automatisch motorische Programme eingeleitet, die Bestandteile der gesamten Wortrepräsentation darstellen. In diesem komplexen Wortnetzwerk sind auch visuelle Areale involviert, die für Lesen, Gesichts- und Körpererkennung zuständig sind und während des Trainings die eingehende Information verarbeitet haben.

Die verbesserte Behaltensleistung von Vokabeln in der Fremdsprache mittels Gesten führten wir auf mehrere Faktoren zurück:

  • die Komplexität des Netzwerkes, das durch die Benutzung von Gesten entsteht,
  • die Einbindung der Motorik beim Erlernen verbaler Information und
  • die Bildhaftigkeit der verwendeten Gesten.

Es ist eine funktionelle Eigenschaft des Gehirns, komplexe Netzwerke zu bauen, die Information verarbeiten und speichern. Die Gesten helfen, ein komplexes Netzwerk zu bilden, das mehrere Sinnesmodalitäten und die Motorik involviert. Im Erstspracherwerb kann man das gut beobachten. Das Kind hört ein Wort, z.B. «Zitrone» und erlebt jede Menge erfahrungsbezogene Sinnesreize, spürt mitunter den Drang, mit der Zitrone motorisch zu interagieren, sie anzugreifen, sie fallen zu lassen, usw. In der Tat hat die Neurowissenschaft in den letzten Jahren durch zahlreiche Experimente belegt, dass Wörter im Gehirn als komplexe, erfahrungsabhängige Netzwerke dargestellt sind (s. die vielen Publikationen von Friedemann Pulvermüller und seiner Gruppe). Komplexität im Wortnetzwerk macht Informationen stabil sowie schneller und längerfristig abrufbar. Gedächtnistheorien erklären dies anschaulich: Informationen werden im Langzeitgedächtnis nicht isoliert, sondern vernetzt gespeichert. Je komplexer die Vernetzung, umso effizienter ist das Abrufen.

Wenn ein Wort mit einer dazu passenden Bewegung während des Lernens gekoppelt wird, wird es besser abgerufen als ein Wort, das nur gehört, gelesen, oder gehört und gelesen wurde. Diese Erkenntnis stand experimentell bereits Anfang der achtziger Jahre zur Verfügung, drang jedoch nie in Bereiche wie die Fachdidaktik der Fremdsprachen vor. Am Institut für Psychologie der Universität Saarbrücken und in anderen Forschungszentren weltweit wurde die Wirkung von Bewegung auf das verbale Gedächtnis durch zahlreiche Experimente belegt. Man sprach vom «enactment effect»: Die Wissenschaftler führten ihn auf eine motorische Gedächtnisspur zurück, die durch die Ausführung von Bewegungen in die Wortrepräsentation «eingebaut» würde. Diese motorische Gedächtnisspur wurde erst 2006 neurowissenschaftlich belegt: für Wörter in der Muttersprache in einer Studie mit Magnetenzephalographie und für Fremdsprachen in dem bereits oben erwähnten Experiment mithilfe funktioneller Magnetresonanztomographie.

Kritiker der Enactment-Theorie behaupteten, dass der Effekt von Gesten auf das Gedächtnis nicht in der motorischen Komponente liege, sondern in der Bildhaftigkeit der Geste an sich. Tatsächlich haben neurowissenschaftliche Untersuchungen belegt, dass eine Inkongruenz zwischen Wortlaut und Geste im Gehirn wahrgenommen wird. Wir konnten in diesem Experiment zeigen, dass nicht jede Art von Gesten das Lernen von Vokabeln in der Fremdsprache unterstützt: Gesten, die die Wortsemantik illustrieren, führen zu signifikant besseren Resultaten als Gesten, die von der Wortsemantik entkoppelt sind. Also reicht nicht irgendeine Bewegung, um das Gedächtnis für die verbale Information zu unterstützen. Es müssen «sinnvolle» Gesten sein.

Gesten stellen eine in der Praxis bewährte und wissenschaftlich gut untersuchte Lernstrategie dar. Sie verbinden Sprache mit dem Körper. Ihre Anwendung wurde im Unterricht an Erwachsenen und auch an Kindern erprobt. Ihre Verwendung ist aufgrund des intrinsisch intuitiven Gehaltes auch für Menschen mit niedriger Alphabetisierung und geringen Kenntnissen der Zielsprache empfohlen und kann in Integrationssprachkursen (zum Beispiel Deutsch als Fremdsprache) eingesetzt werden. Ihr Effekt auf das Gedächtnis ist durch die Komplexität der neuronalen Netzwerke zu begründen, die sie bilden, aber auch durch die motorische und die bildhafte Komponente der Bewegung. Dieses und anderes Wissen, das Folgen für die praktische Einbindung der Gesten in den Unterricht hat, ermöglichte uns der Einsatz von Verfahren der Hirnforschung.

Die Sapir-Whorf-Hypothese: Beeinflusst Sprache unser Denken?

Die Sapir-Whorf-Hypothese, benannt nach Benjamin Lee Whorf und Edward Sapir, geht davon aus, dass Sprache unser Denken beeinflusst. Laut dieser Hypothese kann jemand die Gedanken einer Person, die eine andere Sprache spricht, nicht immer nachvollziehen.

Sprachliche Relativität vs. Linguistischer Determinismus

Die Hypothese lässt sich auf zwei verschiedene Arten definieren:

  • Sprachliche Relativität: Sprache beeinflusst unser Denken. Beispiele sind Konzepte oder Gegenstände, für die es in einer Sprache ein Wort gibt, in einer anderen aber nicht.
  • Linguistischer Determinismus: Sprache steuert unser Denken, unsere Wahrnehmung und unsere Erinnerung. Unsere Gedanken werden erst durch unsere Sprache geformt.

Der linguistische Determinismus gilt heute als überholt, da Whorfs Annahmen viel zu drastisch und radikal waren. Wir Menschen haben durchaus die Fähigkeit, an Dinge zu denken, für die wir keine Worte haben. Außerdem denken wir oft in Bildern, wofür keine Sprache notwendig ist. Unsere Sprache kann uns in gewisser Weise in unserer Wahrnehmung beeinflussen und so ist das linguistische Relativitätsprinzip auch heute noch relevant.

Evidenz für und gegen die Sapir-Whorf-Hypothese

Whorfs Beispiele für die Sprache der Hopi und der Inuit ließen sich schnell widerlegen. Denn bei seinen Forschungen befragte Whorf nur einen einzigen Hopi-Sprecher, der seit längerem in New York lebte. Er überprüfte seine These aber nicht, indem er Muttersprachler aus dem Hopi-Reservat direkt befragte. In den 1980er Jahren fand ein anderer Wissenschaftler heraus, dass die Hopi eine sehr komplexe Methode haben, Zeiteinheiten auszudrücken und dass ihnen das Konzept von Zeit keineswegs fremd ist. Auch das Beispiel der Inuit erwies sich als fehlerhaft. Denn in der Sprache der Inuit gibt es nicht unendlich viele Wörter für „Schnee“, es gibt lediglich unendlich viele Kombinationsmöglichkeiten von Wörtern.

Zwar wurde der sprachliche Determinismus widerlegt, dennoch finden sich in verschiedenen Sprachen Beweise für das linguistische Relativitätsprinzip. Das Volk der Pirahã beispielsweise lebt im Amazonas-Regenwald und hat in seiner Sprache keine Zahlwörter. In ihrer Sprache existieren nur unbestimmte Mengenangaben wie „wenig“, „mehr“ und „viel“. In einem Experiment konnten sie zum Beispiel einen Haufen mit acht Steinen nicht von einem mit zehn Steinen unterscheiden.

Ein weiterer aktueller Beleg für die Sapir-Whorf-Hypothese stammt aus dem Jahr 2010, in dem das grammatische Geschlecht des Spanischen und des Deutschen untersucht wurde. Während deutsche Muttersprachler mit dem Wort „die Brücke“ eher typisch weibliche Adjektive wie zum Beispiel, „schön“ oder „elegant“ in Verbindung brachten, waren es bei den Sprechern des Spanischen typisch männliche Adjektive. Sie beschrieben „el puente“ also mit „stark“ oder „gigantisch“.

Experimente belegen, dass sprachliche Konzepte unsere Aufmerksamkeit lenken und damit auch beeinflussen, woran wir uns später erinnern. „Unsere Ergebnisse zeigen, dass Spracherfahrungen nicht nur die Art und Weise beeinflussen, wie Menschen ihre aktuelle Umgebung wahrnehmen, sondern auch das, woran sie sich langfristig erinnern“, schreibt das Autorenteam.

Sprachästhetik: Warum klingen manche Sprachen schöner als andere?

Manche Sprachen klingen einfach schöner in unseren Ohren als andere. Aber warum eigentlich? Die Schönheit von Sprachen wie Italienisch, aber auch Französisch oder Portugiesisch begeistert viele Menschen. Doch die Wissenschaft sagt, dass das nicht stimmt: Keine Sprache ist per se schöner als die andere. Dieser Eindruck des Wohlklangs entsteht nur in unserem Kopf.

Forschende versuchen in Studien herauszufinden, welche Faktoren dabei eine Rolle spielen. Wann Sprachen angenehm klingen, das hat offenbar kulturelle, biologische und psychologische Gründe. Allerdings hängt all das auch von Vertrautheit ab. Was unserer Muttersprache ähnlich ist, wirkt oft angenehmer, weil wir es leichter verarbeiten können. Forschungsergebnisse zeigen außerdem, dass das Gehirn vertraute Sprachmuster bevorzugt und sie als weniger anstrengend empfindet.

Extrem wichtig bei der Sprachästhetik ist auch unsere kulturelle Prägung. Was positiv konnotiert ist, beispielsweise durch Popkultur oder auch Kulinarik, das mögen wir eher. Beispielsweise wird Französisch als „Sprache der Liebe“ wahrgenommen, was seine Attraktivität steigert. Gleichzeitig können Vorurteile oder historische Konflikte die Wahrnehmung bestimmter Sprachen negativ beeinflussen. Auch persönliche Erlebnisse und Assoziationen spielen eine Rolle. Jemand, der positive Erfahrungen mit einer bestimmten Sprache gemacht hat, wird diese Sprache eher als schön empfinden.

tags: #was #unser #gehirn #über #die #muttersprache