Das menschliche Gehirn ist ein bemerkenswertes Organ, das ständig lernt und sich anpasst. Im Zentrum dieser lebenslangen Lernfähigkeit stehen die Synapsen, die winzigen Verbindungsstellen zwischen Nervenzellen. An diesen Kontaktpunkten findet die Übertragung elektrischer Erregung im Nervensystem statt, indem chemische Botenstoffe von einer Zelle zur anderen wandern und dort Prozesse auslösen. Doch wie genau speichern Synapsen Informationen und wie tragen sie zur selbstständigen Informationsbildung bei?
Die Rolle der Synapse bei der Reizweiterleitung
Die elektrische Erregung im Nervensystem wird an den Synapsen weitergeleitet. Hier setzen präsynaptische Zellen chemische Botenstoffe frei, die in der postsynaptischen Zelle Vorgänge auslösen. Informationen werden gespeichert, indem sich diese Reizweiterleitung oder die Verschaltung der Zellen verändert.
Der berühmte Anatom Santiago Ramón y Cajal entdeckte bereits Ende des 19. Jahrhunderts, dass Nervenzellen sich an den Synapsen nicht berühren. Stattdessen sind sie durch einen winzigen Spalt von etwa 20 Nanometern getrennt. Das sendende Neuron wird als präsynaptisch, das empfangende als postsynaptisch bezeichnet.
Wenn eine elektrische Erregung das Axon des präsynaptischen Neurons entlangläuft und den synaptischen Spalt erreicht, werden dort Bläschen mit Botenstoffen entleert. Je nach Synapse können dies Dopamin, Adrenalin, Acetylcholin, Glutamat oder andere Substanzen sein. Diese Botenstoffe docken an Rezeptoren auf der Oberfläche der postsynaptischen Zelle an, wodurch sich Kanäle öffnen und Calciumionen (Ca2+) in die Zelle strömen. Wenn genügend Ca2+ in die Empfängerzelle gelangt, wird deren elektrisches Gleichgewicht gestört und ein Potenzial ausgelöst, wodurch die Botschaft zur nächsten Station weitergeleitet wird.
Synaptische Plastizität: Die Grundlage des Lernens
„Lernen bedeutet im Grunde genommen, diesen Prozess so zu verändern, dass es leichter oder schwieriger wird, die Nervenzelle auf der anderen Seite des Spalts zu erregen“, erklärt Dominique de Quervain, der an der Universität Basel die molekularen Grundlagen des Gedächtnisses erforscht. Dieses Phänomen wird als synaptische Plastizität bezeichnet.
Lesen Sie auch: Wie Alkohol die Signalübertragung im Gehirn beeinflusst
Wie genau Erfahrungen die Synapse verändern, entdeckten Timothy Bliss und Terje Lømo im Jahr 1973. Sie stimulierten einzelne Synapsen mit einer Elektrode und maßen die Erregung der postsynaptischen Zelle. Ein schwacher Reiz führte zu einer schwachen Reaktion, während eine starke Stimulation nicht nur eine starke Reaktion hervorrief, sondern auch die Reaktion auf schwache Reize in der Folgezeit verstärkte. Diese synaptische Übertragung war effektiver geworden, ein Effekt, der als Langzeitpotenzierung (LTP) bekannt ist.
Langzeitpotenzierung (LTP): "Neurons that fire together, wire together"
Die Langzeitpotenzierung (LTP) ist ein komplexer Prozess, der noch nicht vollständig verstanden ist. Es gibt vermutlich eine frühe und eine späte Phase der LTP. In der frühen Phase wird der Bedarf an einer Potenzierung ermittelt, wenn eine Synapse mit hoher Frequenz aktiviert wird. Der NMDA-Rezeptor spielt dabei eine wichtige Rolle, da er sowohl Transmitter-gesteuert als auch sensitiv für postsynaptische Potenziale ist. Wenn beide Gegebenheiten vorliegen, strömt zusätzliches Ca2+ in die Zelle, wodurch weitere Kanäle geöffnet werden und ein Botenstoff von der Postsynapse zur Präsynapse wandert, um die Transmitter-Ausschüttung zu verstärken.
Diese frühe Phase der LTP ist jedoch vergänglich. Für eine andauernde Veränderung der Synapse ist die zweite Phase erforderlich, die durch weitere Reizung in Gang gesetzt wird. Dabei wird ein zweiter Botenstoff, ein so genannter „second messenger“, aktiviert, der die Produktion von Proteinen in Gang setzt. Diese Proteine wandern vom Zellkern zur Synapse und sorgen dort für deren Ausbau. Präsynaptisch findet ein ähnlicher Prozess statt, wodurch die Kontaktfläche vergrößert und neue Kontaktstellen gebildet werden können.
Dynamische Umgestaltung der Signalnetze im Gehirn
Die Signalnetze im Gehirn werden permanent umgestaltet. Neue Synapsen entstehen, andere fallen weg, und Zellen können sich durch neue „Berührungspunkte“ stärker miteinander verknüpfen oder voneinander abkoppeln. Darüber hinaus gibt es Bereiche im Gehirn, in denen auch beim erwachsenen Menschen neue Nervenzellen nachwachsen (Neurogenese), insbesondere im Hippocampus. Diese neuen Zellen könnten eine wichtige Rolle beim Lernen spielen.
Neuartige Materialien für energieeffizientere Informationsverarbeitung
Ein Kieler Forschungsteam hat wesentliche Mechanismen und neuartige Materialien für eine energieeffizientere Informationsverarbeitung identifiziert. Sie entwickelten Materialien, die sich ähnlich dynamisch verhalten wie biologische Nervensysteme. Diese Materialien könnten zu einer neuartigen Informationsverarbeitung in elektronischen Systemen führen, indem sie Informationen dynamisch statt seriell verarbeiten.
Lesen Sie auch: Wie Opiate Synapsen beeinflussen
Das Team identifizierte sieben Grundprinzipien, die Computer-Hardware erfüllen muss, um ähnlich wie das Gehirn zu funktionieren, darunter eine gewisse Veränderbarkeit (Plastizität). Sie entwickelten Materialien, die verschiedene dieser Grundprinzipien erfüllen. Durch die Kombination dieser Materialien untereinander oder mit anderen eröffnen sich Möglichkeiten jenseits der klassischen Siliziumtechnologie.
Die Komplexität der Informationsverarbeitung im Gehirn
Das Gehirn enthält kein fertiges Satz bereits vordefinierter Software-Algorithmen, sondern muss sich in einem Prozess der Selbstorganisation an die jeweiligen Lebenssituationen anpassen. Es kann durch Lernprozesse zu bemerkenswerten Leistungen befähigt werden und ist in der Lage, mit völlig neuen und unerwarteten Situationen fertig zu werden. Zudem weist das Gehirn eine bemerkenswerte Fehlertoleranz auf.
Die Komplexität der Informationsverarbeitung im Gehirn beruht weniger auf hoher Geschwindigkeit als auf großen Zahlen. Die etwa 1012 Nervenzellen des Gehirns sind über etwa 1015 synaptische Verbindungen miteinander verknüpft. Die Kommunikation zwischen den Nervenzellen erfolgt mithilfe standardisierter elektrischer Pulse (Aktionspotenziale), deren Zeitpunkt nicht durch einen zentralen Takt vorgegeben ist. Stattdessen sammelt eine Nervenzelle über ihren Dendritenbaum Signale von bis zu 10.000 Neuronen auf, wobei die Synapsen als intelligente Schaltstellen fungieren.
Alternative Ansätze zur Simulation neuronaler Netze
Aufgrund der Komplexität neuronaler Netze verfolgen Forscher alternative Ansätze zur Simulation dieser Netzwerke. Ein Ansatz besteht darin, die Funktionsweise der Neuronen direkt in elektrische Schaltungen zu übertragen. Dabei wird ein Neuron als Kondensator mit parallel geschaltetem Widerstand realisiert, und für die Synapsen werden analoge Schaltungen eingesetzt, um die Plastizität zu simulieren.
Ein weiteres Beispiel ist der "Heidelberger Neurochip", wo sowohl die Nervenzellen als auch die Synapsen als analoge Schaltungen realisiert werden. Die lokale Informationsverarbeitung in den Zellen (Synapsen und Neuronen) ist analog, während die Aktionspotenziale digital sind.
Lesen Sie auch: Funktionsweise hemmender Synapsen
Wie das Gehirn lernt und Informationen speichert
Äußerliche Reize lösen über die Sinneszellen die Aktivierung der Synapsen aus, wodurch die Information von Nervenzelle zu Nervenzelle weitergegeben wird. Je mehr Synapsen und Nervenzellen aktiviert sind, desto tiefer wird die Information im Gehirn verankert. Durch Wiederholung werden die Synapsen regelmäßig neu aktiviert, wodurch die Kontakte zwischen den Nervenzellen verstärkt werden.
Das Verknüpfen von Lerninhalten mit Geschichten, Bildern oder Anekdoten sowie das Zeigen von Interesse am Thema fördern das langfristige Speichern im Gedächtnis. Emotionen und Assoziationen erleichtern das Lernen, da Informationen oft mit verschiedenen Wahrnehmungen, Gefühlen und Erinnerungen verbunden werden.
Neuromorphes Computing: Lernen von der Natur
Inspiriert von der Natur rücken Forschende das neuromorphe Computing in den Mittelpunkt zukünftiger Entwicklungen. Dieser Ansatz ahmt den Aufbau und die Funktionsweise des menschlichen Gehirns als Baustein KI-basierter Rechner der neuesten Generation nach. Dabei werden künstliche neuronale Netzwerke eingesetzt, die wie biologische Nervenzellen Informationen aufnehmen, verarbeiten und als Impulse weiterleiten.
Die Forschenden setzen auf nanoionische Bauelemente, Memristoren, die sich ähnlich verhalten wie biologische Synapsen. Memristoren können ihren Widerstand in Abhängigkeit von der Intensität und der Dauer des durch sie fließenden Stroms nichtflüchtig verändern und sind somit zur Datenspeicherung und -verarbeitung in der Lage. Eine wesentliche Eigenschaft von Memristoren ist ihre synaptische Plastizität, über die auch das menschliche Gehirn verfügt.
Die Auswirkungen der Digitalisierung auf das Gehirn
Die Digitalisierung hat unsere Kommunikation drastisch verändert und fordert unser Gehirn, immer mehr Informationen gleichzeitig zu verarbeiten. Übermäßige Handynutzung kann zu veränderten Mengenverhältnissen verschiedener Neurotransmitter führen und Depressionen, Angstzustände oder Süchte begünstigen. Auch Multitasking verursacht Stress und kann die Leistungsfähigkeit beeinträchtigen.
Um die Möglichkeiten der digitalisierten Welt perfekt zu nutzen, ist es wichtig, das Gehirn zu trainieren. Dazu können Atemübungen, das Spielen eines Instruments, Sportarten, die die Koordinationsfähigkeit fördern, das Erlernen einer Sprache oder Gedächtnisübungen beitragen. Auch Smartphone- und Multitasking-freie Zeiten sind wichtig, um das Gehirn zu entlasten.
tags: #synapsen #bilden #selbststandig