Neuronale Netze: Die Funktion der Synapse im Fokus

Die rasanten Fortschritte im Bereich des maschinellen Lernens und der künstlichen Intelligenz (KI) haben in den letzten Jahren enorme Aufmerksamkeit erregt. Diese Entwicklung ist jedoch mit einem immensen Rechenaufwand verbunden, da das Training neuronaler Netze in der Regel auf Superrechnern stattfindet. Der zeitliche Aufwand für das Training maschinell lernender Systeme verdoppelt sich etwa alle drei Monate. Sollte sich dieser Trend fortsetzen, werden bestimmte Lernaufgaben in absehbarer Zukunft mit herkömmlichen Algorithmen und Hardware nicht mehr ökonomisch zu bewältigen sein. Eine vielversprechende Lösung bieten hier neuartige Computerarchitekturen, die in ihrem Aufbau dem Gehirn ähneln.

Forscher am Forschungszentrum Jülich haben ein neuronales Netzwerk mit 300 Millionen Synapsen in einer bisher unerreichten Geschwindigkeit simuliert. Es gelang ihnen, die Netzwerkaktivität viermal schneller als in Echtzeit zu berechnen. Für diesen Rekord nutzten sie einen Prototyp des "neuronalen" IBM-Supercomputers INC-3000. Das übergeordnete Ziel ist es, das Lernen und die Hirnentwicklung besser zu verstehen.

Die Synapse: Schaltstelle des Nervensystems

Bevor wir uns näher mit neuronalen Netzen beschäftigen, ist es wichtig zu verstehen, was eine Synapse überhaupt ist. In der Biologie bezeichnet die Synapse die Kontaktstelle zwischen zwei Nervenzellen (Neuronen) oder zwischen einer Nervenzelle und einer anderen Zelle, beispielsweise einer Muskel- oder Drüsenzelle. Die Synapse ist jedoch keine starre Verbindung, sondern ein hochdynamischer, spezialisierter Bereich, der Reize gezielt weiterleitet, filtert, verstärkt oder hemmt. Ob beim Lernen, Erinnern oder Steuern eines Muskels - ohne Synapsen gäbe es keine Kommunikation im Nervensystem.

Aufbau einer Synapse

Eine typische Synapse besteht aus drei Hauptteilen:

  1. Präsynapse: Sie bildet das Endknöpfchen des sendenden Neurons. Hier werden die sogenannten Neurotransmitter in kleinen Bläschen (Vesikeln) gespeichert.
  2. Synaptischer Spalt: Der winzige Zwischenraum (etwa 20-50 Nanometer breit) trennt das Endknöpfchen von der nächsten Zelle.
  3. Postsynapse: Die postsynaptische Membran gehört zur empfangenden Zelle.

Neben diesen Hauptbestandteilen existiert noch eine Vielzahl regulierender Proteine, Enzyme und Transportmechanismen, die für Präzision und Selektivität in der Signalübertragung sorgen.

Lesen Sie auch: Die Verbindung: Neuronale Netze & Gehirn

Verschiedene Arten von Synapsen

Unterschiedliche Anforderungen im Nervensystem haben zur Ausbildung verschiedener Synapsentypen geführt:

  1. Chemische Synapse: Bei der chemischen Synapse erfolgt die Signalübertragung indirekt mittels Neurotransmittern. Sie ist im menschlichen Nervensystem am häufigsten und ermöglicht komplexe Regulation, Verstärkung und Hemmung.
  2. Elektrische Synapse: Diese seltenere Form findet man z.B. im Herzmuskel oder bei gewissen Reflexbahnen. Hier übertragen spezielle Kanäle (Gap Junctions) elektrisch geladene Teilchen (Ionen) direkt von Zelle zu Zelle. Der Signalfluss ist dabei extrem schnell, aber weniger regulierbar als bei der chemischen Synapse.

Chemische Synapsen arbeiten mit Neurotransmittern und sind die Mehrheit im menschlichen Gehirn. Sie sind oft nur in eine Richtung leitend (unidirektional). Elektrische Synapsen bestehen aus Gap Junctions, bei denen Ionen direkt von einer Zelle zur anderen fließen können. Sie sind sehr schnell und ermöglichen auch eine bidirektionale Signalübertragung.

Funktionsweise der synaptischen Übertragung

Wie funktioniert nun das Zusammenspiel der Synapsen beim Informationsaustausch?

  1. Aktionspotential erreicht die Präsynapse: Ein elektrisches Signal (Aktionspotential) erreicht das Endknöpfchen der sendenden Nervenzelle (Präsynapse).
  2. Freisetzung von Neurotransmittern: Das Aktionspotential löst die Freisetzung von Neurotransmittern aus den Vesikeln in den synaptischen Spalt aus.
  3. Bindung an Rezeptoren: Die Neurotransmitter diffundieren durch den synaptischen Spalt und binden an spezifische Rezeptoren auf der postsynaptischen Membran der empfangenden Zelle.
  4. Ionenkanäle öffnen sich: Die Bindung der Neurotransmitter an die Rezeptoren führt zur Öffnung von Ionenkanälen in der postsynaptischen Membran.
  5. Veränderung des Membranpotentials: Durch die geöffneten Ionenkanäle strömen Ionen in die Zelle oder aus der Zelle, wodurch sich das Membranpotential der postsynaptischen Zelle verändert.
  6. Erregung oder Hemmung: Die Veränderung des Membranpotentials kann entweder zu einer Erregung (Depolarisation) oder einer Hemmung (Hyperpolarisation) der postsynaptischen Zelle führen. Erregende Synapsen sorgen für eine Depolarisation (Erregung) der Zielzelle - typisches Beispiel: Glutamat wirkt stimulierend im Gehirn. Hemmende Synapsen dagegen hyperpolarisieren ihre Zielzelle, bremsen also den Signalfluss - wie GABA oder Glycin.
  7. Signalweiterleitung: Wenn die Erregung ausreichend stark ist, wird in der postsynaptischen Zelle ein neues Aktionspotential ausgelöst, und das Signal wird weitergeleitet.
  8. Rücknahme und Abbau von Neurotransmittern: Damit Signale nicht "hängenbleiben", werden Neurotransmitter nach ihrem Einsatz rasch abgebaut oder zurück in die Präsynapse aufgenommen (Reuptake).

Synaptische Plastizität: Die Grundlage für Lernen und Gedächtnis

Synaptische Plastizität ist die Fähigkeit von Synapsen, ihre Stärke und Effizienz zu verändern - je nachdem, wie oft und wie stark sie benutzt werden. Sie ermöglicht es dem Gehirn, auf Erfahrungen zu reagieren und sich anzupassen. Gehirnforscher sprechen deshalb oft vom "Gedächtnis der Synapsen".

Eine berühmte Form ist die Langzeitpotenzierung (LTP): Werden Synapsen über längere Zeit wiederholt aktiviert, werden sie besonders leistungsfähig.

Lesen Sie auch: Neuronale Netze: Detaillierte Analyse

Diese Anpassungsfähigkeit ist die physikalische Grundlage für nahezu alle Lern- und Anpassungsprozesse im Nervensystem - von kindlicher Sprachentwicklung über das Erlernen eines Musikinstruments bis hin zur Regeneration nach einer Gehirnverletzung.

Künstliche Neuronale Netze: Ein Abbild des Gehirns?

Eine Möglichkeit, künstliche Intelligenz zu realisieren, besteht darin, das biologische neuronale Netz durch ein künstliches neuronales Netz (KNN) im Rechner zu simulieren. Die biologischen Vorgänge des menschlichen Denkens und Lernens (Aktivierung von Neuronen, chemische Veränderung von Synapsen usw.) werden dabei so gut wie möglich mathematisch beschrieben und in Software oder Hardware modelliert.

Die Arbeitsweise künstlicher neuronaler Netze orientiert sich an den Vorgängen im menschlichen Gehirn, das aus schätzungsweise 86 Milliarden, über Dendriten verbundene Neuronen besteht. Die Kommunikation zwischen Neuronen erfolgt mittels elektrischer Signale, die durch die Synapsen von einer Nervenzelle zur nächsten übertragen werden. Das Lernen im Gehirn erfolgt im Wesentlichen durch das Verstärken oder Abschwächen der Synapse. Hierdurch wird die Intensität der elektrischen Signale und somit die Stärke der Verbindung zwischen Neuronen beeinflusst.

Vom Perzeptron zum künstlichen neuronalen Netz

Die Grundeinheit eines künstlichen neuronalen Netzes ist ein einzelnes Neuron. Einfach ausgedrückt, ist dieses ein Element, das gewichtete Eingaben entgegen nimmt, verarbeitet und eine Ausgabe erzeugt. Ein einfaches mathematisches Modell eines Neurons ist das sogenannte Perzeptron.

Das Perzeptron ist über gewichtete Verbindungen - Kanten genannt - mit einem Satz von Eingaben verbunden, wobei das Gewicht der Stärke der Synapsen entspricht. Zusätzlich erhält das künstliche Neuron eine Dummy-Eingabe mit dem Wert 1 und einem eigenen Gewicht, welches als Bias, sprich Achsenabschnitt, bezeichnet wird. Die Eingaben, die das Perzeptron erhält, werden auch als Eingabemerkmale bezeichnet. Um eine Ausgabe zu erhalten, werden die gewichteten Eingaben sowie die Dummy-Eingabe aufsummiert und darauf eine Aktivierungsfunktion angewandt.

Lesen Sie auch: Veränderungsprozesse im Gehirn

Lernen in künstlichen neuronalen Netzen

Das "Wissen" eines Perzeptrons, also die Regeln, nach denen es bestimmte Aufgaben lösen kann, ist in den Gewichten gespeichert. Diese sind anfangs zufällig gewählt und müssen erst gelernt werden. Im Falle des Perzeptrons wird gelernt, indem die Gewichte des Perzeptrons derart angepasst werden, dass die gegebenen Daten möglichst fehlerfrei durch eine lineare Funktion getrennt werden. Der hierfür verwendete Perzeptron-Algorithmus passt die Gewichte nur dann an, wenn der Ausgabewert des Neurons vom Sollwert abweicht. Andernfalls bleiben die Gewichte unverändert.

Zur Lösung nichtlinearer Fragestellungen können mehrere Neuronen miteinander vernetzt und dadurch ein künstliches neuronales Netz aufgebaut werden. Hierzu werden Neuronen in mehreren Schichten angeordnet und gerichtet miteinander verbunden, d. h. die Neuronen einer Schicht erhalten die Ausgaben der vorherigen Schicht als Eingabe. Die erste Schicht eines neuronalen Netzes wird als Eingabeschicht, die letzte Schicht als Ausgabeschicht bezeichnet. Die Menge der Neuronen in der Eingabeschicht wird durch die Anzahl der Eingabedaten bestimmt, die Menge der Neuronen in der Ausgabeschicht hängt von der gewünschten Anzahl an Ergebnissen ab.

Da bei mehrschichtigen neuronalen Netzen nicht mehr direkt von der Eingabe auf die Ausgabe geschlossen werden kann, ist hierfür der Perzeptron-Lernalgorithmus nicht mehr anwendbar. Der Fehler, also der Unterschied zwischen Ausgabewert und Sollwert, kann nur für die Ausgabeschicht, nicht aber für die verdeckten Schichten gemessen werden. Die Lösung bietet der sogenannte Backpropagation-Algorithmus, der es erlaubt, den Fehler von der Ausgabeschicht durch das Netzwerk zurückzupropagieren.

Herausforderungen und Zukunftsperspektiven

Bis heute ist es noch nicht annähernd möglich, ein menschliches Gehirn in einem Rechner durch künstliche neuronale Netze zu simulieren, da zum einen die Anzahl der künstlichen Neuronen um mehrere Zehnerpotenzen geringer ist und da zum anderen die hochgradig parallele Verknüpfung vieler künstlichen Neuronen noch nicht möglich ist.

Auch die Komplexität neuronaler Netze stellt eine Herausforderung dar. Tiefe neuronale Netze sind oft eine Black Box, da die von ihnen gelernten Zusammenhänge und Datenrepräsentationen so komplex und abstrakt sind, dass Menschen - und selbst Experten - sie nicht mehr nachvollziehen können.

Trotz dieser Herausforderungen bieten neuronale Netze ein enormes Potenzial für die Zukunft. Neuartige Computerarchitekturen, die in ihrem Aufbau dem Gehirn ähneln, könnten dazu beitragen, biologische Lerndynamiken besser zu verstehen und die Entwicklung noch leistungsfähigerer KI-Systeme zu ermöglichen.

Jülicher Forschungsprojekt: Simulation neuronaler Netze in Rekordgeschwindigkeit

Forscher am Forschungszentrum Jülich arbeiten bereits seit einiger Zeit an der Entwicklung eines solchen neuromorphen Computers. Dieser soll ermöglichen, was auch unter Berücksichtigung zukünftiger technologischer Verbesserungen auf konventionellen Superrechnern nicht erreicht werden kann: Die Simulation neuronaler Netze signifikant beschleunigen.

Im Rahmen ihrer Forschung haben die Ingenieurwissenschaftler am Forschungszentrum Jülich nun einen neuen Geschwindigkeitsrekord aufgestellt. Sie simulierten ein Netzwerk, das von seiner Größe her etwa 1 Kubikmillimeter der Hirnrinde entspricht. Es besteht aus 80.000 Neuronen, die über 300 Millionen Synapsen miteinander verbunden sind.

Für die Simulation kam der Prototyp eines Rechners von IBM zum Einsatz, der auf sogenannten FPGAs (Field Programmable Gate Arrays) basiert. FPGAs enthalten frei programmierbare Logikbausteine mit eigenem Speicher und weiteren Hardware-Komponenten auf einem Chip. Weil der Speicher so nah an der Logik platziert ist, fallen die Speicher-Latenzen nicht ins Gewicht. Die Bausteine auf dem FPGA lassen sich außerdem beliebig umprogrammieren. Dies ist hilfreich, um beispielsweise verschiedene Architekturvarianten zu untersuchen.

Langfristiges Ziel: Eine eigene neuromorphe Architektur

Im Projekt „Advanced Computing Architectures (ACA): towards multi-scale natural-density Neuromorphic Computing” arbeiten die Jülicher Forscher daran, Konzepte zu benennen, die benötigt werden, um große Netzwerke, die sehr komplex sind, berechnen zu können. Das wäre dann etwa ein Netzwerk mit 1 Milliarde Neurone, das so groß ist wie das Gehirn eines Säugetieres.

Übergeordnetes Ziel ist der Bau eines Computersystems, das es ermöglicht, Lernprozesse im Zeitraffer zu untersuchen. Langfristiges Ziel ist die Entwicklung einer eigenen Architektur, die speziell auf diese Art von Simulationen zugeschnitten ist. Eine solche neuromorphe Beschleuniger-Architektur könnte dann idealerweise angekoppelt werden an die Jülicher Supercomputing-Infrastruktur.

Die Forscher betonen jedoch, dass es sich hierbei um einen großen Zeithorizont von 15 bis 20 Jahren handelt.

tags: #neuronales #netz #synapse