Neuronale Netze und ihre Verbindung zur Gehirnfunktion

Künstliche Neuronale Netze (KNN) sind computerbasierte Algorithmen, die dem Aufbau und der Funktionsweise des menschlichen Gehirns nachempfunden sind. Sie werden in den Bereichen maschinelles Lernen und künstliche Intelligenz eingesetzt, um komplexe Aufgaben aus Statistik, Informatik und Wirtschaft zu lösen. Diese Netzwerke ermöglichen es, verschiedene Datenquellen wie Bilder, Töne, Texte, Tabellen oder Zeitreihen zu interpretieren und Informationen oder Muster zu extrahieren, um diese auf unbekannte Daten anzuwenden.

Aufbau Künstlicher Neuronaler Netze

Künstliche neuronale Netze können unterschiedlich komplex aufgebaut sein, haben aber im Wesentlichen die Struktur gerichteter Graphen. Das Modell eines KNN besteht aus Knoten, auch Neuronen genannt, die Informationen von anderen Neuronen oder von außen aufnehmen, modifizieren und als Ergebnis wieder ausgeben. Die Information wird durch die Input-Neuronen aufgenommen und durch die Output-Neuronen ausgegeben. Dazwischen liegen die Hidden-Neuronen, die innere Informationsmuster abbilden. Die Neuronen sind über Kanten miteinander verbunden.

Ein vereinfachter Aufbau eines KNN umfasst typischerweise drei Schichten:

  • Eingabeschicht: Diese Schicht versorgt das neuronale Netz mit den notwendigen Informationen. Die Input-Neuronen verarbeiten die eingegebenen Daten und führen diese gewichtet an die nächste Schicht weiter.
  • Verborgene Schicht: Diese Schicht befindet sich zwischen der Eingabe- und der Ausgabeschicht. Es können beliebig viele Ebenen von Neuronen in der verborgenen Schicht vorhanden sein. Hier werden die empfangenen Informationen erneut gewichtet und von Neuron zu Neuron bis zur Ausgabeschicht weitergereicht. Die Gewichtung findet in jeder Ebene der verborgenen Schicht statt. Die genaue Prozessierung der Informationen ist jedoch nicht sichtbar, daher der Name "verborgene Schicht".
  • Ausgabeschicht: Die Ausgabeschicht ist die letzte Schicht und schließt unmittelbar an die letzte Ebene der verborgenen Schicht an.

Tiefes Lernen in KNN

Tiefes Lernen ist eine Hauptfunktion eines KNN. Dabei bekommt jedes Neuron bei einer vorhandenen Netzstruktur ein zufälliges Anfangsgewicht zugeteilt. Das Ergebnis dieser Berechnung wird an die nächsten Neuronen der nächsten Schicht oder des nächsten Layers weitergegeben, was als "Aktivierung der Neuronen" bezeichnet wird. Da nicht alle Ergebnisse (Outputs) korrekt sind, treten Fehler auf. Diese Fehler sind berechenbar, ebenso wie der Anteil eines einzelnen Neurons am Fehler. Im nächsten Durchlauf wird der Fehler erneut gemessen und angepasst. Dieser Prozess ähnelt dem menschlichen Entscheidungsprozess.

Arten von Neuronalen Netzen

Es gibt unzählige Typen von neuronalen Netzwerk-Architekturen, von denen einige im Folgenden erläutert werden:

Lesen Sie auch: Behandlung neurologischer Erkrankungen

  • Perzeptron: Das einfachste und älteste neuronale Netz nimmt die Eingabeparameter, addiert diese, wendet die Aktivierungsfunktion an und schickt das Ergebnis an die Ausgabeschicht. Das Ergebnis ist binär (0 oder 1) und damit vergleichbar mit einer Ja- oder Nein-Entscheidung. Die Entscheidung erfolgt, indem man den Wert der Aktivierungsfunktion mit einem Schwellwert vergleicht. Bei Überschreitung des Schwellwertes wird dem Ergebnis eine 1 zugeordnet, hingegen 0, wenn der Schwellwert unterschritten wird. Darauf aufbauend wurden weitere Neuronale Netzwerke und Aktivierungsfunktionen entwickelt, die es auch ermöglichen, mehrere Ausgaben mit Werten zwischen 0 und 1 zu erhalten. Am bekanntesten ist die Sigmoid-Funktion, in dem Fall spricht man auch von Sigmoid-Neuronen. Der Ursprung dieser neuronalen Netze liegt in den 1950er Jahren. Sie zeichnen sich dadurch aus, dass die Schichten lediglich mit der nächsthöheren Schicht verbunden sind. Es gibt keine zurückgerichteten Kanten.
  • Faltende Neuronale Netze (CNN): Convolutional Neural Networks sind Künstliche Neuronale Netzwerke, die besonders effizient mit 2D- oder 3D-Eingabedaten arbeiten können. Der große Unterschied zu den klassischen neuronalen Netzen liegt in der Architektur der CNNs, die auch den Namen „Convolution“ oder „Faltung“ erklärt. Bei CNNs basiert die verborgene Schicht auf einer Abfolge von Faltungs- und Poolingoperationen. Bei der Faltung wird ein sogenannter Kernel über die Daten geschoben und währenddessen eine Faltung berechnet, was mit einer Multiplikation vergleichbar ist. Die Neuronen werden aktualisiert. Die anschließende Einführung einer Pooling-Schicht sorgt für eine Vereinfachung der Ergebnisse. Dies sorgt auch dafür, dass die 2D- oder 3D-Eingangsdaten kleiner werden. Setzt man diesen Prozess fort, so erhält man am Ende in der Ausgabeschicht einen Vektor, den „fully connected layer“.
  • Rekurrente Neuronale Netze (RNN): RNNs fügen den KNN wiederkehrende Zellen hinzu, wodurch neuronale Netze ein Gedächtnis erhalten. Das erste künstliche, neuronale Netzwerk dieser Art war das Jordan-Netzwerk, bei dem jede versteckte Zelle ihre eigene Ausgabe mit fester Verzögerung - eine oder mehrere Iterationen - erhielt. Es gibt viele Variationen, wie z.B. die Übergabe des Status an die Eingangsknoten, variable Verzögerungen usw., aber die Grundidee bleibt die gleiche. Diese Art von NN wird insbesondere dann verwendet, wenn der Kontext wichtig ist. In diesem Fall haben Entscheidungen aus früheren Iterationen oder Stichproben einen signifikanten Einfluss auf die aktuellen Iterationen. Da rekurrente Netze jedoch den entscheidenden Nachteil haben, dass sie mit der Zeit instabil werden, ist es mittlerweile üblich, sogenannte Long Short-Term Memory Units (kurz: LSTMs) zu verwenden. Das häufigste Beispiel für solche Abhängigkeiten ist die Textverarbeitung - ein Wort kann nur im Zusammenhang mit vorhergehenden Wörtern oder Sätzen analysiert werden. Ein weiteres Beispiel ist die Verarbeitung von Videos, z.B. beim autonomen Fahren.

Anwendungen von KNN

KNN sind prädestiniert für Bereiche, in denen wenig systematisches Wissen vorliegt, aber eine große Menge unpräziser Eingabeinformationen (unstrukturierte Daten) verarbeitet werden müssen, um ein konkretes Ergebnis zu erhalten. Dies ist zum Beispiel in der Spracherkennung, Mustererkennung, Gesichtserkennung oder Bilderkennung der Fall. Zahlreiche Produkte und Dienstleistungen, die auf künstlichen neuronalen Netzen basieren, haben bereits Einzug in unseren Alltag gehalten.

Das Neuronale Netz im Gehirn

Das Gehirn besteht aus einem komplexen Netzwerk von Nervenzellen, die miteinander kommunizieren. Parallel arbeitende Netzwerksysteme sind das derzeit anerkannteste neurowissenschaftliche Modell, um die Funktionsweise des Gehirns zu beschreiben. Die komplexen Netzwerkstrukturen im Gehirn sind eine direkte Folge der Kommunikation der Nervenzellen mittels elektrischer Signale. Die Netzwerke ermöglichen die Entstehung komplexer Aktivitätsmuster durch eine koordinierte Erregung der Nervenzellen. Aufgrund der neuronalen Plastizität verändern sich die Mikrostruktur des Gehirns und somit auch die Netzwerke ein Leben lang. Nach Verletzungen regeneriert sich das Gehirn mit Mechanismen der Plastizität und bildet neue Netzwerke.

Gemäß dem aktuell anerkanntesten Modell sind die einzelnen Nervenzellen zunächst in kleinen Verbänden zusammengeschaltet, in Modulen. Mehrere dieser Schaltkreise bilden wiederum größere Cluster. Die Verbindungswege zwischen solchen Strukturen bezeichnen Neurowissenschaftler als Pfade. Einige der Module bilden besonders wichtige Knotenpunkte im Netz, so genannte Hubs. Man kann sich das Gehirn also als ein System vorstellen, dessen grundlegende Bausteine sich in Ensembles verschiedener Größen organisieren, die wiederum miteinander verknüpft sind und so Netzwerke unterschiedlicher Größenordnungen bilden. Ein derartiger Aufbau ist enorm effizient, da jede einzelne Nervenzelle Teil unterschiedlicher Gruppierungen und Schaltkreise ist - und somit auch mehrere Aufgaben übernehmen kann. Werden bestimmte Ensembles gerade nicht gebraucht, lassen sie sich aktiv ausschalten. Die Netzwerke können zudem parallel arbeiten und passen sich stets an neue Anforderungen an: Sie entwickeln sich gewissermaßen permanent weiter.

Diese Weiterentwicklung ist ein direktes Resultat der Kommunikation einzelner Nervenzellen. Deren Sprache besteht aus elektrischen Impulsen, so genannten Aktionspotentialen, die beim Empfänger eine Erregung auslösen. Daraus ergeben sich Aktivitätsmuster, die jeweils eine bestimmte Bedeutung innehaben. Prozesse, an denen mehrere Hirnareale beteiligt sind, basieren in der Regel auf synchronen Oszillationen. Diese entstehen, wenn ganze Neuronenverbände in identischer Frequenz feuern - also quasi „im Takt“ schwingen. Neurowissenschaftler gehen davon aus, dass die komplexen Leistungen des Gehirns auf diesen wiederkehrenden elektrischen Schwingungsmustern basieren. Dabei lassen sich sowohl rhythmische Aktivität einzelner Hirnregionen beobachten als auch arealübergreifende.

Funktionelle Segregation und Vernetzung im Gehirn

Verschiedene Hirnfunktionen sind in unterschiedlichen Bereichen und Strukturen des Organs verankert. Experten sprechen in diesem Zusammenhang vom Prinzip der „funktionellen Segregation“. Der Frontallappen beeinflusst maßgeblich Persönlichkeit, Sozialverhalten und Impulsverhalten.

Lesen Sie auch: Überblick über Depressionen

Bereits ab der dritten Schwangerschaftswoche beginnen sich im Embryo Nervensystem und Gehirn zu bilden. Bei diesem Prozess der Neurogenese entstehen aus Vorläufer- oder Stammzellen neue Nervenzellen. Diese bauen dann die Hirnrinde schichtweise auf; anschließend entstehen die verschiedenen Gehirnareale. Bis zum Ende der achten Schwangerschaftswoche sind die Grundstrukturen von Gehirn und Rückenmark fast vollständig angelegt. In den folgenden Monaten bilden sich dort Unmengen von neuen Nervenzellen durch Zellteilung. Diese grundlegende Struktur des Gehirns bleibt in dieser Form weitgehend ein Leben lang erhalten.

Obschon diese Grundordnung bereits bei der Geburt vorhanden ist, sind die Neugeborenen noch nicht zu komplexen kognitiven Leistungen fähig. Denn die Existenz der unterschiedlichen Areale allein reicht nicht aus, um vielfältige, voneinander abhängige Aufgaben zu bewältigen: Handlungen resultieren zum Beispiel aus Gedanken und Gefühlen oder visuellen und auditiven Eindrücken. Das Gehirn verarbeitet und ordnet die Informationen und erteilt dem Körper daraufhin Befehle. Daraus ergeben sich wiederum neue Gefühle, Gedanken und Reize. Diese Zusammenhänge lassen sich in alle Richtungen beobachten, gewissermaßen beeinflusst sich alles wechselseitig. Ein derart komplexes Zusammenspiel funktioniert nur, wenn kein Akteur isoliert arbeitet. Neurowissenschaftler nennen das die „funktionelle Vernetzung“ des Gehirns. Die kleinsten Einheiten des Gehirns, die Nervenzellen oder Neurone, sind mit Tausenden weiteren verbunden. Fachleute vermuten sogar, dass jedes einzelne Neuron über nur sechs Zwischenschritte mit jedem anderen der etwa 86 Milliarden Exemplare im Gehirn verknüpft ist.

Zwar ist bei Säuglingen die Mehrheit der Nervenzellen bereits angelegt, nicht aber diese umfangreiche Vernetzung. Erst während der frühkindlichen Phase vervielfacht sich die Anzahl der Verbindungen zwischen den Nervenzellen; zusätzlich werden die Nervenfasern deutlich dicker. Aus diesen Gründen verdreifacht sich das Gewicht des Gehirns von der Geburt bis zum Erwachsenenalter. Dieser Prozess der Vernetzung ist essenziell, um die vielfältigen Informationen aus der Umwelt aufzunehmen, zu verarbeiten und auf sie reagieren zu können. Besonders die ersten Lebensjahre tragen daher entscheidend zur Entwicklung kognitiver Fähigkeiten bei.

Neuronale Plastizität und Lernen

Die Bildung der Netzwerkstrukturen geht dabei in erster Linie von den kleinsten Einheiten, den Nervenzellen, aus und wird mit der Hebbschen Regel erklärt: Wenn ein Neuron wiederholt angeregt wird und dadurch wiederum ein benachbartes Neuron stimuliert, bewirkt dies, vereinfacht ausgedrückt, dass die Verbindung zwischen den beiden stärker wird. Neurobiologen würden sagen, dass die Effizienz zunimmt, mit der die Zelle A ein Aktionspotential in der benachbarten Zelle B erzeugen kann. Basierend auf diesen Kommunikationsprozessen der Nervenzellen bilden und verändern sich ihre Netzwerkstrukturen. Verbindungen können aber auch neu geschaffen werden (strukturelle Plastizität). Diese Fähigkeit des Gehirns kommt uns keineswegs nach dem Kindesalter abhanden, sondern bleibt ein Leben lang erhalten.

Seit fast zwanzig Jahren ist allerdings bewiesen, was lange undenkbar schien: Auch im erwachsenen Gehirn entstehen noch neue Nervenzellen, die so genannte adulte Neurogenese. Ohne die neuronale Plastizität wäre es uns Menschen nicht möglich, die stets neuen Anforderungen des Lebens zu meistern: Sobald wir etwas Neues erlernen - sei es eine Vokabel, eine Rechenart oder einen Tanzschritt -, verändern sich insbesondere die Nervenzellverbindungen und zu einem gewissen Grad auch größere Strukturen. Besonders gut zu beobachten ist dies bei Menschen, die eine Tätigkeit regelmäßig ausüben und daher besonders gut beherrschen. Bei professionellen Musikern sind im Vergleich zu Nichtmusikern bestimmte Hirnareale stärker ausgeprägt. Und in Abhängigkeit von ihrer Ausbildung, etwa als Streicher, Schlagzeuger oder Dirigent, lassen sich wiederum charakteristische Merkmale in ihren Gehirnen ausmachen. Die Gehirnstruktur wird also durch jahrelanges Training geformt. Daneben zeigen Untersuchungen, dass sich komplette Hirnareale auch vollkommen neu orientieren können: Bei Menschen, die von Geburt an taub sind, wird zum Beispiel der brachliegende Teil der Hirnrinde mit neuen Aufgaben bedacht. Auch bei Menschen mit Gliedmaßenamputationen ist Ähnliches zu beobachten.

Lesen Sie auch: Umfassende ADHS-Betrachtung

Trotz der beeindruckenden Anpassungsfähigkeit der Nervenzellen tut sich das Gehirn im Vergleich zu anderem Gewebe eher schwer damit, Verletzungen zu reparieren. Bis zu einem bestimmten Ausmaß gelingt dies, indem es neue Verbindungen zwischen noch funktionsfähigen Nervenzellen knüpft. In den betreffenden Regionen findet dann eine massive und wohlkoordinierte Reorganisation statt. In welchem Umfang sich beschädigte oder zerstörte Gehirnzellen durch neue ersetzen lassen, ist jedoch unklar. Eine Regeneration im Gehirn findet wohl in erster Linie dadurch statt, dass bereits existente Nervenzellen die Aufgaben der verlorenen Neuronen übernehmen. Dies folgt wahrscheinlich den grundlegenden Prinzipien, die auch bei der Entstehung neuronaler Schaltkreise während der Entwicklung des Gehirns und bei Lernprozessen gelten.

Nervenzellen: Die Grundbausteine des Gehirns

Hauptakteure der Höchstleistungen des Gehirns sind die Nervenzellen, Neuronen genannt. Ein Neuron besteht aus einem Zellkörper (Soma), der vor allem für die Energieversorgung der Nervenzelle zuständig ist. Dazu besitzt das Neuron viele Dendriten, die die Informationen von anderen Neuronen empfangen. Weil ein Neuron meist sehr viele Dendriten hat und diese sehr verzweigt sind, spricht man auch vom Dendritenbaum. Zuletzt hat das Neuron noch ein Axon, das die Information des eigenen Neurons an andere Neurone weiter trägt.

Wo das Axon eines Neurons auf die Dendriten eines weiteren Neurons trifft, findet die Übertragung von Signalen statt. Diese Verbindungsstelle zweier Neurone nennt man Synapse. Synapsen bestehen aus:

  • Einem synaptischen Spalt: das ist die Lücke zwischen dem Axon des einen Neurons und einem Dendriten eines anderen Neurons
  • Der Präsynapse (prä = vor): Das ist der Teil vor dem synaptischen Spalt. Also meist das Axon des sendenden Neurons. Hier liegen schon kleine Bläschen bereit, die mit dem jeweiligen Botenstoff der Nervenzelle gefüllt sind.
  • Der Postsynapse (post = hinter): Liegt hinter dem synaptischen Spalt. Meist ein Dendrit der empfangenden Nervenzelle.

Wenn Nervenzelle 1 Botenstoffe (Neurotransmitter) in den synaptischen Spalt ausschüttet, binden diese an den Dendriten von Nervenzelle 2, genauer gesagt an die postsynaptische Membran des Dendriten. Die Bindung des Botenstoffs führt dazu, dass sich kleine Kanäle in der postsynaptischen Membran öffnen. Durch diese Kanäle können dann geladene Teilchen (Ionen) in die Dendriten gelangen. Solche geladenen Teilchen sind zum Beispiel Kalium, Natrium oder Chlorid. Sie führen dazu, dass die postsynaptische Membran etwas “positiver” oder etwas “negativer” geladen wird. Egal ob positiv oder negativ - die Spannungsänderung fließt von der postsynaptischen Membran über den Dendriten Richtung Axonhügel. Dendriten senden ihre Botschaften also in Form kleiner Spannungsänderungen.

Wenn entweder sehr viele Dendriten oder aber ein Dendrit sehr schnell hintereinander die gleiche Botschaft überbringen, dann wird am Axonhügel ein Aktionspotential ausgelöst. Dafür muss aber erst ein bestimmter Schwellenwert erreicht werden. Erst wenn die Summe aller eingehenden Signale den Schwellenwert erreicht, wird ein Aktionspotential ausgelöst. Dabei gilt das “Alles-oder-nichts-Prinzip”: Wird der Schwellenwert am Axonhügel nicht erreicht, passiert “nichts”. Wird er hingegen erreicht, wird ein Aktionspotential ausgelöst (“alles”).

Wird der Schwellenwert am Axonhügel erreicht, öffnen sich Kanäle für geladene Teilchen (Ionen). Das führt dazu, dass die normalerweise negativ geladene Zellmembran an dieser Stelle kurzzeitig positiv wird. Ein Aktionspotential läuft immer gleichförmig ab, weil nacheinander spannungsabhängige Kanäle geöffnet und geschlossen werden. Das Aktionspotential breitet sich auch auf die benachbarte Zellmembran aus. Das Axon ist von sogenannten Myelinscheiden umhüllt, die eine Art Isolierung bieten. In regelmäßigen Abständen ist diese Isolierung unterbrochen: an den Ranvierschen Schnürringen. Diese Bauweise ermöglicht, dass die Aktionspotentiale nur an den unterbrochenen Stellen entstehen. Auf diese Weise “springt” das Aktionspotential das Axon entlang bis zur Präsynapse.

Hier, im Bereich der Präsynapse, liegen sogenannte spannungsgesteuerte Calciumkanäle. Spannungsgesteuert heißt, dass sie sich öffnen, wenn die Oberflächenspannung sich ändert - zum Beispiel durch ein ankommendes Aktionspotential. Durch den offenen Kanal können dann Calcium-Teilchen in die Präsynapse einströmen. Der Calciumeinstrom wiederum führt dazu, dass die kleinen Bläschen mit den Botenstoffen, die ja schon vorbereitet in der Zelle umherschwirren, durch die Zellmembran wandern und die Botenstoffe in den synaptischen Spalt freisetzen. Die Botenstoffe binden wieder an die Rezeptoren des nächsten Dendriten, Kanäle öffnen sich und das ganze Spiel beginnt von vorn. Nach einiger Zeit lösen sich die Botenstoffe übrigens wieder von den Rezeptoren, ansonsten gäbe es ja eine dauerhafte Erregung der Nervenzelle. Die Botenstoffe werden dann entweder von der Präsynapse wieder aufgenommen oder von einer Müllabfuhr in Form von Enzymen abgebaut.

Das elektrische Signal des Axons wird an der Synapse in ein chemisches Signal umgewandelt, um dann am Dendriten der nächsten Nervenzelle wieder in ein elektrisches Signal umgewandelt zu werden. Diese Übertragung dauert etwa eine Millisekunde.

Neben den chemischen Synapsen gibt es auch elektrische Synapsen, die schneller funktionieren, weil keine Umwandlung elektrisch-chemisch-elektrisch stattfinden muss. Voraussetzung dafür ist aber, dass der synaptische Spalt um ein vielfaches kleiner ist, damit die elektrische Erregung von einer Nervenzelle zur nächsten “springen” kann.

Neuronales Netz im Gehirn

Das neuronale Netz ist eine Gruppe von Neuronen, die miteinander kommunizieren und auf diese Weise eine bestimmte Funktion ausüben. Jedes Neuron gibt dabei Informationen an beliebig viele andere Neuronen weiter und erhält gleichzeitig Signale von beliebig vielen anderen Neuronen. Schnittstellen sind immer die Synapsen. Dieses neuronale Netz ist im Laufe des Lebens in ständiger Veränderung. Man spricht von neuronaler Plastizität: Neue Verbindungen zwischen Synapsen werden geschaffen (z.B. wenn wir etwas Neues lernen) und bestehende Verbindungen gekappt. Wird eine Synapse sehr häufig benutzt, verändert sich zudem ihre Struktur. Zum Beispiel werden mehr Rezeptoren an der postsynaptischen Membran eingebaut oder die Menge an ausgeschütteten Botenstoffen erhöht sich. Dadurch verbessert sich die synaptische Übertragung. Diesen Mechanismus bezeichnet man als Langzeitpotenzierung. Sie ist vermutlich die Grundlage dafür, dass wir Dinge erlernen oder langfristig im Gedächtnis abspeichern können, wenn wir sie in regelmäßigen Abständen wiederholen. Andersherum werden nicht genutzte Verbindungen mit der Zeit immer schwächer.

Durch die neuronale Plastizität werden aber nicht nur neue Verbindungen zwischen bereits bestehenden Neuronen geschaffen und verstärkt. Vielmehr werden auch komplett neu gebildete Neuronen an das bestehende Netz angeschlossen. Vor allem im Hippocampus, dem zentralen Ort für die Entstehung neuer Erinnerungen, kommt es wohl zur regelmäßigen Neubildung von Nervenzellen. Und wir können diese Neubildung vermutlich sogar selbst beeinflussen: So soll Stress die Neubildung eher behindern, während Sport sie begünstigt.

Künstliche Intelligenz und Neuronale Netze

Mit künstlicher Intelligenz ist meistens das sogenannte maschinelle Lernen mit künstlichen neuronalen Netzen gemeint. Sowohl biologische neuronale Netzwerke - also zum Beispiel unser Gehirn - als auch die davon inspirierten künstlichen neuronalen Netzwerke verarbeiten Daten anders als herkömmliche Computerprogramme. In einem neuronalen Netz verteilt sich die Rechenlast parallel über viele verschiedene Knotenpunkte. Die Informationen werden deshalb nicht an bestimmten Punkten verarbeitet, sondern verteilen sich über das ganze Netz - oder zumindest über gewisse Bereiche davon.

Bei herkömmlichen künstlichen neuronalen Netzwerken lassen sich Zielfunktionen für einzelne Neuronen nicht definieren. Bei einem neuronalen Netz können benachbarte Neuronen die zu verarbeitende Information selbstständig untereinander aufteilen, sodass verschiedene Neuronen unterschiedliche Aspekte des Informationsgehalts repräsentieren.

SyConn-Netzwerk

Wissenschaftler haben sogenannte "Convolutional Neural Networks" darauf trainiert und getestet, Zellfortsätze, Zellbestandteile und Synapsen in den Bilddaten zu erkennen und voneinander zu unterscheiden. Das so entstandene SyConn-Netzwerk kann nun, nach einer kurzen Anlernphase, diese Strukturen selbstständig und äußerst zuverlässig identifizieren.

Geschichte der Neuronalen Netze

Die Idee einer „denkenden Maschine“ lässt sich bis zu den alten Griechen zurückverfolgen.

  • 1943: Warren S. McCulloch und Walter Pitts veröffentlichen „A logical calculus of the ideas immanent in nervous activity“. Diese Studie versuchte nachzuvollziehen, wie das menschliche Gehirn durch miteinander verbundene Gehirnzellen bzw. Neuronen komplexe Muster erzeugen kann. Eines der wichtigsten Konzepte aus dieser Arbeit war der Vergleich von Neuronen mit binärem Schwellenwert mit der booleschen Logik.
  • 1958: Frank Rosenblatt wird die Entwicklung des Perzeptrons zugeschrieben, dokumentiert in seiner Studie „The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain“. Er führte die Arbeit von McCulloch und Pitt noch einen Schritt weiter, indem er Gewichtungen in die Gleichung einführt. Mit Hilfe eines IBM 704 brachte Rosenblatt einen Computer dazu, zwischen Karten mit Markierungen auf der linken bzw. rechten Seite zu unterscheiden.
  • 1989: Yann LeCun veröffentlichte eine Abhandlung, die veranschaulicht, wie Algorithmen trainiert werden können, wenn Einschränkungen bei der Backpropagation verwendet und in ein neuronales Netz integriert werden.

tags: #neuronales #netz #gehirn #funktion