Das menschliche neuronale Netzwerk: Wissenschaftliche Erkenntnisse und technologische Nachbildungen

Unser Gehirn ist ein erstaunliches Organ, das trotz seines geringen Energiebedarfs enorme Leistungen erbringt. Etwa 86 Milliarden Neuronen sind in dynamischen Netzwerken organisiert, die für Wahrnehmung, Gedächtnis, Körperfunktionen, Lernfähigkeit, Sprache, Emotionen und Rationalität verantwortlich sind. Dieses biologische Wunderwerk benötigt nur etwa 20 Watt, was einem Fünftel der Energie entspricht, die der "Bioreaktor" im menschlichen Bauch bereitstellt. Im Vergleich dazu schneidet die von Menschen geschaffene Technologie deutlich schlechter ab.

Die Funktionsweise des menschlichen Gehirns

Das menschliche Gehirn besteht aus Milliarden von Nervenzellen, den Neuronen, die durch Billionen synaptischer Verbindungen miteinander verknüpft sind. Obwohl Wissenschaftler dieses komplexe biologische System bisher nur teilweise verstehen, können sie einige seiner Funktionen bereits mathematisch beschreiben.

Signalübertragung von Nervenzellen in Echtzeit analysieren

Mithilfe tiefer neuronaler Netze kann die Signalübertragung von Nervenzellen künftig in Echtzeit analysiert werden. Dies zeigt eine Studie von Physiologinnen und Physiologen der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU), die im renommierten Journal Communications Chemistry veröffentlicht wurde.

Nervenzellen sind die Informationsträger unseres Gehirns. Für die Signalübertragung ändern sie ihre elektrische Spannung, indem sie die Konzentration von Natrium- und Kaliumionen über sogenannte Ionenkanäle steuern. Diese Kanäle befinden sich in der Zellmembran und funktionieren wie elektrische Schalter.

„Es gibt eine etablierte Methode, mit der man messen kann, ob ein Ionenkanal geöffnet oder geschlossen ist“, erklärt PD Dr. Dr. Tobias Huth vom Institut für Physiologie und Pathophysiologie der FAU. „Dafür wird eine hauchdünne Pipette von nur einem Mikrometer Durchmesser an den Kanal gelegt und Stromänderungen aufgezeichnet.“

Lesen Sie auch: Bedeutung der Ergotherapie bei Demenz

Das Problem der sogenannten Patch-Clamp-Technik: Die extrem geringen Ströme, mit denen die Ionenkanäle arbeiten, sind aufgrund zahlreicher Störfaktoren der Umgebung schwer zu detektieren. Sogenannte Tiefpassfilter minimieren das Rauschen, schränken jedoch die Bandbreite der Messung ein. „Am Ende haben wir eine verdichtete Zeitreihenaufzeichnung der Stromausschläge, die wie ein endlos langer Strichcode aussieht“, sagt Efthymios Oikonomou, Doktorand am Institut für Physiologie und Pathophysiologie und Erstautor der Studie.

Die Erlanger Forschenden haben nun eine Möglichkeit vorgestellt, die Auswertung mithilfe tiefer neuronaler Netze erheblich zu beschleunigen. Dafür wandeln sie die Zeitreihenaufzeichnungen zunächst in zweidimensionale Histogramme um. Diese kompakten Grafiken, die man mit QR-Codes vergleichen kann, eliminieren überflüssige Informationen und präsentieren alle wesentlichen Daten auf kleinstem Raum.

„Um die KI zu trainieren, haben wir Millionen solcher Histogramme auf einem Großrechner simuliert. Die trainierten neuronalen Netze sind in der Lage, unbekannte gemessene Stromspuren blitzschnell zu analysieren und so die Arbeitsweise von Ionenkanälen in Echtzeit zu beobachten. „Das eröffnet völlig neue Perspektiven bei der Erforschung von Hirnfunktionen einschließlich neuronaler Störungen und Erkrankungen“, erklärt Tobias Huth.

Efthymios Oikonomou und PD Dr. Tobias Huth forschen in der Arbeitsgruppe Alzheimer/Huth am Institut für Physiologie und Pathophysiologie. Im Mittelpunkt steht das elektrische Verhalten von Neuronen und neuronalen Netzwerken des Zentralen Nervensystems unter normalen und pathologischen Bedingungen.

Nachbildung neuronaler Netze mit memristiven Bauelementen

Um die neuronale Aktivität zu simulieren, nutzen Forscher neben Computermodellen auch elektronische Schaltungen. In der Fachzeitschrift „Science Advances“ berichten Martin Ziegler und seine Kollegen von der Universität Kiel, wie sich mit sogenannten memristiven Bauelementen die Funktion des Gehirns nachspielen lässt.

Lesen Sie auch: Materialien für Demenz-Gottesdienste

Martin Ziegler: „Ein neuronales Netz ist die künstliche Nachbildung von Teilen unseres Gehirns. Wie ein biologisches Gehirn besteht es im Wesentlichen aus zwei Bausteinen: aus den Nervenzellen, den sogenannten Neuronen, und den Verbindungen dazwischen - den Synapsen. Das Entscheidende ist, dass die Verbindungen nicht konstant sind, sich also mit der Zeit ändern. Dies passiert im menschlichen Gehirn, wenn wir beispielsweise eine Sprache oder ein Objekt erkennen lernen.“

Neuronen haben die Aufgabe, Informationen zu sammeln, indem sie die verschiedenen eingehenden Reize aufsummieren. Die Informationen entsprechen dabei elektrischen Spannungen. Ist eine gewisse Potenzialschwelle überschritten, wird ein Signal in Form von kleinen Spannungspulsen weitergegeben. Synapsen leiten diese Pulse, die auch als Spikes oder Aktionspotenziale bezeichnet werden, dann weiter.

„Wir möchten nun diese Synapsen in neuronalen Netzen nachbilden, da Gedächtnisprozesse in biologischen Systemen eben dort stattfinden“, so Ziegler.

Die Großzahl neuronaler Netzwerke wird mithilfe von Computerprogrammen realisiert, die mit mathematischen Funktionen arbeiten. Ziegler und sein Team arbeiten dagegen mit sogenannten neuromorphen Systemen. Sie haben neuartige elektronische Bauelemente entwickelt und diese in elektrischen Schaltungen zu einem Netzwerk verbunden. Es handelt sich um sogenannte memristive Bauelemente.

Memristor ist ein Kunstwort aus den englischen Wörtern „memory“ für Speicher und „resistor“ für elektrischer Widerstand - also gewissermaßen Widerstände mit Gedächtnis. Diese Bauelemente bestehen aus zwei Metallelektroden und einer sogenannten Memristivschicht, in der ionische und elektronische Prozesse den Ladungstransport bestimmen. Durch das Anlegen von Spikes ändert man den Widerstand dieser Schicht.

Lesen Sie auch: Lösungen für Razer Synapse Probleme

„Ein großer Teil unserer Forschungsarbeit besteht darin, diese Elemente herzustellen. Wir wollen dabei nicht Synapsen oder Neuronen nachbauen, wie sie in der Biologie vorkommen, sondern mithilfe von Materialphysik und quantenmechanischen Effekten biologische Systeme auf einem funktionellen und abstrakten Level imitieren“, erklärt Ziegler.

Nachbildung des Bindungsproblems

Die Forscher haben eine Schaltung basierend auf diesen festkörperelektronischen Bauelementen realisiert, die es ermöglicht, das sogenannte Bindungsproblem nachzubilden. Dies ist eines der großen Probleme in den Neurowissenschaften, das sich damit beschäftigt, wie das Gehirn Objekte erkennen kann.

Es gibt beispielsweise verschiedene Dinge, die eine Person ausmachen: ihr Aussehen, ihre Stimme, ihr Geruch oder auch ihr charakteristischer Gang. All diese Informationen werden in unterschiedlichen Bereichen im Gehirn verarbeitet. Die Frage ist nun, wie das Gehirn die Informationen zu dem Zeitpunkt des Erkennens miteinander verbindet und damit eine Person erkennen kann.

In dem mathematischen Modell des Physikers und Neurowissenschaftlers Christoph von der Malsburg wird das Bindungsproblem mit sogenannten neuronalen Oszillatoren und der Synchronisation verschiedener Bereiche beschrieben. Eine Person auf Grundlage verschiedener Sinneseindrücke zu erkennen, bedeutet dann, dass sich die verschiedenen Bereiche des Gehirns synchronisieren und gleichzeitig aktiv sind. Kennt man jemanden gut, braucht man nicht alle Informationen, um die Person wiederzuerkennen. Es müssen also nicht alle Bereiche Informationen erhalten, um zum Zeitpunkt des Erkennens synchron aktiv zu sein.

Die Forscher mussten besonders darauf achten, dass sich nicht das gesamte Netzwerk synchronisiert, sondern nur verschiedene Subnetzwerke. Diese unterschiedlichen stabilen Subnetzwerke können sie dann kontextabhängig über die Memristoren ändern.

Mithilfe von optischen Illusionen lässt sich das verdeutlichen: Zeichnet man beispielsweise einen dreidimensionalen Würfel auf ein Blatt Papier, so gibt es zwei Möglichkeiten, den Würfel wahrzunehmen. Je nachdem auf welchen Punkt man seine Aufmerksamkeit lenkt, scheint der Würfel aus der Blattebene heraus- oder hineinzuragen. Das entspricht im neuronalen Netz zwei unterschiedlichen Subnetzwerken, zwischen denen wir hin- und herschalten können. Indem wir die Widerstände der memristiven Bauteile - also der Synapsen - ändern, können wir die Stabilität der Subnetzwerke beeinflussen. Die Eingangsinformation des neuronalen Netzes entspricht dann der „Aufmerksamkeit“ und die Ausgangsinformation ist das wahrgenommene Objekt, wie beispielsweise der gezeichnete Würfel.

Die Idee ist, dass aus den neuromorphen Netzen neue Arten von Computern entwickelt werden. Unsere heutigen Computer sind sehr leistungsfähig für arithmetische Operationen wie das Berechnen der Quadratwurzel einer großen Zahl. Computer berechnen dies deutlich schneller und besser als Menschen. Allerdings sind Menschen bei kognitiven Aufgaben wie der Mustererkennung deutlich besser als die leistungsstärksten Computer. Mit den neuromorphen Systemen versuchen wir nun, eine neue Art der Datenverarbeitung zu entwickeln, die der Funktionsweise des menschlichen Gehirns sehr viel näher kommt.

Kartierung des Konnektoms mit künstlichen neuronalen Netzen

Die Funktion des Gehirns hat ihre Grundlage in den Verbindungen zwischen den Nervenzellen. Um diese Verbindungen zu kartieren und damit das Konnektom, den „Schaltplan“, eines Gehirns zu erstellen, erfassen Neurobiologen das Gehirn mit Hilfe dreidimensionaler Elektronenmikroskopie-Aufnahmen. Bislang stand der Kartierung größerer Bereiche im Wege, dass die Analyse dieser Bilder durch den Menschen trotz erheblicher Unterstützung durch Computer Jahrzehnte dauern würde.

Wissenschaftler von Google A.I. und des Max-Planck-Instituts für Neurobiologie stellen nun ein auf künstlichen neuronalen Netzen basierendes Verfahren vor, das in der Lage ist, ganze Nervenzellen mit all ihren Bestandteilen und Verbindungen nahezu fehlerfrei aus einem Bilderstapel herauszuarbeiten.

„Die Zellstrukturen, die der Computer aus unseren elektronenmikroskopischen Aufnahmen generierte, hatten einfach viel zu viele Fehler“, berichtet Jörgen Kornfeld vom Max-Planck-Institut für Neurobiologie in Martinsried. „Um damit etwas anfangen zu können, musste alles nochmals "korrekturgelesen" werden.“ Das nimmt viel menschliche Arbeitszeit in Anspruch: Ganze elf Jahre würde das Überprüfen eines Bilderstapels mit gerade mal 0,1 Millimetern Kantenlänge dauern. „Daher mussten wir etwas Besseres erfinden“, so Kornfeld.

Flood-Filling Networks (FFNs)

Besser als alles andere sind - zumindest derzeit - die flood-filling networks (FFNs), die Michal Januszewski zusammen mit seinen Kollegen bei Google A.I. entwickelt. Ein Datensatz aus dem Singvogelhirn, den Kornfeld schon vor Jahren aufgenommen und teilweise von Hand analysiert hatte, spielte bei dieser Entwicklung eine wichtige Rolle.

Die Zusammenarbeit zwischen Computerwissenschaftlern und Biologen hat in der von Winfried Denk geleiteten Abteilung schon Tradition. Der Leiter der Google Arbeitsgruppe, Viren Jain, war im Jahr 2005 Doktorand am MIT, als sich Denk an Jains Doktorvater, Sebastian Seung, wandte. Es ging um Hilfe bei der Analyse der mit einer in Denks Abteilung damals neu entwickelten Methode aufgenommenen Datensätze. In der Abteilung war Kornfeld damals damit beschäftigt, ein Computerprogramm für die Daten-Visualisierung und Annotation zu schreiben. Kornfeld, in dessen Forschung Neurobiologie und Datenwissenschaften zunehmend verschmelzen, entwickelte hauptverantwortlich das "SyConn" System zur automatischen Synapsenanalyse. Dieses wird - wie die FFNs - bei der Gewinnung biologischer Erkenntnisse aus dem Singvogeldatensatz unverzichtbar sein.

Die Entwicklung der FFNs steht, so Denk, als Symbol für einen Wendepunkt in der Konnektomik. FFNs gehören zu den "Convolutional neural networks", einer speziellen Klasse von Algorithmen des automatischen Lernens. FFNs besitzen jedoch einen internen Rückkoppelungspfad, der es ihnen erlaubt auf bereits im Bild Erkanntes aufzubauen. Dies erleichtert es dem FFN enorm, die Unterscheidung von zellinternen und zellexternen Bereichen auf nahegelegene Bildelemente auszudehnen. Dabei lernt das FFN während der Lernphase nicht nur, welche Färbemuster eine Zellgrenze anzeigen, sondern auch, welche Formen diese Grenzen typischerweise haben.

Inzwischen scheint es nicht mehr völlig undenkbar, wirklich große Datensätze, bis hin zu einem gesamten Maus- oder Vogelhirn, aufzunehmen und zu analysieren.

Unterschiede in der neuronalen Kommunikation zwischen Mensch und Maus

Eine Studie der Charité - Universitätsmedizin Berlin hat ergeben, dass die Neurone beim Menschen in eine Richtung kommunizieren, während die Signale bei der Maus häufiger in Schleifen fließen. Das macht die Informationsverarbeitung beim Menschen leistungsfähiger und effizienter.

Weniger als fünf Millimeter dick ist die Großhirnrinde, eine der wichtigsten Strukturen für die menschliche Intelligenz. Zwanzig Milliarden Nervenzellen verarbeiten hier, in der äußersten Schicht des Gehirns, unzählige Sinneswahrnehmungen. In der Hirnrinde planen wir Handlungen, hier sitzt unser Bewusstsein.

„Unser bisheriges Verständnis der neuronalen Architektur in der Großhirnrinde basiert größtenteils auf Erkenntnissen, die an Tiermodellen wie der Maus gewonnen wurden“, erklärt Prof. Jörg Geiger, Direktor des Instituts für Neurophysiologie der Charité. „Bei ihnen kommunizieren die benachbarten Nervenzellen häufig wie in einem wechselseitigen Dialog miteinander, ein Neuron funkt ein anderes an und dieses sendet wieder ein Signal zurück. Die menschliche Großhirnrinde ist deutlich größer und auch komplexer als bei der Maus. Trotzdem hat man bisher - auch aufgrund fehlender Daten - angenommen, dass sie nach denselben Verschaltungsprinzipien funktioniert.“

Multipatch-Technik

Für die Studie untersuchten die Forschenden Hirngewebe von 23 Menschen, die sich aufgrund einer Epilepsie einer neurochirurgischen Operation an der Charité unterzogen hatten. Im Zuge des Eingriffs war Hirngewebe entfernt worden, um Zugang zu den darunter liegenden erkrankten Strukturen zu erhalten.

Um die Signalflüsse zwischen benachbarten Neuronen in der äußersten Schicht der menschlichen Großhirnrinde beobachten zu können, entwickelte das Team eine verbesserte Variante der sogenannten Multipatch-Technik. Sie erlaubte den Forschenden, der Kommunikation von bis zu zehn Nervenzellen gleichzeitig zu lauschen. Dadurch gelang es ihnen, in der kurzen Zeit, bis die Zellen außerhalb des Körpers ihre Aktivität einstellen, die für die Erstellung einer Netzwerkkarte nötige Anzahl an Messungen durchzuführen.

Das Ergebnis: Nur ein kleiner Bruchteil der Neurone führte wechselseitige Dialoge. „Beim Menschen fließen die Informationen stattdessen vorrangig in eine Richtung, sie kehren nur selten direkt oder über Schleifen an den Ausgangspunkt zurück“, erklärt Dr. Yangfan Peng, Erstautor der Publikation.

Künstliches neuronales Netzwerk

Die Forschenden gaben dem künstlichen neuronalen Netzwerk eine typische Aufgabe des maschinellen Lernens: Es sollte Audio-Aufnahmen von Zahlwörtern erkennen und ihnen die richtige Ziffer zuweisen. Es zeigte sich, dass das dem Menschen nachempfundene Modell bei dieser Spracherkennung häufiger richtig lag als ein der Maus nachempfundenes.

„Die gerichtete Netzwerk-Architektur beim Menschen ist leistungsfähiger und ressourcenschonender, weil mehr unabhängige Nervenzellen gleichzeitig unterschiedliche Aufgaben bewältigen können“, erklärt Yangfan Peng. „Das Netzwerk kann also mehr Informationen speichern.

Für die Konstruktion künstlicher neuronaler Netzwerke haben sich KI-Entwickler in der Vergangenheit von biologischen Vorbildern inspirieren lassen, sie optimierten die Algorithmen aber auch unabhängig von der Biologie. „Viele künstliche neuronale Netzwerke nutzen bereits eine Form der vorwärts gerichteten Struktur, weil diese bei manchen Aufgaben bessere Ergebnisse liefert“, sagt Jörg Geiger. „Es ist faszinierend zu sehen, dass auch das menschliche Hirn verwandte Verschaltungsprinzipien aufweist. Die Erkenntnisse, die wir jetzt zu der besonders ressourcenschonenden Informationsverarbeitung in der menschlichen Hirnrinde gesammelt haben, könnten nun zur Verfeinerung der KI-Netzwerke beitragen.“

Künstliche Intelligenz zur Erklärbarkeit von KI-Systemen

Heute gibt es kaum noch einen Bereich, in dem Künstliche Intelligenz keine Rolle spielt, sei es in der Produktion, der Werbung oder der Kommunikation. Viele Unternehmen nutzen lernende und vernetzte KI-Systeme, etwa um präzise Nachfrageprognosen anzustellen und das Kundenverhalten exakt vorherzusagen. Auf diese Weise lassen sich beispielsweise Logistikprozesse regional anpassen. Auch im Gesundheitswesen bedient man sich spezifischer KI-Tätigkeiten wie dem Anfertigen von Prognosen auf Basis von strukturierten Daten. Hier betrifft das etwa die Bilderkennung: So werden Röntgenbilder als Input in ein KI-System gegeben, der Output ist eine Diagnose. Das Erfassen von Bildinhalten ist auch beim autonomen Fahren entscheidend, wo Verkehrszeichen, Bäume, Fußgänger und Radfahrer fehlerfrei erkannt werden müssen.

In sensiblen Anwendungsfeldern wie der medizinischen Diagnostik oder in sicherheitskritischen Bereichen müssen KI-Systeme absolut zuverlässige Problemlösungsstrategien liefern. Bislang war es jedoch nicht nachvollziehbar, wie KI-Systeme Entscheidungen treffen. Zudem basieren die Vorhersagen auf der Qualität der Input-Daten.

Layer-Wise Relevance Propagation (LRP)

Mit der Layer-Wise Relevance Propagation (LRP) haben Forschende am Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut, HHI, und der Technischen Universität Berlin nun eine Technik entwickelt, die KI-Prognosen erklärbar macht und somit unsichere Problemlösungsstrategien aufdeckt. Die Weiterentwicklung der LRP-Technologie, die sogenannte Spectral Relevance Analysis (SpRAy) identifiziert und quantifiziert ein breites Spektrum erlernten Entscheidungsverhaltens und erkennt somit auch in riesigen Datensätzen unerwünschte Entscheidungen.

In der Praxis identifiziert die Technik einzelne Input-Elemente, die für eine Vorhersage genutzt wurden. Wird also beispielsweise ein Gewebebild in ein KI-System eingegeben, so wird der Einfluss jedes Pixels auf das Klassifikationsergebnis quantifiziert. Die Vorhersage, wie »krebsartig« oder »nicht krebsartig« das Gewebebild ist, wird also mit der Angabe der Basis für diese Klassifikation ergänzt.

»Nicht nur das Ergebnis soll korrekt sein, sondern auch der Lösungsweg. Bislang wurden KI-Systeme als Black Box angewendet. Man hat darauf vertraut, dass sie das richtige tun. Mit unserer Open-Source-Software, die die Layer-Wise Relevance Propagation einsetzt, ist es uns gelungen, die Lösungsfindung von KI-Systemen nachvollziehbar zu machen«, sagt Dr. Wojciech Samek, Leiter der Forschungsgruppe »Machine Learning« am Fraunhofer HHI. »Mit LRP visualisieren und interpretieren wir Neuronale Netze und andere Machine Learning-Modelle. Mit LRP messen wir den Einfluss jeder Eingangsvariablen für die Gesamtvorhersage und zerlegen die Entscheidungen des Klassifizierers«, ergänzt Dr.

tags: #material #netzwerk #wissenschaft #neuronal #nervensystem