Die Frage nach der Speicherkapazität des menschlichen Gehirns ist faszinierend und komplex. Während wir uns an Terabytes und Petabytes gewöhnt haben, um die Kapazität von Computern zu messen, ist die Anwendung dieser Metriken auf das Gehirn nicht so einfach. Das Gehirn speichert Informationen anders als ein Computer, und seine Kapazität ist nicht durch eine feste Anzahl von Speicherplätzen begrenzt.
Einblick in die Gehirnstruktur: Eine Harvard-Google-Kooperation
Eine bahnbrechende Zusammenarbeit zwischen der Harvard University und Google hat einen beispiellosen Einblick in die 3D-Struktur des Gehirns ermöglicht. Harvard-Forscher Jeff W. Lichtman und sein Team veröffentlichten in der Fachzeitschrift Science 3D-Konstruktionen eines Gehirnbereichs in noch nie dagewesener Auflösung. Sie untersuchten einen Kubikmillimeter (1 x 1 x 1 mm³) Hirngewebe mit einem Elektronenmikroskop. Die Probe stammte aus dem Temporallappen eines Patienten, der sich aufgrund epileptischer Anfälle einer Gehirnoperation unterziehen musste. Dieser Bereich spielt eine wichtige Rolle für das Gedächtnis.
Das Gewebe wurde vorbehandelt und in etwa 5000 Scheiben mit einer Dicke von je 30 Nanometern zerlegt. Mithilfe von Computern erstellten die Forscher eine 3D-Konstruktion von 57.216 Zellen und 133,7 Millionen synaptischen Verbindungen. Der resultierende Datensatz umfasste beeindruckende 1,4 Petabyte oder 1400 Terabyte an Speicherplatz.
Google stellte in einer Galerie zusätzliche Bilder zur Verfügung und entwickelte ein spezielles Webbrowser-Tool namens "Neuroglancer" zur Navigation durch die Daten.
Die Bedeutung dieser Forschung
Diese Forschung eröffnet neue Möglichkeiten, die Funktionsweise des Gehirns zu verstehen und möglicherweise neue Behandlungen für neurologische Erkrankungen zu entwickeln. Mit der erreichten Genauigkeit können Forscher tiefer in das Innere des Menschen blicken und die komplexen Mechanismen des Gehirns entschlüsseln.
Lesen Sie auch: Was wiegt ein menschliches Gehirn?
Leibniz' Gedankenexperiment und die Grenzen der Reduktion
Der Philosoph Gottfried Wilhelm Leibniz entwickelte bereits 1714 in seiner Monadologie ein Gedankenexperiment, das die Grenzen der rein mechanistischen Betrachtung des Geistes aufzeigt. Er forderte uns auf, uns einen Automaten mit kognitiven Fähigkeiten vorzustellen und diesen so zu vergrößern, dass man darin herumlaufen könnte wie in einer Windmühle. Leibniz argumentierte, dass selbst das umfassendste Wissen über die Arbeitsweise dieser Maschine niemals Wahrnehmung erklären könnte.
Im 19. Jahrhundert dehnte der Physiologe Emil du Bois-Reymond dieses Gedankenexperiment auf das Thema Bewusstsein aus. Diese Überlegungen verdeutlichen, dass das Verständnis neuronaler Mechanismen allein keine grundlegende Erklärung für das Wesen des Menschen oder das Bewusstsein liefert.
Die Herausforderung der Skalierung
Wenn ein Kubikmillimeter eines einzelnen Gehirns bereits 1400 Terabyte an Daten liefert, welche Datenmengen wären dann für ein ganzes Gehirn erforderlich? Eine grobe Schätzung, basierend auf der Annahme von etwa 86 Milliarden Neuronen, würde zu etwa 2,1 Milliarden Terabyte oder 2,1 Zettabyte führen. Zum Vergleich: Die Google Cloud wurde im Jahr 2022 auf 27.000 Terabyte geschätzt.
Eine Momentaufnahme der Struktur
Selbst wenn wir die Struktur eines gesamten menschlichen Gehirns mit einem Elektronenmikroskop erfassen könnten, hätten wir nur eine Momentaufnahme. Dies würde wenig über die Funktionsweise des Gehirns aussagen.
Prioritäten in der Forschung
Es stellt sich die Frage, ob solche Projekte die richtigen Prioritäten für die Forschung setzen. In einer Zeit, in der die Gesellschaft auseinanderdriftet und Polarisierung zunimmt, werden sozialwissenschaftliche Ansätze zur Beantwortung wichtiger gesellschaftlicher Fragen oft vernachlässigt.
Lesen Sie auch: Speicher im menschlichen Gehirn
Die "zweite Natur" des Menschen
Wir Menschen sind zwar verkörpert und biologische Wesen, aber Gesellschaft und Kultur sind uns zur "zweiten Natur" geworden. Diese zweite Natur ist für uns im Alltag von wesentlicher Bedeutung. Die Entscheidung, eine Atombombe einzusetzen, ist beispielsweise ein psychologischer Vorgang, der nicht allein durch physikalische oder ingenieurwissenschaftliche Erkenntnisse erklärt werden kann.
Wie das Gehirn Informationen speichert
Im Gegensatz zu einem Computer, der feste Speicherplätze verwendet, erzeugt das Gehirn Speicherplätze erst beim Lernen. Dies macht das Lernen anstrengend und energieaufwendig. Das Gehirn verwendet Informationen als Adresse und kann so jede Information sofort finden. Nicht benötigte Speicherplätze sind nicht vorhanden und werden erst bei Bedarf angelegt.
Schätzungen der Speicherkapazität
Es gibt keine feste Anzahl von Speicherplätzen im Gehirn. Die maximal mögliche Größe wird nur durch den verfügbaren Raum im Schädel begrenzt. Nach aktuellem Stand der Wissenschaft wird diese Grenze bei weitem nicht erreicht.
Einige Schätzungen gehen davon aus, dass das Gehirn etwa 2 Terabyte speichern kann, wobei ein Teil davon flüchtig ist. Das genaue Speicherverfahren des Gehirns ist jedoch noch nicht vollständig verstanden. Es verwendet wahrscheinlich ein ausgeklügeltes Verfahren, ähnlich einer Komprimierung.
Die Connectom-Forschung: Ein vollständiger Scan des Gehirns
Das Ziel der Connectom-Forschung ist der vollständige Scan eines menschlichen Gehirns. Dies ist jedoch noch Zukunftsmusik. Zellbiologe Lichtman schätzt, dass der Scan eines Kubikmillimeters eines Mäusegehirns Informationen von 1000 Terabyte liefern würde. Für das gesamte menschliche Gehirn wären es eine Million Mal 1000 Terabyte.
Lesen Sie auch: Nutzen wir wirklich nur 10% unseres Gehirns?
Kritik an der Connectom-Forschung
Die Connectom-Idee ist unter Hirnforschern umstritten. Kritiker argumentieren, dass Ressourcen besser in Experimente investiert werden sollten, die das Gehirn bei der Arbeit beobachten. Neurologe Christian Elger ist skeptisch, dass Bahnanalysen allein ausreichen, um das Gehirn zu verstehen.
Die Bedeutung der Vernetzung
Neurophysiologe Wolf Singer betont die Bedeutung der Connectom-Forschung für die Erstellung realistischer Gehirnmodelle. Andere Forscher, wie Alexander Borst, wenden die Methoden der Connectomik an, um herauszufinden, wie das Bewegungssehen in den Nervenzellen von Fliegen funktioniert.
Die Dynamik der Synapsen
Das Gehirn ist dynamischer als bisher angenommen. Die Verbindungen zwischen einzelnen Nervenzellen, sogenannte Synapsen, treten oft in Paaren auf. Die Größenunterschiede zwischen den Synapsen in einem Paar sind gering, aber bedeutsam. Es wird angenommen, dass die Größe einer Synapse in direktem Zusammenhang mit der Stärke der Verbindung zwischen zwei Nervenzellen steht.
Neue Forschungsergebnisse deuten darauf hin, dass es 26 Größen von Synapsen gibt, die 4,7 Bits an Informationen abbilden können. Die Synapsen passen ihre Größe alle 2 bis 20 Minuten dynamisch an.
Lehren für die Computertechnologie
Die Funktionsweise des Gehirns kann uns lehren, wie wir in Zukunft effizientere Computer bauen können.