Gehirn Informationsverarbeitung pro Sekunde: Eine umfassende Analyse

Das menschliche Gehirn ist ein Wunderwerk der Natur, ein komplexes Netzwerk aus etwa 100 Milliarden Nervenzellen, Neuronen genannt, die in ständiger Kommunikation stehen und hochkomplexe Informationen verarbeiten. Dabei verbraucht dieses biologische Netzwerk erstaunlich wenig Energie, gerade einmal 20 Watt. Im Vergleich dazu benötigen moderne Supercomputer, die zwar in der Lage sind, eine viel größere Anzahl an Rechenoperationen pro Sekunde durchzuführen, ein Vielfaches an Leistung. Selbst der Supercomputer Tianhe-2 aus China, der bis zu 890.000-mal mehr Leistung verschlingt, kann das Gehirn und seine Fähigkeiten nicht einmal annähernd simulieren.

Die Einzigartige Architektur des Gehirns

Die Überlegenheit des Gehirns liegt in seiner besonderen Architektur der biologischen Informationsverarbeitung und -speicherung. Während ein Computer Informationen in Form von Bits speichert, die entweder den Zustand 0 oder 1 annehmen können, verfügt das Gehirn über eine viel größere Flexibilität. Computer sind statische Systeme, deren Speicher auf eine permanente Betriebsspannung angewiesen ist, um den Inhalt zu erhalten. Das Gehirn hingegen zeichnet sich durch neuronale Plastizität aus. Nervenzellen, Synapsen (die Verbindungen zwischen den Zellen) und sogar ganze Hirnareale können sich je nach Verwendung verändern. Verbindungen zwischen Neuronen können gestärkt oder geschwächt werden, wodurch sich das Gehirn an neue Aufgaben anpassen oder von Schädigungen erholen kann. Es ist fehlertolerant und abstraktionsfähig, beispielsweise bei der Erkennung von Mustern.

Memristoren als Schlüssel zur Nachbildung des Gehirns

Forscher arbeiten daran, die Lern- und Gedächtnisprozesse des menschlichen Gehirns auf technische Schaltungen zu übertragen. Anstatt eine Simulation zu erstellen, soll eine analoge elektrische Schaltung entstehen, die zelluläre Mechanismen in Neuronen und Synapsen nachbildet. Als natürliches Vorbild dient den Forschenden der Hippocampus, eine Hirnstruktur, die Informationen zu neuen Erinnerungen verarbeitet und Lernen erst möglich macht.

Kernstück dieses Ansatzes sind sogenannte Memristoren (von englisch »memory« (Gedächtnis) und »resistor « (Widerstand)). Das sind Bauteile, deren elektrischer Widerstand davon abhängt, wie viele Ladungen in welcher Richtung durch sie durchgeflossen sind. Der Widerstand ist also über den zeitlichen Verlauf des Stroms einstellbar. »Damit lassen sich auch Zwischenwerte abspeichern, nicht nur Nullen und Einsen«, sagt Doktorand Mirko Hansen. Zudem bleibt die Einstellung auch ohne Energiezufuhr erhalten: ein nicht flüchtiger Speicher also, der wie das Gehirn mehr als zwei Zustände speichern kann.

Synchronisation von Neuronen für verbesserte Informationsverarbeitung

Um den Informationsaustausch zwischen Hirnarealen zu verbessern, senden verschiedene Neuronen elektrische Impulse synchron aus. Dies lässt sich in einem Elektroenzephalogramm (EEG) beobachten, das Hirnströme misst und bei Lern- und Gedächtnisaufgaben regelmäßige Abfolgen von Zickzacklinien zeigt. Einige Neurologinnen und Neurologen gehen sogar davon aus, dass erst der gleiche Rhythmus der Schwingungen der beteiligten Neuronenverbände bewusste Sinneseindrücke ermöglicht.

Lesen Sie auch: Faszination Nesseltiere: Wie sie ohne Gehirn leben

Sinneseindrücke werden im Gehirn aufgeteilt. Wenn ein Mensch beispielsweise einen roten Ball von links nach rechts vorbeifliegen sieht, werden mehrere kleine neuronale Netzwerke aktiv. Ein Bereich signalisiert »etwas Rotes«, ein anderer »etwas Rundes«, ein dritter »eine Bewegung von links nach rechts«. Die Forscher versuchen, die einzelnen Elemente ihrer Schaltungen über Gedächtniselemente so zu koppeln, dass sie im Einklang schwingen, um dem System später das Erkennen und Abstrahieren von Mustern zu ermöglichen.

Die Geschwindigkeit des Denkens: Ein Vergleich mit Computern

Die Geschwindigkeit des menschlichen Denkens wurde von Neurowissenschaftlern untersucht, indem sie die Informationstheorie anwendeten. Diese Theorie ermöglicht es, den Informationsgehalt von Daten zu messen, beispielsweise in Mega- oder Gigabyte. Ein RGB-Farbbild mit 500 x 500 Pixeln enthält beispielsweise eine große Menge an Information, da jedes Pixel einen von 16 Millionen möglichen Farbwerten hat. Im Vergleich dazu enthält ein Rubik's Cube mit seinen 54 Feldern und sechs verschiedenen Farben eine relativ geringe Menge an Information.

Die überraschende Langsamkeit des menschlichen Denkens

Die Ergebnisse dieser Untersuchungen zeigen, dass die Geschwindigkeit, mit der wir komplexe Probleme lösen, überraschend langsam ist. Selbst Weltrekordhalter im Lösen des Rubik's Cube verarbeiten Informationen mit einer Geschwindigkeit von nur etwa 11,8 Bit pro Sekunde. Im Vergleich dazu können moderne Computer ein Milliardenfaches an Information in derselben Zeit verarbeiten.

Auch in anderen Bereichen, wie beispielsweise der Geschwindigkeit, mit der wir Sprache verarbeiten oder Tetris spielen, erreichen selbst die schnellsten Denkerinnen und Denker selten mehr als 50 Bit pro Sekunde. Dies ist erstaunlich, da das Gehirn eigentlich viel mehr können sollte.

Die Diskrepanz zwischen Kapazität und Leistung

Die Nervenbahn, die die Augen mit der Sehrinde im Gehirn verbindet, kann Berechnungen zufolge bis zu 100 Millionen Bit pro Sekunde verarbeiten. Das Gehirn enthält in Summe ungefähr 50 bis 100 Milliarden Nervenzellen, von denen jede einzelne zehn Bit oder mehr pro Sekunde verarbeiten kann. Warum denken wir also trotz einer so beeindruckenden Rechenleistung vergleichsweise langsam?

Lesen Sie auch: Lesen Sie mehr über die neuesten Fortschritte in der Neurowissenschaft.

Ein Grund dafür könnte sein, dass wir einen Teil unserer Rechenkapazität dafür nutzen, andere Handlungsimpulse zu unterdrücken und Störfaktoren herauszufiltern. Solche Aufgaben werden bei der Berechnung der Informationsrate jedoch nicht berücksichtigt. Trotz dieser Einwände bleibt die Feststellung bestehen, dass die theoretische Kapazität des Gehirns die tatsächliche Leistung um das Hundertmillionenfache übersteigt.

Evolutionäre Gründe für die Langsamkeit des Denkens

Ein weiterer Grund für die vergleichsweise langsame Geschwindigkeit des menschlichen Denkens könnte in der Evolution liegen. Es gab keinen fundamentalen Grund, warum wir nicht doppelt oder dreimal so schnell sein könnten, aber evolutionär war dies nicht notwendig. Wir haben es auch so geschafft, den größten Gefahren auszuweichen und ausreichend Beute zu fangen.

Für die Welt der Zukunft könnte unsere geistige Trägheit allerdings nicht mehr genügen. Maschinen werden in vielen Aufgaben besser sein als Menschen, da sich ihre Leistungsfähigkeit kontinuierlich verdoppelt, während die des Menschen konstant bleibt.

Die Arbeitsweise des Gehirns: Parallelität und Komplexität

Das menschliche Gehirn besteht aus etwa 80 Milliarden Nervenzellen, die alle gleichzeitig arbeiten. Statt von einer einzigen Welle muss man eher von 80 Milliarden einzelnen Kanälen im gesamten Gehirn ausgehen, die alle Informationen transportieren. Die Zellen des Gehirns schicken sich gegenseitig einzelne elektrische Impulse.

Latenz und Bandbreite

Um die Informationsverarbeitungsgeschwindigkeit des Gehirns zu bestimmen, muss man zwischen Latenz und Bandbreite unterscheiden. Latenz gibt die Zeit an, die beispielsweise ein optischer Reiz benötigt, um vom Auge in den visuellen Cortex zu gelangen. Diese Zeit ist messbar und beträgt beim Menschen etwa 50 oder 60 Millisekunden. Die Bandbreite gibt die Informationsmenge an, die parallel von Nervenzellen gesendet wird.

Lesen Sie auch: Tinnitus und Gehirnaktivität: Ein detaillierter Einblick

Für die Leitung von Informationen durch den Sehnerv zum visuellen Cortex ergibt sich folgende Rechnung: (100 000 Nervenzellen im Sehnerv)*(elektrische Reize /Sekunde für eine Nervenzelle). Dabei kommen dann zirka 1-200 000 Bit/s (1-2mBit) heraus. Für komplexe Denkprozesse lässt sich jedoch keine zuverlässige Informationsmenge in Form von Bits pro Sekunde angeben, da hier zu viele Variablen involviert sind.

Massive Parallelität als Schlüssel zur Komplexität

Die Komplexität der Informationsverarbeitung des Gehirns beruht vermutlich auf großen Zahlen - und nicht auf hoher Geschwindigkeit. Systeme, die Komplexität aus extrem vielen vernetzten Übertragungselementen erzeugen, bezeichnet man auch als massiv parallel. Parallelität ist ein aktuelles und stark wachsendes Arbeitsgebiet der modernen Informationstechnologie.

Es liegt nahe, solche Systeme einzusetzen, um neuronale Netzwerke zu simulieren und besser zu verstehen. Dies geschieht derzeit in einer Reihe von Forschungsprojekten, wie beispielsweise dem BlueBrain-Projekt des Neurowissenschaftlers Henry Markram.

Neue Erkenntnisse über ultraschnelle Kalziumpumpen

Forschende haben den Mechanismus ultraschneller Kalziumpumpen in Nervenzellen entschlüsselt. Diese sogenannten PMCA2-Neuroplastin-Komplexe arbeiten mit mehr als 5.000 Zyklen pro Sekunde und beenden Kalziumsignale im Millisekundenbereich - und damit 100-mal schneller als bisher bekannt. Damit tragen sie entscheidend zur schnellen Informationsverarbeitung im Gehirn bei.

Die Rolle von Kalzium bei der Signalübertragung

Kalzium spielt eine wichtige Rolle bei der Signalübertragung in Nervenzellen. Es löst elektrische Signale aus, die für Prozesse wie Denken, Hören oder Bewegen erforderlich sind. Ein unausgeglichener Kalziumspiegel kann die Zellfunktion stören und langfristig Krankheiten begünstigen, darunter erblich bedingte Taubheit.

Deshalb ist es entscheidend, dass die Zellen Kalzium nach jedem Signal schnell und präzise wieder abpumpen. Diese Aufgabe übernehmen Komplexe aus einer Plasmamembran-Kalzium-Adenosintriphosphatase (ATPase)-Untereinheit und einem Neuroplastin-Protein, sogenannte Kalziumpumpen.

Der Mechanismus ultraschneller Kalziumpumpen

Die kryo-elektronenmikroskopischen Analysen zeigen, dass die Kalziumpumpen mit dem Membranlipid PtdIns(4,5)P2 zusammenwirken. Dessen Bindung erlaubt Schlüsselschritte im Transportzyklus, etwa die schnelle Bindung und Abgabe der Kalziumionen und ermöglicht so die außergewöhnlich hohe Pumpleistung. Ohne diese Lipidbindung verlangsamt sich der Transport massiv.

Die Bedeutung von Millisekunden für die Reizfilterung

Bremer Forscher haben die Grundlage entdeckt, wie das Gehirn Wichtiges von Unwichtigem trennt. Dabei ist nicht nur der Inhalt einer Botschaft entscheidend, sondern auch ihr exakter Zeitpunkt. Nur wenn ein Nervensignal im richtigen Moment ankommt, erreicht es die nächste Schaltstelle im Gehirn.

Gamma-Band-Schwingungen als Gatekeeper

Ein Forschungsteam hat gezeigt, dass die Gamma-Band-Schwingungen im Gehirn die Gatekeeper dafür sind, welche Signale Nervenzellen weiterleiten. Dieses Wissen ist entscheidend, um zu verstehen, wie wir in einer lauten Umgebung einer einzelnen Person zuhören oder blitzschnell auf ein plötzlich auftauchendes Hindernis reagieren können.

Bewusstsein in Intervallen

Wissenschaftler stellen ein neues Modell vor, das erklärt, wie das Gehirn unbewusste visuelle Informationen verarbeitet. Gemäss diesem Modell ist das Bewusstsein nur in Intervallen von bis zu 400 Millisekunden aktiv, dazwischen nehmen wir nichts bewusst wahr. Das Gehirn verarbeitet bestimmte Merkmale von Gegenständen, etwa Farbe oder Form, und analysiert diese quasi kontinuierlich und unbewusst mit einer sehr hohen Zeitauflösung.

tags: #Gehirn #Informationsverarbeitung #pro #Sekunde