Bit Leistung Gehirn Einfach Erklärt: Ein Blick auf Kapazität, Geschwindigkeit und die Zukunft des Denkens

Unsere moderne Welt ist von Technologie durchdrungen. Smartphones wissen, wo unser Auto parkt, Computer steuern Fabriken und Künstliche Intelligenz (KI) könnte eines Tages Behandlungen für seltene Krankheiten entdecken. Doch wie steht es um die Leistung unseres eigenen Gehirns im Vergleich zu diesen technologischen Fortschritten? Dieser Artikel beleuchtet die Rechenleistung des Gehirns, seine Grenzen und die spannenden Entwicklungen in der Computertechnologie, die von seiner Funktionsweise inspiriert sind.

Die Grenzen der Von-Neumann-Architektur

Die meisten Computer basieren heute auf der von-Neumann-Architektur. Diese Architektur ist ideal für präzise Berechnungen komplexer Modelle und hat sich über Jahrzehnte bewährt. Um jedoch immer größere Datenmengen zu verarbeiten, sind technologische Fortschritte wie 3D NAND erforderlich, um die physikalischen Grenzen zu erweitern.

Die von-Neumann-Architektur stößt jedoch an ihre Grenzen, insbesondere im Bereich der Künstlichen Intelligenz. KI-Anwendungen erfordern eine enorme Anzahl an Rechenoperationen, die gleichzeitig auf große Datenmengen zugreifen müssen. Die von-Neumann-Architektur ist für diese Art von Aufgaben nicht ideal, insbesondere im Hinblick auf Energieeffizienz.

Neuromorphe Computer: Lernen vom Gehirn

Um die Grenzen der von-Neumann-Architektur zu überwinden, arbeiten Forschungsinstitute und Unternehmen an neuen Computing-Technologien, die vom menschlichen Gehirn inspiriert sind. Neuromorphe Computer sind eine vielversprechende Technologie.

Wie das menschliche Gehirn müssen neuronale Netze, die aus neuromorphen Chips bestehen, extrem flexibel sein und sich intuitiv in einer unvorhersehbaren Umgebung zurechtfinden. Sie lernen aus Erfahrungen, indem sie Netzwerke mit erlernten Daten für Problemlösungen nutzen, die sie zuvor noch nicht gesehen haben. Dies erfordert eine enorme Rechenintensität und wird ermöglicht, indem neuromorphe Chips gleichzeitig Daten speichern und verarbeiten können - ebenso wie dies die Neuronen und Synapsen des menschlichen Gehirns tun.

Lesen Sie auch: Die Rolle des Gehirns im Sport

Im Gegensatz dazu arbeiten herkömmliche Computer Befehle sequentiell ab und schieben Datenpakete zwischen Speicher und Prozessor hin und her. Neuromorphe Chips sind daher nicht nur schneller, sondern auch extrem energieeffizient.

Allerdings wird es noch dauern, bis neuromorphe Computer die Intelligenz des menschlichen Gehirns erreichen. Das menschliche Gehirn besitzt etwa 90 Milliarden Neuronen, die mit Billionen von Synapsen verbunden sind, und hat eine Rechenleistung von etwa 4 bis 5 Petabytes. Aktuelle neuromorphe Computer haben etwa 100 Millionen künstliche Neuronen - nur ein Tausendstel der Anzahl der Nervenzellen im Gehirn.

Quantencomputer: Eine weitere Revolution

Quantencomputer werden ebenfalls ein disruptives Potenzial zugeschrieben. Im Gegensatz zu von-Neumann-Computern, die mit klassischen binären Bits (0 oder 1) arbeiten, verwenden Quantencomputer Qubits, die erheblich mehr Informationen verarbeiten können. Diese miteinander verbundenen Qubits ermöglichen Quantencomputern, Rechenoperationen und Berechnungen für hochkomplexe Modelle in einer noch nie dagewesenen Geschwindigkeit durchzuführen.

Es wird erwartet, dass die von-Neumann-Architektur neben Quanten- und neuromorphen Computern weiterhin bestehen wird, da jede dieser Technologien in bestimmten Bereichen besondere Vorteile bietet.

Die überraschende Langsamkeit des Denkens

Trotz der immensen Komplexität und Leistungsfähigkeit des Gehirns ist die Geschwindigkeit, mit der wir denken, überraschend langsam. Studien zeigen, dass das menschliche Gehirn Informationen mit nur etwa 10 Bits pro Sekunde verarbeitet.

Lesen Sie auch: Strategien für ein starkes Gedächtnis

Obwohl unsere Sinnesorgane Daten mit Billionen von Bits pro Sekunde erfassen, verarbeitet das Gehirn nur einen winzigen Bruchteil davon. Statt alles aufzunehmen, filtert das Gehirn rigoros und wählt aus Billionen von Bits die 10 Bits aus, die wirklich relevant sind.

Diese Langsamkeit des Denkens schützt uns vor Überforderung. Unsere Vorfahren nutzten ihr Gehirn hauptsächlich, um sich in ihrer Umgebung zu orientieren, Nahrung zu finden oder Raubtiere zu meiden. Diese "Ein-Pfad-Strategie" hat sich offenbar bis heute erhalten.

Diese Einschränkung zeigt sich besonders bei komplexen Aufgaben wie Schachspielen. Spieler können sich nur eine mögliche Zugabfolge nach der anderen vorstellen - ein paralleles Durchdenken mehrerer Szenarien ist unmöglich. Multitasking ist also ein Mythos.

Interessanterweise wurden die 10 Bits pro Sekunde oft gar nicht voll ausgeschöpft. Unsere Vorfahren lebten in einer vergleichsweise gemächlichen Welt, in der sich Veränderungen langsam genug abspielten, um mit der Denkgeschwindigkeit Schritt zu halten.

Die Stärke der Langsamkeit

In unserer heutigen, beschleunigten Welt stellt sich die Frage, ob das Gehirn mit der rasanten Entwicklung von Technologie und Informationen mithalten kann. Die Antwort der Wissenschaftler ist beruhigend: Die Langsamkeit des Denkens ist kein Nachteil, sondern eine Stärke.

Lesen Sie auch: Definition komplexer Leistung

Gerade in unserer hektischen Welt bietet die Langsamkeit des Denkens Stabilität. Sie erlaubt es uns, Prioritäten zu setzen, überlegt zu handeln und auch in Stresssituationen Entscheidungen zu treffen, die auf das Wesentliche fokussiert sind.

Die Idee, durch Gehirn-Computer-Schnittstellen das Denktempo zu erhöhen, ist unrealistisch. Selbst mit einer direkten Verbindung zu einem Computer könnte das Gehirn Informationen nicht schneller verarbeiten. Egal, wie sehr wir die Technologie vorantreiben, das Gehirn bleibt seinem Tempo treu.

Die Komplexität der Informationsspeicherung im Gehirn

Die Frage, wie viel Information das Gehirn speichern kann, ist komplex und nicht einfach zu beantworten. Es ist sinnlos, die "Datenmenge im Gehirn" in Bits abschätzen zu wollen.

Der Informationsgehalt eines Bits basiert auf der Auswahl aus zwei möglichen, gleich wahrscheinlichen Zuständen (0, 1) in digitalen Systemen. Die Annahme, unser Gehirn würde nach ähnlichen Prinzipien arbeiten, ist irrig.

Aktionspotenziale, die oft als Evidenz für eine digitale Arbeitsweise des Gehirns herangezogen werden, sind nicht mit einer 1-0-Kodierung zu vergleichen. Das Nicht-Auftreten eines Aktionspotenzials kann nicht als "0" gewertet werden, da es keine universelle Taktfrequenz in unserem Gehirn gibt. Aktionspotenziale haben unterschiedliche Höhen, unterschiedliche Anstiegsflanken und unterschiedliche Dauer, was zu unterschiedlichen Auswirkungen auf das Einströmen von Kalzium-Ionen in den Synapsen führt.

Synapsen funktionieren nicht digital, sondern sind dynamische, analoge und durch vielfältige Prozesse variierbare Strukturen. Auch das räumliche und zeitliche Aufsummieren synaptischer Eingänge im postsynaptischen Neuron erfolgt analog und kann wiederum in vielfältiger Weise moduliert werden.

Die "Volume Transmission", die axonale, aber nicht synaptische Ausschüttung von Neurotransmittern oder modulatorischer Substanzen im Umfeld von Neuronen, lässt sich nicht in Bitraten fassen, spielt aber eine sehr wichtige Rolle bei der Verarbeitung von Signalen innerhalb des Gehirns.

Predictive Coding: Das Gehirn spricht mit sich selbst

Viele Neurowissenschaftler sehen das Prinzip des "predictive coding" als einen der wichtigsten konzeptionellen Schritte zum Verständnis der Arbeitsweise unseres Gehirns an. Das Gehirn spricht also weitestgehend mit sich selbst, bildet Hypothesen darüber, was da draußen gerade vor sich geht und filtert entsprechend die einlaufenden "Informationen". Bitraten können hierzu nur wenig beitragen.

Es ist offensichtlich, dass sich ein Netzwerk aus rund 1.000 Milliarden Nervenzellen nicht ohne weiteres durch ein analytisches mathematisches Modell beschreiben lässt.

1.000 Milliarden Neuronen mit einer Feuerrate von einem Hertz erzeugen pro Sekunde eine Informationsmenge von 2.500 Gigabyte, wenn man für die Beschreibung von Ort und Zeit eines Aktionspotentials einen Informationsbedarf von nur 20 Bits ansetzt. Diese Information ist auf irgendeine Weise für das verantwortlich, was wir als die erstaunliche Leistung des Gehirns bezeichnen. Die Komplexität der Informationsverarbeitung des Gehirns beruht also vermutlich auf großen Zahlen - und nicht auf hoher Geschwindigkeit.

Parallele Verarbeitung und die TOP-500-Liste

Systeme, die Komplexität aus extrem vielen vernetzten Übertragungselementen erzeugen, bezeichnet man auch als massiv parallel. Parallelität ist ein aktuelles und stark wachsendes Arbeitsgebiet der modernen Informationstechnologie.

Im Wettbewerb um den leistungsfähigsten Cluster der Welt wird alljährlich die „TOP-500-Liste“ kreiert. Es liegt nahe, solche Systeme einzusetzen, um neuronale Netzwerke zu simulieren und besser zu verstehen. Dies geschieht derzeit in einer Reihe von Forschungsprojekten. Am bekanntesten ist vermutlich das an der „Ecole Polytechnique Fédérale de Lausanne“ gerade begonnene BlueBrain-Projekt des Neurowissenschaftlers Henry Markram.

Schätzungen der Speicherkapazität des Gehirns

Noch vor ein paar Jahren, als die PCs noch schwach waren, schätzte man die Speicherkapazität des menschlichen Gehirns auf 20 MB bis maximal 100 MB ein. Später waren es ca. 400 MB bis 1 GB. Heute wird die Kapazität bis zu 1 Petabyte geschätzt. Das sind 1.000.000 Gigabyte oder ungefähr 200.000 hochaufgelöste Hollywoodfilme.

In Wirklichkeit kann es niemand genau sagen. Vor allem ist es schwierig das Gedächtnis in MB oder GB einzuteilen, weil MB und GB abhängig sind von Byte (= 8 Bits = 8 Nullen und Einsen). Das Gehirn arbeitet auf der Basis von synaptischen Verbindungen, deren Funktionsweise von der Wissenschaft noch nicht logisch erklärt werden kann.

Das Problem ist außerdem, dass wir noch gar nicht wissen, wie Informationen im Gehirn genau gespeichert werden. Bislang existieren nur Theorien, ob es Muster sind, wie von manchen angenommen, oder chemische Bindungen. Das alles ist noch ein unbekanntes Feld.

Wie viele Einzelinformationen müssen im Gehirn gespeichert werden, um sich an den Duft einer ganz speziellen Zitrone erinnern zu können?

Savants und das ungenutzte Potential

„Unsere Großhirnrinde als Sitz des bewusstseinsfähigen Gedächtnisses enthält eine halbe Trillionen Kontaktpunkte (Synapsen). Wir wissen, dass unser Gedächtnis in synaptischen Kopplungsstärken kodiert ist. Jede Synapse kann ca. 10 verschiedene Aktivitätsstufen annehmen. Also noch mal 10-mal eine halbe Trillionen. Und per Kombinatorik können Sie alles speichern - auch jedes Molekül im Weltall. Wenn dem so ist, stellt sich nur noch die Frage, wie wir dieses gigantische Potential anzapfen können."

Einige wenige Menschen auf diesem Planeten sind dazu in der Lage, sogenannte Savants (franz. savoir = wissen). Sie können alles in ihrem Leben Wahrgenommene im Gehirn speichern und auch im Detail wiedergeben.

Bewusstes und Unbewusstes Denken

Im neurowissenschaftlichen Sprachgebrauch wird der Teil des Gehirns, der intuitiv arbeitet, als System 1 bezeichnet, während der bewusste Teil als System 2 bezeichnet wird.

Wissenschaftler haben versucht zu ergründen, warum wir so langsam und nur eins nach dem anderen denken können, obgleich das Gehirn auch zur massiven Parallelverarbeitung von Daten imstande ist.

Wenn wir von Denken sprechen, meinen wir bewusstes Denken. Wir wissen, dass wir denken. Wir wissen auch, dass wir nicht Dutzende verschiedener Gedanken gleichzeitig prozessieren können, sondern wahrscheinlich nur einen oder abwechselnd den einen oder anderen, mehr oder weniger gefärbt durch Emotionen.

Bewusstsein, man könnte vielleicht auch konkreter von gerichteter Aufmerksamkeit sprechen, ist ein Flaschenhals, durch den nur wenig gefiltert durchkommt, was im Gehirn verarbeitet wird. Und die Bandbreite oder Datenübertragungsrate ist erschütternd gering oder schneckig: gerade einmal 10 Bits/s.

Was ist der evolutionär entwickelte kognitive Gewinn, aus einer riesigen Datenmenge, die von mehr als 80 Milliarden Neuronen aufgenommen und prozessiert wird, nur ein Rinnsal zur Kenntnis zunehmen, was auch heißt, nicht wirklich zum Multitasking fähig zu sein, sondern bestenfalls schnell zwischen zwei oder mehr Gedanken nacheinander zu switchen? Dabei wird wahrscheinlich eine große neuronale Leistung erbracht, um die Daten so stark zu filtern oder ein solches Tempolimit einzuhalten. Der Unterschied, so wollen die Autoren die Bedeutung herausstreichen, könnte „die größte unerklärte Zahl der Neurowissenschaft“ sein.

Messung der Denkgeschwindigkeit

Die Bandbreite wird von den Wissenschaftlern nach informationstheoretischen Gesichtspunkten allerdings nur abgeschätzt, ausgehend davon, wie schnell auf einer Tastatur Buchstaben eingegeben werden können. Das könnte auf 120 Worte pro Minute begrenzt werden durch die Langsamkeit der Fingermotorik.

Im Vergleich verweisen die Autoren darauf, dass die ideale Geschwindigkeit für das Verstehen von Anweisungen etwa 160 Worte pro Minute betrage, was mit 13 Bits/s schneller wäre als Tippen. Verglichen werden weitere Aufgaben wie das Lösen des Rubik-Würfels mit blinden Augen (11,8 Bits/s) oder das Erinnern der Reihenfolge von Karten (17,7 Bits/s), motorische Aufgaben im Labor (10-12 Bits/s), Lesen (28-45 Bits/s) oder Sprechen (39 Bits/s).

Die Variation ist also relativ groß, die Wissenschaftler gehen von 10-20 Bits/s aus und vergleichen dies mit der Verarbeitungsgeschwindigkeit von sensorischen Zellen im Auge. Optische Nerven könnten um die 100 Megabits/s prozessieren.

„Das Beispiel der retinalen Ganglienzellen zeigt, dass einzelne Neuronen Hunderte von Bits pro Sekunde übertragen können, wenn sie zu hohen Feuerraten angetrieben werden. In der Hirnrinde von Säugetieren ist die durchschnittliche Feuerungsrate eines Neurons sehr niedrig, typischerweise einige wenige Spikes pro Sekunde. Doch selbst unter diesen Bedingungen überträgt ein einzelnes Neuron ∼10 Bits/s - das entspricht dem Informationsdurchsatz eines ganzen Menschen.“

Und wenn man ausrechnet, wie viele Informationen damit gespeichert werden können, kommen die Wissenschaftler bei 24/7 in 100 Jahren auf 5 GB, wobei das Gehirn theoretisch eine Kapazität von 50 TB hätte.

Periphere Datenverarbeitung geschieht im Gegensatz zur zentralen, die seriell arbeitet, massiv parallel. Daher können hier viel mehr Daten prozessiert werden.

Die 10 Bits/s sind übrigens nur die maximale Bandbreite, die man im normalen Leben nicht benötigt. Deswegen suchen manche Menschen nach beschleunigten Umgebungen durch Sport, Rasen oder Computerspiele, um an die Grenzen der Verarbeiten zu gehen, was einen Thrill auslöse. Messungen bei anderen Lebewesen gebe es nicht.

Klar sei nur, dass Maschinen schneller sein werden, sie bräuchten also auch eine andere Umgebung als die menschliche Umwelt, die auf 10 Bits/s angelegt ist.

„Die Diskussion darüber, ob autonome Autos im Straßenverkehr eine Leistung auf dem Niveau des Menschen erreichen werden, erscheint daher schon sehr nostalgisch zu sein: Straßen, Brücken und Kreuzungen sind allesamt für Lebewesen ausgelegt, die mit 10 Bit/s arbeiten. Wenn der letzte menschliche Fahrer in den Ruhestand geht, können wir die Infrastruktur für Maschinen mit einer Rechenleistung von Kilobit/s aktualisieren. Bis dahin wird man den Menschen raten, sich von diesen ökologischen Nischen fernzuhalten, so wie Schnecken die Autobahnen meiden sollten.“

Die Suche nach Erklärungen für den Flaschenhals

Bislang gibt es, so die Wissenschaftler, keine begründete Erklärung für den Flaschenhals oder die langsame serielle Verarbeitung des Inputs des „äußeren Gehirns“ durch das „innere Gehirn“. Beide arbeiten im wesentlichen mit denselben Neuronen, aber während die eine Milliarde Neuronen im primären visuellen Cortex visuelle Daten in 10.000 parallelen Modulen verarbeitet, beschäftigt sich die „eine Milliarde Neuronen im präfrontalen Kortex nur mit einer Handvoll langsamer Variablen wie Regeln und Werten, die mit der gerade anstehenden Aufgabe verbunden sind“.

Die Langsamkeit des „inneren Gehirns“ könnte oder sollte auch Auswirkungen für Gehirn-Computer-Schnittstellen haben. Die Wissenschaftler sagen zu Elon Musks Vorstellung, mit vielen Verbindungen Gehirne und Computer zu verbinden, dass dies ein falscher Zugang sein dürfte: „Auf der Grundlage der hier geprüften Forschungsergebnisse zur menschlichen Wahrnehmungsgeschwindigkeit sagen wir voraus, dass Musks Gehirn mit dem Computer mit etwa 10 Bits/s kommunizieren wird. Anstelle des Bündels von Neuralink-Elektroden könnte Musk einfach ein Telefon benutzen, dessen Datenrate auf die menschliche Sprache abgestimmt ist, die wiederum auf die Geschwindigkeit der Wahrnehmung und Kognition abgestimmt ist.“ Fragt sich nur, mit welchen Arealen das Telefon verbunden werden müsste.

Zu vermuten ist, dass die geringe Bandbreite die für Entscheidungen notwendige Verknappung der Optionen zu tun hat, die stets nacheinander getroffen werden müssen und die auch körperlich bedingt sind. Wir können uns nicht in alle oder mehrere Richtungen gleichzeitig bewegen, sondern müssen jeweils entscheiden, wohin wir gehen. Ähnlich dürfte es für die Denkwege sein, also dass wir nur jeweils in eine Richtung denken, aber durchaus schnell umschalten und switchen können.

Gehirn-Computer-Schnittstellen zum Tippen

Wer seine Hände nicht zum Tippen einsetzen kann, beispielsweise wegen einer schweren Krankheit, kann stattdessen auch nur sein Gehirn benutzen: Spezielle Geräte erkennen allein anhand von EEG-Signalen, welche Buchstaben der Benutzer auswählen möchte.

tags: #bit #leistung #gehirn