Gehirn und Computer im Vergleich: Eine Gegenüberstellung

Kann man das menschliche Gehirn mit einem Computer vergleichen? Diese Frage beschäftigt Wissenschaftler und Philosophen seit Jahrzehnten. Auf den ersten Blick scheinen beide Systeme Informationen zu verarbeiten, zu speichern und auszugeben. Doch bei genauerer Betrachtung offenbaren sich fundamentale Unterschiede in Struktur, Funktionsweise und Leistungsfähigkeit.

Gemeinsamkeiten und Unterschiede in den Eigenschaften

Das Gehirn und der Computer weisen sowohl Gemeinsamkeiten als auch Unterschiede auf. Die folgende Tabelle stellt typische Eigenschaften des Gehirns und des Computers einander gegenüber:

EigenschaftGehirnComputer
Anzahl der Neuronen/Transistorenca. $10^{11}$ NeuronenMilliarden von Transistoren
Rechengeschwindigkeit einzelner Schaltvorgängelangsam (ca. $10^{-3} s$)schnell (ca. $10^{-9} s$) (> 1 Millionen mal schneller als das Gehirn)
Rechengeschwindigkeit des Gesamtsystemsca. $10^{12} /s$viel höher
Fehlertoleranzhochgering
Energieverbrauchgering (ca. 20 Watt)hoch
Lernfähigkeithochbegrenzt
Anpassungsfähigkeithochgering
Parallelverarbeitungmassiv parallelparallel (in Clustern)

Die "Weizenkornlegende" und das "Moore'sche Gesetz"

Die rasante Entwicklung der Informationstechnologie lässt sich erstaunlicherweise mit der "Weizenkornlegende" vergleichen. Diese Legende erzählt von Sissa ibn Dahir, der dem Herrscher das Schachspiel vorstellte und sich als Wunsch ein Weizenkorn auf das erste Feld des Schachspiels und eine Verdopplung der Gabe bis zum Feld 64 wünschte. Dieser Wunsch erwies sich als unerfüllbar, da die Menge an Weizenkorn alle vorstellbaren Grenzen sprengte.

Ähnlich verhält es sich mit dem "Moore'schen Gesetz", einem Potenzgesetz, das besagt, dass sich die Rechenleistung und die Dichte von Transistoren in einem relativ kurzen Zeitraum von etwa zwei Jahren verdoppeln. Diese Entwicklung wirft die Frage auf, ob wir in der Informationstechnologie bereits auf den letzten Feldern des Schachbretts angekommen sind. Moderne technische Entwicklungen deuten jedoch darauf hin, dass das Ende in absehbarer Zeit noch nicht in Sicht ist.

Wie lernt das Gehirn?

Um zu verstehen, wie das Gehirn lernt, ist es notwendig, neuronale Netze von höchster Komplexität zu simulieren. Die Idee für diesen Ansatz ist nicht neu, und entscheidende Vorarbeiten zur technischen Realisierung wurden bereits Mitte des 19. Jahrhunderts geleistet.

Lesen Sie auch: Anwendungen und Ethik von BCI

Das Gehirn enthält keinen fertigen Satz bereits vordefinierter Software-Algorithmen, sondern muss sich in einem Prozess der Selbstorganisation an die jeweiligen Lebenssituationen anpassen. Durch Lernprozesse kann es zu bemerkenswerten Leistungen befähigt werden. Unser Gehirn versetzt uns in die Lage, mit völlig neuen und unerwarteten Situationen fertig zu werden - eine Aufgabe, an der konventionelle Computer regelmäßig scheitern.

Unterschiede in der Struktur und Funktionsweise

Noch bemerkenswerter werden die Unterschiede zwischen biologischer und elektronischer Informationsverarbeitung, wenn man sich die mikroskopische Struktur der beiden Systeme ansieht. Das von Ingenieuren entworfene künstliche Computersystem besteht aus unterschiedlichen, hoch spezialisierten Einheiten, etwa verschiedenen Speichertypen und Rechenwerken. Diese Einheiten tauschen binäre Daten (also Nullen und Einsen) untereinander aus, die sowohl Informationen als auch Instruktionen für deren Verarbeiten repräsentieren. Die Rechenregeln für das Bearbeiten dieser binären Daten werden durch die Algebra beschrieben, die der Mathematiker George Boole im Jahr 1847 ersonnen hat. Das Austauschen und Verarbeiten der binären Daten erfolgt dabei strikt synchron in einer Frequenz, deren Takt von einer zentralen Uhr vorgegeben wird. Die Schnelligkeit dieser zentralen Taktgeber hat in den letzten Jahren stark zugenommen und liegt heute bei einigen Milliarden Zyklen pro Sekunde. Diese Einheit bezeichnet man als Gigahertz (GHz). Aufgrund des synchronen Taktes lässt sich der Zustand eines solchen Computers zu jedem beliebigen Zeitpunkt vollständig speichern und auf andere Systeme übertragen.

Die etwa 1012 (1000 Milliarden) Nervenzellen (Neuronen) des Gehirns sind über etwa 1015 (1000 mal 1000 Milliarden) synaptische Verbindungen miteinander verknüpft. Die räumliche Distanz zwischen den Nervenzellen wird dabei durch ein Netzwerk von Axonen (wegleitende Verbindungen) und Dendriten (hinleitende Verbindungen) überwunden. Der Kortex ist einige Millimeter dick und weist durchgehend sechs Schichten auf mit jeweils charakteristischen Zelltypen und Verbindungsstrukturen.

Bemerkenswert ist, dass die Kommunikation zwischen den Nervenzellen - genau wie beim Computer - zumindest teilweise mithilfe standardisierter elektrischer Pulse erfolgt. Solche so genannten Aktionspotenziale oder „Spikes“ entsprechen relativ geringen elektrischen Spannungen (etwa 0,1 Volt) und sind verglichen mit dem elektronischen Vorbild sehr langsam. Das Ein- und Ausschalten eines solchen Pulses dauert immerhin eine tausendstel Sekunde; viel häufiger als etwa zehn Mal pro Sekunde sendet eine typische Nervenzelle nicht. Die standardisierten Pulse legen auf den ersten Blick einen direkten Vergleich mit dem Computer nahe - es gibt jedoch einen zentralen Unterschied: Der mögliche Zeitpunkt für das Aussenden eines Aktionspotenzials ist im biologischen System nicht durch einen zentralen Takt vorgegeben.

Die Komplexität der Informationsverarbeitung im Gehirn

Die Komplexität der Informationsverarbeitung des Gehirns beruht also vermutlich auf großen Zahlen - und nicht auf hoher Geschwindigkeit. Systeme, die Komplexität aus extrem vielen vernetzten Übertragungselementen erzeugen, bezeichnet man auch als massiv parallel. Parallelität ist ein aktuelles und stark wachsendes Arbeitsgebiet der modernen Informationstechnologie.

Lesen Sie auch: Faszination Nesseltiere: Wie sie ohne Gehirn leben

Das Verknüpfen von Computern zu sehr großen Clustern, die aus zehntausenden von Einzelrechnern bestehen, erlaubt es heute, das Wetter, Verbrennungsprozesse oder Wirtschafts- und Sozialsysteme zu analysieren. Im Wettbewerb um den leistungsfähigs­ten Cluster der Welt wird alljährlich die „TOP-500-Liste“ kreiert, die derzeit von einem IBM-BlueGene/L-Rechner am amerikanischen Lawrence Livermore Laboratory mit 131 072 Prozessoren angeführt wird. Es liegt nahe, solche Systeme einzusetzen, um neuronale Netzwerke zu simulieren und besser zu verstehen. Dies geschieht derzeit in einer Reihe von Forschungsprojekten. Am bekanntesten ist vermutlich das an der „Ecole Polytechnique Fédérale de Lausanne“ gerade begonnene BlueBrain-Projekt des Neurowissenschaftlers Henry Markram. Ihm stehen achttausend IBM-Prozessoren zur Verfügung, um große Netzwerke zu simulieren. Offensichtlich sind aber selbst einhunderttausend Prozessoren noch zu wenig - verglichen mit 1012 Nervenzellen im Kortex.

Alternative Ansätze zur Simulation neuronaler Netze

Ein alternativer Ansatz zur Simulation neuronaler Netze höchster Komplexität besteht darin, elektronische Schaltungen zu bauen, die wie Zellen und biologische Netzwerke funktionieren. Die Idee für diesen Ansatz geht auf den Physiker Carver Mead zurück, der in den 1980er Jahren solche Systeme am „California Institute of Technology“, kurz CalTech, gebaut hat.

Im einfachsten Modell ist eine Nervenzelle ein elektrischer Kondensator mit einem parallel geschalteten Widerstand. Die Ruhespannung wird durch eine Batterie definiert, die erregenden und hemmenden Synapsen sind hinein- und hinausfließende Ströme, und die Feuerschwelle wird durch eine moderne elektronische Schaltung, einen so genannten Komparator, realisiert. All diese Elemente müssen nicht aus einzelnen elektronischen Bauteilen zusammengelötet werden: Die moderne Mikroelektronik ermöglicht es, ein neuronales Netzwerk aus „einem Guss“ im Rahmen eines Prozesses herzustellen, der auch für die Produktion von Chips in Telefonen und Waschmaschinen verwendet wird. Diese Technologie bezeichnet man als „Very Large Scale Integration“, als Integration auf großer Skala.

Die Rolle der Synapsen und Plastizität

Mindestens genauso wichtig wie die Nervenzellen sind die Kontaktstellen, die Synapsen. Zum einen gibt es viele tausend Mal mehr Synapsen als Nervenzellen. Zum anderen sind die Synapsen zumindest teilweise dafür verantwortlich, dass sich neuronale Netze selbstständig organisieren. Diese Fähigkeit wird von Neurowissenschaftlern als „Plastizität“ bezeichnet. Für den „Heidelberger Neurochip“ ist die Plastizität die wichtigste Herausforderung.

Die Energieeffizienz des Gehirns

Unsere Gehirne sind bemerkenswert energieeffizient. Das menschliche Gehirn ist ein erstaunliches Gebilde. Etwa 86 Milliarden Neuronen sind in dynamischen Netzwerken organisiert, die sich um Wahrnehmung, Gedächtnis, Körperfunktion, Lernfähigkeit, Sprache, Emotionen, Rationalität und vieles mehr kümmern. Das gesamte biologische Wunderwerk braucht dafür gerade einmal zwanzig Watt und damit nur ein Fünftel der Energie, die der "Bioreaktor" im Bauch des Menschen bereitstellt.

Lesen Sie auch: Lesen Sie mehr über die neuesten Fortschritte in der Neurowissenschaft.

Die Computermetapher des menschlichen Geistes

Die Computermetapher des menschlichen Geistes ist tot. Die Idee, dass Geist und Gehirn sich wie Software und Hardware zueinander verhalten und als zwei Ebenen klar voneinander getrennt werden können, vertritt in der Kognitionswissenschaft niemand mehr. Trotzdem bleibt richtig, was angedeutet wurde: Das, was die geistigen Eigenschaften eines Menschen auf die Erlebnisse determiniert, sind bestimmte funktionale Eigenschaften. Persönlichkeitsentwicklung, gelungene Therapie oder einen anderen Menschen zu manipulieren bedeutet nichts anderes, als den Informationsfluss im Gehirn der Zielperson dauerhaft oder vorübergehend zu verändern.

Die Grenzen der künstlichen Intelligenz

Während Computer in bestimmten Aufgaben, wie dem Rechnen mit großen Zahlen, dem menschlichen Gehirn weit überlegen sind, tun wir uns schwer mit Aufgaben, die uns leicht fallen, etwa Handlungen zu planen oder Sprache zu verstehen, in Computern zu realisieren. Das Gehirn funktioniert sicher nicht wie ein klassischer Digitalcomputer, in dem alle Verarbeitungsschritte nacheinander ablaufen. Im Gehirn laufen stets sehr viele Prozesse parallel und die sind weit über das ganze Gehirn verteilt.

Trotzdem sind die Unterschiede zwischen Gehirn und Computer noch immer riesig. Im Gehirn finden schon auf der Ebene der einzelnen Zellen komplexe Verarbeitungsprozesse statt, nicht nur „feuern“ oder „nicht-​feuern“. Zudem umfasst das Gehirn um die hundert verschiedene Arten von Nervenzellen, nicht nur eine einzige. Ein weiterer Unterschied: Das Gehirn ist immer aktiv, der Cortex befasst sich zum größten Teil mit selbstgenerierter Aktivität, nicht etwa nur mit Signalen, die aus den Sinnesorganen kommen. Der Computer hingegen verknüpft Input mit Output, und wenn kein Input kommt, tut er gar nichts.

tags: #Gehirn #und #Computer #vergleich