Einführung
Das menschliche Gehirn hat im Laufe der Geschichte immer wieder als konzeptioneller Ausgangspunkt für technologische Entwicklungen gedient. Diese Bezugnahmen lassen sich bis zu den alten Kulturen zurückverfolgen, trotz ihrer im Vergleich zu heute völlig unterschiedlichen Vorgehensweisen. In dem vorliegenden Artikel werden wir uns mit der Geschichte des modernen Gehirns auseinandersetzen, wobei wir uns auf verschiedene Wissensbereiche wie Anatomie, Psychiatrie, Anthropologie, Kognitionswissenschaft, Philosophie und Kunst stützen werden. Dabei werden wir untersuchen, wie das Gehirn mit Bedeutung aufgeladen, metaphorisiert oder als Chiffre für bestimmte Leitvorstellungen bzw. Programme instrumentalisiert wurde.
Das Gehirn im Wandel der Zeit
Antike Vorstellungen
Im alten Ägypten entstand eines der ersten bekannten technischen Modelle für das Gehirn. Die Entdeckung seines stark gefalteten Gewebes führte dazu, dass es mit Schlacke verglichen wurde, einem Abfallprodukt der Metallverhüttung. Das Hirngewebe, das heute als zentraler Ort und Kontrollsystem der Intelligenz von Säugetieren gilt, wurde für ebenso nutzlos gehalten wie diese metallische Masse. Stattdessen schrieben die Ägypter den Hirnhäuten, den weichen Schutzmembranen, die das Gewebe und das zentrale Nervensystem umhüllen, eine größere Bedeutung zu. Es ist möglich, dass sich verschiedene ägyptische Bestattungspraktiken an diesem wissenschaftlichen Leitgedanken orientierten, da das Gehirn selbst als für das Leben nach dem Tod überflüssig angesehen und dementsprechend vor der Mumifizierung entfernt wurde.
Das Gehirn als Metapher für Technologie
In den vergangenen Jahren wurden menschliche Vorstellungen von der Bedeutung des Gehirns auf Technologie - und umgekehrt - projiziert: Hydraulikpumpen, Dampfmaschinen, das von Charles Scott Sherrington etablierte Prinzip des verzauberten Webstuhls wie auch Telefonzentralen veranschaulichen die Verbindungslinien zwischen der Erforschung des Gehirns und unserer Auseinandersetzung mit Kultur. Der Begriff der Intelligenz hat sich zunehmend an diese technologischen Fortschritte angepasst.
Die Kybernetik und die Verschmelzung von Gehirn und Technologie
Die Kybernetik war federführend in den Debatten, wie sich Vorstellungen des Gehirns und technologische Visionen zur Deckung bringen ließen. Sie zog gleichermaßen affirmative wie kritische Verbindungen zwischen der Erforschung des Gehirns und technologischen Entwicklungen und legte damit den Grundstein für gesellschaftliche Infrastrukturen, die den Menschen innerhalb des Feldes der Technologie verorten. Durch Technologie macht die Kybernetik das menschliche Wesen begreifbar und formbar.
Alternative Vorstellungen von Intelligenz
Diese Genealogie bleibt zwar weitgehend ungebrochen, ist aber nicht alternativlos. Denn die Vorstellung eines singulären, körperlosen und individualistischen Gefäßes der Intelligenz wird schon seit Längerem von verschiedentlichen Ideen kollektiver und vernetzter Intelligenzen, verkörperter Kognition und mehr-als-menschlicher Handlungsmacht hinterfragt und unterlaufen. Dies verkompliziert eine Idee, die vielleicht so alt ist wie die Computertechnik selbst: Dass die eigene Intelligenz irgendwann auf einer Festplatte oder einem Computer gespeichert werden kann.
Lesen Sie auch: Die Rolle des zerebralen Kortex
Neuralink und die Grenzen der Technologie
Im Januar 2024 implantierte Neuralink seine erste Computerschnittstelle in ein menschliches Gehirn in einem ansonsten vollständig gelähmten Körper. Einen Monat nach der Operation waren jedoch 85 Prozent der Fäden des Links schon nicht mehr responsiv. Nichtsdestotrotz könnte das Digitale den Menschen und andere Spezies vollständig verzehren - schließlich wurde die in Neuralink verwendete Technologie jahrelang in Experimenten an Affen, Schweinen und Schafen getestet, oftmals mit tödlichem Ausgang. Die Anerkennung dieser und anderer Opfer im Dienste des Fortschritts der Künstlichen Intelligenz könnte dazu führen, dass die Grenzen zwischen dem Selbst und dem Anderen, der Unterschied zwischen nicht lebenswerten und lebenswerten Gehirnen und die Lokalisierungen der Intelligenz neu gezogen werden müssen.
KI-Kannibalismus und die Implosion des Modells
In Anbetracht von Nancy Frasers jüngster Einschätzung des „kannibalischen Kapitalismus“, in der sie beschreibt, wie die gesamte Natur und Kultur sowie die Kapazitäten für gegenseitige Fürsorge und Solidarität verkonsumiert werden, erfordern diese Entwicklungen zunächst einmal eine Analyse der neuronalen Netzwerke und ihrer Stützungsfunktion für die Technokratie. Dieses Konsumverhalten findet ein Echo im jüngst beobachteten Phänomen des KI-Kannibalismus. Mit dem Begriff wird ein Degenerationsprozess beschrieben, ein Qualitätsverlust, der eintritt, sobald KI-Systeme nicht mehr an menschengemachten Inhalten trainiert werden, sondern nur noch an ihrem eigenen Output. Dieses Phänomen erweist nicht nur die mangelnde Tragfähigkeit der maschinellen Erzeugung von Intelligenz mittels KI, sondern zeigt, dass sie letztlich sogar zur Implosion des gesamten Modells führt. Das alles verschlingende neuronale Netzwerk, das sich dem digitalen Kannibalismus hingibt, ist eine Folgeerscheinung, die die Hoffnungen der Entwickler*innen auf eine vollständige Automatisierung zerschlagen hat. Es stellt demnach einen unbeabsichtigten Störfaktor in der Logik des unablässigen technologischen Fortschritts dar.
Anthropophagie als Widerstand gegen koloniale Hierarchien
Gegenüber diesen potenziellen Zukunftsszenarien hat das Motiv des Kannibalismus allerdings eine historisch weit ausgreifende Tradition, etwa in der brasilianischen modernistischen Bewegung der 1920er-Jahre. In seinem Manifesto Antropófago aus dem Jahr 1928 verwendete der Schriftsteller Oswald de Andrade die Figur des Kannibalen als Chiffre des Widerstands gegen koloniale Hierarchien. Der Begriff der „Anthropophagie“ wurde ursprünglich in Berichten aus der Kolonialzeit verwendet und bezeichnete das ehrenhafte und ritualisierte Verschlingen des Anderen, wie es von Indigenen Stämme in den nordöstlichen Regionen der Mata Atlântica (Atlantischer Regenwald) praktiziert wurde. Von den europäischen Kolonialistinnen als barbarisch angesehen, wurde die Figur des Kannibalen als Mythos verbreitet und gilt als Zeichen der Angst des Westens beim Aufeinandertreffen mit der komplexen Kultur der Indigenen Karibinnen und Tupi. Zugleich wurde dieser Mythos zur Rechtfertigung der Unterwerfung dieser Völker herbeigezogen. Durch die Wiederaneignung der Bedeutung und des Werts dieser ritualisierten Formen der Welterschließung schlug de Andrade in seinem Manifest die Anthropophagie als Praxis vor, die sich ohne Rücksicht auf nationale Grenzen oder Identitäten das Wissen der Welt zu eigen macht und sich dabei sowohl die europäische Philosophie als auch Indigene Epistemologien einverleibt. De Andrade zielte auf die Erschaffung einer Sprache und Ästhetik, die eine Gesellschaft hervorbringen sollte, in der wie in der Anthropophagie alle Unterschiede einverleibt und verdaut werden - eine Gesellschaft, die Indigenem Gedankengut und aufklärerischen Idealen das gleiche Gewicht einräumt. Aus heutiger Perspektive ist es bezeichnend, dass es eine bürgerliche Elite war, die Indigene Wissenspraktiken für sich beanspruchte. Dennoch, oder vielleicht auch deshalb, verzeichnete die Anthropophagie keine wesentlichen Erfolge beim Versuch, Indigenen Epistemen ihre eigenständige Geltung zukommen zu lassen.
Die Bedeutung von Differenz und Differenzierung
Mit Blick auf die komplizierte Geschichte der Anthrophagie deuten die Auswirkungen des zeitgenössischen digitalen Kannibalismus darauf hin, dass Differenz und Differenzierung eigene Werte darstellen könnten. Es wird nicht möglich sein, die Aufrechterhaltung und Reflexion von Differenz maschinell durchzukalkulieren- weder in Ausdrucksformen, noch im Verständnis von Intelligenz, noch auf der Ebene scheinbar unveränderlicher Objekte wie Gehirnzellen oder immaterieller Konzepte wie Kognition. Die Unfähigkeit der KI, ihre eigenen Formen der Neuinterpretation anzuerkennen - oder sich selbst als außerhalb ihrer selbst stehend zu begreifen -, wirft unweigerlich Fragen nach dem Selbst und dem Anderen auf, nach der Art und Weise, wie Unterschiede produziert werden, und schließlich nach der Rolle intellektueller oder kognitiver Fähigkeiten innerhalb dieses Prozesses. Umgekehrt wird durch den Blickwinkel des KI-Kannibalismus die Anthropophagie in ihrem vermeintlich universellen Anspruch problematisiert. Denn der ohne Bewusstsein für Differenz oder Kontext durchgeführte Prozess der Verschlingung kann allzu leicht in eine Art von bequemer Verkümmerung münden.
Die Zukunft des Gehirns im digitalen Zeitalter
In dem Maße, in dem „Künstliche Intelligenz“ zunehmend zum Oberbegriff für alle Formen technologischer und zukunftsorientierter Eingriffe wird, beeinflusst sie auch gesellschaftliche Vorstellungen vom Gehirn und verändert damit auch faktisch das Bild der sie tragenden Körper und der Umwelten, aus denen sie hervorgehen. Trotz der Wandlungsfähigkeit der Gehirnmetapher bleibt ihre Konzeption unterentwickelt, insbesondere mit Hinblick auf die Frage, wie sie Gesellschaft und Kollektivität mitgestaltet. Mittels einer anthropophagischen Lesart könnte die Idee, dass die Digitalität ihr menschliches Anderes ‚frisst‘, Gehirne, Intelligenzen und Subjektivitäten hervorbringen, die kollektiv und gemeinsam genutzt werden, da ihre Energien potenziell unbekannte, poröse Grenzen überqueren oder durch sie hindurchsickern. Anzeichen für derlei Erkenntnisse finden sich in Forschungen zu Pflanzen, Mycetozoa und Pilzen, die allesamt Impulse für eine differenziertere Diskussion über die Beziehungen zwischen Gehirn, Geist, Intelligenz und Körper liefern können.
Lesen Sie auch: Aufbau des visuellen Cortex erklärt
Die Entwicklung der modernen Lokalisationslehre
Das moderne Verständnis der Funktionen des Gehirns basiert in seinen Grundzügen auf wenigen Axiomen, von denen sich zwei als besonders dauerhaft herausgestellt haben: die Lokalisationslehre und die Neuronenlehre. Erstere geht davon aus, dass es verschiedene, voneinander abgrenzbare funktionelle Zentren im Gehirn gibt, und zwar sowohl für physische Funktionen (z.B. Regulation der Atmung oder Koordination der Motorik) als auch für psychische Qualitäten (z.B. Die Anfänge der modernen Lokalisationslehre reichen ungefähr zweihundert Jahre zurück. Ihre Geschichte ist von mehreren Kontroversen geprägt, in denen die Möglichkeit erwogen wurde, komplexe Hirnfunktionen als einheitliches und ganzheitliches Zusammenwirken des Gehirns aufzufassen.
Antike Wurzeln der Lokalisationslehre
Während es vor dem 19. Jahrhundert keine paradigmatisch wirksame Vorstellung von Nervenzellen gegeben hat, war die Lokalisationslehre bereits in der Antike im Sinne einer Suche nach dem Sitz der Seele verbreitet. Hippokrates beispielsweise sah im Gehirn das Organ des Denkens, der Wahrnehmung und der Beurteilung von Gut und Böse, Platon lokalisierte den rationalen, unsterblichen Teil der Seele im Gehirn. Dagegen hielt Aristoteles das Herz für das sensorium commune, also den Ort, an dem alle Empfindungsmodi zu einer einheitlichen Wahrnehmung zusammengeführt und alle Bewegungen ausgelöst werden. Während Herz und Gehirn bis in die Renaissance hinein als Seelensitz konkurrierten, entwickelte sich unabhängig davon im Mittelalter die so genannte Ventrikellehre der geistigen Vermögen, bei der Wahrnehmung, Erkenntnis und Gedächtnis in den drei Hirnventrikeln lokalisiert wurden.
Descartes und der Leib-Seele-Dualismus
Ein Bruch in der Lokalisationstheorie vollzog sich mit René Descartes und seinem Leib-Seele-Dualismus, indem er den hauptsächlichen Interaktionsort zwischen Körper und Seele, das so genannte Seelenorgan, in die Zirbeldrüse verlegte. Diese Zuordnung wurde bereits von Descartes' Zeitgenossen abgelehnt, doch das Konzept des Seelenorgans als Verbindungsglied zwischen materieller und immaterieller Substanz bzw. als Sitz der Seele blieb über einhundertfünfzig Jahre lang unangetastet. Der Dualismus ermöglichte einerseits eine wissenschaftliche Erforschung des Körpers, andererseits stellte er die göttliche Herkunft der menschlichen Seele nicht in Frage.
Gall und die Phrenologie
Die moderne Lokalisationstheorie begann um 1800 mit Franz Joseph Galls These, nach der verschiedene geistige Qualitäten Sitz und Ursache in voneinander abgrenzbaren Regionen des Gehirns, hauptsächlich der Hirnrinde, hätten. Es ging Gall darum, in Anlehnung an die bürgerlichen Verhaltenslehren und Konventionen der Spätaufklärung den verschiedenen menschlichen Eigenschaften, Neigungen und Talenten unterschiedliche und unabhängige Organe im Gehirn zuzuweisen. Besondere musikalische oder sprachliche Fähigkeiten beruhten demnach auf einem besonders gut entwickelten Hirnorgan. Diese Vorstellung von big is beautiful ist im Prinzip auch heute noch Bestandteil der Hirnforschung. Gall war ein vorzüglicher Hirnanatom - er erkannte als erster systematisch die Bedeutung der Hirnrinde für die höheren Hirnfunktionen und wies nach, dass das Gehirn entwicklungsgeschichtlich aus dem Rückenmark entsteht. Sein folgenreichster - und problematischster - Beitrag war das psychologisch motivierte Anliegen, den Menschen nicht mehr als metaphysisches, mit einem Seelenorgan ausgestattetes Wesen anzusehen, sondern in seinen alltäglichen Verhaltensweisen zu verstehen. Galls Popularität lag in dem Teilstück seiner Lehre begründet, das die Ausprägung bzw. Wölbung der Schädelform zur Entwicklung der Hirnoberfläche in Beziehung setzte. Dadurch wurde die berüchtigte Korrelierung zwischen Schädelform und geistigen Eigenschaften ermöglicht. Dennoch waren die Implikationen von Galls Lehre zu ernst, um auf der Ebene sensationsheischender Scharlatanerie zu verharren. So entzündete sich auch innerhalb der Naturforschung Kritik an Galls Materialismus und Determinismus. Insbesondere warf man ihm vor, mit der Lokalisierung von Nächstenliebe, Mordsinn, Sprach- oder Tonsinn den freien Willen und damit die Autonomie des Individuums in Frage zu stellen. Diese Kontroverse hat die Hirnforschung bis auf den heutigen Tag begleitet, sei es im Streit um die Willensfreiheit, sei es, ob man einen Kriminellen oder ein Genie an seinem Gehirn erkennen könne.
Broca, Wernicke und die Aphasieforschung
Die Wiederbelebung und Neuformulierung des Lokalisationsgedankens geschah erst nach 1860 mit der Erforschung der zerebral bedingten Sprachstörungen (Aphasie). 1861 demonstrierte Paul Broca in Paris den Fall eines Patienten, bei dem eine Schädigung in der 3. Frontalwindung der linken Hirnhälfte zur Unfähigkeit führte, Wörter auszusprechen, während das Sprachverständnis erhalten blieb. Als Carl Wernicke 1874 das Gegenstück zu Brocas motorischer Aphasie diagnostizierte und Sprachverständnisstörungen bei erhaltener Sprachmotorik (sensorische Aphasie) auf eine Läsion der 1. linken Temporalwindung zurückführte, schälte sich eine "Psychophysik der Sprache" (Karl Kleist) auf anatomischer Grundlage heraus, welche die Sprache analog zur Reflexlehre als einen "psychischen Reflexbogen" konstruierte, an dem mehrere Hirnregionen beteiligt waren. Während die Reflexphysiologen seit den 1830er Jahren darüber debattierten, ob Reflexe auf niedere Instinkte und Automatismen beschränkt seien (so Marshall Hall) oder ob sie als Modell für höhere Hirnfunktionen dienen könnten (so Johannes Müller), wurde diese Frage in der Aphasieforschung kurzerhand beantwortet.
Lesen Sie auch: Mehr über den präfrontalen Cortex
Meynert und die Assoziationslehre
Unmittelbar im Gefolge der ersten klinischen Lokalisationsversuche begannen Hirnanatomen, nach strukturellen Unterschieden im Gehirn zu suchen. Epoche machend waren die 1865 begonnenen Untersuchungen des Wiener Psychiaters Theodor Meynert, der die kortikalen Fasern in Projektionsfasern (Verbindung von tiefer gelegenen Hirnteilen mit dem Kortex, der Hirnrinde) und Assoziationsfasern (Verbindung der Hirnrindenareale untereinander) einteilte. Erstere dienen dem Transport der sinnlichen Eindrücke, letztere der Verknüpfung von Wahrnehmungen und Vorstellungen. Denken, Bewusstsein oder Intelligenz waren für Meynert Funktionen der Assoziationsfaserung, wobei die häufige und intensive Wiederholung einer Assoziation zur Verfestigung entsprechender Bahnen führt, die nach und nach eine gewisse Kontinuität der Persönlichkeit mit sich bringt. Diese später als "Hirnmythologie" (Karl Jaspers) kritisierte Verknüpfung der Persönlichkeitsentwicklung mit der Hirnentwicklung war enorm einflussreich. Sowohl der Physiologe Sigmund Exner als auch der junge Sigmund Freud versuchten sich an physiologischen Erklärungen der psychischen Erscheinungen, die auf der Assoziationslehre aufbauten.
Experimentelle Physiologie und die motorische Erregbarkeit der Hirnrinde
Während die Lokalisationslehre durch klinische Beobachtungen und die Anatomie angestoßen wurde, vollzog sich ihr Durchbruch erst durch die experimentelle Physiologie. 1870 führten der Nervenarzt Eduard Hitzig und der Anatom Gustav Fritsch Untersuchungen durch, bei denen sie durch elektrische Stimulation bestimmter kortikaler Regionen Bewegungen der Gliedmaßen ihrer Versuchstiere hervorrufen konnten. Der Nachweis der motorischen Erregbarkeit der Hirnrinde war der Startschuss für zahlreiche Untersuchungen: David Ferrier verfeinerte die Untersuchungen von Fritsch und Hitzig, Hermann Munk bestimmte optische, akustische und somato-sensorische Zentren und beschrieb unterschiedliche kortikale Sehstörungen. Trotz mancher Debatten der Hirnforscher um die Begrenzung bestimmter Felder und die Lokalisierbarkeit spezifischer Funktionen bestand Einigkeit darin, dass die Ausführung psychischer und physischer Akte an bestimmte Hirnregionen gebunden ist - auch wenn sich die Verhältnisse rasch als viel komplizierter erweisen sollten als zunächst angenommen. Beispielsweise beobachtete Friedrich Goltz seine Versuchstiere über einen möglichst langen Zeitraum und konnte zeigen, dass durch Substanzverlust bedingte "Ausfallerscheinungen" von operationsbedingten, vorübergehenden "Hemmungserscheinungen" zu unterscheiden waren.
Die Neuronenlehre
In einem ganz anderen Zweig der Hirnforschung entwickelte sich nach 1880 die Neuronenlehre. Dass es sich bei Nervenzellen um individuelle Entitäten handelt, war keine neue Einsicht. Während Theodor Schwann und Matthias Jacob Schleiden in den 1830er Jahren die Zellenlehre begründeten, gab es daneben auch Anatomen wie Christian Gottfried Ehrenberg, Jan Evangelista Purkyne und Robert Remak, die kugelige Ganglienkörper oder Nervenzellen als Elementarstrukturen des Nervensystems ansahen. Purkyne sprach sowohl den Zellen als auch den Nervenfasern den Charakter der Individualität zu, doch blieb es noch für längere Zeit unklar, ob und auf welche Weise Zellen und Fasern miteinander zusammenhängen. Als man sich darauf einigte, dass der Zellkörper über verschiedene Auswüchse verfügt, nämlich einen axialen Zylinder (Axon) und zahlreiche protoplasmatische Fortsätze (Dendriten), wurde die Annahme individueller Nervenzellen zugunsten der Theorie aufgegeben, wonach alle Nervenzellen ein einziges, kontinuierliches Netzwerk bildeten.
Golgi, Ramón y Cajal und die Synapse
1873 konnte Camillo Golgi mittels einer neuen Färbetechnik Nervenzellen mit ihren endlosen Verzweigungen in bis dahin nicht für möglich gehaltener Schärfe und Klarheit sichtbar machen, und er hatte neue Beobachtungen über die Struktur der Nervenzellen mitzuteilen. Nicht nur Dendriten, auch Axone verfügten über Seiten- und Nebenäste (Kollaterale), und er unterschied zwei Typen von Nervenzellen: solche, die ein langes Axon haben (heute als Typ-I Neuronen bezeichnet), und solche, die sich dicht am Zellkörper verzweigen (Typ-II Neuronen). Die Dendriten wiederum bildeten nicht, wie man bis dahin gedacht hatte, ein zusammenhängendes Netzwerk, sondern endeten frei im interstitiellen (in den Zwischenräumen funktionstragender Elemente liegenden) Gewebe. Es gehört zu den Pikanterien in der Geschichte der Hirnforschung, dass eine morphologische und funktionelle Unabhängigkeit der Nervenzellen gegen die Netzwerktheorie ausgerechnet auf der Basis von Golgis revolutionärer Färbetechnik behauptet wurde. So konnte Santiago Ramón y Cajal 1888 zeigen, dass verschiedene Zelltypen sich im Kleinhirn einander annäherten, ohne sich zu berühren, was zumindest nahe legte, dass die Verbindung zwischen Nervenzellen durch Kontakt und nicht durch Kontinuität zustande kam. Die Frage war, wie sich der Impuls von einer Zelle auf die andere übertrug. Unabhängig voneinander postulierten Ramón y Cajal und Arthur van Gehuchten das Gesetz der dynamischen Polarisation, das besagt, dass Dendriten die Erregung zum Zellleib hinleiten, während Axone diese zum nächsten Neuron weiterleiten. Diese physiologische Hypothese zur Erregungsleitung im Nervensystem blieb zwar vorerst ebenso spekulativ wie Charles S. Sherringtons Annahme, dass sich zwischen den Nerven ein kleiner Spalt befinde, für den er den Namen "Synapse" fand, doch war die Mehrzahl der Anatomen um 1900 von der Richtigkeit der Neuronenlehre überzeugt. Auf die Lokalisationstheorie hatte das indes keinerlei Auswirkungen.
Kritik an der Lokalisationslehre und die ganzheitliche Sichtweise
Nach 1900 mehrte sich die Kritik an der Lokalisationstheorie, wobei Unstimmigkeiten in der Theorie selbst und weltanschauliche Gründe Hand in Hand gingen. Zwar war die Idee einer ganzheitlichen Funktion des Gehirns durchaus nicht dualistisch geprägt. Die Frage war nur, ob das komplexe Verhältnis von Struktur und Funktion aufgrund der Analyse einzelner Hirnregionen abgehandelt werden könne und ob eine neurologische Betrachtung des menschlichen Geistes als Summe seiner Empfindungen für das Verständnis vom Menschen und seiner Krankheiten ausreichend sei. Als wichtiges Argument diente die Verschiedenheit der Symptome bei anscheinend gleicher Lage des Läsionsherds. Eine entscheidende Reaktion auf diese Unstimmigkeiten lag in der gründlicheren und systematischeren neurologisch-psychologischen Exploration hirngeschädigter Patienten. Dazu gehörte auch die Einführung psychologischer Testverfahren, mit denen etliche Störungen beschrieben werden konnten, die zuvor der Aufmerksamkeit der Neurologen entgangen waren. Letztlich ging es darum, die Neurologie aus ihrem zu engen theoretischen Korsett zu befreien, und das geschah durch zunehmende Integration von Ergebnissen aus Sprachwissenschaft und Psychologie.
Monakow, Goldstein und die Bedeutung der individuellen Persönlichkeit
Es waren vor allem Constantin von Monakow und Kurt Goldstein, die eine der individuellen Persönlichkeit des Menschen gerechter werdende biologische Grundlage der Neurologie zu entwickeln versuchten. Für Monakow war die Fähigkeit des Organismus, entstandene Schädigungen bis zu einem gewissen Grad selbst zu reparieren, ebenso zentral wie die Herausbildung von Kompensationsmechanismen. Während vorübergehende reaktive Störungen durch Isolierungen von verschiedenen Nervenzellverbänden, Unterbrechungen von Leitungsbahnen und Ernährungsstörungen ausgelöst würden, führe die Vernichtung von Hirngewebe zu kompensatorischen Regressionen des Verhaltens. Eine Verletzung, auch wenn sie lokal begrenzt war, bedingte allgemeine organische Reaktionen, und das bedeutete, dass man das Gehirn nicht isoliert vom Rest des Körpers betrachten konnte. Der Neurologe Kurt Goldstein entwickelte seine Theorie des Organismus ausgehend von Erfahrungen mit hirnverletzten Soldaten, die im Ersten Weltkrieg Opfer von Kopfschüssen geworden waren. In der Kombination aus intensiver psychologischer und psychiatrischer Untersuchung sowie sozialmedizinischer Betreuung fand Goldstein den Schlüssel zu seiner Theorie, die eine der Umweltlehre Jakob von Uexkülls verwandte Auffassung von der Beziehung zwischen Organismus und Umwelt vertrat. Danach wird Normalität bzw. Gesundheit als Adäquatheit zwischen Individuum und Umwelt definiert. Krankheit war für Goldstein stets durch einen dem Organismus inadäquaten Vorgang ausgelöst, der dieses Gleichgewicht aufhob und zu einer Erschütterung, einer "Katastrophenreaktion" führte. Die weitere Reaktion des Organismus sah Goldstein in dem Versuch, ein neues Gleichgewicht herzustellen, das entweder zur vollständigen Gesundung führte, oder, wenn dies nicht möglich war, die Adäquatheit auf einem niedrigeren Level wiederherstellte. Nach dieser Theorie war das Gehirn keine Reiz-Reaktions-Maschine, sondern es reagierte auf Reize und Veränderungen der Umwelt ganz individuell, je nach vorgegebener biographischer Entwicklung.