Einführung
Das menschliche Gehirn ist ein komplexes Organ, das uns ermöglicht, zu denken, zu fühlen und zu handeln. Es ist in der Lage, enorme Mengen an Informationen zu verarbeiten und Entscheidungen in Echtzeit zu treffen. Eine der faszinierendsten Eigenschaften des Gehirns ist seine Fähigkeit, Gewohnheiten zu entwickeln, die es uns ermöglichen, Aufgaben effizienter und mit weniger bewusster Anstrengung auszuführen. Aktuelle Forschungsergebnisse deuten darauf hin, dass diese Gewohnheitsbildung auf neuronalen Abkürzungen basiert, die das Gehirn nutzt, um Routinen zu automatisieren und den Energieverbrauch zu senken. Diese Erkenntnisse haben nicht nur Auswirkungen auf unser Verständnis der menschlichen Kognition, sondern auch auf die Entwicklung künstlicher Intelligenz (KI).
Gewohnheitsbildung im Gehirn: Ein Netzwerk von Abkürzungen
Eine internationale Forschergruppe unter der Leitung von Dr. Lieneke Katharina Janssen von der Otto-von-Guericke-Universität Magdeburg hat in einem aktuellen Artikel in der Fachzeitschrift "Trends in Neurosciences" ein neues Modell der Gewohnheitsbildung vorgestellt. Demnach entstehen Gewohnheiten, weil das Gehirn beim Handeln Abkürzungen nimmt. Das Gehirn arbeitet dabei wie ein dichtes Straßennetz: „Wenn bestimmte Pfade im Netzwerk abgekürzt werden, kann das Verhalten mehr oder weniger automatisch ablaufen. Reden alle Schleifen mit, wird das Handeln bewusster und zielgerichteter“, erläutert die Wissenschaftlerin.
Im Zentrum stehen dabei die Basalganglien, der Thalamus und der Kortex, also zentrale Schaltstellen des Gehirns, die Informationen austauschen und Entscheidungen vorbereiten. Bei neuen oder komplexen Aufgaben nimmt es den langen, verschlungenen Weg durch alle beteiligten Nervenschleifen. Mit zunehmender Übung jedoch findet es Abkürzungen - Verbindungen, die einzelne Stationen überspringen. So wird aus bewusster Kontrolle Routine. Damit löst das Forschungsteam die bisherige Vorstellung auf, wonach unser Verhalten durch zwei getrennte Systeme bestimmt wird: ein schnelles, automatisches und ein langsames, bewusstes. Stattdessen sehen Janssen und ihre Kollegen eine fließende Übergangszone zwischen Kontrolle und Gewohnheit.
Dieses Modell der neuronalen Abkürzungen erklärt, wie wir alltägliche Handlungen wie Kaffeekochen oder Autofahren ausführen können, ohne bewusst über jeden Schritt nachdenken zu müssen. Durch die Automatisierung dieser Routinen wird kognitive Kapazität freigesetzt, die wir für andere Aufgaben nutzen können.
Die Rolle der Schleifen im Gehirn bei der Verhaltenssteuerung
Bislang ging man oft von einem schnellen, intuitiven und einem langsamen, überlegten System aus. Das internationale Forschungsteam beschreibt nun eine Struktur aus parallel arbeitenden Schleifen, die Informationen vom Kortex über die Basalganglien zum Thalamus und zurück befördert. Diese sogenannten cortico-basalganglio-thalamo-kortikalen Kreise übernehmen die Koordination von Planung, Bewegung und Kontrolle. Besonders der Hippocampus hat eine Schlüsselfunktion. Er ist nicht nur für das Erinnern zuständig, sondern kann auch zukünftige Handlungsabläufe simulieren - ein Phänomen, das in der Wissenschaft als "Preplay" bekannt ist.
Lesen Sie auch: Faszination Nesseltiere: Wie sie ohne Gehirn leben
Die Rolle des Thalamus bei der Umsetzung von Plänen
Sobald ein Ziel festgelegt ist, übernimmt der Thalamus. Er leitet die wichtigen Informationen an die motorischen Areale weiter. Diese bereiten dann gezielte Bewegungen vor, zum Beispiel wenn man nach einer Kaffeetasse greift. Was simpel erscheint, ist das Ergebnis einer fein abgestimmten Kommunikation zwischen mehreren Hirnregionen. Diese Netzwerke sind eng verflochten. Sie verbinden Motivation, Erinnerung und Körpersteuerung, was in Handlungen mündet, die entweder bewusst geplant oder automatisch abgerufen werden - je nach Situation.
Faktoren, die das Shortcut-Lernen fördern
Das Team identifiziert drei Faktoren, die das Shortcut-Lernen fördern:
- Wiederholung: Je häufiger eine Handlung ausgeführt wird, desto stabiler wird sie verankert.
- Belohnung: Dopamin verstärkt bestimmte Verknüpfungen.
- Hebb’sches Prinzip: Bereiche, die gleichzeitig aktiv sind, vernetzen sich automatisch.
Manche dieser Lerneffekte können sogar ohne bewusste Belohnung auftreten. Auch neutrale Handlungen können bei häufiger Wiederholung zur Gewohnheit werden.
Handlungspakete: Eine Entlastung für das Gehirn
Ein weiterer Schlüsselaspekt ist das sogenannte Chunking. Dabei werden einzelne Schritte zu festen Handlungspaketen zusammengefasst. Solche Pakete - etwa beim Zähneputzen oder Autofahren - werden im dorsolateralen Striatum gespeichert, einer Region für automatisiertes Verhalten. Sobald ein solches Handlungspaket aktiviert wird, läuft es weitgehend ohne bewusste Kontrolle ab. Das spart Energie und ermöglicht, sich auf andere Aufgaben zu konzentrieren. Ein bekanntes Beispiel: Beim Fahrradfahren wird das Treten vom Gehirn automatisch gesteuert.
Parallelen zur künstlichen Intelligenz: Transformer-Modelle und neuronale Netze
Die Forscher erkennen Parallelen zwischen Teilen des neuronalen Schaltkreises des Gehirns und den Aufmerksamkeitsmechanismen moderner Transformer-Modelle, also jener Technologie, auf der große Sprachmodelle basieren. „Indem Künstliche Intelligenz künftig ähnliche Abkürzungen wie das menschliche Gehirn nutzt, könnten Systeme effizienter und energiesparender werden“, sagt Janssen.
Lesen Sie auch: Lesen Sie mehr über die neuesten Fortschritte in der Neurowissenschaft.
Transformer-Netzwerke, die in vielen modernen KI-Systemen eingesetzt werden, benötigen derzeit viel Rechenleistung. Dies stellt eine Herausforderung für mobile oder energiesparsame Anwendungen dar. Die Erkenntnisse über die effiziente Arbeitsweise des Gehirns könnten jedoch dazu beitragen, KI-Systeme zu entwickeln, die weniger Energie verbrauchen und dennoch leistungsfähig sind.
Lernen von der Effizienz des Gehirns in der KI
Das Gehirn verzichtet bewusst auf komplexe Berechnungen, wenn Abkürzungen schneller zum Ziel führen. Für die Entwicklung von KI-Systemen ist dies ein bedeutendes Vorbild. Derzeit benötigen Transformer-Netzwerke viel Rechenleistung - eine Hürde für mobile oder energiesparsame Anwendungen.
"Das Gehirn zeigt, wie man kontextabhängig entscheiden kann, ob eine aufwendige Analyse nötig ist oder ob eine gelernte Abkürzung ausreicht", schreiben die Forscher. Ein Start-up hat eine neue Architektur für Sprachmodelle entwickelt, die sich mehr am Aufbau des biologischen Gehirns inspiriert. Die Architektur namens "(Baby) Dragon Hatchling" (BDH) vom polnischen, im Silicon Valley ansässigen Start-ups Pathway. Transformer seien den Forschenden zufolge schwer zu verstehen und ihr Verhalten über längere Zeiträume schwer vorherzusagen.
Die Grafik verdeutlicht, wie BDH-GPU als Übergangsarchitektur zwischen herkömmlicher KI und Gehirnfunktion arbeitet. Während der Transformer Information in abstrakten mathematischen Strukturen verarbeitet, speichert das Gehirn Wissen in biologischen Synapsenverbindungen. BDH-GPU übersetzt zwischen beiden Welten: Es nutzt noch computerfreundliche Berechnungen, organisiert diese aber bereits wie ein Netzwerk aus Neuronen und Synapsen. Das menschliche Gehirn hingegen ist ein extrem komplexes graphbasiertes System mit etwa 80 Milliarden Neuronen und über 100 Billionen Verbindungen. Statt fester Berechnungsblöcke verwendet es ein Netzwerk aus künstlichen Neuronen, die über Synapsen miteinander kommunizieren.
Wichtiger Baustein ist das sogenannte "Hebbian Learning", ein Prinzip aus der Neurowissenschaft: Neuronen, die zusammen feuern, verdrahten sich zusammen. Wenn zwei Neuronen gleichzeitig aktiv sind, verstärkt sich ihre Verbindung. Die Forschenden bezeichnen diese Dynamik als "Equations of Reasoning" oder Gleichungen des Denkens. Die Forschenden testeten BDH-GPU direkt gegen GPT-2-ähnliche Transformer-Modelle bei identischer Parameteranzahl zwischen 10 Millionen und 1 Milliarde Parametern. BDH skaliert allein über die Neuronenanzahl und hält sonst alle Hyperparameter konstant. Dennoch erreicht es bei allen getesteten Modellgrößen eine ähnlich gute Vorhersagegenauigkeit wie das komplexer skalierte GPTXL, gemessen an der Fähigkeit, das nächste Token in Übersetzungsaufgaben korrekt vorherzusagen. Ein weiterer Vorteil ist die theoretisch unbegrenzte Kontextlänge. Nur etwa fünf Prozent der Neuronen sind zu einem Zeitpunkt aktiv. Diese spärliche Aktivierung macht das System nicht nur recheneffizienter, sondern auch deutlich interpretierbarer. Die Forschenden konnten nachweisen, dass sich in BDH sogenannte "monosemantic synapses" entwickeln. Das sind Verbindungen, die spezifisch auf bestimmte Konzepte reagieren. Wenn bei „US Dollar“ zuerst Neuron i und kurz danach Neuron j aktiv werden, verstärkt sich die Verbindung zwischen beiden. Diese Synapsen reagierten sogar sprachübergreifend: Die gleiche Verbindung wurde sowohl bei "British Pound" als auch bei "livre sterling" aktiviert. Zusätzlich entwickelt das System automatisch eine modulare, skalenfreie Netzwerkstruktur mit hoher Modularität. BDH könnte laut Pathway neue Möglichkeiten für das Modell-Engineering bieten. Die Forschenden zeigen, dass verschiedene Sprachmodelle direkt zusammengeführt werden können, indem ihre Neuronenschichten konkateniert werden. Die biologische Plausibilität könnte aufgrund ihrer Interpretierbarkeit auch für die KI-Sicherheit relevant sein. Laut Pathway bildet BDH den Grundstein für eine neue Theorie über das Verhalten sehr großer Sprachmodelle im Grenzbereich unendlicher Größe und Zeit. Das ultimative Ziel sind mathematisch beweisbare Aussagen darüber, wie gut und zuverlässig KI-Systeme über längere Zeiträume hinweg logisch schließen können.
Lesen Sie auch: Tinnitus und Gehirnaktivität: Ein detaillierter Einblick
Studie vergleicht Transformer-Modelle mit menschlicher Echtzeitverarbeitung
Eine Studie vergleicht die Zwischenschritte von Transformer-Modellen mit menschlicher Echtzeitverarbeitung. Forschende der Universitäten Harvard, Brown und Tübingen untersuchten erstmals systematisch, ob die internen Verarbeitungsschritte von Transformer-basierten Sprach- und Bildmodellen Ähnlichkeiten mit menschlichem Denken aufweisen. Anstatt nur die Endergebnisse der KI-Modelle zu betrachten, analysierten die Forscher, wie sich die Wahrscheinlichkeiten für verschiedene Antwortmöglichkeiten während der Verarbeitung entwickeln. Die Studie untersucht, wie sich die Wahrscheinlichkeiten für mögliche Antworten in einem KI-Modell während eines Forward-Passes verändern. Die Forscher verglichen diese Veränderungen in den KI-Modellen mit verschiedenen Aspekten menschlichen Verhaltens. Diese Metriken wurden mit von Menschen gesammelten Daten konfrontiert. In jedem Fall wurde ein Modell (lineare Regressionsmodell) genutzt, das zunächst nur Output-Metriken der Modelle (etwa die finale Wahrscheinlichkeit für eine Antwort) zur Vorhersage menschlicher Daten nutzte.
Zunächst mussten Versuchspersonen die Hauptstadt von Ländern oder US-Bundesstaaten abrufen (z. B. "Illinois" gleich "Springfield"). Die Forschenden wählten Items mit bewusst irreführenden Alternativen (z. B. Die Ergebnisse zeigten, dass Modelle in mittleren Schichten oft zunächst höhere Wahrscheinlichkeiten für die intuitive, aber falsche Stadt zeigten, bevor spätere Schichten die korrekte Antwort "boosten". Anschließend wurden typische und untypische Tierexemplare kategorisiert (z. B. "Wal" als Säugetier). Die Modelle erhielten Prompts wie "A whale is a type of …". Die menschlichen Daten stammten aus Maus-Tracking: Die zeitlich-räumliche Bewegung der Maus wurde mit den Schicht-Dynamiken der Modelle korreliert. Das dritte Experiment untersuchte syllogistisches Schlussfolgern - also logisches Urteilen über Argumente. Menschen tendieren hier zu sogenannten "Inhaltseffekten": Sie halten Argumente eher für gültig, wenn das Ergebnis mit ihrem Weltwissen übereinstimmt, auch wenn es formal falsch ist. Das vierte Experiment zielte schließlich auf einen modalitätsübergreifenden Vergleich ab: Menschliche Leistungen bei der Objekterkennung aus verzerrten oder stilisierten Bildern wurden mit Vision-Transformation-Modellen verglichen. Aufgrund dieser Erkenntnisse schlagen die Autoren vor, große Sprach- und Bildmodelle nicht mehr nur als Blackboxen zu betrachten, die Eingaben in Ausgaben übersetzen. Die Studie positioniert sich als konzeptionelle Brücke zwischen mechanistischer KI-Interpretierbarkeit und kognitiver Modellierung. Sie formuliert aber auch klare Grenzen: Die getesteten Modelle stammen alle aus der Llama-2- und ViT-Familie, wurden nicht feinjustiert und decken nur bestimmte Aufgabentypen ab. Unklar ist auch, ob die Schichtdynamik eines Modells eher dem individuellen Denkprozess einer Person oder dem Durchschnitt einer Gruppe ähnelt.
Das soziale Gehirn: Beziehungen und neuronale Entwicklung
Unser Gehirn funktioniert nicht wie eine isolierte Maschine. Es verbindet uns von früher Kindheit an mit unseren Mitmenschen und ist deshalb ein soziales Organ. Seine neurobiologischen Leistungen entwickeln sich erst in einem kulturellen Umfeld, mit dem sie in ständigem Austausch stehen. Diese These liegt einem Forschungsprojekt zugrunde, an dem sich unter Führung der Psychiatrischen Universitätsklinik Heidelberg vier deutsche Universitätsinstitute beteiligen.
Das interdisziplinäre Projekt zur Entwicklung des "sozialen Gehirns" wird von der Volkswagenstiftung während der nächsten drei Jahre gefördert. Die beteiligten Forscher/innen sind Prof. Thomas Fuchs und Dr. Corinna Reck (Psychiatrische Universitätsklinik Heidelberg), Prof. Sabina Pauen (Lehrstuhl für Entwicklungs- und Biopsychologie in Heidelberg), Prof. Michael Pauen (Lehrstuhl für Philosophie des Geistes, Berlin School of Mind and Brain) und Prof. Beate Sodian (Lehrstuhl für Entwicklungspsychologie in München).
"Die moderne Neurobiologie reduziert das Bewusstsein und das Handeln von Menschen oft auf Vorgänge in bestimmten Gehirnarealen", erklärt der Leiter des Projektes, Professor Dr. Thomas Fuchs. Als Oberarzt an der Psychiatrischen Universitätsklinik weiß er, wohin das führen kann: "Psychische Krankheiten werden primär als materielle Vorgänge im Gehirn angesehen und von den Beziehungen der Patienten zu ihrer Umwelt abgeschnitten."
Trotz aller eindrucksvollen Fortschritte in der Lokalisierung von Hirnfunktionen laufe eine einseitige Neurobiologie deshalb Gefahr, die Wechselwirkungen zu vernachlässigen, in denen das Gehirn steht. "Das ist so, als wollte man die Funktion des Herzens ohne den Kreislauf beschreiben."
Spiegelneurone moderieren soziale Wahrnehmung
Zwar seien im letzten Jahrzehnt tatsächlich zahlreiche Hirnareale identifiziert worden, die für die Verarbeitung sozialer Situationen zuständig seien, betont Thomas Fuchs. Daraus dürfe man aber nicht den Schluss ziehen, dass die vererbten Fähigkeiten der Nervenzellen, Informationen zu verarbeiten, ausreichten, um sich im Umgang mit seinen Mitmenschen zurecht zu finden. Denn die spezifischen Hirnaktivitäten bei sozialen Interaktionen seien keinesfalls angeboren, sondern gingen auf Lernprozesse zurück, in denen das Gehirn vor allem eine vermittelnde Rolle zwischen Innenwelt und Außenwelt einnehme.
Die Entdeckung der Spiegelneurone habe eindrucksvoll belegt, wie das Gehirn seine Lebensaufgaben im Zusammenspiel mit anderen Menschen vollziehe. Diese spezielle Art der Nervenzellen wird nicht nur dann aktiv, wenn ein Mensch eine bestimmte Handlung ausführt, sondern auch, wenn er die gleiche Handlung bei einem anderen Menschen wahrnimmt. So bahnen sie dem Lernen durch Nachahmen den Weg. "Dabei ist das Gehirn aber nicht der Produzent, sondern eher der Vermittler oder Transformator psychischer Prozesse", erklärt Professor Fuchs. "Es moderiert die Ausbildung des Menschen zu einem sozialen Wesen." Auch das System der Spiegelneurone könne daher nur in geeigneten zwischenmenschlichen Beziehungen ausreifen.
Zusammenhang frühkindlicher Gehirnentwicklung mit Mutterbindung untersucht
Um die entwicklungsbezogenen Aspekte der Gehirnfunktion herauszuarbeiten, die das "biologische" und das "soziale" Gehirn miteinander verknüpfen, konzentriert sich das Projekt in Theorie und praktischer Forschung auf den Zusammenhang von frühkindlicher Gehirnentwicklung und Mutterbindung. Wie entsteht in den Beziehungen des Säuglings und Kleinkindes zu seiner Mutter und anderen Personen Selbstbewusstsein? Unter welchen Bedingungen können sich dabei die biologisch angelegten Fähigkeiten im Gehirn optimal entfalten? Welche Rolle kann eine Depression der Mutter nach der Geburt bei der Ausreifung des kindlichen Gehirns spielen? Wie wirkt sich eine autistische Veranlagung des Kindes auf sein frühes soziales Lernen aus?
"Aus der Beantwortung der empirischen Fragen wollen wir Empfehlungen zur Förderung der frühkindlichen Gehirnentwicklung ableiten", sagt Professor Fuchs. "In seinem theoretischen Teil verfolgt das Projekt das Ziel, den sozialen Aspekten der Gehirnentwicklung in der öffentlichen Diskussion mehr Aufmerksamkeit zu verschaffen." Dazu werde langfristig auch die Einrichtung eines sowohl kultur- als auch naturwissenschaftlich getragenen Kompetenznetzwerkes "Soziales Gehirn" in Heidelberg und an anderen Standorten angestrebt.
Penrose-Institut: Quantenbiologie und die Zukunft der Intelligenz
Das neu gegründete Penrose-Institut in LaJolla, Kalifornien ist nach dem mathematischen Physiker Sir Roger Penrose benannt und widmet sich der menschlichen und künstlichen Intelligenz, der Quantenbiologie und Neuen Physik. Da Roger Penrose der Bruder des Schachgroßmeisters Jonathan Penrose ist, wurde zur Eröffnung des Instituts ein Schachproblem im Internet veröffentlicht, das laut Roger Penrose eine bemerkenswerte Besonderheit birgt: Schachcomputer können es angeblich nicht lösen aber für Menschen ist sehr einfach zu lösen. Schachcomputer schätzen die Diagrammstellung wegen des großen Materialvorteils als gewonnen für Schwarz ein. Ein Mensch erkennt jedoch mit einem Blick, dass der schwarze Materialvorteil nur symbolisch ist. Bis auf die drei schwarzen Läufer kann keine der schwarzen Figuren ziehen - solange Weiß nicht einen der drei Bauern b3, c4 und c6 zieht. Die drei schwarzfeldrigen Läufer können aber alleine den weißen König nicht matt setzen.
Penrose hat bezüglich dieser Errungenschaften des menschlichen Geistes eine kontroverse Idee. Das enorme Speicherpotenzial des Quantencomputers beruht auf den überlagerten Zuständen. Während ein einzelnes Bit nur die Zustände 0 oder 1 annehmen kann, sind für ein sogenanntes Qubit auch überlagerte Zustände aus 0 und 1 möglich und davon gibt es unendlich viele. Bisher sind für die Herstellung der Qubits zwei physische Trägersysteme im Gespräch. Eines welches auf der üblichen Halbleitertechnik beruht und ein anderes, welches einzelne Atome in elektromagnetischen Feldern einsperrt. Penrose, der gemeinsam mit dem Psychologen Stuart Hameroff an einer „Quantentheorie des Bewusstseins“ arbeitet, glaubt ein drittes Trägersystem im menschlichen Gehirn entdeckt, zu haben. Die Quantelung von Raum und Zeit in diesen Mikrotubuli soll zur Entstehung der menschlichen Wahrnehmung führen.
tags: #das #gehirn #ist #ein #transformator