Erster Computer aus Gehirnzellen schlägt klassische KI?

Die Entwicklung der "organoiden Intelligenz" (OI) verspricht, die Computertechnologie zu revolutionieren und gleichzeitig unser Verständnis des Gehirns zu vertiefen. Ein interdisziplinäres Team aus Forschern, Ethikern und Mitgliedern der Öffentlichkeit arbeitet an der Realisierung von Biocomputern, die von menschlichen Gehirnzellen angetrieben werden. Dieser Artikel beleuchtet die Fortschritte, Herausforderungen und ethischen Implikationen dieser aufstrebenden Technologie.

Einführung in die Organoide Intelligenz

Die "organoide Intelligenz" (OI) ist ein vielversprechendes Forschungsgebiet, das darauf abzielt, biologische und computergestützte Systeme zu verschmelzen. Angetrieben von menschlichen Gehirnzellen könnten "Biocomputer" in Zukunft Realität werden. Ein Forscherteam hat im Fachblatt "Frontiers in Science" einen Fahrplan vorgestellt, mit dem dieses Szenario in einigen Jahrzehnten Realität werden könnte. Die Autoren skizzieren darin die Entwicklung einer "organoiden Intelligenz" (OI), die nicht nur leistungsstärkere und sparsamere Computer möglich machen, sondern auch die Entwicklung von Medikamenten voranbringen könnte.

Die Funktionsweise der Organoide Intelligenz

Grundlage der OI sind Hirnorganoide - im Labor aus menschlichen Zellen gezüchtete Gewebestrukturen, die für bestimmte Hirnregionen typisch sind. Für solche Organoide nutzen die Forscher Zellen aus menschlichen Hautproben, die zunächst in einen stammzellenähnlichen Zustand transformiert und dann dazu gebracht werden, sich zu Hirnzellen zu entwickeln. Jedes der so entstandenen dreidimensionalen Hirnorganoide enthält etwa 50.000 Zellen. Um anspruchsvolle Berechnungen zu unterstützen, wollen die Forscher diese Zahl auf zehn Millionen erhöhen.

Das System aus Röhrchen und Flüssigkeit dient den Organoiden: Sie erhalten darüber Sauerstoff, Nährstoffe und Wachstumsfaktoren, während Abfallstoffe beseitigt werden. Zudem werden Technologien beschreiben, die es erlauben, den Zellen Informationen zu senden und auszulesen, was sie „denken“. Die Autoren planen, Werkzeuge aus verschiedenen Disziplinen wie Bioengineering und maschinelles Lernen zu adaptieren sowie neue Stimulations- und Aufzeichnungsgeräte zu entwickeln.

Die Gehirn-Computer-Schnittstelle

Um die Kommunikation mit den Hirnorganoiden zu ermöglichen, haben die Forscher eine Gehirn-Computer-Schnittstelle entwickelt. Hartung erläutert dazu: „Wir haben eine Gehirn-Computer-Schnittstelle entwickelt, eine Art EEG-Kappe für Organoide, die wir in einem im August veröffentlichten Artikel vorgestellt haben. Es handelt sich um eine flexible Hülle, die dicht mit winzigen Elektroden bedeckt ist, die sowohl Signale vom Organoiden aufnehmen als auch an ihn weiterleiten können.“

Lesen Sie auch: Die Entschlüsselung des Gehirns

Erste Erfolge

Dass OI grundsätzlich machbar ist, hätten frühere Arbeiten bereits belegt, so Hartung, der konkret eine Studie seines Mitautors Brett Kagan (Cortical Labs in Melbourne) nennt. Dessen Team hatte gezeigt, dass es möglich ist, Gehirnzellkulturen das Videospiel „Pong“ beizubringen, bei dem ein Punkt auf dem Bildschirm ähnlich wie beim Tennis hin und her geschlagen wird.

Einsatzbereiche der organoiden Intelligenz

Teamleiter Thomas Hartung von der Johns Hopkins Universität sieht drei zentrale Einsatzbereiche für organoide Intelligenz:

  • Besseres Verständnis des Gehirns: Die OI könnte dabei helfen, die Funktion des Gehirns besser zu verstehen.
  • Revolutionierung der Medikamentenentwicklung: Zudem könnte sie die Entwicklung von Medikamenten etwa gegen neurodegenerative Erkrankungen wie Demenz revolutionieren.
  • Umwälzung der Computertechnologie: Schließlich könnte sie die Computertechnologie umwälzen.

Laut Hartung können Computer Daten und Zahlen zwar grundsätzlich schneller verarbeiten als der Mensch. Dieser sei aber immer noch besser, wenn es um komplexe logische Probleme gehe. Zudem könne sich ein einzelnes Neuron im Gehirn mit bis zu 10.000 anderen Nervenzellen verbinden, was eine ganz andere Art der Informationsverarbeitung und -speicherung sei, so der Wissenschaftler.

Wearable Computing: Mein smartes Tattoo

Forschende aus dem Bereich des »ubiquitous computing« arbeiten bereits daran, die Rechenleistung auf immer kleinere Einheiten aufzuteilen, die unseren Alltag gewissermaßen unauffällig durchdringen sollen. Computer sollen sich so unter anderem in Form des »wearable computing« in unser Leben integrieren.

Alternative Steuerungsmöglichkeiten

Wissenschaftler arbeiten an alternativen Steuerungsmöglichkeiten, die direkt auf der Haut getragen werden können. Jürgen Steimle von der Universität des Saarlandes etwa entwickelt elektronische Folien, die so dünn und flexibel sind, dass sie sich perfekt an die Körperform anpassen. Als temporäre Tattoos erlauben sie es dem Träger, einen Computer zu steuern oder den Output eines elektronischen Geräts in Form einfacher Displays oder taktiler Reize direkt auf der Haut auszulesen. Auch das Erfassen physiologischer Signale, die drahtlose Übertragung von Daten oder einfache Berechnungen lassen sich mit solchen Folien realisieren.

Lesen Sie auch: Neues von Gaby Köster: Einblicke in ihr Leben

Tacttoos

Steimle und sein Team setzen auf eine Eigenschaft der Haut, die konventioneller Technologie nicht zugänglich ist: den Tastsinn. Seine »Tacttoos« können etwa auf der Fingerkuppe getragen werden und dem Nutzer über mehrere nebeneinander angeordnete Punkte das Gefühl mechanischer Vibrationen vermitteln. In Wirklichkeit sind es allerdings schwache Wechselströme, die die Nervenenden der Mechanorezeptoren anregen, also der Sinneszellen, die normalerweise Bewegungen erfassen. »So überlagern wir die physische Welt, die uns umgibt und die wir spüren und anfassen können, mit digitalen Informationen«, sagt Steimle. »Das ist Augmented Reality, nur eben taktil statt visuell.«

Datenschutz beim Wearable Computing

Neben der Möglichkeit, Computer über elektronische Folien auf der Haut zu steuern, lässt sich über diese auch einiges über den Körper des Nutzers oder der Nutzerin in Erfahrung bringen. Elektromyografie etwa erlaubt es, über eine Messung der Ströme im Nervensystem die Muskelbewegungen und damit Gesten und Körperbewegungen zu erfassen.

Neuromorphe Computer: Mit dem Gehirn als Vorbild zu besserer KI

Um die automatisierte Bilderkennung genauso wie andere Bereiche des maschinellen Lernens weiter zu verbessern, wenden sich Expertinnen und Experten daher dem biologischen Vorbild zu: dem menschlichen Gehirn. Zehn Jahre lang haben 500 Fachleute von mehr als 150 Forschungseinrichtungen aus 19 europäischen Ländern daran gearbeitet, das Denkorgan zu entschlüsseln, zu kartieren und besser zu verstehen. Ausgestattet mit rund 600 Millionen Euro war das Human Brain Project eines der größten und ehrgeizigsten Forschungsvorhaben in Europa. Involviert waren so unterschiedliche Fachrichtungen wie Neurowissenschaft, Medizin und Computertechnologie. Die Erkenntnisse sollen nicht nur die Hirnforschung selbst und mögliche medizinische Anwendungen nach vorne bringen, sondern auch Impulse für die Entwicklung neuer Informationstechnologien liefern.

Simulation eines Mäusehirns

Besonders beeindruckend ist dabei eine Arbeit der Forschungsgruppe um den Neuroinformatiker Wolfgang Maass von der Technischen Universität Graz: Ihr ist es im Rahmen des Human Brain Projects gelungen, einen Teil des Mäusehirns zu simulieren. Das Team schuf ein Computermodell des knapp 52 000 Neuronen umfassenden visuellen Kortex einer Maus, des bisher am genauesten untersuchten Teils eines Säugerhirns. Das auf diese Art simulierte neuronale Netzwerk war in der Lage, ähnliche visuelle Aufgaben zu erfüllen wie eine lebende Maus. Die Fachleute konnten also erstmals den Sehsinn eines Tiers nachbauen.

Nicht nur die Software soll das Gehirn imitieren

Für eine wirklich effiziente Verarbeitung von Bildern und Informationen genügt es nicht, die Funktionsweise des Gehirns bloß auf Seiten der Software zu imitieren. Die Hardware, auf der die Berechnungen letztlich stattfinden, sollte ebenfalls dem biologischen Vorbild folgen.

Lesen Sie auch: Multiple Sklerose: Verhalten beim ersten Schub

Dieser Aufgabe widmeten sich Forschende der Technischen Universität Dresden und der University of Manchester ebenfalls im Rahmen des Human Brain Project. Die von ihnen entwickelten SpiNNaker-Chips (Spiking Neural Network Architecture) werden als neuromorph bezeichnet, weil manche ihrer Funktionsweisen vom Gehirn inspiriert sind. Die SpiNNaker-Chips verwenden als elementare Schaltelemente zwar nach wie vor herkömmliche Transistoren, mit denen auch gewöhnliche Computer funktionieren. Der Aufbau der Chips ist allerdings biologischen Nervensystemen nachempfunden.

Wie schafft man künstliche Synapsen?

Bei Ansätzen zu neuromorphen Systemen gibt es zwar bereits physische Neurone, doch die Synapsen werden bislang weiterhin über die Software realisiert. Ein Rechner schreibt also ständig die Stärke der Verbindungen, die so genannten Gewichte, in den Speicher, nur um sie beim nächsten Rechenschritt wieder von dort zurückzuholen. »Das kostet nicht nur Zeit, sondern verbraucht auch sehr viel Energie«, sagt Regina Dittmann. Die Elektrotechnikerin ist Professorin an der Justus-Liebig-Universität Gießen und stellvertretende Direktorin des Peter-Grünberg-Instituts im Forschungszentrum Jülich. Sie entwickelt neuartige, elektronische Bauelemente, die ähnliche Eigenschaften aufweisen wie biologische Synapsen. Diese »Memristoren« - ein Kofferwort aus Memory (Speicher) und Resistor (Widerstand) - sind im Wesentlichen elektrische Widerstände, deren Leitfähigkeit sich ändert, wenn Strom durch sie hindurchfließt. »Memristor-Netzwerke speichern die Gewichte [der Synapsen] direkt im Element selbst ab« - genau wie das biologische Vorbild.

Ethische Bedenken und gesellschaftliche Auswirkungen

Es könnte laut Hartung zwar noch Jahrzehnte dauern, bis die organoide Intelligenz ein System antreiben kann, das so intelligent ist wie eine Maus. Doch schon jetzt stehen komplexe ethische Fragen im Raum. Könnten Hirnorganoide etwa Leid fühlen oder gar ein Bewusstsein entwickeln? Und welche Rechte hätten die Spender der Hautzellen? Um diesen Unsicherheiten zu begegnen, schlagen die Autoren vor, den Forschungsprozess kontinuierlich von einem Team aus Ethikern, Forschern und Mitgliedern der Öffentlichkeit begleiten zu lassen, das gemeinsam entsprechende Fragen identifiziert, diskutiert und beantwortet.

Tatsächlich beschäftigte sich eine Stellungnahme der Nationalen Akademie der Wissenschaften Leopoldina schon 2022 mit den Hirnorganoiden, die mit den gegenwärtigen Möglichkeiten derzeit maximal die Größe einer Erbse erreichen könnten. Die Leopoldina-Autoren stellten fest: „Die Herstellung und Beforschung dieser neuartigen Entitäten kann leicht Unbehagen und Sorge vor der Überschreitung ethisch formulierter Handlungsgrenzen wachrufen, geht es doch um solche Zellverbände, die das biologische Substrat des menschlichen Geistes bilden und auf höchst künstliche Weise instrumentalisiert werden.“ Auf absehbare Zeit sei jedoch nicht zu erwarten, dass diese Schmerzempfinden oder andere, auch nur rudimentäre Bewusstseinszustände entwickeln könnten.

tags: #erster #computer #aus #gehirnzellen #schlagt #schon