Die traditionelle Lehrmeinung, dass unser Gehirn Sprache asymmetrisch verarbeitet, wobei eine Gehirnhälfte aktiver ist als die andere - meist die linke -, wird durch aktuelle Forschungsergebnisse in Frage gestellt. Diese neuen Erkenntnisse deuten darauf hin, dass die Sprachverarbeitung komplexer ist als bisher angenommen und möglicherweise beide Gehirnhälften stärker einbezieht.
Die traditionelle Sichtweise der Sprachverarbeitung
Bisher galt in allen Lehrbüchern: Unser Gehirn verarbeitet Sprache asymmetrisch, wobei eine Gehirnhälfte aktiver ist als die andere. Bei den meisten Menschen liegen die wichtigen Sprachzentren dabei links. Wenn wir eine Unterhaltung führen, leistet unser Gehirn Schwerstarbeit. In Bruchteilen von Sekunden muss es die von unserem Gegenüber geäußerten Töne aufnehmen und erkennen, um welche Worte es sich handelt. Dann muss es diese Informationen an das Zentrum weiterleiten, das die Antwort koordiniert. Dieses gibt dann Lippen und Mundraum die Anweisungen, genau die Bewegungen auszuführen, die dann die passenden Laute der Antwort hervorbringen. Nach gängigen Modellen findet der erste Teil, die Verarbeitung der gehörten Sprache, im sogenannten Wernicke-Areal statt, einem Bereich im linken Schläfenlappen unseres Gehirns. Obwohl wir also in einer Unterhaltung das Gesprochene mit beiden Ohren wahrnehmen, findet die Hauptarbeit nach gängiger Lehrmeinung in der linken Hirnhälfte statt - jedenfalls bei den meisten Rechtshändern. Nur für die übergeordneten Funktionen - das Beherrschen einer Sprache und das Nachdenken darüber, was wir genau antworten wollen - nutzt das Gehirn dann wieder beide Hemisphären.
Experimentelle Widerlegung der gängigen Ansicht
Gregory Cogan von der New York University und seine Kollegen haben nun bei normal Sprachfähigen direkt nachverfolgt, welche Hirnareale beim Hören und Sprechen aktiv sind. Möglich wurde dies durch 16 Patienten, denen wegen ihrer Epilepsie Elektroden auf die Hirnoberfläche der linken, rechten oder beider Hirnhälften eingepflanzt worden waren. Diese Patienten baten die Forscher zu drei verschiedenen Tests. Im ersten hörten sie jeweils eine einfache Sprachsilbe, die sie dann nach zwei Sekunden laut wiederholten sollten. Im zweiten Test hörten sie wieder eine Silbe, sollten diese aber nur stumm durch Bewegung der Lippen nachahmen. Im dritten Durchgang schließlich blieb es bei einem passiven Hören der Silben. Das Ergebnis war überraschend: „Im Gegensatz zu einem der Kerndogmen von Gehirn und Sprache fand die Aktivität beim Übergang von der sensorischen Sprachverarbeitung zum motorischen Sprechen bilateral statt“, berichten Cogan und seine Kollegen. Die von den Elektroden aufgezeichnete Reaktion war in beiden Gehirnhälften nahezu gleich stark. Um auszuschließen, dass die Hauptarbeit doch in der linken Hemisphäre stattfand und die rechte nur nachträglich die Signale empfing, verglichen die Forscher die zeitliche Abfolge der Aktivität. „Unsere Daten sprechen dafür, dass das sensorisch-motorische Sprachsystem bilateral ist“, konstatieren die Forscher. Entgegen der gängigen Lehrmeinung umfasst es beide Gehirnhälften.
Die Rolle des Rückenmarks beim motorischen Lernen
Es ist bereits seit Anfang des 20. Jahrhunderts bekannt, dass ein Gehirn nicht zwingend für motorisches Lernen erforderlich ist. Das Rückenmark integriert sensomotorische Informationen und passt Bewegungen entsprechend flexibel an. Es ist also lernfähig und verfügt über ein Gedächtnis - unabhängig vom Gehirn. Bisher war jedoch unklar, wie dies möglich ist. Wissenschaftler aus Japan und Belgien haben nun die genauen neuronalen Schaltkreise entschlüsselt, die hirnunabhängiges motorisches Lernen ermöglichen. Ihre Ergebnisse publizierten sie in »Science«. Das Team um Aya Takeoka vom RIKEN Center for Brain Science in Hirosawa konzipierte dafür ein Experiment mit Mäusen, denen das Rückenmark durchtrennt worden war, welches somit keinerlei Input vom Gehirn erhielt. Jedes Tier hing in einem Haltegurt, so dass seine Hinterläufe frei baumelten. Die Forschenden stimulierten die Beine der Nager wiederholt elektrisch, woraufhin sie reflexartig zurückgezogen wurden. Die Hälfte der Tiere ereilte der leichte Stromstoß immer dann, wenn sie ihre Extremitäten zu weit nach unten hängen ließen. Bei den Kontrolltieren hingegen erfolgte die Reizung zufällig und stand nicht in Zusammenhang mit der Beinposition. Nach zehn Minuten beobachteten die Fachleute einen Lerneffekt nur bei den experimentellen Mäusen: Ihre Beine blieben oben und vermieden jede elektrische Stimulation. Das Rückenmark ist also dazu in der Lage, einen äußeren Reiz mit der Beinstellung zu assoziieren und den motorischen Output entsprechend anzupassen. Am nächsten Tag wiederholten Takeoka und ihre Kollegen den Test, vertauschten aber die Versuchs- und Kontrollmäuse. Die ursprünglichen Versuchstiere hielten ihre Beine immer noch oben: Das Rückenmark hatte somit eine Erinnerungsspur angelegt, die das Umlernen behinderte.
Das Rückenmark umfasst mehrere Populationen von Neuronen, die funktionell in zwei Kategorien unterteilt sind: dorsale (zum Rücken liegende) Nervenzellen, die die sensorische Informationen empfangen und übertragen, und ventrale (zum Bauch liegende), die den motorischen Output modulieren. Um herauszufinden, wie sie jeweils am Lernen und Erinnern beteiligt sind, schaltete die Gruppe unterschiedliche Neuronen bei den Versuchsmäusen ab. Nach dem Inaktivieren von dorsalen Zellen passten sich die Beine der Mäuse nicht mehr an die Elektroschocks an. Dies betraf insbesondere jene Neurone, die das Gen Ptf1a exprimieren. Für das Umlernen am nächsten Tag schienen hingegen die ventralen Zellen des Rückenmarks entscheidend zu sein. Laut den Forschern belegen die Ergebnisse, dass auch die spinalen Schaltkreise dem Prinzip des sensomotorischen Lernens folgen.
Lesen Sie auch: Kann ein Anfall tödlich sein?
Hoffnung bei Rückenmarksverletzungen
Die Erkenntnisse über die Lernfähigkeit des Rückenmarks könnten neue Therapieansätze für Menschen mit Rückenmarksverletzungen eröffnen.
Gehirn-Computer-Schnittstellen als Hoffnung für Sprachunfähige
Rund 100.000 Menschen in Deutschland können aufgrund einer Lähmung, etwa nach einem Schlaganfall oder aufgrund einer fortschreitenden Muskelerkrankung, nicht mehr sprechen. Bislang ist Kommunikation mit Hilfsmitteln noch sehr umständlich für Betroffene und ihr Umfeld. Zwar können sie mithilfe von Software, die sich per Finger oder per Augenbewegungen steuern lässt, Worte formulieren, doch das nur begrenzt und langsam. Jetzt haben US-Forscher demonstriert, wie sogenannte Gehirn-Computer-Schnittstellen und KI dabei helfen können, Betroffenen ihre Sprache zurückzugeben.
Sprachunfähig nach Schlaganfall - Abhilfe mittels Elektroden
In zwei unterschiedlichen Versuchen haben Neurowissenschaftler Methoden entwickelt, wie Patienten per Elektrode eine Sprachsoftware mit ihren Gedanken steuern. Ein Forscherteam der University of San Francisco hat mit einer 46-jährigen Patientin gearbeitet, die nach einem schweren Schlaganfall viele Jahre lang sprachunfähig war. Ein Video aus dem Labor zeigt, wie sie sich mittels KI und Avatar wieder mit ihrem Mann unterhält. Ihr Haar ist kurzgeschoren, an ihrer Schädeldecke ist ein Hirnimplantat angebracht und verkabelt. 253 Elektroden nehmen Signale ihrer Großhirnrinde auf, künstliche Intelligenz leitet aus diesen Signalen Worte und Sätze ab. 87 Wörter pro Minute konnte die Patientin im Versuch erreichen. Ein Rekordwert. Den Klang ihrer Computer-Stimme haben die Forscher aus Tonaufnahmen von ihrem Hochzeitsvideo abgeleitet. "Wir glauben, diese Ergebnisse öffnen die Tür zu neuen Anwendungen," formuliert Studienleiter Edward Chang. Für ihn ist die Entwicklung ein Durchbruch, der vielen Patienten helfen könnte: "Unsere Stimme und Mimik sind Teil unserer Identität und wir wollten eine digitale Sprache entwickeln, die natürlicher, fließender und ausdrucksstärker ist."
Elektroden am Gehirn und KI-gesteuerte Software
Einen ähnlichen Versuch stellen gleichzeitig Forscher aus Kalifornien vor. Sie wollten zeigen, dass mittels Elektroden am Gehirn und KI-gesteuerter Software Kommunikation auch bei einer fortschreitenden Muskellähmung möglich wird. Neurowissenschaftler der Stanford University forschten mit einer 68-jährigen Patientin, die an Amyotropher Lateralsklerose ALS erkrankt ist und nur noch unbestimmte Laute artikulieren kann. Sie übte in 25 halbtägigen Trainingsstunden mit einem Programm, das 125.000 Wörter umfasste. Die Fehlerrate lag zuletzt bei knapp 24 Prozent.
Gehirn-Computer-Schnittstelle bei Prothesen bereits erprobt
Die Methode der Gehirn-Computer-Schnittstelle ist bereits in therapeutischen Bereichen wie bei Prothesen erprobt, die sich per Gedanken steuern lassen, sagt Neurologe Surjo Soekadar. Er forscht an der Charite Berlin an Methoden der Neurorehabilitation. An den US-Versuchen war er nicht beteiligt, aber auch er bezeichnet die beiden Entwicklungen als Meilenstein. "Weil es bisher nicht möglich war, mit einer so hohen Geschwindigkeit Informationen aus dem Gehirn auszulesen. Da gab es eine ganz hohe Fehlerquote. Und deswegen ist der klinische Einsatz dieser Gehirn-Computer-Schnittstellen zum Beispiel zur Wiederherstellung der Kommunikation bisher nicht wirklich klinisch in der Breite erfolgt."
Lesen Sie auch: Sicher Autofahren mit Parkinson: Ein Leitfaden für Deutschland
Fast ein normales Gespräch ganz ohne Mund
Die neuen US-Verfahren schaffen es in großer Geschwindigkeit, die Signale auszulesen und in Sprache umzusetzen, sodass beinahe ein normales Gespräch möglich wird. Vor allem für Betroffen mit großem Leidensdruck, mit fortschreitenden Lähmungen im sogenannten Locked-In-Zustand, bietet das Verfahren Chancen, meint Soekadar: "Wenn man bei vollem Bewusstsein ist und dann aufgrund eines Schlaganfalls oder einer anderen Erkrankung nicht mehr mit dem Mund kommunizieren kann“. Bei ganz schweren Fällen sind selbst Augenbewegungen nicht mehr möglich, in dieser Situation gebe es bisher keine anderen Ansätze als diese Hirnimplantate. "Diese Technologie, die jetzt vorgestellt wurde, gibt Hoffnung," so Soekadar.
Noch ein weiter Weg bis zum klinischen Alltag für die neuen Verfahren
Allerdings sind die Methoden weit davon entfernt, im klinischen Alltag eingesetzt zu werden. Noch fehlen Studien mit mehreren Teilnehmern. Außerdem muss die KI monatelang trainiert werden, bis sie aus den Signalen des Gehirns Sprachmuster und sinnvolle Worte auslesen kann. Ein großes Problem: Die Methode erfordert eine riskante Gehirn-OP. In den zwei Studien handelt es sich eben um Mikroelektroden, die in den Schädel hineinoperiert werden. "Das sieht dann aus wie so eine Folie, die man auf das Gehirn direkt aufbringt," erklärt Soekadar, "und dann eben von der Oberfläche des Gehirns misst. Das Problem ist, dass sie nach dem Stand jetzt den Schädel öffnen müssen, das birgt das Risiko von Infektionen und Blutungen."
Noch viel Potential bei Gehirn-Computer-Schnittstellen
Eine weitere Einschränkung: In den Studien waren Großhirn und -rinde beider Patientinnen intakt, doch nach Schlaganfällen ist die Hirnschädigung in der Regel umfassend und oft so großflächig, dass noch völlig unklar ist, was die Technologie dann bewirken könnte. Noch sind also viele Fragen ungeklärt, trotzdem sind die Neurologen überzeugt: Die Kombination von Hirnstrommessung und KI dürfte sich in den nächsten Jahren weiterentwickeln. In speziellen Fällen, schätzen die Forscher, könnten Betroffene davon in etwa zehn Jahren profitieren.
Fallbeispiel ALS und Hirnimplantate
Ein an ALS erkrankter Mann kann sich nicht mehr bewegen, ist aber geistig noch voll bei Bewusstsein. Die Amyotrophe Lateralsklerose, kurz ALS, wurde vor einigen Jahren durch die "Ice Bucket Challenge" berühmt. ALS gilt nach wie vor als unheilbar, dennoch macht die Wissenschaft Fortschritte. Es handelt sich laut der Studie, die im Fachmagazin "Nature Communications" veröffentlicht wurde, um einen 36 Jahre alten Patienten aus Deutschland, bei dem 2015 ALS festgestellt wurde. Zunächst kommunizierte der Mann noch über ein System, bei dem er verschiedene Buchstaben mit Bewegungen der Augen anwählen konnte. Als seine Krankheit weiter fortschritt, war das nicht mehr möglich. Die Forscher implantierten dem Mann 2019 1,5 Millimeter große Elektroden in seinen Motorcortex, den Teil des Gehirns also, der für Motorik und Bewegungen zuständig ist. Bei den meisten örtlich begrenzten Tumoren ist eine Operation die wichtigste Behandlung - und oft der erste Schritt. Ziel ist es, das von Krebs befallene Gewebe möglichst vollständig zu entfernen. Chirurg entnehmen auch angrenzende, gesunde Gewebe, in die womöglich schon Tumorzellen eingedrungen sind, ebenso dazugehörige Lymphknoten, weil sich Metastasen hier oft zuerst bilden. Die Ärzte gehen hierbei so schonend wie möglich vor und versuchen, das betroffene Organ und seine Funktion weitgehend zu erhalten. Nicht immer braucht es eine offene Operation, manchmal reicht heute auch ein minimal-invasiver Eingriff, bekannt als Schlüsselloch-Chirurgie, etwa bei Tumoren im Magen und Darm oder bei Gebärmutterhalskrebs.
Die Kommunikation läuft über ein akustisches Signal: Stellt das Implantat eine verstärkte Gehirnaktivität fest, ertönt ein ansteigender Ton, das bedeutet "Ja". Bei sinkender Aktivität sinkt auch der Ton ab, das Zeichen für "Nein". Der Patient habe nur zwei Tage gebraucht, um diese Technik zu beherrschen. Mittlerweile könne er so Worte und Sätze bilden, berichten die Forschenden. Noch dauert es jedes Mal Minuten, bis der 36-Jährige ein Wort gebildet hat. Dennoch bietet die Methode eine neuartige Möglichkeit für gelähmte Patienten, sich auszudrücken. ALS ist eine schwere Erkrankung des Nervensystems, für die es bisher kein Heilmittel gibt. Sie äußert sich zuerst durch Muskelschwäche, Muskelschwund und Muskelsteifigkeit. Die Lähmung der Muskulatur schreitet dann zumeist weiter fort. Neue Hirnimplantate sollen Menschen helfen, die nach einem Schlaganfall oder durch eine Krankheit nicht mehr sprechen können. Zwei Arbeitsgruppen aus Kalifornien ist jetzt ein Durchbruch gelungen. ALS, die amyotrophe Lateralsklerose, ist eine nicht heilbare neurodegenerative Erkrankung. Patienten verlieren nach und nach die Kontrolle über ihre Muskeln. Oft können sie irgendwann nicht mal mehr sprechen. Eine Arbeitsgruppe der Stanford University in Kalifornien arbeitet mit einer ALS-Patientin, um ihr Hirnimplantat weiterzuentwickeln und zu testen. In der kürzlich veröffentlichten Studie sind zwei Videos enthalten, die zeigen, wie die Patientin mit dem System umgeht. Aus ihrem Kopf ragen zwei kleine Quader, an die Kabel angeschlossen sind. Diese zeichnen ihre Hirnaktivität auf.
Lesen Sie auch: Corona und das Gehirn: Was wir wissen
Funktionsweise des Versuchs
Aus dem Kopf der Probandin ragen zwei kleine Quader, an die Kabel angeschlossen sind. Diese zeichnen ihre Hirnaktivität auf. Im ersten Video soll sie versuchen, die Sätze zu sprechen. Sie hat noch rudimentäre Kontrolle über ihre Stimmbänder, kann Laute von sich geben, die aber nicht verständlich sind. Sobald sie fertig ist, taucht aber auf dem Bildschirm der Satz auf, den das System aus den Daten aus ihrem Gehirn entschlüsselt hat, der dann von einer Computerstimme gesprochen wird. Im zweiten Video soll sie den Satz sogar nur denken. Auch das funktioniert. In dem Video ist auch zu erkennen, dass ihr der Umgang mit dem System Spaß macht. Es ist nicht das erste Mal, dass es Forschenden gelingt, anhand von Daten aus dem Gehirn richtig abzulesen, was jemand sagen will. Die Neuerung an diesem System und einem weiteren, das zeitgleich von einer Arbeitsgruppe der University of California in San Francisco (UCSF) vorgestellt wurde, ist, dass eine künstliche Intelligenz die Verarbeitung der Daten übernimmt. Der Vorteil der KI ist, dass sie sehr viel besser die Daten interpretieren kann. Beim System der Stanford University mit einem Vokabular von 50 Wörtern liegt die Fehlerrate bei etwa einem von zehn Wörtern. Das ist fast dreimal besser als bisher. Auch die Sprechgeschwindigkeit hat sich deutlich gesteigert, von zum Teil fünf Wörtern pro Minute auf mehr als 60 für das System aus Stanford und sogar knapp 90 für das System der UCSF. Für Englischsprachige ist das etwa die Hälfte der normalen Sprechgeschwindigkeit. Dank der niedrigen Fehlerrate und hohen Sprechgeschwindigkeit sind diese Systeme jetzt dabei, die Schwelle zur Nutzbarkeit zu überschreiten, sagen die Forschenden in einer gemeinsamen Pressekonferenz. Die Patientinnen aus den beiden Studien könnten sogar an Gesprächen teilhaben. Marktreif seien die Systeme allerdings noch nicht. Die Probandin der Studie der UCSF, eine ehemalige Lehrerin, die seit dem Alter von 30 wegen eines Schlaganfalls gelähmt ist, kann sogar mit ihrer eigenen Stimme sprechen. Aus der 15-minütigen Rede, die sie an ihrer Hochzeit hielt, konnten die Forschenden - auch wieder mithilfe von KI - ihre Stimme klonen. Diese spricht dann die Sätze, die die Probandin denkt. Außerdem haben die Forschenden einen Avatar für sie entwickelt: ein Gesicht auf dem Bildschirm, auch wieder basierend auf ihrem eigenem, das die Sätze mitspricht.
Unterschiede zwischen den Implantaten
Der Unterschied zwischen den beiden Ansätzen liegt hauptsächlich in den Implantaten selbst. Das Implantat der Stanford University ist sehr engmaschig und liest die Aktivität einzelner Nervenzellen aus. Das Implantat der UCSF ist breiter gefächert und zeichnet die Aktivität von ganzen Nervenbündeln auf. Beide Ansätze funktionierten gut, bescheinigen sich die Forschenden gegenseitig.
Die Suche nach neuen Wegen der Kommunikation
Heiko war verzweifelt. Nachdem er seinen Vater nach dem Unfall im Krankenhaus besuchte, war schnell klar. Sein geliebter Vater konnte nichts mehr. Er konnte sich nicht mehr bewegen, kein Bein heben, keinen Arm, er konnte sich nicht setzen, den Kopf anheben, er kann auch nicht mehr sprechen. Lediglich die Augen schauten ihn weit aufgerissen an, als ob sie etwas sagen wollen, aber nicht können. "Da lag dieser alte, aber eben noch so agile Mensch nun regungslos da. Nicht mehr imstande zu sprechen, unfähig sich zu erinnern, was ihm geschehen war. Und ich wusste noch nicht einmal, ob er lieber sterben würde", erinnert sich Heiko. Doch was will der Papa sagen, wenn er so flehentlich guckt? Wie geht es ihm nach dem Unfall? Wo hat er Schmerzen? Um mit seinem Vater zu kommunizieren, informiert sich Heiko über aktuelle Verfahren der Spracherkennung. "Was er sich wünscht, konnte ich nur erahnen", erklärte Heiko. "Nach ein paar Tagen konnte er mit seinen Augen wenigstens 'Ja' oder 'Nein' signalisieren - aber das war es schon. Ich habe damals viel nach technologischen Möglichkeiten recherchiert, ihm eine Verständigung, eine Art von Sprechen doch wieder zu ermöglichen. Aber alles, was ich fand, war wenig befriedigend, in den Erfolgschancen ungewiss und sehr teuer." Sein ernüchterndes Ergebnis: Theoretisch wäre es möglich, Gelähmten eine Sprache zu verleihen, praktisch braucht es noch viel weitere Entwicklung. Heikos Vater starb vor zwei Jahren.
Fortschritte bei Brain-Computer-Interfaces (BCI)
"Dieser Ansatz ermöglicht es gelähmten Personen, Sätze so schnell zu verfassen, wie andere in das Smartphone tippen", sagte Jaimie Henderson, Professor für Neurochirurgie und Co-Autor der Studie. Ein Proband der Studie war ein Mann, der aufgrund einer Rückenmarksverletzung im Jahr 2007 praktisch alle Bewegungen unterhalb des Halses verloren hatte. Neun Jahre später setzte ihm der Neurochirurg Henderson zwei Brain-Computer-Interface-Chips (BCI) von der Größe einer Baby-Aspirin in die linke Seite des Gehirns ein. In zahlreichen mehrstündigen Sitzungen wiesen die Forschenden diesen und weitere Probanden an, Sätze so zu schreiben, als ob ihre Hand nicht gelähmt wäre. Die Teilnehmer sollten sich lediglich vorstellen, sie schrieben mit einem Stift auf liniertem Papier. Die Probanden wiederholten im Geiste jeden Buchstaben zehnmal, so dass die Software "lernen" konnte, die neuronalen Signale zu erkennen, die im Bemühen um das Schreiben der Buchstaben entstanden. Konkret wurden dabei die neuronalen Signale über winzige Drähte im Kopf direkt an den implantierten BCI-Chip gesendet. Mit Hilfe künstlicher Intelligenz decodierten eigens entwickelte Algorithmen die Signale und schätzten die beabsichtigte Hand- und Fingerbewegung des Probanden ein. Die Teilnehmer der Studie produzierten Text mit einer Rate von etwa 18 Wörtern pro Minute. Zum Vergleich: Nichtbehinderte Menschen desselben Alters können etwa 23 Wörter pro Minute auf einem Smartphone ausgeben.
Erstaunliche Erkenntnisse über das Gehirn
Neben der Schreibgeschwindigkeit zeigt die Studie noch eine erstaunliche Erkenntnis. Das Gehirn wirkt wie ein konservierendes Gedächtnis, welches sich auch durch mangelnde Anwendung nicht so schnell aus der Übung bringen lässt. Obwohl die Probanden seit über zehn Jahren nicht mehr mit der Hand schreiben konnten, waren sie imstande sich jeden einzelnen Schriftzug noch genau vorzustellen und abzurufen. Komplizierte beabsichtigte Bewegungen, wie wechselnde Geschwindigkeiten und gekrümmte Bahnen in Handschriften können von den KI-Algorithmen leichter und schneller interpretiert werden, als einfachere beabsichtigte und geradlinige Bewegungen mit dem Cursor. Shenoy und Henderson, die seit 2005 gemeinsam an BCIs arbeiten, sind die leitenden Co-Autoren der neuen Studie. Der Hauptautor ist Frank Willett, PhD, ein Forscher im Labor und am Howard Hughes Medical Institute.
Sprachneuroprothese ermöglicht Kommunikation bei ALS
Casey Harrell kann nach einigen Jahren wieder sprechen. Der 45-Jährige leidet seit fünf Jahren an amyotropher Lateralsklerose (ALS) und verlor dadurch sein Sprachvermögen. Dank eines Implantates, das die EEG-Signale im Gehirn auffängt, und einer Software, die die beabsichtigten Laute erkennt, kann er sich über einen Computerlautsprecher verständlich machen. US-Forscher stellen die Sprachneuroprothese im New England Journal of Medicine (NEJM 2024; DOI: 10.1056/NEJMoa2314132) vor.
Im Juli des vergangenen Jahres erhielt Harrell ein Hirn-Computer-Interface. Neurochirurgen der Universität von Kalifornien in Davis öffneten das Schädeldach mit einer 5 × 5 cm großen Trepanation und platzierten vier Mikroelektrodenarrays auf der Hirnhaut direkt über dem linken Gyrus praecentralis. Dies erfolgte an der Stelle, an der die motorischen Signale an die Muskulatur von Lippen, Kiefer, Zunge und Kehlkopf ausgesendet werden. Diese Verbindungen erfolgen über die Motoneurone, die bei der ALS nach und nach absterben.
Die Signale wurden bei dem Patienten stattdessen von den 256 Elektroden der vier Arrays aufgefangen und drahtlos an einen Computer übermittelt. Dieser analysierte die EEG-Signale und erkannte mit einer KI-Software die beabsichtigten Laute. Diese wurden auf einem Computerbildschirm gezeigt und über einen Lautsprecher akustisch ausgegeben - wobei die Software die frühere Stimme des Patienten benutzte, die sie aus vergangenen Tonaufnahmen übernommen hatte.
Die Umsetzung der Signale in die computergenerierte Stimme erfolgte beinahe in Echtzeit, so dass der Patient mit gewissen Pausen zwischen den Worten annähernd fließend sprechen konnte.
Die Lernkurve war nach den vom Team um David Brandman vorgestellten Ergebnissen erstaunlich steil. Schon am ersten Tag der Anwendung (25 Tage nach der Operation) erreichte die Sprachneuroprothese mit einem Wortschatz von 50 Wörtern eine Genauigkeit von 99,6 %. Die Software benötigte dafür eine Kalibrierung von 30 Minuten. Am zweiten Tag wurden nach weiteren 1,4 Stunden Systemtraining bei einem Vokabular von jetzt 125 000 Wörtern eine Genauigkeit von 90,2 % erreicht.
In den folgenden 8,4 Monaten konnte die Genauigkeit der Software durch weitere Trainingseinheiten auf 97,5 % gesteigert werden. Erstmals wurde über den klinischen Einsatz von Sprachneuroprothesen vor vier Jahren berichtet. (NEJM 2021; DOI: 10.1056/NEJMoa2027540). Mehr als 248 Stunden hat Casey Harrell seine Sprachneuroprothese dem Forscherteam um David Brandman zufolge bereits genutzt. Er erreicht eine Geschwindigkeit von etwa 32 Wörtern pro Minute. Englischsprachige Menschen schaffen üblicherweise 160 Worte pro Minute.