Locked-In-Syndrom: Mit Gehirn-Computer-Schnittstellen aus der Isolation#
Menschen mit Locked-In-Syndrom (LIS) sind in ihrer Kommunikation enorm eingeschränkt. Implantierbare Gehirn-Computer-Schnittstellen, die Sprache in Echtzeit aus Gehirnsignalen entschlüsseln, sollen Betroffenen aus der Isolation helfen. #
Menschen mit degenerativen Erkrankungen muskelsteuernder Nerven wie etwa ALS (Amyotrophe Lateralsklerose) laufen Gefahr, die vollständige Muskelkontrolle zu verlieren. Dies führt zum Locked-In-Syndrom (LIS), bei dem die Betroffenen vollständig gelähmt sind und nicht mehr kommunizieren können, obwohl sie noch bei Bewusstsein sind – eine beängstigende und extrem herausfordernde Situation für die Betroffenen, deren Familien und auch das Pflegepersonal.
Ein europäisches Forschungskonsortium unter der Leitung des niederländischen Universitätsklinikums UMC Utrecht und unter Beteiligung der TU Graz wurde nun vom European Innovation Council (Pathfinder Programme) für eine EU-Förderung von knapp sechs Millionen Euro ausgewählt. Das Ziel: die Entwicklung und Testung einer vollständig implantierbaren Brain-Computer Interface (BCI)-Technologie speziell für Menschen mit Locked-In-Syndrom.
Sprache in Echtzeit aus Gehirnsignalen#
Das Forschungsprojekt Intracranial Neuro Telemetry to REstore COMmunication (INTRECOM) zielt darauf ab, LIS-Patient*innen aus der Isolation zu holen. Eine neue, völlig implantierbare BCI-Technologie soll Sprache in Echtzeit aus Gehirnsignalen entschlüsseln. Patient*innen soll damit erstmals ein vollständiges und einfach zu bedienendes Kommunikationssystem zur Verfügung stehen, mit dem sie sprechen und einen Computercursor steuern können.
„Damit die Betroffenen überhaupt mit dem System interagieren können, werden wir in einem ersten Schritt die Dekodierung von Mausklicks und die Steuerung des Cursors aus den beabsichtigten Bewegungen einrichten. Das haben wir bereits in früheren Untersuchungen als machbar erwiesen“, erklärt Gernot Müller-Putz vom Institut für Neurotechnologie der TU Graz. Die Gruppe von Nick Ramsey (UMC Utrecht) entwickelt einen Weg, Sprache aus Gehirnsignalen zu entschlüsseln: „Wir bewerten den Versuch der Person, die Laute zu produzieren, aus denen ein gesprochenes Wort besteht. Auf diese Weise können wir aus den Gehirnsignalen in Echtzeit ablesen, was die Person sagen will. Wir müssen dazu sehr feinkörnige Hirnsignale erfassen, was nur mit sehr miniaturisierten und räumlich hochauflösenden ECoG-Elektroden möglich ist."
CorTec wird Teile der implantierbaren Elektronik entwickeln, die die Gehirnsignale aufzeichnen: maßgeschneiderte hochauflösende ECoG-Elektroden mit hochkanaliger Verkabelung und neuartigen implantierbaren Steckern. Das Schweizer Wyss Center für Bio- and Neuroengineering steuert einen leistungstarken implantierbaren Biosignalverstärker bei, das die Daten verarbeitet und sie drahtlos an externe Computer zur Analyse und Dekodierung überträgt. Tracy Laabs, Chief Development Officer am Wyss Center: „Nach mehreren Jahren der Entwicklung von Prototypen wird es uns dieses Projekt ermöglichen, die entscheidenden letzten Schritte zu unternehmen, um unser System zum Patienten zu bringen.“
Proband*innen in Utrecht und Graz#
Den Forschenden ist es wichtig, eine Lösung zu finden, die nicht nur in künstlichen Laborumgebungen, sondern auch zu Hause und ohne die Unterstützung von technischen Expert*innen funktioniert. Das neue System muss daher einfach zu bedienen und robust sein und gleichzeitig die neuesten AI-basierten und selbstlernenden Technologien nutzen. Erprobt werden soll das BCI an zwei Personen mit ALS in Utrecht und in Graz. BCI-Experte Gernot Müller-Putz und sein Team vom TU Graz-Institut für Neurotechnologie leiten den zentralen Projektpart „Brain Signal Decoding“. Das Arbeitspaket umfasst zum einen die Entwicklung der BCI-Software und von Algorithmen für einfache Mausklicks bis hin zur kontinuierlichen Cursorsteuerung und zum anderen die Erforschung und Entwicklung einer BCI-Software zur Sprachdekodierung.