Forschung Computer dekodiert kontinuierliche Bewegungen aus Hirnsignalen

Redakteur: Andreas Leu

An der TU Graz ist es erstmals gelungen, aus menschlichen Hirnsignalen die Absicht einer kontinuierlichen Bewegung auszulesen. Der Erfolg ermöglicht eine natürlichere und nichtinvasive Steuerung von Neuroprothesen in Echtzeit.

Firma zum Thema

Gernot Müller-Putz, Leiter des Instituts für Neurotechnologie der TU Graz, ist eine internationale Koryphäe auf dem Gebiet der BCI-Forschung.
Gernot Müller-Putz, Leiter des Instituts für Neurotechnologie der TU Graz, ist eine internationale Koryphäe auf dem Gebiet der BCI-Forschung.
(Bild: Lunghammer – TU Graz)

Sie sollen querschnittgelähmten Menschen ein Stück Bewegungsfreiheit und damit mehr Lebensqualität zurückbringen: Sogenannte Brain-Computer-Interfaces (BCIs), das heisst Gehirn-Computer-Schnittstellen, die die Hirn­aktivität der Person messen und die elektrischen Ströme in Steuerungssignale für Neuroprothesen umwandeln. «Steuern nur durch Denken», wie es Gernot Müller-Putz vereinfacht formuliert. Der Leiter des Instituts für Neurotechnologie der TU Graz zählt zu den «alten Hasen» der BCI-Forschung und beschäftigt sich intensiv mit nichtinvasiven BCI-Systemen. Er und sein Team haben in den letzten zehn Jahren erste positive Ergebnisse mit der EEG-basierten Steuerung von Neuroprothesen oder robotischen Armen bei Personen mit Rückenmarksverletzungen erzielt. Allerdings war die Steuerung bislang unnatürlich und umständlich, weil die Denkmuster wiederholt imaginiert werden mussten. Im Rahmen seines jüngst abgeschlossenen ERC-Consolidator-Grant-Projekts «Feel your Reach» haben Müller-Putz und sein Team nun den Durchbruch bei der Entwicklung natürlicherer und kontinuierlicher BCI-​Steuerungssysteme geschafft.

Auf das Sehen kommt es an

Den TU-Graz-Forschenden ist es erstmals gelungen, einen Roboterarm rein durch Gedanken in Echtzeit zu steuern, gewohnt nicht­invasiv mittels EEG-Kappe. Möglich wurde das durch das Dekodieren kontinuierlicher Bewegungsintention aus den Hirnsignalen – das war bislang unmöglich. Die Forschenden untersuchten zunächst eine Vielzahl an Bewegungs­parametern, wie Position, Geschwindigkeit, aber auch Distanz, und extrahierten deren Korrelate aus der neuronalen Aktivität. «Wesentlich hierbei ist der Beitrag der Augen», sagt Müller-Putz. «Es ist wichtig, dass Benutzerinnen und Benutzer die Augen verwenden dürfen, um die Bewegungsbahn des robotischen Armens zu verfolgen.» Allerdings erzeugen Augenbewegungen und Lidschläge eigene elektrische Signale, sogenannte okulare Artefakte im EEG. «Diese Artefakte verzerren das EEG-Signal. Sie müssen daher in Echtzeit rausgerechnet werden. Es ist aber essenziell, dass die Auge-Hand-Koordination stattfinden kann und so einen Beitrag zur Dekodierung der zielgerichteten Bewegungswünsche liefert», erklärt Müller-Putz. Mit anderen Worten: Die Sehinformationen tragen dazu bei, die Bewegungsintention zu erfassen. Die Störsignale des Auges selbst aber müssen aus der elektrischen Aktivität herausgerechnet werden.

Bildergalerie

BCI erkennt nicht erwünschte Bewegungen

Wesentlich ist auch, dass eines der von den Forscherinnen und Forschern entwickelten BCIs erkennen kann, ob man mit einer Bewegung starten möchte – es erkennt den Start einer zielgerichteten Bewegung. Darüber hinaus erkennt und korrigiert ein weiteres BCI des Forschungsteams Fehler, also nicht erwünschte Bewegungen des Roboterarms; ein weiterer Puzzlestein für eine natürlichere Prothesensteuerung. «Die Fehlerantwort des Gehirns lässt sich aus dem EEG ablesen. Das BCI erkennt, dass die ausgeführte Bewegung nicht mit der Intention der Person übereinstimmt. Es stoppt die Bewegung des Roboterarms oder setzt diese zurück an den Anfang», so Müller-Putz. Im Projekt wurde die Fehlererkennung mehrfach in Tests mit querschnittgelähmten Personen erfolgreich getestet.

Personen können Bewegungen des Roboterarms spüren

Ebenfalls erfolgreich waren die TU-Graz-Forschenden beim sogenannten kinästhetischen Feedback. «Die Testpersonen sehen die Bewegungen der Prothese nicht nur, sie spüren sie auch», freut sich Müller-Putz. Technisch wurde dies mithilfe von Vibrationsgebern möglich. Diese kleben an der Haut am Schulterblatt und fahren die Bewegungen des Roboterarms in fein fliessenden Vibrationen nach. Theoretisch sei es damit auch komplett Querschnittgelähmten möglich, Bewegungen nachzuempfinden. «Allerdings müssen wir uns hier eine Anwendung im Bereich des Nackens oder Halses überlegen», spricht Müller-Putz zukünftige Ziele an. Allen voran möchten die Forschenden das Dekodieren einer Bewegung aus visuellen, intentionalen und bewegungsempfindenden Informationen verbessern, dabei Fehler erkennen und alle vier BCI-Systeme in einem «Vierfach-​BCI-System» vereinen.

(ID:47703518)