Science
Roboterarm wird mit der Kraft der Gedanken bewegt
An der TU Graz ist es gelungen, einen Roboterarm durch Gedanken zu steuern. Die Technologie soll Querschnittgelähmten mehr Bewegungsfreiheit geben.
Patienten mit schweren Rückenmarksverletzungen stehen vor einem gewaltigen Problem: Sie können etwa ihre Hände und Arme nicht mehr bewegen. Im Fokus der Forschungen von Gernot Müller-Putz steht, Querschnittgelähmten - also Personen, deren Rückenmark im Halsbereich verletzt wurde - mithilfe von Gehirn-Computer-Schnittstellen (BCI) wieder mehr Handlungsfähigkeit zu geben.
Hier lesen: Was der Elefantenrüssel mit Robotern zu tun hat
Die Kraft der Gedanken
"Die bloße Vorstellung, einen Arm zu heben, ändert messbar die elektrische Hirnaktivität”, erklärt Müller-Putz. BCI beruhen auf der Idee, hirnelektrische Signale, die von der Schädeloberfläche aus gemessen werden, in technische Steuerungssignale umzuwandeln. Gernot Müller-Putz beschäftigt sich seit mehr als 20 Jahren mit der Kommunikation zwischen Hirn und Computer. Das Ganze soll mithilfe von bis zu 64 Elektroden, die die Hirnströme "von außen" messen - und nicht mit Chips, die ins Gehirn implantiert werden müssen - funktionieren, wie der Forscher gegenüber der APA erläutert.
Hier lesen: Drohnenbilder machen "durstige" Bäume erkennbar
Hirnsignale in Steuersignale umwandeln
Sein Team versucht in ausgeklügelten Experimenten entsprechende Hirnsignale über ein Elektroenzephalogramm (EEG) zu registrieren, zu verstärken, mit computergestützten Analysen auszuwerten und über Machine Learning in Steuersignale umzuwandeln. Damit sollen dann etwa ein Cursor am Computer bedient oder auch ein robotischer Arm - der für den Patienten Bewegungshandlungen ausführt - in Bewegung gesetzt werden.
Hirnaktivität von Testpersonen aufgezeichnet
Die Testpersonen machten im Grazer Labor zuerst einfache Wischbewegungen mit der Hand. Ihre Hirnaktivität wurde aufgezeichnet und ausgewertet. Die Forschenden konnten daraus ein Modell erstellen, das die Bewegung mit dem EEG in Verbindung bringt.
Mittlerweile kann das Team die Bewegungs-Intention der Testperson aus dem EEG decodieren. Als essenziell stellte sich die Hand-Augen-Koordination dar: "Das heißt, dass die Benutzer mit ihren Augen die Bewegungsbahn des robotischen Arms verfolgen konnten. Die Sehinformationen tragen dazu bei, die Bewegungsintention zu erfassen", berichtet der Grazer Teamleiter.
Decodierung funktioniert noch nicht zu 100 Prozent
Inzwischen haben die Forschenden mehrere BCI entwickelt: Ein BCI kann erkennen, ob man mit einer Bewegung starten möchte, so Müller-Putz. Noch funktioniert die Decodierung der Signale nicht zu 100 Prozent: Ein weiteres BCI erkennt Fehler, also nicht erwünschte Bewegungen des Roboterarms: "Wenn die Person die falsche Bewegung sieht, können wir die Fehlerantwort des Gehirns aus dem EEG ablesen", sagt der BCI-Experte. Das BCI stoppt die Bewegung des Roboterarms und korrigiert sie.
"Die Testpersonen können die Bewegung des Roboterarmes spüren", freute sich Müller-Putz über einen weiteren Fortschritt. Möglich wird das durch Vibrationsgeber. Diese kleben am Schulterblatt und fahren die Bewegungen des Roboterarms in fein fließenden Vibrationen nach. Künftig sollen damit auch komplett Querschnittgelähmte Bewegungen nachempfinden können. "Allerdings müssen wir uns hier eine Anwendung im Bereich des Nackens oder Halses überlegen", erläutert Müller-Putz.