zum Hauptinhalt

Berlin: Ich, Roboter?

In Adlershof basteln Forscher an der Schnittstelle zwischen Mensch und Maschine. Ein Ziel: Irgendwann sollen Gelähmte ihren Rollstuhl per Gedanken steuern. Ein Besuch in der Zukunft

Durst. Hand zum Glas. Finger drum. So fest, dass es nicht verrutscht, nicht so fest, dass es zerbricht. Hand hebt Glas zum Mund. Keine große Sache?

Für diese simplen Griffe muss das Gehirn elektrische Impulse über zwei Dutzend großer Nervenstränge in rund 40 Muskelgruppen schicken. Bis zu 250 Stundenkilometer schnell jagen sie durch die Nerven. Sie befehlen den Muskeln, sich zusammenzuziehen und mit Hilfe der Sehnen an 18 Gelenken die Knochen und Knöchelchen zu bewegen. Gleichzeitig melden die Nervenenden der Fingerspitzen blitzschnell ans Gehirn zurück, wie stark der Druck ist, ob das Glas heiß oder kalt ist… Und das ganz automatisch. Nicht Akt des Willens ist diese menschliche Hochtechnologie, sondern Automatismus unterhalb der Wahrnehmungsschwelle.

Und genau das soll in Zukunft auch mit künstlichen Gliedmaßen funktionieren.

Wissenschaftler des Fraunhofer-Instituts für Rechnerarchitektur und Softwaretechnik in Adlershof arbeiten an einer Vision: an Prothesen, die ein behinderter Mensch allein per Gedankenkraft bewegen kann. Der Name des Projekts: Brain-Computer-Interface (BCI) – HirnRechner-Verbindung. Die Projektleiter: Klaus-Robert Müller, Informatiker des Fraunhofer-Instituts, und Gabriel Curio, Neurologe an der Charité.

Bisher müssen gelähmte oder amputierte Menschen ihre Prothesen mit Augenbewegungen, mit dem Mund oder mit Hilfe ihrer Brustmuskulatur steuern. Ein Beispiel: „Superman“ Christopher Reeves – seit einem Reitunfall querschnittgelähmt –, steuert seinen Rollstuhl, indem er an einem Mundstück saugt. Ein anderes Beispiel: Armamputierte, die, um mit der künstlichen Hand zugreifen zu können, die Brustmuskeln anspannen müssen. „Es ist eine große Umstellung vom natürlichen automatisierten Greifen zum bewusst gesteuerten Ersatzprozess, und die Betroffenen müssen sich das sehr mühsam antrainieren“, sagt Gabriel Curio.

Mit BCI soll das anders werden. Mit ihm sollen Menschen, die einen Arm verloren haben, den künstlichen wie einen natürlichen gebrauchen. Und sie hätte noch mehr zu bieten, die Technik der Zukunft: Querschnittsgelähmte zum Beispiel sollen dann auch den Rollstuhl oder den Lesecomputer per Gedanken steuern können. Sie würden einfach nur ans Umblättern denken – und auf dem Bildschirm erschiene die nächste Seite. An den Prothesen selbst würde sich nicht viel ändern, aber die Steuerung wäre Hightech. „Wir arbeiten an der Tür zu einer neuen Welt“, sagt Curio. „Dahinter wartet ein Universum neuer Möglichkeiten.“ Allerdings: „Bis daraus konkrete Anwendungen werden, vergehen noch Jahre.“

Zurzeit ist die Zukunft noch ziemlich unbequem. Das Herzstück der Apparatur ist eine Haube aus blauem Stoff, aus der eine Unzahl winziger, bunter Kabel herausbaumelt. 128 Sensoren, die wie Plastikdruckknöpfe aussehen, pressen sich an die Kopfhaut. Die Kabelanschlüsse zum Computer ziehen schwer an dem Hut, der immer wieder nach hinten rutscht. Und trotzdem halten es Curios und Müllers Versuchskaninchen, vor allem Studenten, bis zu sechs Stunden darunter aus. Müssen sie auch, denn es dauert, bis Computer und Mensch einander verstehen.

Die Technik dahinter kennt jeder, der schon mal zum EEG musste. Die Sensoren messen auf der Schädeldecke die Schwankungen der elektrischen Spannung, wenn das Gehirn aktiv ist. Diese Veränderungen in der Spannung stehen für unterschiedliche Aktivitätsphasen. Im Wachzustand zum Beispiel sind dies Beta-Wellen, die mit einer Frequenz von 13 bis 30 Hertz schwingen (zum Vergleich Haushaltsstrom: 50 Hertz).

Die Software des BCI muss nun exakt den Gehirnstrom identifizieren, der, zum Beispiel, für die Bewegung des rechten Armes verantwortlich ist. Ist er erst einmal gefunden (was aufwendig ist), dann kann ihn die Software über die Sensoren immer wieder erkennen – und einen Steuerbefehl an den Motor in der Prothese absetzen. Eigentlich ist das nicht kompliziert. Genau so setzt ein Computerprogramm das Schreiben um. Immer, wenn der Buchstabe M auf der Tastatur gedrückt wird, erscheint er auf dem Schirm. Auch hier geht von der Taste nur ein elektrischer Impuls aus.

Nun ist der Mensch aber keine Maschine, das heißt, der Steuerungsimpuls, der vom Hirn ausgeht, sieht bei jeder Person anders aus – und ist deshalb umso schwerer ausfindig zu machen. Während der Vorbereitungsphase bitten die Forscher die Testperson, sich eine Aktion mit ihrem rechten Arm vorzustellen – ein Spiel auf der Klaviertastatur zum Beispiel. Die Arme ruhen dabei bewegungslos auf den Seitenlehnen des Stuhls. Im Idealfall erscheint jetzt im Muster der Hirnströme ein Signal – das also offenbar den rechten Arm ansteuert. Die Software wäre nun auf diesen einen entscheidenden Impuls geeicht.

Allerdings ist jenes Signal jeweils nur an einem einzelnen, kleinen Punkt der Gehirnoberfläche zu finden, und den zunächst einmal zu finden, ist schwierig genug. Für die Bewegung eines Armes oder eines Beines ist jeweils eine Zone von der Größe eines Zwei-Euro-Stücks zuständig. Für die einzelnen Finger sind diese Areale sogar nur millimetergroß – zu klein, um sie mit der heutigen Technik zu finden. Also wird der Computer zunächst nur grobmotorische Bewegungen erkennen können. Derzeit bewegen die Probanden einen virtuellen Arm auf dem Computerbildschirm auf und ab, mehr geht noch nicht.

Noch ein Problem bei der Erkennung des jeweiligen Hirnimpulses ist das so genannte „Cocktail-Party-Problem“. Denn auf der Hirnrinde ist ständig was los. Laufend prasseln Reize auf uns ein – ein Duft, der Druck an der aufgestützten Hand, ein Luftzug im Gesicht – und lösen im Kortex, auf der Gehirnoberfläche, viele Reaktionen gleichzeitig aus. Man stelle sich vor, man befände sich auf einer Stehparty: Stimmengewirr. Trotzdem versteht man die Worte des Gesprächspartners, während alles andere zum Hintergrundrauschen wird. Genau das müssen die Wissenschaftler mit ihrer Software und den Signalen auf dem Kortex erreichen.

Curio und seine Kollegen setzen auf eine Technik ohne Operation. In den USA werde zwar derzeit erforscht, wie man die Sensoren direkt ins Hirn pflanzen könnte, um die Bewegungsareale von dort aus schneller zu lokalisieren, sagt Curio. Die Gefahr einer Verletzung des empfindlichen Gehirns sei jedoch schwer kalkulierbar. Als nächstes wollen er und seine Kollegen erst einmal ein praktischeres Messgerät erfinden, kleiner und bequemer, in Form einer Baseballkappe vielleicht. Und ein tragbarer Computer, der die Prothese steuert, wäre auch schön. Einer für die Handtasche.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false