Gesundheit : Mensch denkt, Maschine wird gelenkt

Berliner Forscher machen den Joystick überflüssig – und steuern ein Computerspiel nur mit Hilfe von Hirnströmen

Christian Guht

Das Hybrid aus Mensch und Maschine fasziniert Dichtung und Wahrheit seit jeher gleichermaßen. Der Wunsch menschliche Schwäche mit Technik zu überwinden, ließ mittelalterliche Ärzte bereits raffinierte Prothesen erfinden und moderne Fernsehautoren den Sechs-Millionen-Dollar-Mann kreieren.

Doch die Fantasie vieler Schriftsteller wird noch übertroffen von dem, was sich Berliner Forscher der Freien Universität und des Fraunhofer Instituts für Rechnerarchitektur und Softwaretechnik ausgedacht haben. Klaus-Robert Müller und Gabriel Curio haben eine Schnittstelle zwischen Computer und menschlichem Gehirn entwickelt. Über das „Brain Computer Interface“ kann das Hirn einem Rechner direkt Befehle geben. So soll es etwa gelähmten Menschen möglich werden, mit der Kraft ihrer Gehirnströme Computermenus zu bedienen.

Gedankenlesen noch unmöglich

Das Verfahren stellten die Wissenschaftler auf der diesjährigen „Cebit“ mit einer beeindruckenden Demonstration vor. Testpersonen führten dort ohne Joystick, sondern nur mit einer Hirnstrom-Mütze versehen ein Videospiel aus den Siebzigern vor. Pong – ein kleiner, leuchtender Punkt prallt von der oberen Bildhälfte zurück in die untere und muss von dort mit einem kleinen, leuchtenden Strich pariert werden. Das simple Bewegungsmuster des Spielers – links und rechts – nutzen die Forscher als Vorzeigemodell für ihre Erfindung. Der Spieler rührt keinen Muskel. Er muss nur fest daran denken, eine Bewegung entweder mit der rechten oder der linken Hand auszuführen, um den Cursor eben nach rechts oder links zu bewegen.

„Das System liest keine Gedanken“, wie Gabriel Curio den leicht beklemmenden Eindruck korrigiert, den der fluoreszierende freie Wille auf dem Monitor hinterlässt. Es mache sich vielmehr zu nutze, dass über den beiden Hälften der Hirnrinde „Motorengeräusche“ unterschiedlich laut erklingen – abhängig davon, welche Körperseite aktiviert werden soll.

In den vorderen Teilen des Gehirns liegen die motorischen Nervenzellen, die jeden Schritt, jeden Handgriff steuern. Die Zellen sind regional fest angeordnet: Nervenzellen für die Hand liegen auf der Oberseite des Lappens, die für den Fuß sechs Zentimeter darüber auf der Mittelkante.

Es reicht bereits, sich eine Bewegung fest vorzustellen, um die Hirnaktivität in den entsprechenden Arealen zu erhöhen. Diese Aktivität kann man in der Hirnstromkurve, dem Elektroenzephalogramm (EEG) darstellen. „Die regional unterschiedlichen EEG-Signale wiederum kodieren dem Computer dann verschiedene Informationen. Der Computer kann also lesen, dass die Hand aktiv werden soll, aber nicht die Absicht erkennen, damit zu streicheln oder eine Ohrfeige auszuteilen“, sagt Gabriel Curio.

Der Differenzierungsgrad der geistigen Botschaft ist schon dadurch beschränkt, dass sich zwischen Hirnoberfläche und EEG- Haube dicker Schädelknochen befindet, der die Sendequalität vergröbert. „Man blickt gewissermaßen durch Milchglas“, so Curio. Daher habe man sich im Experimentalstadium damit begnügt, Links-Rechts-Informationen zu unterscheiden. Doch auch die Differenzierung von Hand-, Schulter- und Fußsignalen ermögliche die Schnittstelle. „Damit stehen einem Gelähmten insgesamt schon sechs neue Freiheitsgrade zur Verfügung.“

Womit wir bei der therapeutischen Perspektive dieser Technik wären. Patienten, die durch hohe Querschnittslähmung oder Krankheiten wie die Amyotrophe Lateralsklerose vollständig bewegungsunfähig sind, könnten mit den sechs Wahlmöglichkeiten durch Menus steppen und damit etwa Textprogramme bedienen. Die Idee ist nicht neu: Ein ähnliches Prinzip erlaubt es Schwerstbehinderten, mit Blickbewegungen zu kommunizieren. Doch damit besetze man eine verbliebene Fähigkeit des Patienten nur anders, sagt Gabriel Curio, das Interface biete hingegen die Möglichkeit, dem eingeschlossenen Gehirn ein neues Fenster nach draußen zu öffnen.

Elektronische Brücke

Amerikanische Wissenschaftler gingen vor wenigen Jahren schon einen Schritt weiter. Dem Team um den Mediziner Miguel Nicolelis gelang es, Affen Roboterarme bewegen zu lassen.

Damit sich Hirnstrommuster einem komplexen Bewegungsablauf zuordnen ließen, griffen die Amerikaner nicht auf das unpräzise EEG zurück. Sie implantierten Dutzende Messfühler (Elektroden) direkt in verschiedene Regionen der Affenhirne und registrierten die Aktivität einzelner Hirnzellen, die an der Bewegungssteuerung beteiligt sind. Irgendwann verstanden die Forscher die Kommandos des Gehirns und konnten aus der Nervenaktivität die Bewegungen des Affen vorhersagen. Diese Informationen nutzten sie, um zugleich einen Roboterarm in Bewegung zu setzten.

Die Kluft zur klinischen Praxis klaffe zwar noch weit bei diesen Experimenten, sagt Gabriel Curio. Doch machten sie deutlich, was alles möglich wird, wenn erst mal durch kabellose Elektroden und bessere Rechnerleistung die Benutzerfreundlichkeit steigt. Auch der umgekehrte Weg – vom Computer ins Gehirn – sei grundsätzlich offen. „Ein Interface hat immer zwei Richtungen“, sagt der Wissenschaftler. Über die elektronische Brücke kann der Computer dem Hirn zuhören. „Er könnte ihm über die Schnittstelle aber auch etwas sagen.“

0 Kommentare

Neuester Kommentar
      Kommentar schreiben