zum Hauptinhalt

High Tech: Partner mit Gefühl

Roboter und Computer lernen, auf die menschlichen Gefühle zu reagieren. Eignet sich die künstliche Intelligenz bald als Lebenspartner?

Roboter und Computer können schon vieles. Was dem Menschen aber noch fehlt, ist ein Roboter, der in der richtigen Situation gefühlsmäßig das Richtige sagt und tut. Um hilfreich und angemessen zu reagieren, müsste die Maschine aber die momentanen Gefühle des Bedieners kennen. Genau an solchen Programmen arbeitet Bernd Kleinjohann.

Mit seiner Frau Lisa und Natascha Esau entwickelt der Computerwissenschaftler an der gemeinsam von der Universität Paderborn und der Firma Siemens betriebenen Forschungseinrichtung C-Lab ein System, das menschliche Gefühle erkennt und auf sie reagiert. Das klingt einfacher als es ist, müssen die Forscher dazu doch die schillernde Welt der Emotionen in nüchterne mathematische Formeln der Physik pressen.

Perfekt funktioniert das System noch nicht

Zunächst einmal muss das System erkennen, welche Gefühle der Mensch vor ihm gerade hat. Wie ein Mensch normalerweise drauf ist, sieht sein Gegenüber oft an der Mimik ganz gut: Mundwinkel nach unten signalisieren schlechte Laune, zeigen sie nach oben ist Freude angesagt. Also erhält das „MEXI“ (Machine with Emotionally eXtended Intelligence) genannte Gerät in Paderborn erst einmal zwei Kameras als „Augen“. Sie vermessen Mund- und Augenwinkel des Gesprächspartners. Blitzschnell leitet ein Bilderkennungsprogramm daraus die Gefühlslage des Benutzers ab und steuert die Programme dann entsprechend dieser Gefühle.

Perfekt funktioniert das noch nicht, „in rund 60 Prozent der Fälle erkennt das System das Gefühl richtig“, erklärt Bernd Kleinjohann. Schauspieler wundert diese relativ niedrige Quote nicht.

In 80 Prozent der Fällen erkennt der Computer die Stimmung der Probanden

Sie wissen schließlich, dass viele Menschen ihre Mimik relativ gut kontrollieren können. Kartenspieler kennen zum Beispiel das „Pokerface“, aus dem niemand so recht schließen kann, ob der Spieler nun ein gutes oder ein miserables Blatt hat. Besser klappt das Erkennen der Gefühle mit einer Analyse der Stimme, die Menschen viel schlechter kontrollieren können. Auch ein Pokerspieler erkennt an der zitternden Stimme viel besser als an der Mimik die Unsicherheit seines Gegenübers. Tatsächlich ermittelt auch der Paderborner Computer inzwischen in 80 Prozent der Fälle die richtige Stimmung, wenn er die Redegeschwindigkeit, die Länge und Häufigkeit von Sprechpausen und andere Eigenschaften untersucht.

Bernd Kleinjohann kennt noch einige weitere Möglichkeiten, die Stimmung zu erkunden: „Auch die Art und Weise, mit der jemand die Tastatur bedient, verrät Einiges über seine Gefühlslage“, erklärt der Forscher. Nun muss MEXI nur noch so programmiert werden, dass er möglichst gut auf die Stimmung seines Gegenübers reagiert. Und schon fragt der Fahrkartenautomat den ratlos vor ihm stehenden Menschen „Wohin soll es denn gehen?“ – und spuckt nach dessen Antwort und Eingabe der Kreditkarte auch gleich die richtige Fahrkarte aus.

Die Industrie könnte die Vision bereits umsetzen

Bisher gibt es weder einen Fahrkartenautomaten, der Ratsuchende erkennt und ihnen hilft, noch einen Computer, der sich in die Stimmung seines Benutzers hinein denkt. Die grundlegende Technik dazu aber hat das C-Lab entwickelt. Wenn die Industrie will, könnte die Vision eines mitfühlenden Computers also in nicht zu ferner Zukunft Realität werden.

Der charmante Roboter könnte dann in einem nächsten Schritt als ständiger Lebenspartner von Nutzen sein, verständnisvoll, aufmunternd, immer aufmerksam, liebevoll. Oder streitbar, je nach den Bedürfnissen des Besitzers, auf jeden Fall immer zu Diensten.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false