Wofür kann die Software benutzt werden?

Seite 2 von 2
Verräterische Mimik : Sollen Maschinen unsere Gefühle lesen?

Beyond Verbal greift für die Auswertung auf einen wachsenden Datenpool an Stimmproben zurück – über eine Million umfasst dieser bereits. Die Proben werden über die kostenfrei downloadbare App „Moodies“ gesammelt, bei der User 20 Sekunden lang ihre Stimme aufnehmen und dann eine Einschätzung ihrer Gefühle bekommen. Das kann über Selbstkontrolle, Freundlichkeit und Traurigkeit bis hin zu Angst gehen. Stimmt diese Einschätzung mit der Selbstwahrnehmung des Nutzers überein – zu 75 Prozent sei das derzeit der Fall – und wird sie später von einem Psychologen bestätigt, ist das der „Gold Standard“, wie Mor es nennt. Er kann verwendet werden, um die Software zu verbessern. Der Nutzer hat mit der Akzeptanz der AGBs das „unwiderrufliche, unbegrenzte und weltweite“ Recht zur Modifikation und Analyse seiner Sprachaufnahmen zur internen Forschung an Beyond Verbal übertragen.

Die App soll Hilfe beim Flirten bieten

Wozu die Nutzer selbst die „Moodies“-App nutzen, weiß Yuval Mor nicht. In einem Werbespot zeigt Beyond Verbal aber zukünftige Anwendungsmöglichkeiten. Wer etwa beim Flirten die Signale des anderen nicht richtig zu deuten weiß, könnte die App mitlaufen lassen. Das Programm würde aber auch den gestressten Familienvater unterstützen, der mit den Kindern auf dem Rücksitz schimpft. Weil er offenbar abgelenkt und aufgeregt ist, könnte die App dafür sorgen, dass das Auto abbremst.

Auch die Mimikauswertung per Webcam dürfte künftig in so manchem Bereich Anwendung finden. Bei Videokonferenzen oder virtuellen Vorstellungsgesprächen würden die Gefühle des Geschäftspartners oder Bewerbers angezeigt. Affectiva hat sich bereits mit der Videokommunikationsplattform ooVoo zusammengetan, um „persönliche und geschäftliche Interaktionen zu transformieren“.

Einsatz der Software bei der Strafverfolgung

Forscher Ekman fürchtet mittlerweile, er habe mit dem Mimikkatalog ein Monster geschaffen. Dem „Wall Street Journal“ sagte er: „Ich kann nicht kontrollieren, wie er verwendet wird.“ Seine Sorge ist, dass die auf dem FACS basierende Technologie die Gefühle einzelner Personen ohne deren Einwilligung berechnet oder dass deren Emotionen falsch interpretiert werden. So könnte die Polizei die Gefühle von Menschenmassen ermitteln oder am Flughafen Menschen mit verdächtigen Emotionen herausfiltern. Das US-Unternehmen Eyeris arbeitet nach Informationen des „Wall Street Journal“ bereits mit einer staatlichen Strafverfolgungsbehörde zusammen.

Dass die Software künftig als ein verlässlicher Lügendetektor fungieren könnte, bezweifelt der Mimikexperte Dirk W. Eilert. Er hat sich für die Anwendung des FACS zertifizieren lassen und trainiert andere darin, Gesichtsausdrücke und die nur Millisekunden dauernden Mikroexpressionen zu erkennen. „Die Software verrät zwar, wie sich jemand fühlt, aber nicht, warum sich jemand so fühlt.“ So könne schnelles Blinzeln auf einen hohen Stresspegel hinweisen – dabei sei aber unklar, ob der Mensch aufgrund der Lüge oder aufgrund der Testsituation gestresst sei. Zudem kritisiert Eilert, dass die Programme häufig nicht den Kontext einer Situation, Mimikgewohnheiten des Sprechers oder das Timing eines Gesichtsausdrucks in ihre Analysen mit einbeziehen.

Was passiert, wenn die Software für Datenbrillen wie Google Glass verfügbar ist, will sich der Experte trotzdem lieber nicht vorstellen. Er fürchtet zudem, dass Menschen verlernen, anderer Gefühle zu lesen, wenn diese Aufgabe von Programmen übernommen wird. „Evolutionär heißt es: Use it or lose it. Unsere Navigationsfähigkeit haben wir dank Navi im Auto auch schon weitgehend verloren.“

Autor

5 Kommentare

Neuester Kommentar
      Kommentar schreiben