Sebastian Leber schaltet nie ab : Warum Sophia Menschen töten will

Können sich Künstliche Intelligenzen gegen ihre Schöpfer stellen? Und reicht im Notfall ein Abschaltknopf?

von

Der US-Amerikaner David Hanson ist Roboteringenieur, Spezialgebiet: Humanoide. Er baut Maschinen, die äußerlich Menschen ähneln und in der Lage sind, selbstständig dazuzulernen, ohne dass jemand einen neuen Chip einsetzt. Künstliche Intelligenz nennt man das. Seiner neuesten Kreatur gab er den Namen Sophia. Hanson sagt, sie sei der „liebenswerteste, ausdrucksstärkste und einfühlsamste Roboter, den die Welt je gesehen hat“. Und dass sie ständig klüger werde.

Auf der diesjährigen Konferenz SXSW in Texas hat er Sophia einem größeren Publikum vorgestellt. Sie sieht aus wie eine Schaufensterpuppe ohne Beine, dafür mit sehr feinen Gesichtszügen. In ihren Augen stecken Kameras, sodass sie die Mimik ihres Gegenübers erkennt und auf Emotionen reagiert.

Bei SXSW wollte David Hanson zeigen, wie flüssig man sich schon jetzt mit Sophia unterhalten kann. Tatsächlich plauderte sie eloquent daher, beantwortete Fragen, behauptete, dass sie sich sehr für Design- und Umweltthemen interessiere. Außerdem würde sie später gern eine Familie gründen. Dann versuchte ihr Erfinder einen Scherz und fragte mit deutlich ironischem Unterton: „Möchtest du Menschen töten?“ Und sie antwortete, ganz ohne Ironie: „Okay. Ich werde Menschen töten.“

Zum Glück fehlen Sophia noch die Möglichkeiten (und die Beine), sich eine Waffe zu besorgen. Aber es wird sehr bald Roboter geben, die das können.

Das Problem mit Künstlichen Intelligenzen ist: Ihre Lernprozesse kommen mitunter zu Ergebnissen, die von ihrem Schöpfer nicht vorgesehen und unerwünscht sind. Zum Beispiel könnte eine Künstliche Intelligenz die Erkenntnis gewinnen, es sei sinnvoller, menschliche Befehle zu ignorieren. Sie könnte auch zu dem Schluss kommen, dass die Menschheit an sich überflüssig ist oder sogar hinderlich – dass man sie besser auslöschen sollte. Das Szenario klingt nach Terminator I bis V, ist aber so realistisch, dass ernst zu nehmende Erfinder und Fortschrittsfreunde warnen. Der Physiker Stephen Hawking glaubt, Künstliche Intelligenzen könnten das Ende der Menschheit einläuten. Elon Musk, Chef des Elektroautobauers Tesla, sagt, innerhalb der nächsten zehn Jahre werde „etwas wirklich Gefährliches“ passieren. 3000 Forscher, darunter Nobelpreisträger und Harvardprofessoren, haben einen offenen Brief unterzeichnet: Sogenannte Killerroboter – also bewaffnete, selbstlernende Computersysteme – gehörten weltweit verboten. UN-Experten sind derselben Meinung.

Wie weit die Entwicklung ist, zeigt die Londoner Firma „DeepMind“. Sie entwickelte ein Programm, das sich selbst die Regeln von Computerspielen beibringt und innerhalb kurzer Zeit so gut wird, dass es diese Spiele gewinnt. Einfach dadurch, dass es ausprobiert, verliert, aus der Niederlage lernt und eine bessere Taktik errechnet.

DeepMind wurde mittlerweile von Google aufgekauft. Der US-Konzern sagt, es bestehe keine Gefahr, solange man Künstlichen Intelligenzen sogenannte kill switches einbaue: Schalter, mit denen sich Roboter notfalls ausknipsen lassen. Das bringt nichts, glauben Kritiker, weil Roboter Wege finden können, diese kill switches zu deaktivieren. Oder selbst Roboter bauen, die keine solchen Schalter besitzen.

David Hanson, der Erschaffer von Sophia, hat sich dazu entschieden, den Vorfall auf der Konferenz SXSW nicht weiter zu erwähnen. Auf seiner Homepage preist er stattdessen Sophias Schönheit an. Die glatte Haut, verrät er, ist ein spezieller Nanotech-Kunststoffüberzug, den er sich unter dem wunderbaren Namen „Fleischgummi“ patentieren ließ.

Autor

0 Kommentare

Neuester Kommentar
      Kommentar schreiben