zum Hauptinhalt
Der Dinosaurier-Roboter kam 2007 auf den Markt, er interagiert mit Menschen. Er schnappt etwa wie ein Hund nach einem Gegenstand und gibt ihn spielerisch nicht wieder her.

© AFP

Roboterethik: Wie viel Moral brauchen Maschinen?

Amerikanische Wissenschaftler warnen, in naher Zukunft könnten die Entscheidungen autonomer Computer oder Roboter zu Katastrophen führen und fordern, Maschinen einen "Moralregler" zu verpassen.

Von Anna Sauerbrey

Die MIT-Doktorandin Kate Darling berichtete kürzlich von einem Experiment mit dem Roboter „Pleo“. Pleo ist ein Plastikdinosaurier von der Größe eines Hasen. Er läuft, blinzelt und reagiert auf Berührungen. Darling ließ die Teilnehmer eines Workshops eine Stunde lang mit ihm spielen. Anschließend wies sie die Gruppe an, Pleo „wehzutun“ und ihn „umzubringen“. Niemand wollte das Gerät anrühren. Darling drohte daraufhin, statt Pleo alle anderen Roboter, die sie dabei hatte, „zu töten“. Schließlich griff ein Mann nach einem Stab und schlug Pleo, der seitlich umfiel. „Der Raum“, erzählte Darling, „füllte sich mit Schweigen.“

Aufgrund dieser Erfahrung, die viele psychologische Studien untermauern, plädiert Darling für Roboterrechte. Nicht, weil Pleo intelligent ist – er imitiert zwar Gesten erstaunlich gut, von „Intelligenz“ aber ist er wie alle Maschinen weit entfernt. Menschen aber reagieren auf Roboter wie auf Menschen, mit Mitgefühl und Rührung.

Deshalb könne es uns emotional deformieren, über diese Gefühle hinwegzugehen und Roboter schlecht zu behandeln, meint Darling. Es ist dasselbe Argument, das Kant für den Tierschutz anbringt: Wir müssen Tiere schützen, um unser moralisches Empfinden zu schützen. Darling zeigt, dass das junge Feld der Roboterethik weniger futuristisch ist, als es auf den ersten Blick scheint. Denn auch die Roboterethik ist im Kern Menschenethik, es geht darum, den Menschen vor sich selbst zu schützen – und vor seinen Instrumenten. Letzteres wird in einer Welt, in der Roboter in Form von Drohnen, Börsen-Algorithmen und Servicekräften immer mehr Aufgaben übernehmen, wichtiger. Die meisten Roboterethiker fragen deshalb: Wie lernen Maschinen Moral?

1942 formulierte der Science- Fiction-Autor Isaac Asimov in der Kurzgeschichte „Runaround“ drei Grundregeln: 1. Ein Roboter darf einem Menschen durch sein Handeln oder durch Unterlassung keinen Schaden zufügen. 2. Roboter befolgen die Befehle der Menschen, es sei denn, sie stünden im Konflikt mit der ersten Regel. 3. Ein Roboter schützt seine eigene Existenz, es sei denn, das stünde im Konflikt mit Regel eins und/oder zwei.

Das System wirkt zunächst simpel und effektiv, Asimov zeigte aber, dass schon diese drei Regeln miteinander in Konflikt stehen können. In der Geschichte gerät der Roboter „Speedy“, der auf dem Merkur für die Forscher Powell und Donovan für sie lebenswichtiges Selen sammeln soll, in einen Zielkonflikt. Die geologischen Gegebenheiten nahe dem Selenfeld greifen seine Hülle an, er will sich also gemäß Regel drei schützen. Gleichzeitig will er aber gemäß Regel zwei den Befehl ausführen. Da die Faktoren, die die beiden Regeln gewichten, ausbalanciert sind, fährt „Speedy“ im Kreis und bringt dadurch die wartenden Männer in der Raumstation in Gefahr – sie hatten vergessen, dem Roboter einen Dringlichkeitsfaktor einzuprogrammieren.

Computer und Roboter können mit Uneindeutigkeit nicht umgehen. Was Asimov darstellt, ist bis heute die größte Herausforderung für Wissenschaftler wie Ronald Arkin vom Georgia Institute of Technology, die daran arbeiten, menschliche Ethik in Maschinensprache zu übersetzen. Arkin entwickelt die Grundlagen für Algorithmen, die, wie er hofft, einmal vollautomatische Kampfroboter mit einer „Moralfunktion“ ausstatten: Er determiniert das Roboterverhalten „p“ als Ergebnis des Kräfteausgleichs zwischen den Vektoren Stimulus, Summe möglicher Verhaltensweisen, Gewinn und mögliche Gegenreaktionen. Hinzu kommt ein „Ethikregler“, eine Notbremse, die die Ausführung von „p(tödlich)“ verhindern kann – etwa, wenn Zivilisten in der Nähe sind.

Andere wie Wendell Wallach vom Zentrum für Bioethik in Yale und Colin Allen von der Indiana University bezweifeln allerdings, dass der regelbasierte „Top-to-Bottom-Ansatz“ funktionieren kann. Sie argumentieren, dass auch Gefühle, semantisches Verstehen und Bewusstsein menschliche Moralentscheidungen bedingen, Faktoren, die sich schwieriger formalisieren lassen. Sie schlagen deshalb vor, neben Regeln auch mit lernenden Algorithmen zu arbeiten.

Selbst wenn all das nicht gelingt, könnte die Roboterethik so doch die Debatte über die Prämissen der Menschenethik beleben. Wallach und Colin allerdings sehen ihre Forschungen keineswegs als Teil einer Theoriedebatte. Ihre düstere Prophezeiung: Schon in den nächsten Jahren wird es eine Katastrophe geben, die durch die autonome Entscheidung eines „unmoralischen“ Computers ausgelöst wird.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false