Militärforschung : Forscher wollen Kampfroboter stoppen

Schon bald könnten Kampfroboter eigenständig über Leben und Tod entscheiden. Einige Wissenschaftler wollen solche Maschinen nun verbieten. Andere halten sie für einen Segen.

Sebastian Meyer
Angriff der Killermaschinen. Szenarien, in denen sich Roboter gegen die Menschheit auflehnen, wie im Film „Terminator 3“ halten Forscher für unwahrscheinlich. Doch der Einsatz von Kampfrobotern im Krieg macht manchen Wissenschaftlern Angst.
Angriff der Killermaschinen. Szenarien, in denen sich Roboter gegen die Menschheit auflehnen, wie im Film „Terminator 3“ halten...Foto: IMAGO

Noel Sharkey plagt ein Albtraum. Er sieht ein kleines Mädchen auf einen Soldaten zulaufen. Sie streckt ihm eine Waffel Eis entgegen. Der Soldat schaut das Mädchen an, hebt sein Maschinengewehr und feuert. Dann gibt er eine Meldung an sein Hauptquartier. Ein totes Mädchen, aus Notwehr erschossen. Der Soldat ist ein Roboter. Das Eis hat er für eine Waffe gehalten.

Sharkey ist Professor für Künstliche Intelligenz und Robotik an der Universität Sheffield. Vor kurzem hat er mit Kollegen die Organisation „Campaign to Stop Killer Robots“ gegründet. Ihr Ziel ist ein internationales Verbot von autonomen tödlichen Waffensystemen. Damit sind Maschinen gemeint, die ohne menschliches Zutun ein Ziel entdecken und töten können. „Roboter werden niemals in der Lage sein, genau zwischen Kombattanten und Unschuldigen zu unterscheiden“, sagt Sharkey. „Und wenn ein Roboter eine Schule bombardiert, wer soll dann verantwortlich sein? Der Befehlshaber? Der Hersteller? Der Erfinder?“

Wenn Ronald Arkin sich die Zukunft des Krieges vorstellt, denkt er ebenfalls an Roboter. Doch der Forscher des Georgia Institute of Technology sieht einen Roboter, der auf dem Schlachtfeld sehr gut unterscheiden kann zwischen Freund und Feind. Der schnell reagiert und genau trifft. Vor allem: Der sich nicht von seinen Gefühlen leiten lässt, keine Rache verspürt, nicht foltert, brandschatzt und vergewaltigt.

Kriegsgerät. Schon jetzt setzen Armeen Waffen mit einem hohen Grad an Autonomie ein, etwa das unbemannte Flugzeug X47-B, das selbstständig starten und landen kann.
Kriegsgerät. Schon jetzt setzen Armeen Waffen mit einem hohen Grad an Autonomie ein, etwa das unbemannte Flugzeug X47-B, das...Foto: picture alliance / AP Photo

So wie man in urbanen Kampfgebieten Präzisionswaffen statt Streumunition verwenden sollte, so müsse man zur Vermeidung von Kollateralschäden auch über den Einsatz von Kampfrobotern nachdenken, sagt Arkin. „Es gibt einen moralischen Imperativ, autonome Waffensysteme voranzutreiben. Wer diese Tür voreilig schließt und die Forschung auf diesem Gebiet verbietet, hat Blut an den Händen kleben.“

Arkin und Sharkey werden sich vermutlich bald in Genf über den Weg laufen. Vom 13. bis 16. Mai treffen sich dort Vertreter von 117 Nationen, die die UN-Waffenkonvention unterzeichnet haben. Sie werden darüber diskutieren, ob Kampfroboter verboten werden sollten, wie bereits Landminen oder Blendwaffen. Sharkey hofft auf ein solches Verbot und auch die deutsche Regierung dürfte auf seiner Seite sein. Im Koalitionsvertrag der Bundesregierung heißt es, man werde sich „für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme einsetzen“. Arkin sagt, das Verbot für Landminen sei richtig gewesen, weil diese eben nicht unterscheiden können. Bei autonomen Robotern könnte irgendwann jedoch das Gegenteil der Fall sein. Er ist deshalb dafür, ein Moratorium für solche Waffen auszusprechen. Ein prinzipielles Verbot lehnt er ab.

Die Szenarien der beiden Roboterforscher klingen nach Science Fiction, einer fernen Zukunft. Aber ein Blick in die Waffenarsenale der Welt zeigt, dass diese Zukunft zum Greifen nahe ist. Schon lange setzen Militärs Maschinen ein, wenn schnelle Entscheidungen und ein hoher Grad an Informationsverarbeitung nötig sind. Das Ausmaß der Autonomisierung hat sich dabei, Schritt für Schritt, immer weiter ausgedehnt. Die Aegis-Kriegsschiffe der USA zum Beispiel sind mit automatisierten Abwehrsystemen bestückt, die Raketen und andere Bedrohungen identifizieren, aufspüren und abschießen können. Südkorea hat schon vor Jahren an der Grenze zu Nordkorea Militärroboter von Samsung installiert, die mittels Infrarot und Wärmekameras mögliche Eindringlinge entdecken und auf diese schießen können. Noch entscheidet ein Mensch darüber, ob der Roboter tatsächlich schießt – technisch notwendig ist das allerdings nicht. Die „X47-B“, ein unbemanntes Flugzeug, das ohne menschliche Steuerung auf US-Flugzeugträgern landen und starten kann und zudem über Überwachungs- und Angriffskapazitäten verfügt, ist in der Testphase. Und Israel hat mit der „Harpy“ eine Drohne entwickelt, die Radarsignale, die in einer Datenbank als „nicht-freundlich“ registriert sind, automatisch bombardiert.

Roboter, die wie im Terminator-Film die Menschheit versklaven, müsse man zwar nicht fürchten, sagt Noel Sharkey. „Ich sehe überhaupt kein Anzeichen dafür, dass Maschinen so etwas wie eine Super-Intelligenz oder eigene Motivationen entwickeln. Aber wir müssen uns vor Menschen fürchten, die über machtvolle Maschinen verfügen.“

Tatsächlich glauben Experten, dass Roboter mit der Lizenz zum Töten die Regeln des Krieges genau so umschreiben könnten, wie vor ihnen Schießpulver, Flugzeuge oder Atombombe. „Die Menschheit ist dabei, ihr 5000 Jahre altes Monopol der Kriegsführung zu verlieren“, schreibt Peter W. Singer, Militärexperte an der Brookings Institution in Washington, in seinem Buch „Wired for War: The Robotics Revolution and Conflict in the 21st Century“.

Arkin forscht nun im Auftrag des US-Verteidigungsministeriums daran, wie man Roboter so programmieren kann, dass sie die Regeln des humanitären Völkerrechts und der Genfer Konventionen – also das Prinzip der Diskriminierung zwischen Kombattanten und Unschuldigen, die Verhältnismäßigkeit der Mittel, die militärische Notwendigkeit sowie die Vermeidung unnötigen Leidens – einhalten können. Arkin hält das für möglich, allerdings nur unter ganz bestimmten Bedingungen. Ein Szenario wären Operationen in geschlossenen Gebäuden, in denen Terroristen ausfindig gemacht werden sollen. „Anstelle eines Soldaten könnte eine Maschine reingehen, die so programmiert ist, dass sie erst dann das Feuer eröffnet, wenn auf sie geschossen wird“, sagt Arkin. Schließlich könnte man Roboter einem viel höheren Risiko aussetzen als einen menschlichen Soldaten.

Doch Sharkey glaubt, dass Killerroboter letztlich nicht beherrschbar sind. „Es gibt auf dem Schlachtfeld eine schier unendliche Zahl von unverhergesehenen Umständen. Man kann ein System nicht auf alles programmieren.” Unkalkulierbar sei auch, wie Waffensysteme, die einen geheimen Angriffsalgorithmus enthalten, miteinander interagieren. Sharkey erzählt den Fall eines Buches mit dem Titel „Making of a Fly“, das beim Online-Händler Amazon normalerweise für rund 50 Dollar angeboten wird. Am 19. April 2011 stand es beim Amazon-Händler Borderbooks jedoch für 23 698 655,93 Dollar zum Verkauf – zuzüglich 3,99 Dollar Versandkosten. Der Preis kam zustande, weil ein anderer Händler seinen Algorithmus auf den von Borderbooks abgestimmt hatte. Und jedes Mal, wenn einer der beiden seinen Preis leicht anhob, zog der andere automatisch nach. „Das war ein einfacher Algorithmus. Jetzt stellen Sie sich mal zwei komplexe Algorithmen von Killerroboter-Armeen vor, die in Hochgeschwindigkeit miteinander interagieren müssen“, sagt Sharkey.

Sharkeys Kollege Jürgen Altmann, ein Physiker und Friedensforscher von der TU Dortmund, fürchtet zudem, dass Killerroboter die Hemmschwelle zum Kriegführen senken werden. Ein Blick in die USA scheint dies zu bestätigen. So erklärte US-Präsident Obama vor drei Jahren, dass der Kongress über den Libyen-Einsatz der US-Armee nicht zu entscheiden habe, weil keine US-Soldaten ihr Leben aufs Spiel setzen. Die USA bombardierten 146 Ziele in Libyen – per ferngesteuerter Predator-Drohnen.

Doch auch viele Militärs sind skeptisch. Die USA pumpen jährlich Dutzende Millionen Dollar in die Forschung zu robotergestützen Waffensystemen. Dennoch hat das US-Verteidigungsministerium im November 2012 ein zehnjähriges Moratorium für die Entwicklung von autonomen tödlichen Systemen verkündet. Bei der Bundeswehr geht man noch weiter. „Vollautonome Roboter, die Waffen gegen Menschen einsetzen, halten wir für ethisch nicht vertretbar“, sagt Oberstleutnant Jörg Wellbrink. Der Leiter des Dezernats Zukunftsanalyse im Planungsamt der Bundeswehr hat vor zehn Jahren zum Thema Künstliche Intelligenz promoviert – viel weiter sei man seitdem nicht gekommen. „Sehen Sie sich doch mal an, wo wir im Bereich Gesichtserkennung sind. Unter Laborbedingungen schafft man das. Aber wenn einer eine Grimasse macht, geht das schon nicht mehr.“ Bei einem Kombattanten, der sich tagelang nicht rasiert oder Schmutz im Gesicht habe, sei es aussichtslos. Zudem seien komplizierte Systeme immer fehler- und störanfällig. Davon könne sich jeder ein Bild machen, der regelmäßig am Computer sitze.

Dennoch müsse man sich damit beschäftigen, wie man sich vor einem Angriff durch solche Waffen schützen kann, sagt Wellbrink. Mit seiner Kollegin Annika Vergin hat er vor einem Jahr eine Studie veröffentlicht. Darin schreiben die beiden, dass Roboter in allen möglichen Formen daherkommen könnten: zum Beispiel als Unterwasserroboter oder als insektengroße Nanoroboter. Vor allem die Gefahr eines Angriffs mit winzig kleinen Nanorobotern stuft Wellbrink als sehr hoch ein, da diese bereits in der Medizin entwickelt werden, es derzeit aber noch keine Möglichkeit zur Detektion gibt.

Die wegweisende Forschung werde kaum noch von der klassischen Rüstungsindustrie gemacht, sondern von Unternehmen wie Boston Dynamics, sagt Marcel Dickow von der Stiftung Wissenschaft und Politik. Der Drohnenexperte warnt außerdem, dass die Trennlinie zu vollautonomen tödlichen Systemen immer schwieriger zu ziehen sein wird. „Wir bewegen uns auf Maschinen zu, die dem Bediener nur noch Handlungsoptionen vorschlagen. Aber was machen wir, wenn der Mensch diese Vorschläge überhaupt nicht mehr beurteilen kann?“

Militärplaner gehen ohnehin davon aus, dass nicht Menschen oder Maschinen in Zukunft über Leben und Tod entscheiden, sondern beide zusammen. In einer gerade veröffentlichten Studie des Center for New American Security mit dem Titel „20YY: Preparing for War in the Robotic Age“ ziehen die Autoren Robert Work und Shawn Brimley eine interessante Analogie. Wir nehmen es als gegeben an, dass Computer Menschen in bestimmten Bereichen überlegen sind und uns zum Beispiel im Schach schlagen. Allerdings sind die erfolgreichsten Schachspieler inzwischen weder Menschen noch Maschinen, sondern Mensch-Maschinen-Teams. In die Grammatik des Krieges übertragen hieße dies: „Cyborg-Kämpfer“, die im Zusammenspiel mit ferngelenkter Munition, unbemannten sowie (teil-)autonomen Robotern ausgerüstet sind, werden die Schlachtfelder der Zukunft bevölkern.