Rage Against The Machines: Die „International Campaign to Stop Killer Robots”

Bereits heute werden bewaffnete Drohnen von vielen Armeen eingesetzt, um Gegner über tausende Kilometer hinweg per Joystick zu töten. Auch die Bundesregierung hat Anfang dieses Jahres vorgeschlagen, diese Systeme für die Bundeswehr anzuschaffen und ist sich offenbar auch schon mit den Amerikanern einig. Doch die Pläne stießen auf große öffentliche Kritik und offensichtlich sah man sich gezwungen, die Entscheidung über den Kauf bewaffneter unbemannter Kampfsysteme zumindest offiziell in die nächste Legislaturperiode zu verschieben.

Während bei der aktuellen Drohnengeneration der Waffeneinsatz stets durch einen Soldaten ausgelöst wird, rechnen Experten damit, dass zukünftige unbemannte Systeme ihre Waffen autonom einsetzen können – mit unkalkulierbaren Folgen. Sowohl humanitär-völkerrechtliche Faktoren als auch moralische Fragen spielen bei der Bewertung eine wichtige Rolle, doch das zentrale Argument der Kritiker ist, dass die Entscheidung über Leben und Tod von Menschen nicht einer Maschine überlassen werden darf.

Um die Entwicklung und den Einsatz von autonomen Kampfrobotern präventiv zu verbieten hat sich mit der „International Campaign to Stop Killer Robots“ eine breitangelegte Initiative konstituiert. Getragen wird die Kampagne von 30 Nichtregierungsorganisationen, unter anderem von Human Rights Watch, Amnesty International und dem International Committee for Robot Arms Control (ICRAC). Diese Initiative orientiert sich an den erfolgreichen Kampagnen zum Verbot von Landminen und Streumunition, mit dem Ziel, eine Koalitionen aus Zivilgesellschaft und Regierungen gegen autonome Waffensysteme zu schaffen. Jodie Williams, die für ihr Engagement zum Verbot von Landminen 1997 mit dem Friedensnobelpreis ausgezeichnet wurde, ist der prominente Kopf der Kampagne. Auf einer internationalen Konferenz am 22. April in London wurde die „International Campaign to Stop Killer Robots“ offiziell gestartet und der Öffentlichkeit vorgestellt.

„It’s the Autonomy, Stupid!“

Die Kampagne sieht das Grundproblem von autonomen Waffensystemen nicht nur darin, dass Maschinen Menschen töten, sondern dass sie darüber hinaus auch die Entscheidung über Leben und Tod eigenständig treffen. Die NGO-Vertreter in London stimmten darüber überein, dass Maschinen diese Fähigkeiten zu verleihen nicht mit unseren Moralvorstellungen vereinbar sei. Die Kritiker sind sich außerdem sicher, dass autonome Kampfroboter unvereinbar mit den Kernprinzipien des humanitären Völkerrechts sind, nämlich dem Unterscheidungsgebot zwischen Zivilisten und Kombattanten, der Proportionalität von militärischer Gewalt, der militärischen Notwendigkeit sowie der Verantwortlichkeit. Die Kampagne fordert deshalb ein umfassendes Präventivverbot der Entwicklung, der Produktion und des Einsatzes von vollautonomen Waffensystemen.

Teilnehmer der Konferenz "to stop killer robots" - und unser Autor mittendrin.

Teilnehmer der Konferenz „to stop killer robots“ – und unser Autor mittendrin.

Dabei stellt sich natürlich die Frage, was genau ein autonomes Waffensystem ist. Hier gibt es verschiedenste Definitionen und Klassifikationen, doch im Prinzip ist ein autonomer Roboter eine programmierte Maschine, die von einem Computerprogramm gesteuert wird: Sensoren nehmen Informationen auf, das System verarbeitet diese und münzt sie in eine Handlung um. Wenn all diese Schritte ohne menschlichen Eingriff erfolgen, spricht man in der Regel von einem autonomen System. Wird der Roboter ebenfalls mit Waffen ausgestattet, handelt es sich um ein autonomes Waffensystem, wobei sich das Attribut autonom dann insbesondere auf die Auswahl und Bekämpfung von Zielen bezieht.

Die Frage der Autonomie wurde auf der NGO-Konferenz in London besonders diskutiert. Besser als verschiedene Klassen von Autonomie lassen sich jedoch Kategorien von menschlichem Einfluss auf die Auswahl und Bekämpfung von Zielen zur Erklärung heranziehen. Grundsätzlich kann man, so Roboterexperte Noel Sharkey, vier Modi der Zielauswahl bzw. dem Waffeneinsatz benennen:

(1)        Die Zielerkennung und Waffeneinsatz werden ausschließlich vom Bediener durchgeführt; der Computer bietet hierbei keine Hilfe.

(2)        Der Computer schlägt mögliche Ziele vor und der Bediener entscheidet, welche davon angegriffen werden.

(3)        Der Computer wählt ein mögliches Ziel aus und

  1. löst die Waffe aus, wenn der Bediener dies erlaubt, oder
  2. gibt dem Bediener eine gewisse Zeit sein Veto gegen einen automatischen Angriff einzulegen, oder
  3. löst die Waffe automatisch aus und informiert den Bediener.

(4)        Der Computer wählt das Ziel aus und bekämpft es ohne menschliche Einflussmöglichkeiten.

Die klare Forderung der neuen Kampagne lautet: Garantie von „absolute human control“ – also der vollständigen menschlichen Kontrolle beim Waffeneinsatz. Der Grundgedanke dabei ist, dass jeder Waffeneinsatz positiv durch eine aktive menschliche Handlung durchgeführt werden muss, für die die entsprechende Person dann auch humanitär-völkerrechtlich verantwortlich ist. Der oberen Klassifikation folgend bedeutet dies, dass ein Waffensystem der Kategorie 3(a) noch nicht von einem möglichen Verbot von autonomen Waffensystemen betroffen wäre, wohingegen ein Roboter der Klasse 3(b) bereits verboten wäre, da hier nur eine indirekte menschliche Kontrolle vorliegt.

Die große Unbekannte: Ist ein Verbot von Killer Robotern überprüfbar?

Wie jedes Abkommen, so muss auch ein Verbot von autonomen Waffensystemen überprüfbar sein. Das heißt, es muss ein Verifikationsregime zur Verfügung stehen, das Vertragsverletzungen erkennbar macht. Hier liegt eine besondere Herausforderung, denn der Unterschied zwischen zum Beispiel einer ferngesteuerten und einer autonomen Kampfdrohne liegt letztlich nur noch in der Software, die die Maschine steuert. Nichtsdestotrotz ist die Verifikation eines Verbots von autonomen Waffensystemen möglich – so Experten des International Committee for Robot Arms Control. Zurzeit arbeiten die Wissenschaftler an einem Compliance-Modell, basierend auf Transparenz und Vertrauensbildung, Inspektionen, technischen Sicherheitsmaßnahmen und genauer Untersuchung verdächtiger Vorfälle in Verbindung mit der Überprüfung menschlicher Kontrolle und Verantwortung bei ferngesteuerten Waffensystemen.

Die nächsten Schritte auf dem Weg zu einer Konvention gegen Autonome Waffensysteme

Wichtig für den Erfolg der Kampagne wird es sein, eine Gruppe von Staaten zusammenzubringen, die ein mögliches Verbot in internationalen Gremien unterstützt. Erste Schritte in diese Richtung sind unternommen. Unterstützung bekommt die Kampgange dabei durch den UN-Sonderberichterstatter zu extralegalen, summarischen und willkürlichen Hinrichtungen, Christopher Heyns, der im Mai seinen Report zu „Lethal Autonomous Robots“ im UN-Menschenrechtsrat offiziell vorstellen wird. Der bereits vor-veröffentlichte Bericht ruft die internationale Staatengemeinschaft dazu auf, ein Moratorium für die Entwicklung von autonomen Waffensystemen zu erklären. Weiterhin soll ein „high-level panel“ zur Thematik einberufen werden, um ein präventives Verbot dieser Waffen zu diskutieren und innerhalb eines Jahres konkrete Vorschläge auf den Tisch zu legen.

Deutschland sollte sich in der Frage von autonomen Waffensystemen klar positionieren und die Vorbereitung und Durchsetzung einer internationalen Konvention gegen autonome Waffensysteme tatkräftig unterstützen. Die „Campaign to Stop Killer Robots“ wird in dieser Frage nicht locker lassen, die „rage against the maschines“ hat begonnen.

Christian Weidlich hat Politikwissenschaft und Germanistik sowie Internationale Studien und Friedens- und Konfliktforschung studiert. Er ist Projektmitarbeiter an der Hessischen Stiftung Friedens- und Konfliktforschung in Frankfurt am Main.

2 Kommentare

  1. warum etwas stoppen, was es noch gar nicht gibt? ein anderer beitrag zum thema: http://politicsinspires.org/the-international-campaign-to-stop-killer-robots-a-misguided-effort/

Hinterlasse einen Kommentar

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..