„Keep Killer-Robots Fiction“

Der Auftakt der Staatendiskussion zu autonomen Waffensystemen und die Bedeutung menschlicher Kontrolle

Auf der Leinwand gibt es ihn bereits, den Krieg der Zukunft. Im neuen „RoboCop“-Film lässt Hollywood Kriegsroboter auf den Straßen patrouillieren und nach Widerstandskämpfern suchen. Auch wenn solche autonomen Waffensysteme (AWS) noch Science Fiction sind, erleben wir seit dem Anbruch des neuen Jahrtausends einen Quantensprung in der Kriegstechnik. Immer mehr militärische Aufgaben werden von unbemannten Systemen (wie z.B. Drohnen) übernommen. Wissenschaftler und Ingenieure arbeiten an automatisierten Waffensystemen, die immer weniger menschlichen Input vorsehen und immer mehr Entscheidungsgewalt an Computerprogramme abgeben. Die Diskussion der Folgen dieser Entwicklungen, die zuvor auf besorgte Wissenschaftler und Experten beschränkt war, ist nun auf Staatenebene angekommen. Vom 13.-15. Mai 2014 trafen sich 87 Staaten im Rahmen der „Convention on Certain Conventional Weapons“ (CCW) sowie 19 Nichtregierungsorganisationen in Genf, um im Rahmen einer Expertenkonferenz vier Teilaspekte dieser Entwicklungen zu diskutieren: es ging um technische, ethische, völkerrechtliche sowie militärisch-operationelle Fragen.

In Genf diskutieren bislang ausschließlich Staatenvertreter über die Zukunft von Waffensystemen, die von Computerprogrammen, nicht von Menschen gesteuert werden. Frauen nehmen bislang überhaupt nicht Teil.

In Genf diskutieren Staatenvertreter über die Zukunft von Waffensystemen, die von Computerprogrammen, nicht von Menschen gesteuert werden.

Während der viertägigen Veranstaltung sprachen sich fünf Staaten dezidiert für ein präventives Verbot von AWS aus: Ägypten, Ecuador, Kuba, Pakistan und der Vatikan. Keine Nation setzte sich dezidiert für autonome Waffensysteme ein, obwohl Tschechien und Israel einen prinzipiellen Wunsch („desirability“) nach diesen Systemen hervorhoben. Die USA, als AWS-Technologietreiber mit 12 Gesandten die mit Abstand größte Delegation in Genf, fordern „appropriate levels of human judgment” im Einklang mit einer Pentagon-AWS-Direktive, die immerhin für die nächsten Jahre den Einsatz (nicht die Erforschung oder Entwicklung) von autonomen Waffen gegen Menschen verbietet. Die Mehrheit der Staaten, darunter auch Deutschland, Frankreich, Großbritannien, Irland, Kroatien, Mexiko, die Niederlande und Norwegen, betonten, dass der Mensch weiterhin die Kontrolle über Zielauswahl- und Zielbekämpfungsprozesse von modernen Waffensystemen behalten müsse. Der deutsche Botschafter Biontino sagte in seinem Eröffnungsstatement: „[…] we should also talk about what we, as an international community, understand as ‘meaningful human control’ and declare it an indispensable principle of international humanitarian law.“ Damit hatten die Staatenvertreter eine Formulierung (und zugleich Forderung) der Zivilgesellschaft, deren Einsatz für ein AWS-Verbot von den meisten Diplomaten gewürdigt wurde, aufgegriffen und den Kern der Debatte in Genf gesetzt.

Wie genau diese „meaningful human control“ über Waffensysteme auch in Zukunft sichergestellt werden kann, blieb allerdings in Genf eine unbeantwortete Frage – vielleicht auch deswegen, weil es noch keine autonomen Waffensysteme gibt. Die heute eingesetzten Militärroboter agieren zwar weitestgehend selbstständig, kommt es aber zum Einsatz tödlicher Waffen trifft ein Mensch die Entscheidung. Ein autonomes Waffensystem dagegen wäre in der Lage, nach seiner Aktivierung selbstständig und ohne weiteres menschliches Eingreifen, Ziele zu erkennen, auszuwählen und anzugreifen. In diesem Kontext besteht die größte Herausforderung darin, dass das Waffensystem nur solche Objekte oder Personen als Ziele erkennt, die der Verwender auch tatsächlich angreifen darf und will. Dafür müssten verschiedene Zielindikatoren einprogrammiert werden, wie z.B. die Form oder Beschaffenheit von Objekten, Infrarot- oder Radar-Emissionen oder bei Menschen auch biometrische Daten. Das Problem dieser parameterbasierter Zielerkennung ist, dass keine kontextabhängigen Entscheidungen getroffen werden können und die Gefahr besteht, dass auch falsche Ziele, attackiert werden: So könnte der von einem Grenzroboter erkannte Eindringling sowohl ein feindlicher Soldat als auch ein Überläufer mit wertvollen Informationen, ein verirrter eigener Soldat oder ein Flüchtling sein – technisch gesehen sind es alles Personen von einer gewissen Statur, einer gewissen Körpertemperatur und der Gemeinsamkeit, dass sie sich im Grenzgebiet aufhalten. Gepanzerte Fahrzeuge oder Kampfpanzer sind unter Umständen auch nicht die einzigen Fahrzeuge im Kampfgebiet mit ähnlicher Hitzesignatur – ebenso könnte es sich bei einem identifizierten Ziel um einen Traktor, einen LKW oder einen Schulbus handeln.

Menschliche Kontrolle im Bereich hochgradig automatisierter oder autonomer Waffen muss aktiv organisiert sein. Es reicht für einen Feuerbefehl nicht aus, wenn ein Soldat immer auf einen Knopf drückt sobald dieser aufblinkt oder eine bestimmte Zeitspanne hat, um sein Veto gegen den Waffeneinsatz auszudrücken. Wenn in einem bewaffneten Konflikt tödliche Gewalt gegen Menschen eingesetzt wird, dann muss jeder Waffeneinsatz durch eine aktive menschliche Handlung ausgelöst werden, für die die entsprechende Person dann auch humanitär-völkerrechtlich verantwortlich ist.

Nach der Auftaktveranstaltung in Genf wird die Diskussion auf Staatenebene sicherlich in eine nächste Runde gehen. Es ist beeindruckend, wie schnell autonome Waffensysteme auf die internationale Agenda gerückt sind und mit welch großem Interesse die Thematik von den in Genf versammelten Diplomaten diskutiert wurde. Kritisch anzumerken ist allerdings, dass die Staaten ausschließlich männliche Experten für die Präsentationen nominiert haben. Die Zivilgesellschaft hat diese Praxis scharf verurteilt und auf namhafte Expertinnen verwiesen – mittlerweile gibt es sogar eine Initiative gegen diese Art der Diskriminierung. Im November wird die Vertragsstaatenkonferenz der CCW darüber entscheiden, wie in der Debatte über Killer-Roboter weiter verfahren wird. Die Expertenkonferenz in Genf hat gezeigt, dass es sich bei autonomen Waffensystemen eben nicht um Terminator-inspirierte Science Fiction, sondern angesichts der rasanten technologischen Entwicklungen um eine reale Gefahr handelt. Es wäre zu begrüßen, wenn nach der Diskussion in Genf eine formelle „Group of Governmental Experts“ eingerichtet würde, die ein Verhandlungsmandat für ein neues Protokoll zum VN-Waffenübereinkommen vorbereitet – diesmal aber bitte nicht als reine Männerveranstaltung.

Christian Weidlich hat Politikwissenschaft und Germanistik sowie Internationale Studien und Friedens- und Konfliktforschung studiert. Er ist Projektmitarbeiter an der Hessischen Stiftung Friedens- und Konfliktforschung in Frankfurt am Main.

One comment

  1. Auf der Leinwand gibt es ihn bereits, den Krieg der Zukunft. Im neuen „RoboCop“-Film lässt Hollywood Kriegsroboter auf den Straßen patrouillieren und nach Widerstandskämpfern suchen.

    Nicht zu vergessen die auf Caprica entwickelten Zylonen (wo die vie Duck verlinkte Charli Carpenter ja auch Fachwissen besitzt).

Schreibe einen Kommentar

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s

%d Bloggern gefällt das: