Der moralische Terminator ist möglich, aber nicht wahrscheinlich.

Auf dem sipo-blog findet sich grade eine ganz hervorragende Artikelserie zu Drohnen und autonomen Kampfsystemen und deren ethischen, sozialen und politischen Implikationen statt. Go read.

Dabei ist auch ein sehr guter Beitrag von Christian Weidlich, der letztens auch hier auf dem Bretterblog einen äußerst lesenswerten Beitrag zu dem Thema verfasst hat. Der Beitrag ist gut, weil er mich zum Nachdenken angeregt hat (m.E. immer die besten Blogbeiträge) und mich dazu veranlasst hat, ein paar Gedanken dazu aufzuschreiben. Eigentlich stimme ich Christian in seiner Problematisierung und seiner Schlussfolgerung bezüglich der internationalen Regulierung autonomer Kampfsystem vollständig zu. Aber weil es jetzt langweilig wäre, einfach nur zuzustimmen, will ich als Advocatus Diabolo gegen Christians moralische Einwände zur Verknüpfung von menschlichem Moralsystem und maschinellen Moralsystemen argumentieren.🙂

(Den Beitrag hatte ich ursprünglich als Comment auf Christians Beitrag angefangen, aber er wurde dann zu lang für ein einfachen Kommentar. Daher habe ich ihn kurzerhand aufs Blog gepackt.)

Denn ich denke, dass es zwar leicht fällt (und meistens auch richtig ist) die moralische Überlegenheit des Menschen zu proklamieren, aber das das Bild vielleicht auch nicht ganz so schwarz-weiß ist. Mein Argument ist, dass a) der Mensch nicht prinzipiell und a priori immer die besseren moralischen Entscheidungen trifft und b) dass künstliche Intelligenzen, im Gegensatz zu der Argumentation im Artikel, theoretisch sehr wohl dem Menschen überlegene moralischen Entscheidungen treffen können. Das Problem ist, dass es nicht sehr wahrscheinlich ist, dass das eintreffen wird. Kurz, der moralische Terminator ist möglich, aber nicht wahrscheinlich. (Der aufmerksame Leser hat schon gemerkt, dass Christian und ich damit zu der gleichen Schlussfolgerung kommen, allerdings auf unterschiedlichen Wegen.🙂 )

Die Punkte im Einzelnen.

(1)

Menschen haben immer ein besseres Verständnis dafür, wann und welche Situation den Einsatz von Gewalt in einer Kampfsituation rechtfertigt.

Ich glaube ich nicht, dass jeder Mensch immer ein gutes Verständnis hat, wann der Einsatz von Gewalt in einer Kampfsituation gerechtfertigt ist. Kunduz. Abu Ghraib. Guantanamo. My Lai. Die Liste ist leider noch viel länger, als dass ich sie hier aufzählen könnte. Der Punkt ist einfach, dass es gefährlich ist, anzunehmen, dass eine Entscheidung moralisch besser ist, nur weil ein Mensch sie trifft. Der Mensch ist fehlbar und seine kognitiven Systeme sind nicht dafür gemacht, in Situationen unter extremem Stress und sehr begrenzten Informationen zu entscheiden. Ich finde es nicht so weit hergeholt, sich vorzustellen, dass fortgeschrittene Maschinen unter Umständen z.B. viel präziser beurteilen können, wie viele zivile Opfer ein Angriff nach sich zieht als ein Mensch, einfach weil die Informationsverarbeitungssysteme der Maschine weitaus besser sind. (Natürlich sollten wir nicht schließen, dass nur weil Maschinen das besser können, sie es auch tun sollten.)

Wir würden nicht einfach den Abzug betätigen, nur weil dies uns ein Algorithmus befiehlt.

Nein, aber wir haben oft sehr wenig Probleme damit, den Abzug zu betätigen, wenn es uns ein Mensch befiehlt. Die Frage ist jetzt: Ist ein Algorithmus, der befiehlt einen Angriff zu unterlassen, weil zu viele Zivilisten sterben würden, moralisch „besser“ als ein Offizier, der den Angriff befiehlt und dessen Urteilskraft von einem 72h-wach-Einsatz und möglicherweise gefallenen Kameraden beeinträchtigt ist?

 (2)

Roboter sind keine moralischen Wesen, weil sie keine Verantwortung für ihre Taten übernehmen können. Sie können nicht für etwas „schuldig“ sein und nicht bestraft werden, weil sie unter einer Strafe nicht leiden können.

Das hängt natürlich ganz stark davon ab, welche Entwicklungsstufe künstlicher Intelligenz wir der Argumentation zu Grunde legen. Für autonome out-of-the-loop Kampfsysteme aus dem Jahr 2013 und in absehbarer Zukunft ist das sicherlich richtig. Prinzipiell ausschließen können wir aber nicht, dass fortgeschrittene künstliche Intelligenz irgendwann in der Lage sein wird, Schuld zu erleben und auch Verantwortung für ihre Taten übernehmen kann. Das klingt natürlich nach Science Fiction und eine solche Form von Intelligenz ist sicherlich auch nicht das, was die Militärs im Hinterkopf haben, wenn sie an autonome Kampfsysteme denken. Aber prinzipiell ausschließen können wir es nicht, von daher müsste das Argument in diesem Punkt eingeschränkter formuliert sein.

 (3)

Maschinen wird es immer an einer fundamentalen menschlichen Eigenschaft fehlen, der Empathie. Sie ist eine der stärksten Hemmnisse in Bezug auf das Töten – oft so schwerwiegend, dass die meisten Menschen eher selbst sterben, als einen anderen Menschen töten würden. Ein Roboter wird kein Mitgefühl entwickeln und selbst ein Kind, wenn es eine Waffe auf ihn richtet, erschießen.

Again, das hängt von der gleichen Annahme aus Punkt 3 ab. Wir können nicht a priori ausschließen, dass intelligente Maschinen niemals Empathie entwickeln können. Warum sollten sie es nicht? Auch hier wieder die Einschränkung, dass die Entwicklung von Empathie bei Kampfrobotern whs. nicht im Interesse der R&D des militärisch-industriellen Komplexes liegt. Hier liegt der Fokus wahrscheinlich eher auf möglichst effizienten out-of-the-loop Systemen. Aber was, wenn Empathie eine Nebenwirkung von wirklich intelligenten Systemen ist und in Kauf genommen werden muss, wenn man solche Systeme entwickeln will? Gleichzeitig gilt auch, dass Menschen im Krieg ziemlich effektiv darin sind, Empathie auszuschalten. Klar sind Menschen mit Empathie, die unter Umständen unterdrückt ist, besser, als Maschinen komplett ohne Empathie. Aber was ist mit einem Roboter, dessen Panzerung und kopierbare künstliche Intelligenz ihn vor der Bedrohung durch das bewaffnete Kind schützt bzw. diese ignorieren? Und der daher in der Lage ist, einzusehen, dass es in solchen Fällen sinnvoller ist das Kind zu entwaffnen als es zu töten (und sich bei dieser Aktion auch selbst auch nicht in Gefahr bringt)? Diese Wahl hat der Soldat nicht, der in Sekundenbruchteilen entscheiden muss und der u.U. schlecht gepanzert ist und unter Stress steht. Wie gesagt, Punkt 3 ist nicht per se falsch, sondern nur in seiner Pauschalisierung problematisch, weil er Annahmen über künstliche Intelligenz im Allgemeinen macht, die wir nicht wissen können.

(4)

Selbst für das intelligenteste Waffensystem ist es unmöglich zu verstehen, was es heißt, ein menschliches Leben zu beenden – gerade wenn es selbst nicht „sterben“ kann. So ist es doch vor allem die menschliche Sterblichkeit, die unserem Leben eine Bedeutung verleiht und uns zu moralischen Wesen macht. Ohne die Möglichkeit zu „sterben“ kann es auch keine Befähigung zu ethischem Verhalten im Krieg geben

Hier kommen wir das erste Mal zu einem tatsächlich fundamentalen Punkt: Das Problem ist eben nicht, dass menschliche Moralentscheidungen stets und prinzipiell maschinellen Moralvorstellungen überlegen sein werden. Und auch nicht, dass künstliche Intelligenzen niemals ähnliche oder sogar dem Menschen überlegene Moralentscheidungen treffen können.

Das Problem ist vielmehr, dass die Moral künstlicher Intelligenz sich nur äußerst schwer mit menschlicher Moral vergleichen lassen wird, weil sie mit hoher Wahrscheinlichkeit auf völlig anderen Grundlagen aufbaut (deshalb sind Asimovs Gesetze auch mehr Science Fiction als Realität). Das ist wunderschön illustriert in dieser Episode aus dem insgesamt sehr lesenswerten Artikel von Ross Anderson im Aeon Magazine:

‘Let’s say you have an Oracle AI that makes predictions, or answers engineering questions, or something along those lines,’ Dewey told me. ‘And let’s say the Oracle AI has some goal it wants to achieve. Say you’ve designed it as a reinforcement learner, and you’ve put a button on the side of it, and when it gets an engineering problem right, you press the button and that’s its reward. Its goal is to maximise the number of button presses it receives over the entire future. See, this is the first step where things start to diverge a bit from human expectations. We might expect the Oracle AI to pursue button presses by answering engineering problems correctly. But it might think of other, more efficient ways of securing future button presses. It might start by behaving really well, trying to please us to the best of its ability. Not only would it answer our questions about how to build a flying car, it would add safety features we didn’t think of. Maybe it would usher in a crazy upswing for human civilisation, by extending our lives and getting us to space, and all kinds of good stuff. And as a result we would use it a lot, and we would feed it more and more information about our world.’

‘One day we might ask it how to cure a rare disease that we haven’t beaten yet. Maybe it would give us a gene sequence to print up, a virus designed to attack the disease without disturbing the rest of the body. And so we sequence it out and print it up, and it turns out it’s actually a special-purpose nanofactory that the Oracle AI controls acoustically. Now this thing is running on nanomachines and it can make any kind of technology it wants, so it quickly converts a large fraction of Earth into machines that protect its button, while pressing it as many times per second as possible. After that it’s going to make a list of possible threats to future button presses, a list that humans would likely be at the top of. Then it might take on the threat of potential asteroid impacts, or the eventual expansion of the Sun, both of which could affect its special button. You could see it pursuing this very rapid technology proliferation, where it sets itself up for an eternity of fully maximised button presses. You would have this thing that behaves really well, until it has enough power to create a technology that gives it a decisive advantage — and then it would take that advantage and start doing what it wants to in the world.

Schlussfolgerung ist also, dass wir auf jeden Fall extrem vorsichtig sein sollten bei der Entwicklung autonomer intelligenter Kampfsysteme (ich hatte ja schon angekündigt, dass Christian und ich bei der gleichen Schlussfolgerung landen)—und im allgemeinen sicherstellen sollten, dass wir künstliche Intelligenzen vernünftige Moralvorstellungen beibringen, wenn wir sie schon entwickeln. Nicht, dass jeder self-respecting Sci-Fi Geek das nicht schon immer gewusst hätte.🙂

 

2 Kommentare

  1. Hallo Felix,

    Du, würde es Dir viel ausmachen, Deinen Beitrag hier mit den ersten 3-4 Absätzen bei uns http://www.sicherheitspolitik-blog.de/2013/03/14/ethik-der-drohnen-weidlich/ als Kommentar einzustellen und den weiteren Text von Dir hier zu verlinken? Danke! BG; Stefan

    1. Klar. Done! (eigentlich hätte WordPress einen automatischen Pingback generieren sollen, der bei euch auf der Seite erscheint, aber ist irgendwie nicht passiert…)

Schreibe einen Kommentar

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s

%d Bloggern gefällt das: