Im Koalitionsvertrag von 2013 waren sich CDU/CSU und SPD einig: Autonome Waffensysteme müssen verboten werden. In der Vereinbarung von damals heißt es: „Deutschland wird sich für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme einsetzen, die dem Menschen die Entscheidung über den Waffeneinsatz entziehen.“
Im November 2017 kamen in Genf Regierungsexperten zusammen, um im Rahmen der UN-Konvention zu konventionellen Waffen über autonome Waffensysteme zu beraten. Auf der Konferenz legte die geschäftsführende Bundesregierung gemeinsam mit Frankreich ein Papier vor, in dem von einem Verbot aber nicht mehr die Rede ist. Vorgeschlagen wird stattdessen, an der Definition tödlicher autonomer Waffensysteme weiter zu arbeiten. Zudem setzen sich beide Staaten dafür ein, die Transparenz bei Forschung und Entwicklung solcher Waffensysteme zu verbessern. Anschließend soll eventuell ein „Verhaltenskodex“ erarbeitet werden. Gegenüber den Aussagen des Koalitionsvertrages von 2013 sei dieser Ansatz ein Rückschritt, sagt der Rüstungsexperte Marcel Dickow von der Berliner Stiftung Wissenschaft und Politik (SWP): „In dem Dokument geht es jetzt tatsächlich nur noch um Regulierung. Und was da reguliert werden soll, ist tatsächlich auch relativ schwach ausgedrückt. Und wie eine Regulierung dann aussieht, bleibt ziemlich unklar.“
Seit Jahren gibt es internationale Konferenzen über tödliche autonome Waffensysteme. Doch die Gespräche kommen nicht voran. Inzwischen fordern neben Organisationen wie „Campaign to Stop Killer Robots“ und „Human Rights Watch“ auch 21 Staaten ein vollständiges Verbot solcher Waffen. Aber die USA, Russland, Großbritannien und Israel sträuben sich. Marcel Dickow dazu:
„Es sind – man muss es leider so sagen – die üblichen Verdächtigen, die mehr auf die militärischen Vorteile dieser Systeme setzen und weniger auf das Konzept der menschlichen Kontrolle.“
Das deutsch-französische Papier soll offenbar einen Ausweg aus der Sackgasse weisen, glaubt Frank Sauer von der Bundeswehruniversität in München: „Präsentiert wurde dieses Papier eben als ein schrittweises Vorgehen, um sich dem Ziel, tatsächlich vielleicht später das Ganze noch greifbarer zu verregeln, Schritt für Schritt anzunähern. Das ist also sozusagen ein realistisch-ambitioniertes Vorgehen.“
Aber noch ist völlig offen, ob die deutsch-französische Initiative eine Realisierungschance hat. Denn, so sagt Sauer: „Die USA, Russland und China haben sich für diesen Vorstoß nicht sonderlich interessiert. Wenn er vorkam in den Wortmeldungen, dann wurde dem eher eine Absage erteilt.“
Dabei schreitet die technische Entwicklung voran. Wie soll man damit umgehen? In den meisten Ländern sind die Militärs gespalten. Zum einen sind Kommandeure gewohnt, durch das Prinzip von Befehl und Gehorsam die Kontrolle über sämtliche Militäroperationen zu haben. Zum anderen wollen sie aber die militärischen Vorteile autonomer Systeme nicht missen. Das bezieht sich vor allem auf die Präzision und die Geschwindigkeit von Entscheidungen. Und sie glauben, auf keinen Fall abseits stehen zu können, wenn der potenzielle Gegner über solche hochmodernen Waffensysteme verfügt. Auch in der Bundeswehr sei das nicht anders, sagt Marcel Dickow: „Die Skepsis ist sicherlich größer als in anderen Armeen. Aber es gibt durchaus auch in der Bundeswehr Befürworter oder zumindest Menschen, die sich vorstellen können, dass man solche Systeme einsetzt.“
Vor kurzem hat das Kommando Heer der Bundeswehr zum Beispiel ein Thesenpapier vorgelegt mit dem Titel: „Wie kämpfen Landstreitkräfte zukünftig?“ Darin wird unter anderem der – so wörtlich – „verstärkte Einsatz unbemannter Land- und Luftsysteme“ für notwendig erachtet. In dem Papier ist von Schwärmen teilautonomer unbemannter Waffensysteme und von automatisierten Gefechtstürmen die Rede. Wie dabei die menschliche Kontrolle genau aussehen soll, wird aber offen gelassen.
Bisher gibt es mehr oder weniger autonome Systeme vor allem als Abwehrsysteme gegen anfliegende Waffen – zum Beispiel die Systeme „Mantis“ und „Patriot“, die Mörsergranaten, Kampfflugzeuge und Raketen bekämpfen. Solche defensiven Systeme sind kaum umstritten. In der Debatte geht es deshalb um offensive Waffen. Einige wenige davon gibt es schon: zum Beispiel israelische Drohnen namens „Harpy“ und „Harop“, die stundenlang in der Luft kreisen können. Der Rüstungsexperte Marcel Dickow: „Das ist eine Drohne, die mit einer Sprengladung bestückt ist. Man feuert dieses System ab. Es fliegt dann in einen Zielbereich. Dort sucht es nach den Signaturen von Luftabwehrstellungen, die mit Radar arbeiten, und bekämpft sie dann, indem sich das ganze Flugzeug in diese Stellung stürzt und explodiert.“
Diese Drohnen funktionieren vollautomatisch, sie sind nicht ferngesteuert. Wenn die zu bekämpfenden Radarstellungen aber zum Beispiel auf einer Schule montiert sind, würde die Schule zerstört und Zivilisten, die sich in dem Gebäude aufhalten, getötet werden. Das wäre ein klarer Bruch des Kriegsvölkerrechts, erklärt Frank Sauer von der Bundeswehruniversität: „Ich muss ja unterscheiden: Wen darf ich mit militärischen Mitteln bekämpfen? Wer ist legitimes Ziel? Und wen muss ich schützen? Wer ist Zivilist? Dieses System macht es unmöglich, diese vom Menschen per Völkerrecht vorgesehene und von Menschen vorzunehmende Entscheidung zu treffen. Und deswegen ist es aus Kriegsvölkerrechtsperspektive sehr problematisch.“
Künstliche Intelligenz und Robotertechnologie werden in Zukunft in weit größerem Maße als bisher zum Einsatz kommen – zivil zum Beispiel in selbstfahrenden Autos, aber auch in Waffensystemen. Kritische Funktionen sind insbesondere die automatische Auswahl und Bekämpfung menschlicher Ziele. Mittels Bilderkennungsprogrammen wird es möglich sein, bestimmte Menschen, zum Beispiel in asymmetrischen Konflikten, mit Hilfe von Drohnen zu erkennen und selbstständig zu bekämpfen. Experten wie Frank Sauer gehen aber davon aus, dass man Maschinen niemals beibringen kann, ethische Entscheidungen zu treffen, die dem Völkerrecht gerecht werden.
Auch sicherheitspolitisch sind autonome Waffen problematisch. Wenn zum Beispiel Großmächte wie China, Russland und die USA in einem Konfliktgebiet Schwärme von autonomen Waffensystemen auf dem Wasser oder in der Luft in Bereitschaft halten, dann ist das Eskalationsrisiko enorm, befürchtet Marcel Dickow: „Es ist völlig unklar, was passiert, wenn solche Systeme gegeneinander antreten. Das kann man vorher nicht testen. Das wird man also nicht vorausberechnen können, und das ist ein enormes Risiko im Konflikt, aber auch in Bezug auf die Hemmschwelle, in einen Konflikt zu gehen. Deswegen sollte man auch aus sicherheitspolitischer Sichtweise diese Systeme auf jeden Fall regulieren.“
Um die humanitären wie auch die sicherheitspolitischen Probleme in den Griff zu bekommen, wäre ein Verbot vollautomatischer Waffensysteme wohl die beste Lösung. Doch einvernehmlich ist so ein Schritt gegenwärtig offenbar nicht möglich – auch wenn beschlossen worden ist, dass die Regierungsexperten erneut zusammenkommen werden, um über das Thema zu beraten. Frank Sauer ist nicht allzu optimistisch: „Wohin das führt, ist ziemlich offen. Ich könnte mir vorstellen, dass es irgendwann in Genf zu einem abrupten Halt kommt und dass vielleicht die Zivilgesellschaft diesen gesamten Prozess – so wie wir es ja schon erlebt haben in der jüngeren Vergangenheit mit Blick auf andere Fragen wie etwa Cluster-Munition oder Landminen – einfach aus dem UN-Kontext herauslöst.“
Am Ende eines solchen Prozesses könnten interessierte Staaten eine internationale Vereinbarung abschließen – einen Vertrag, der den Einsatz autonomer Waffensysteme einschränkt oder ganz verbietet. Doch vermutlich würden sich die Regierungen, die weiterhin auf autonome Waffensysteme setzen, nicht beteiligen. Vielleicht könnten sie aber später hinzukommen – wenn internationaler Druck oder die öffentliche Meinung im eigenen Land stark genug sind.