Schattenblick → INFOPOOL → MEDIEN → ALTERNATIV-PRESSE


IMI/973: Verbot von Killer Robotern


IMI - Informationsstelle Militarisierung e.V.
IMI-Analyse 2019/28 vom 20. September 2019

Verbot von Killer Robotern
Blockade der USA und Russlands

von Marius Pletsch


Seit 2014 wird im Rahmen der Konvention über bestimmte konventionelle Waffen (engl. Convention on certain conventional weapons, kurz CCW) über Killer Roboter gesprochen. Offiziell heißen die Kriegsgeräte hier "tödliche autonome Waffensysteme" (lethal autonomous weapons systems, kurz LAWS). 2016 wurde eine Gruppe von RegierungsexpertInnen (engl. Group of Governmental Experts, kurz GGE) ins Leben gerufen, die seit 2017 (mehrmals) jährlich tagt. In diesem Text soll zunächst erläutert werden, was die CCW ist und ein kurzer Überblick über den bisherigen Verlauf der Gespräche über autonome Waffen gegeben werden. Dann wird genauer auf die jüngste Sitzung eingegangen, die im August in Genf stattfand, bei der der Autor als Campaigner der DFG-VK für die Kampagne gegen Killer Roboter dabei sein durfte. Abschließend wird sich noch speziell mit der ambivalenten deutschen Position auseinandergesetzt.


Die CCW und Killer Roboter

Die CCW hat derzeit 125 hohe Vertragsstaaten (engl. High Contracting Parties, HCP), welche die Konvention ratifiziert haben; vier Staaten haben die Konvention unterzeichnet, aber noch nicht ratifiziert. Bei der Konvention geht es - wie der Name schon sagt - nicht um Massenvernichtungswaffen, also atomare, biologische oder chemische Waffen, sondern um konventionelle Waffen, die "übermäßige Leiden verursachen oder unterschiedlos wirken können", wie es weiter im Titel der Konvention heißt, die 1980 bei den Vereinten Nationen in Genf beschlossen wurde. Staaten, die zwei Zusatzprotokolle unterzeichnet haben, gelten als Unterzeichner. Mit dem Inkrafttreten der Konvention im Jahr 1983 waren auch schon drei Zusatzprotokolle verhandelt. Verboten, bzw. reguliert wurde 1) der Einsatz von zu Verletzungen führenden Fragmenten, die nicht unter Röntgenstrahlung detektierbar sind, 2) der Einsatz von Minen, Sprengfallen und ähnlichen Waffen und 3) der Einsatz von Brandwaffen, insb. von Projektilen, die dazu dienen sollen, Menschen schwere Verbrennungen zuzuführen.

Zwei weitere Protokolle sind seitdem hinzugekommen: das vierte, welches den Einsatz von Lasern zum Zwecke des dauerhaften Erblindens von Personen verbot (1995) - dieses Zusatzprotokoll gilt als Erfolg und wird von manchen als Vorbild für ein Verbot von Killer Robotern gesehen - und das fünfte zur Verpflichtung aller kriegsteilnehmenden Parteien, bei der Beseitigung von explosiven Kriegsrückständen mitzuwirken (2003). Lange wurde über ein weiteres, sechstes Zusatzprotokoll verhandelt, wodurch Streumunition geächtet werden sollte. Dieses kam wegen großen Widerstandes der führenden Militärmächte jedoch nie zustande.

Die Erfolge der Konvention sind - vorsichtig ausgedrückt - überschaubar. Das zweite Zusatzprotokoll über Minen war viel zu eng gefasst und hatte kaum einen Effekt auf die Staatenpraxis. Es wurde 1996 ergänzt, doch auch diese Überarbeitung ging vielen Staaten, insbesondere bei den Anti-Personenminen, nicht weit genug. Es fanden sich Staaten, die einen Prozess außerhalb der UN anstrengten, so kam es zur Ottawa Konvention, wo derzeit 164 Staaten Vertragsparteien sind. Teilnehmende Staaten verpflichteten sich zum Verbot der Nutzung, Lagerung, Herstellung und des Transfers von Anti-Personenminen. Hier gingen einige Staaten, darunter Kanada, Belgien und Deutschland voran und bemühten sich um eine breite Unterstützung. Dieses Vorgehen blieb kein Einzelfall. Als innerhalb der CCW sich die Staaten nicht auf das oben angesprochene sechste Zusatzprotokoll über Streumunition einigen konnten, wurde wieder ein externes Verfahren gewählt. Dieses Mal war Norwegen der "Champion", der sich um das Zustandekommen bemühte, so wurde 2007 der sogenannte Oslo-Prozess gestartet. 2008 war der Text fertig und zur Unterschrift bereit, 2010 trat die Konvention über Streumunition in Kraft. Mit der Zeit unterzeichneten 108 Staaten die Konvention, 106 haben sie ratifiziert.

Doch eine Ächtung im Rahmen der CCW anzustrengen hat Vor- wie Nachteile. In der CCW wird, wie es in der jüngsten Sitzung der GGE ein Mitglied der Delegation aus Österreich ausdrückte, versucht ein "Zelt" aufzubauen. Doch die Konsensregelung macht dieses Unterfangen schwierig. Hier werden zwar Normen produziert, denen sich, wenn sich auf einen Protokolltext geeinigt werden kann, viele Staaten anschließen, und je nach Staatenpraxis dadurch diese Normen in das Völkergewohnheitsrecht übergehen können, also nicht länger nur für die Vertragsparteien gültig ist. Aber das ist ein langer Weg und bislang kann man dies höchstens über das zweite Zusatzprotokoll von 1980 sagen, welches wie schon angesprochen vielen Staaten zu schwach war.[1]

Der Vorteil ist, dass hier die ExpertInnen der Regierungen zusammenkommen und dies ein Forum ist, bei dem Probleme mit spezifischen Waffensystemen eine größere Bekanntheit erlangen, was dazu führen kann, dass sich mehr Staaten finden, die eine Regulierung oder gar eine Ächtung befürworten - im Zweifel auch außerhalb der CCW. Somit kann die CCW als Inkubator dienen.

Wie bereits eingangs erwähnt, wird seit 2014 innerhalb des hier beschriebenen Rahmens auch über autonome Waffensysteme gesprochen. Zuerst wurden ExpertInnen angehört, ab 2017 ging es dann in den Gesprächen der GGE weiter. Ein Verhandlungsmandat fehlt und momentan auch die Aussicht, dass sich die Staaten darauf werden einigen können.

Dabei drängt die Zeit. Autonome Waffensysteme sind alles andere als Science-Fiction. Autonome Funktionen lassen sich bereits heute in vielen Waffensystemen finden. Eine Studie des schwedischen Friedensforschungsinstitut SIPRI bezifferte die Zahl der Systeme, die über autonome Funktionen verfügen, auf 381 Systeme, wobei hier sogar Munitions- bzw. Trägersysteme wie Marschflugkörper gar nicht mit aufgenommen wurden.[2] Dabei wurde sich bislang weder in der Staatengemeinschaft noch in der Wissenschaft auf eine gängige Definition geeinigt. Deshalb versuchte man sich in den letzten Jahren der Problematik eher durch das Konzept der menschlichen Kontrolle über Waffensysteme zu nähern. Besonders groß ist die Sorge, dass die bedeutsame menschliche Kontrolle über die sogenannten kritischen Funktionen von Waffensystemen bei dem Einsatz von z.B. Algorithmen oder "künstlicher Intelligenz" nicht länger gewährleistet werden kann. Es ist infrage zu stellen, ob solche Waffensysteme überhaupt völkerrechtskonform eingesetzt werden können, da nicht absehbar ist, dass die Systeme im Kampfgeschehen Grundprinzipien des humanitären Völkerrechts, wie die Unterscheidung von KombattantInnen und ZivilistInnen oder die Verhältnismäßigkeit eines Angriffes, einhalten können. Neben dem völkerrechtlichen Argument gibt es noch ethische Bedenken. Ist es z.B. mit der Menschenwürde vereinbar, dass ein Mensch auf Datenpunkte reduziert wird, die dann in der Black Box der autonomen Waffe, die Waffenauslösung und damit den Tod dieses Menschen zur Folge hat? Des Weiteren werden auch Sorgen geäußert, solche Waffensysteme könnten sich negativ auf die Stabilität des internationalen Systems auswirken, da es zu Rüstungswettläufen kommen könnte und das Risiko der Proliferation - auch an nicht-staatliche Akteure - hoch ist.


Die Gespräche im August - Kein Schritt in Richtung Verbot von Killer Robotern

Zum ersten Mal war im August auch die DFG-VK bei der CCW vertreten, um die Gespräche zu verfolgen, zu begleiten und um gemeinsam mit der Kampagne gegen Killer Roboter daran zu arbeiten, die Entwicklung, Produktion und den Einsatz von Waffensystemen, die ohne menschliches Zutun Ziele auswählen und angreifen würden, zu verhindern. Dieses Jahr war die Zahl der Tage, an denen sich getroffen wurde, auf sieben reduziert. Darauf hatte die russische Delegation letztes Jahr gedrängt. Um die Arbeit überhaupt in dieser knappen Zeit zu bewältigen, traf man sich nicht nur zu dem formellen Treffen Ende März, sondern auch zu mehreren informellen Gesprächen. Der Nachteil von informellen Treffen ist, dass keine DolmetscherInnen übersetzen können, wodurch Nachteile für nicht-englischsprachige Staaten entstehen können und außerdem für kleinere Staaten der personelle wie finanzielle Aufwand, an den sogenannten "Informals" teilnehmen zu können, groß ist. Bei dem Treffen, an dem die DFG-VK nun teilnahm, ging es um den diesjährigen Abschlussbericht des Vorsitzenden Ljupco Jivan Gjorgjinski und dessen Annahme. Im November werden die hohen Vertragsparteien (HCP) über das Dokument endgültig entscheiden. Worum es also ging, war sehr detaillierte Textarbeit, bei der viel um Wörter und Zeichensetzung gesprochen und gestritten wurde, um zu einem Textentwurf zu kommen, der für alle Beteiligten akzeptabel ist - doch das schien streckenweise kaum erreichbar. Letztlich einigte man sich, doch während der Gespräche kam es zu einer Verwässerung des Textes und wichtige Stellen, die in Richtung einer Empfehlung für ein Verhandlungsmandat hätten weisen können, wurden abgeschwächt oder gar gestrichen.

Formulierungen, die explizit auf eine (bedeutsame) menschliche Kontrolle für Waffensysteme verwiesen, wurden auf Bestreben der Vereinigen Staaten entfernt, die klar signalisiert haben, dass wenn dieser Begriff so im Dokument auftauche, der Bericht nicht die Unterstützung der USA finden würde. Russland versuchte weiter, die Zahl der Tage, an denen man die nächsten zwei Jahre sprechen möchte, so gering wie möglich zu halten. Zeitweise sollte sogar in den Text aufgenommen werden, dass eine Partei (Russland) zwanzig Tage für die nächsten zwei Jahre vorschlägt und andere 25 bzw. 30, wobei die 25 schon ein Kompromissvorschlag war, die überwiegende Mehrzahl der Delegationen favorisierten die 30 Tage. Nun steht die mögliche Anzahl an Tagen in eckigen Klammern, darüber müssen also die HCPs entscheiden. Ein klares Tief der russischen Delegation war die Aussage, dass Autonomie kein zentrales Merkmal von autonomen Waffensystemen sei.

Ein weiterer Streitpunkt - der auch bis zur Sitzung der HCP im November offen bleibt - ist der über ein mögliches Ergebnis, bzw. den Vorschlag, den die Gruppe der RegierungsexpertInnen den HCPs vorlegen wird. Denn entscheiden kann die Gruppe nicht, dafür müsste zunächst ein Verhandlungsmandat über ein mögliches weiteres Zusatzprotokoll zu der CCW erteilt werden, vielmehr könnte sie nur eine Empfehlung aussprechen. Immerhin findet sich noch im Berichtsteil ein Verweis auf ein völkerrechtlich verbindliches Instrument. Doch in den Empfehlungen ist die Rede davon, den weiteren Input von ExpertInnen aus den Bereichen Recht, Technologie und Militär als Basis für die Klarstellung und Erwägung von Aspekten eines normativen und operationalen Rahmens für tödliche Autonome Waffensysteme zu nutzen.[3] Bei dem Versuch, ein "Zelt" zu bauen, unter dem jeder Platz hat und sich wiederfinden kann, wurde der Raum so groß, dass sich die internationale Staatengemeinschaft hier verliert.


Die Position Deutschlands: in der Öffentlichkeit hui, in den Gesprächen pfui?

Im Koalitionsvertrag von 2013, den CDU, CSU und SPD geschlossen haben, hieß es recht klar: "Deutschland wird für die Einbeziehung bewaffneter unbemannter Luftfahrzeuge in internationale Abrüstungs- und Rüstungskontrollregime eintreten und sich für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme einsetzen, die dem Menschen die Entscheidung über den Waffeneinsatz entziehen."[4]

Im Koalitionsvertrag 2018, auch zwischen CDU, CSU und SPD geschlossen, stand dann geschrieben: "Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten."[5]

Auch auf dem internationalen Parkett klingen die Worte vielversprechend. 2018 trat Bundesaußenminister Heiko Maas vor die Generalversammlung der Vereinten Nationen und sagte: "Unsere Regelwerke müssen Schritt halten mit den technologischen Entwicklungen. Was wie Science Fiction klingt, könnte sonst sehr bald tödliche Realität werden: Autonome Waffensysteme - Killer-Roboter - die völlig außerhalb menschlicher Kontrolle töten. Ich möchte Sie bitten: Unterstützen Sie hier in New York und in Genf unsere Initiative für eine Ächtung vollautonomer Waffen, bevor es zu spät ist!"[6] Der "Witz": Zu der Zeit wollte man in Genf lieber eine nicht-bindende politische Erklärung in Kooperation mit Frankreich anstrengen, statt eines völkerrechtlich verbindlichen Instruments. Die Idee der politischen Erklärung scheint nun aber nicht mehr mit Nachdruck verfolgt zu werden, was eine gute Entwicklung wäre. Das heißt nicht, dass die Bundesregierung jetzt für ein solches Instrument die Stimme in Genf erhebt.

VertreterInnen der Bundeswehr äußern sich auch gelegentlich zu dem Thema: In einem Interview mit Bilanz sagte Brigadegeneral Gerald Funke: "Grundsätzlich muss unterschieden werden zwischen heute bereits vorhandenen automatisierten Systemen und noch nicht existenten autonomen Systemen, die auf dem Einsatz von KI-Systemen basieren. Die Bundesregierung setzt sich aktiv für die Ächtung letaler autonomer Waffensysteme ein, die dem Menschen die Entscheidungsgewalt über Leben und Tod entziehen. Die Bundeswehr verfügt über Waffensysteme, die entweder ferngesteuert betrieben oder im Sinne des Folgens vorprogrammierter Algorithmen automatisiert sind, eine vorhersehbare Wirkung erzielen und damit nicht eigenständig Entscheidungen über Leben und Tod treffen. Die Bundeswehr verfügt über keine autonomen Waffensysteme und plant auch nicht deren Einführung."[7]

Warum also setzt sich die Bundesregierung bei den CCW nicht klar für ein Verbot ein? EIn Grund für die ambivalente Position Deutschlands könnte unter anderem hier liegen: Die Aussagen sind vergleichbar mit einer in Genf vorgelegten hochproblematischen Definition von autonomen Waffensystemen, die auch noch im Widerspruch zu der Position aus dem Koalitionsvertrag von 2013 steht: 2013 wurden noch "vollautomatisierte" Systeme problematisiert; in der Definition wird versucht, automatisierte Systeme (= ok) von autonomen Systemen (= schlecht) abzugrenzen. In dieser Definition wird ein System erst dann als autonom bezeichnet, wenn es z.B. eine sich verändernde Situation evaluieren und darauf reagieren kann (ohne auf eine Reihe von vorgegebenen Zielen zurückgreifen zu müssen), schlussfolgern und den bestgeeigneten Ansatz zur Realisierung des Ziels auswählen kann (reason and decide). Zudem werden noch hochkomplexe Konzepte wie die Lernfähigkeit und Selbstwahrnehmung bzw. -bewusstsein (je nach Übersetzung des Begriffs self-awareness) angesprochen. Damit wird das Problem nur eben auch deutlich weniger dringlich, da Systeme, die über solche Eigenschaften verfügen, noch in weiter Ferne liegen. Praktischerweise erklärt man mit einer solchen Definition auch Systeme, die man gemeinsam mit den europäischen Verbündeten entwickeln möchte, wie das nächste europäische Kampfflugzeug oder den nächsten Kampfpanzer - die beide mit unbemannten Subsystemen ins Feld geschickt werden sollen - für unbedenklich. In der Öffentlichkeit stellt sich die Bundesregierung und insbesondere der Außenminister gern an die Spitze der Bewegung. Gleichzeitig wird in Genf auf die Bremse getreten und die wenigen substantiellen Beiträge, die nicht darauf abzielen einen (schwachen) Konsens zu finden, sind dann solche, die die möglichen positiven Aspekte der Entwicklungen in den Fokus stellen. Deutschland sprach sich so dafür aus, eine Passage, die von Techno-Optimismus nur so trieft, mit im Bericht zu behalten.

Nach den Gesprächen freute sich die deutsche Seite über das Ergebnis. Susanne Baumann, die Abrüstungsbeauftragte im Auswärtigen Amt, schrieb auf dem Kurznachrichtendienst Twitter: "Deutschland heißt das starke Ergebnis der Gespräche in Genf über tödliche autonome Waffensysteme willkommen. Lasst uns nun die Kräfte bündeln bei der Arbeit hin zu einem umfassenden normativen Rahmen."[8] Der Begriff des "normativen Rahmens" ist eine Leerformel, da Alles und Nichts darunter zu verstehen ist. Und angesichts der zurückhaltenden Wortmeldungen in Genf ist es eher das Nichts, was die Bundesregierung verfolgt.

Mit dem Dokument, auf das sich geeinigt wurde, scheint das im Koalitionsvertrag formulierte Ziel im Rahmen der CCW jedoch in weite Ferne zu rücken, so dass die Frage gestellt werden kann, worüber sich hier gerade in den Pressemeldungen und auf den Sozialen Netzwerken gefreut wird. Entweder man möchte das Ziel, welches im Koalitionsvertrag formuliert wurde, erreichen. Dann muss man aber zur Kenntnis nehmen, dass man bei der CCW durch die Blockade vor allem von den USA und Russland nicht zu dem gewünschten Ziel innerhalb des Rahmens wird kommen können. Oder aber man meint es schlicht nicht ernst mit den selbst gesteckten Zielen und freut sich darüber, weiter ungezwungen reden zu können, ohne aber sich klar positionieren und handeln zu müssen. Dabei hat Deutschland das Potenzial, hier eine Vorreiterrolle einzunehmen und die Gespräche in Genf hinter sich zu lassen und mit Partnerstaaten zu einem völkerrechtlich bindenden Instrument zu kommen. Ziele formuliert und gesprochen hat die Bundesregierung darüber zumindest lang genug.


Anmerkungen

[1] Boothby, William H. (2015): Weapons, Prohibited, in: Max Planck Encyclopedia of Public International Law [MPEPIL].

[2] Boulanin, Vincent/Verbruggen, Maaike (SIPRI, 2017): Mapping the Development of Autonomy in Weapon Systems, S. 20.
https://www.sipri.org/sites/default/files/2017-11/siprireport_mapping_the_development_of_autonomy_in_weapon_systems_1117_1.pdf

[3] Siehe den nun angenommen Bericht: CCW/GGE.1/2019/CRP.1/Rev.2.
https://www.unog.ch/80256EDD006B8954/(httpAssets)/5497DF9B01E5D9CFC125845E00308E44/$file/CCW_GGE.1_2019_CRP.1_Rev2.pdf

[4] Bundesregierung (2013): Deutschlands Zukunft gestalten. Koalitionsvertrag zwischen CDU, SCU und SPD, 18. Legislaturperiode. S. 178.

[5] Bundesregierung (2018): Ein neuer Aufbruch für Europa. Eine neue Dynamik für Deutschland. Ein neuer Zusammenhalt für unser Land. Koalitionsvertrag zwischen CDU, CSU und SPD, 14.3.2018, S. 149.

[6] Maas, Heiko (Auswärtiges-Amt.de, 28.09.2018): "Together First!": Rede von Außenminister Heiko Maas in der Generaldebatte der 73. Generalversammlung der Vereinten Nationen.
https://www.auswaertiges-amt.de/de/newsroom/maas-generalversammlung-vn/2142296

[7] Buck, Christian (Welt.de, 29.7.2019): "Keine autonomen Waffen"
https://www.welt.de/wirtschaft/bilanz/article197622673/KI-in-der-Kriegsfuehrung-Keine-autonomen-Waffen.html?wtmc=socialmedia.twitter.shared.web

[8] Baumann, Susanne (Twitter.com, @GERMANYonUN, 22.8.2019)
https://twitter.com/GERMANYonUN/status/1164438664769953792


Der Artikel kann als PDF-Datei heruntergeladen werden unter:
https://www.imi-online.de/download/IMI-Analyse2019-28-Roboter.pdf


Link zur IMI-Mitgliederkampagne
http://www.imi-online.de/2019/01/01/imi-mitgliederkampagne/

*

Quelle:
IMI-Analyse 2019/28 vom 20. September 2019
Verbot von Killer Robotern
https://www.imi-online.de/2019/09/20/verbot-von-killer-robotern/
Herausgeber: Informationsstelle Militarisierung (IMI) e.V.
Hechinger Str. 203, 72072 Tübingen
Tel.: 07071/49154, Fax: 07071/49159
E-Mail: imi@imi-online.de
Internet: www.imi-online.de


veröffentlicht im Schattenblick zum 26. September 2019

Zur Tagesausgabe / Zum Seitenanfang