Schattenblick → INFOPOOL → POLITIK → KOMMENTAR


KRIEG/1708: UNO - Waffen für die Herrschenden ... (SB)



Frankreich und Deutschland verhindern derzeit eindeutig nicht die rasante und ungebremste Entwicklung autonomer Waffensysteme. Im Gegenteil, es spricht mittlerweile vieles dafür, dass diese beiden Länder auf Zeit spielen und sogar ein gesteigertes Interesse an diesen Waffen haben.
Thomas Küchenmeister (Campaign to Stop Killer Robots) [1]

Vor 60 Jahren stellte der Biochemiker und Science-Fiction-Autor Isaac Asimov Gesetze für Roboter auf. Das berühmte lautet: Kein Roboter darf einen Menschen töten. Das weniger bekannte fordert: Keine Künstliche Intelligenz darf zusammen mit entwickelten biologischen Wesen gemeinsam auf einem Planeten leben. Die Essenz beider Gesetze: Es ist ein Gebot der Vernunft, die Apparate lieber auf Abstand zu halten. [2] Was Asimov als Zukunftsentwurf vorgedacht und mit einer dezidierten Warnung versehen hat, ist nicht nur eingetreten, sondern droht seine schlimmsten Befürchtungen in den Schatten zu stellen. An der Spitze militärtechnologischer Forschung steht die Entwicklung autonomer Waffensysteme, die Menschen effektiver als je zuvor töten, während bislang alle Versuche gescheitert sind, diese innovative Aufrüstung durch internationale Abkommen einzuhegen. Dabei zeichnet sich ab, daß der durch unvereinbare Interessen blockierte Gesprächsprozeß nicht nur von der Produktion und Erprobung solcher Waffen überholt worden ist, sondern immer weiter ins Hintertreffen gerät.

Bei der UNO in Genf beraten Experten diese Woche wieder einmal, ob und wie sich ein globales Verbot von Killerrobotern umsetzen ließe. Es geht um Kriegsgeräte wie zum Beispiel Drohnen, die selbständig entscheiden, wann und wen sie töten. Solche letalen autonomen Waffensysteme gibt es bereits, und viele Militärs würden sie künftig gern in großem Stil einsetzen. Ihr wesentlicher Vorteil aus militärischer Perspektive ist die höhere Geschwindigkeit, da der Entscheidungszyklus, ein Ziel zu finden, zu fixieren, anzupeilen und zu bekämpfen, unter Ausschluß eines menschlichen Piloten oder Operators erheblich gekürzt werden kann. [3] Hinzu kommen weitere Aspekte wie geringere Kosten, höhere Geheimhaltung und flexiblere Einsatzmöglichkeiten, wie sie generell für Drohnen gelten.

Teilautonome Waffensysteme sind inzwischen in vielen Einsätzen Alltag. Israel verfügt bereits über fliegende autonome Waffen wie die "Harpy"-Rakete, die ganz ohne menschliche Eingriffe Radaranlagen finden und zerstören kann. Sobald sie in der Luft ist, wartet sie auf eintreffende Signale und greift dann das Radarsystem an, von dem sie kommen. Großbritannien entwickelt die Drohne "Taranis", die beispielsweise feindlichen Radarstationen automatisch ausweichen soll. Der Hersteller arbeitet unter der Prämisse, daß in Zukunft auch autonome Angriffe gefragt sein könnten. An der innerkoreanischen Grenze patrouillieren seit Jahren Roboter, die Menschen erkennen und angreifen können, nur ist diese Funktion bisher angeblich nicht aktiviert worden. Angesichts dieser Beispiele ist vorstellbar, daß Waffen entwickelt werden, die nicht auf Radarsysteme reagieren, sondern aus der Luft Menschen mit bestimmten Eigenschaften angreifen. [4] Der russische Waffenkonzern Kalaschnikow hat auf der Militärmesse "Army 2018" einen neuen Kampfroboter vorgestellt. Der Prototyp des "Igorek" ist 4,5 Tonnen schwer und besteht aus einem kugelsicheren Cockpit auf zwei Beinen, ausgestattet mit Armen und riesigen Krallen, die Objekte bewegen oder Waffen tragen können. Hinsichtlich der Fähigkeiten des Roboters halten sich die Entwickler angeblich noch bedeckt, doch verfügt er offenbar über eine Gesichtserkennung. [5]

Ein Hauptproblem der Kontroverse um autonome Waffensysteme ist die ungeklärte Frage, was genau verboten werden soll. Für die NGOs, die ein Verbot von Killerrobotern fordern, hat das Internationale Komitee des Roten Kreuzes (ICRC) einen Definitionsvorschlag gemacht. Verboten werden sollen demnach solche Waffensysteme, die in ihren kritischen Funktionen autonom sind: "Aus Sicht des ICRC ist ein Waffensystem ohne menschliche Kontrolle von Natur aus rechtswidrig." Um zu verhindern, daß Tötungsentscheidungen an Maschinen delegiert werden, seien neue völkerrechtliche Regeln erforderlich. Einer Gegenposition zufolge kann das bestehende Kriegsvölkerrecht jedoch auch auf neue Waffensysteme angewendet werden und ist daher völlig ausreichend. Entsprechend unterscheiden sich die Vorschläge, die die verschiedenen Länder und NGO-Experten in Genf vorgelegt haben. Belgien schlägt vor, Letale Autonome Waffensysteme als solche zu definieren, die ohne menschliches Zutun Ziele auswählen und bekämpfen. Frankreich will hingegen Waffen ausnehmen, die letztlich von Menschen betrieben werden, und nur solche regulieren, die bei "völliger Abwesenheit" von Menschen funktionieren. Polen wiederum will allgemein "menschliche Kontrolle über Waffensysteme und ihren Einsatz" sicherstellen.

Die USA argumentieren in Genf, daß es zu früh für eine Regulierung oder gar ein Verbot sei. Autonome Waffensysteme könnten sogar dazu beitragen, die Zivilbevölkerung besser zu schützen und damit die Kriegsführung völkerrechtskonformer zu machen. Ansonsten verweist Washington auf die bereits existierenden Drohnensysteme und sieht einen "menschlichen Betreiber" als ausreichend an. Juristisch entscheidend sei, "wie Menschen diese Waffen benutzen und was sie erwarten, was diese bewirken". Alle Versuche, die Waffensysteme selbst genau zu definieren, seien deshalb überflüssig. Rußland spricht sich wegen "des hohes Grades an Effizienz" deutlich für automatisierte bzw. autonome Waffen aus. Jeder Staat müsse seine eigenen Regeln finden, universale Regeln würden "kaum zu praktischen Ergebnissen führen".

Inzwischen sind 26 Staaten für ein Verbot solcher Waffen, während High-Tech-Militärmächte wie die USA, Rußland, China, Israel, Großbritannien und Südkorea massiv in die Entwicklung autonomer Waffensysteme investieren und daher den Genfer Verhandlungsprozeß verzögern und blockieren. Was immer dabei an Argumenten vorgeschoben wird - es geht unter dem Strich ausschließlich um militärischen Vorsprung. Wer derartige Waffensysteme entwickelt oder bereits über sie verfügt, lehnt jede international verbindliche Vereinbarung zu ihrer Regulierung ab. Wer keine Aussicht hat, sich an diesem Rüstungswettlauf zu beteiligen, befürwortet hingegen ein Verbot. Zwischen diesen beiden Polen navigieren alle übrigen Staaten, die offenbar noch abwägen, was für sie am vorteilhaftesten wäre.

Die Bundesregierung hat sich in den Koalitionsverträgen 2013 und 2018 gegen solche Waffen ausgesprochen: "Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten." Die jüngste Koalitionsvereinbarung hält jedoch eine Hintertür offen: "Wir werden gemeinsam mit unseren französischen Partnern ein öffentlich verantwortetes Zentrum für künstliche Intelligenz errichten." Entwickelt werden sollen "Anwendungen in allen Feldern der Forschungs- und Innovationsstrategie". Dies schließt offensichtlich eine militärische Verwendbarkeit dieser Technologien ein, da Frankreich bereits angekündigt hat, "jährlich 100 Millionen Euro für die Erforschung künstlicher Intelligenz im Rahmen einer Innovationsoffensive zur Entwicklung zukünftiger Waffensysteme" bereitzustellen.

In Genf beschreiten Deutschland und Frankreich einen vorgeblichen Mittelweg, als gehe es ihnen darum, die existierende Kluft in den Gesprächen zu schließen. Sie schlagen vor, zunächst eine nicht verbindliche politische Deklaration zu verabschieden. Dies könne ein erster Schritt auf dem Weg zu einem künftigen Verbot sein. Während einige Verbotsbefürworter dies als Übergangslösung begrüßen, warnen andere davor, daß dieser angeblich erste Schritt für manche anderen Staaten bereits der letzte sein könnte und der jahrelange Gesprächsprozeß ergebnislos im Sande verläuft. Die Bundesrepublik verstößt mit dieser Initiative nicht nur gegen die Kernaussage des Koalitionsvertrags, indem sie gemeinsam mit Frankreich die Entwicklung autonomer Waffensysteme nicht verhindert. Ganz im Gegenteil spricht vieles dafür, daß die beiden Länder in Genf auf Zeit spielen, weil sie selbst ein gesteigertes Interesse an diesen Waffen haben.


Fußnoten:

[1] www.heise.de/tp/features/ICRC-Ein-Waffensystem-ohne-menschliche-Kontrolle-ist-von-Natur-aus-rechtswidrig-4023404.html

[2] www.deutschlandfunk.de/kuenstliche-intelligenz-die-roboter-kommen-naeher.1184.de.html

[3] www.deutschlandfunk.de/ruestungsexperte-sauer-zu-killerrobotern-menschliche.676.de.html

[4] www.deutschlandfunk.de/autonome-waffensysteme-kampfroboter-heute-und-in-zukunft.676.de.html

[5] www.focus.de/wissen/technik/kalaschnikow-praesentiert-igorek-waffen-expo-russisches-unternehmen-zeigt-vier-meter-grossen-kampfroboter_id_9463883.html

31. August 2018


Zur Tagesausgabe / Zum Seitenanfang