Keine Einigung zum Umgang mit Killerrobotern | Aktuell Welt | DW | 01.09.2018
  1. Inhalt
  2. Navigation
  3. Weitere Inhalte
  4. Metanavigation
  5. Suche
  6. Choose from 30 Languages

Rüstung

Keine Einigung zum Umgang mit Killerrobotern

Die UN-Verhandlungen über tödliche autonome Waffensysteme, umgangssprachlich Killer-Roboter genannt, sind laut Agentur dpa ohne offizielles Abschlusspapier zu Ende gegangen. Ein Minimalkonsens liegt in weiter Ferne.

Europa-Sitz Vereinte Nationen, UNO in Genf, Schweiz (picture-alliance/imagebroker/G. Fischer)

Der Dienstsitz der Vereinten Nationen in Genf

Im Ringen um Kontrollen und Schranken für sogenannte Killer- oder Tötungsroboter ist in Genf eine UN-Konferenz mit Abrüstungsexperten aus mehr als 70 Ländern, aber auch mit Wissenschaftlern und Nichtregierungsorganisationen, ohne greifbares Ergebnis zu Ende gegangen. Das meldet die Deutsche Presseagentur zum Ende der Verhandlungen in der Nacht zum Samstag vom UN-Sitz in Genf, wo die ganze Woche über das Thema beraten wurde. Eine Mehrheit der Teilnehmer habe sich zwar für Verhandlungen über eine neue internationale Gesetzgebung ausgesprochen, eine kleine Gruppe von Rüstungsmächten sei aber dagegen, berichtet die Nachrichtenagentur dpa.

Verhandelt wurde im Rahmen des UN-Waffenabkommens CCW, der "Convention on Certain Conventional Weapons". Eine Einigung hätte einstimmig verabschiedet werden müssen. Es geht darum, ob Herstellung und Einsatz von autonomen Waffen durch einen international verbindlichen Vertrag geregelt werden müssen. Die USA und andere Länder mit großer Rüstungsindustrie sind dagegen.

Selbstlernende Waffen

Autonome Waffen sind so programmiert, dass sie mit Hilfe sogenannter künstlicher Intelligenz selbst lernen, was ein Ziel ist und dieses ohne menschliches Zutun zerstören. Es kann sich um unbemannte Drohnen handeln, aber auch um Schiffe, Panzer, Raketenwerfer und andere Waffen. Menschen sind an der Entscheidung zu Angriffen nicht mehr beteiligt.

Dass der Grad an Autonomie in Waffensystemen immer größer wird, liegt an den rasanten Fortschritten im Bereich der "Künstlichen Intelligenz", der Algorithmen und der Robotertechnik. Inzwischen sind Maschinen so lernfähig, dass sie Erfahrungen mittels künstlicher neuronaler Netze verarbeiten können, ähnlich wie ein menschliches Gehirn. Die Rüstungsindustrie macht sich das zunutze: Waffen werden dadurch schneller und effizienter, während gleichzeitig die Gefahr für die Soldaten sinkt. 

Eine gewisse Grauzone gibt es zu schon vorhandenen automatischen und autonomen Waffensystemen, aber vollautonome Kampf- oder Tötungsmaschinen werden bislang nicht eingesetzt. Die Staatenvertreter sind sich im Grundsatz eigentlich einig, dass auch autonome Waffen unter menschlicher Kontrolle bleiben und mit dem Völkerrecht, das Regeln für Kriegshandlungen umfasst, vereinbar sein müssen. Dennoch ist ein international gültiges Regelwerk zum Einsatz von tödlichen autonomen Waffen oder auch deren internationale Ächtung nicht in Sicht.

Widerstand auch vom Roten Kreuz

Gegner wie die Kampagne "Stoppt Killerroboter" sind der Auffassung, tödliche autonome Waffen seien eine völlig neue Dimension der Kriegsführung - und weil sie nicht explizit in alten Verträgen erwähnt sind, könnten Akteure mit Spitzfindigkeiten in der Auslegung alter Vertragstexte für diese Waffen einen rechtsfreien Raum schaffen.

Völkerrechtsexperten des Internationalen Komitees vom Roten Kreuz (IKRK) argumentieren, sinnvolle menschliche Kontrolle sei bei diesen Waffen gar nicht mehr möglich, unter anderem wegen "unserer kognitiven Grenzen bei Interaktionen zwischen Mensch und Maschine".

qu/cgn (dpa)

 

Die Redaktion empfiehlt

Audio und Video zum Thema