Google gibt Pentagon-Drohnenprojekt auf | Aktuell Amerika | DW | 02.06.2018
  1. Inhalt
  2. Navigation
  3. Weitere Inhalte
  4. Metanavigation
  5. Suche
  6. Choose from 30 Languages

Militärtechnik

Google gibt Pentagon-Drohnenprojekt auf

Sie wollen keine Handlanger sein für den Tod per Knopfdruck: Google-Mitarbeiter protestieren gegen den militärischen Einsatz künstlicher Intelligenz - im US-Drohnenkrieg. Jetzt weicht der kalifornische Konzern zurück.

US MQ-1 Predator (Getty Images/J. Moore)

Im Schatten des Todes: US-Drohne vom Typ MQ-1 Predator (Archivbild)

Der Technologie-Gigant Google will sich laut Medienberichten aus der Zusammenarbeit mit dem US-Verteidiungsministerium im Bereich Künstliche Intelligenz (KI) zurückziehen. Ein Verantwortlicher des Unternehmens habe gegenüber den Mitarbeitern erklärt, Google werde ein Projekt zur Unterstützung von Drohneneinsätzen des Pentagons nicht verlängern, berichtet die "New York Times" unter Berufung auf interne Quellen.

Bei dem Projekt "Maven" mit einem Volumen bis zu zehn Millionen Dollar - umgerechnet 8,6 Millionen Euro - kommen demnach intelligente Algorithmen zum Einsatz, die unter anderem dazu dienen, Menschen in Drohnenvideos zu identifizieren. Der Vertrag mit der US-Regierung läuft im kommenden Jahr aus.

"Geschäft mit dem Krieg"

Zahlreiche Google-Mitarbeiter hatten ihren Arbeitgeber in einer Petition aufgerufen, sich vom "Geschäft mit dem Krieg" fernzuhalten. Google müsse klar erklären, dass weder der Internetriese noch seine Subunternehmen "jemals Kriegstechnologie herstellen".

Google Logo (Picture alliance/dpa/O.Spata)

Gestörte Idylle: Google-Campus im Silicon Valley (Archivbild)

Bis Mitte Mai unterzeichneten Berichten zufolge rund 4000 Angestellte die Petition, die intern seit Februar verbreitet wurde. Mehrere Mitarbeiter sollen aus ethischen Gründen sogar gekündigt haben. Unterstützung für den Aufruf kam von der US-Bürgerrechtsorganisation Electronic Frontier Foundation (EFF) und dem International Committee for Robot Arms Control (ICRAC), das sich dafür einsetzt, die militärische Nutzung von Robotern zu begrenzen.

"Nur ein Schritt zum automatisierten Töten"

Zwar würden die durch KI gewonnenen Erkenntnisse noch einmal von menschlichen Analysten überprüft. Doch könne diese Technik den Weg für vollautomatisierte Zielerfassungssysteme bei Kampfdrohnen ebnen - also ohne menschliche Entscheidungsträger, hatte das ICRAC in einem offenen Brief geschrieben.

Wenn Befehlshaber des Militärs zu der Erkenntnis gelangten, dass die Algorithmen verlässlich sind, wachse die Versuchung, "die Überprüfung durch Menschen für diese Systeme abzuschwächen oder sogar abzuschaffen". Dann sei die Menschheit "nur einen kleinen Schritt davon entfernt, autonomen Drohnen zu erlauben, automatisiert zu töten - ohne menschliche Aufsicht oder aussagekräftige Kontrolle", warnte das Komitee.

"Kill List" ist Chefsache

Das US-Militär und der Auslandsgeheimdienst CIA führen seit mehr als einem Jahrzehnt Operationen gegen Terrorverdächtige aus, bei denen ferngesteuerte, unbemannte Drohnen zur gezielten Tötung eingesetzt werden. Unter den Opfern sind regelmäßig auch unschuldige Zivilisten.

Die Angriffsziele müssen vom US-Präsidenten genehmigt werden. Der frühere Amtsinhaber Barack Obama weitete das Programm deutlich aus. Drohnenangriffe finden nicht nur in Afghanistan oder Pakistan, sondern auch in Ländern wie dem Jemen oder Somalia statt.

jj/ml (afp, ap)

Die Redaktion empfiehlt