Wenn Waffen auf Gentechnik treffen | Welt | DW | 25.09.2018
  1. Inhalt
  2. Navigation
  3. Weitere Inhalte
  4. Metanavigation
  5. Suche
  6. Choose from 30 Languages

Krieg der Zukunft

Wenn Waffen auf Gentechnik treffen

Roboter, künstliche Intelligenz und Gentechnologie verändern menschliches Leben - und das Töten. Neue Technologien finden rasant Eingang in Rüstungsprojekte. Was bedeutet das für die Zukunft bewaffneter Konflikte?

Vor genau 35 Jahren schrammte die Welt am Atomkrieg vorbei. Es war auf der Höhe des Kalten Krieges. Seit März 1983 tönte aus den deutschen Radios der Nummer 1-Hit "99 Luftballons", in dem der deutsche Popstar Nena einen Krieg aus Versehen beschreibt. Und genau das wäre fast passiert.

90 Kilometer südlich von Moskau meldete in der Nacht vom 25. auf den 26. September 1983 das satellitengestützte Frühwarnsystem der ehemaligen Sowjetunion den Start von 50 amerikanischen Nuklearraketen. Es war ein großes Glück für die Menschheit, dass in dieser Nacht Stanislaw Jewgoritsch Petrow Dienst tat. Ein Mensch. Einer, der den Pixeln auf seinem Bildschirm misstraute, der die Meldung eigenmächtig als Fehlalarm einstufte und nicht automatisch den nuklearen Vergeltungsschlag anordnete. Petrows Einschätzung stellte sich als korrekt heraus: Ein sowjetischer Spionagesatellit hatte wegen eines Softwarefehlers einen Sonnenaufgang und Spiegelungen in den Wolken als Raketenstart bewertet. Petrows einsame Heldentat wurde jahrzehntelang als Staatsgeheimnis gehütet.

Deutschland 2013 Dresden-Preis für Stanislaw Petrow (picture-alliance/dpa/O. Killig)

Bewahrte 1983 die Welt möglicherweise vor einem Atomkrieg: Stanislaw Petrow

Die Frage an dieser Stelle ist nicht allein, wie ein anderer Mensch an Petrows Stelle reagiert hätte. Die Frage ist vielmehr: Wie hätte ein automatisiertes System reagiert? Inzwischen ist die Digitalisierung nicht nur in alle Bereiche des menschlichen Lebens vorgedrungen. Sie ist auch in die Waffentechnik und damit in den Bereich des Tötens vorgedrungen. Künstliche Intelligenz, maschinelles Lernen, Robotik, 3D-Druck und die Gentechnik revolutionieren auch das Militär. Es gibt einen klaren Trend hin zu autonomen Waffensystemen. Es  zeichnet sich ab, dass bald nicht mehr Menschen die Kontrolle haben, wenn Entscheidungen über Leben und Tod getroffen werden. "Das hat eine Fülle von Implikationen über die Frage hinaus, ob das ethisch vertretbar ist", stellt Reinhard Grünwald vom Büro für Technikfolgenabschätzung des deutschen Bundestages fest. "Welche Risiken für die internationale Stabilität entstehen dadurch? Das ist ein sehr komplexes Feld, das den Fortbestand der Menschheit mit einschließt", sagt Grünwald.

Tödlicher Trend zu höherem Tempo

Der Trend zu autonomen Waffensystemen wird befeuert von der wachsenden Geschwindigkeit in Konflikten. Die Kommandeure nutzen moderne Technologie und vermehrt auch künstliche Intelligenz, um in komplexen Gefechtssituationen den Überblick zu behalten und Entscheidungen zu treffen. Das aber setzt einen Teufelskreis in Gang, weil sich die Geschwindigkeit dadurch noch weiter erhöht. "Irgendwann können die Menschen nicht mehr mithalten, weder kognitiv, noch von der Reaktionsfähigkeit her", prognostiziert Grünwald. "Da besteht schon ein gewisser Druck, dass man immer schneller wird und irgendwann die menschliche Entscheidungsfähigkeit, die Verantwortung hinten herunterfällt".

Video ansehen 03:57
Jetzt live
03:57 Min.

Wie gefährlich sind die Killer-Roboter?

Auch Justin Bronk sieht bei Armeen die wachsende Bereitschaft, technischen Systemen zu vertrauen, um mit dem fertig zu werden, was der deutsche Stratege Carl von Clausewitz schon vor 200 Jahren "die Ungewissheit des Krieges" ("fog of war") nannte. Bronk forscht bei der britischen Verteidigungs-Denkfabrik "Royal United Services Institute" (RUSI) zu den Themen Luftwaffe und Technologie. Er diagnostiziert bei westlichen Militärs speziell in den USA und Großbritannien ein geistiges Klima, "darauf zu vertrauen, dass diese Systeme funktionieren – selbst wenn es häufig Beweise dafür gibt, dass sie längst nicht so zuverlässig arbeiten, wie es die Theorie vermuten lassen würde".

Der groß gewachsene Bronk sitzt auf grauen Polstermöbeln im Stockholmer Fotografiemuseum. Der rote Backsteinbau direkt am Wasser diente früher als Zollgebäude. An diesem Tag Ende September dient er als Tagungsort für eine Konferenz desStockholmer Friedensforschungsinstitutes SIPRI. "Neue Technologien" ist sie  überschrieben. "Die Technologie, um tödliche autonome Waffensysteme (LAWS) vor allem in der Luft zum Einsatz zu bringen, ist bereits da", erläutert Bronk. "Wenn man schaut, wie viel Kampfkraft man für Euro, Pfund oder Dollar bekommt, sind autonome, programmierbare und bewaffnete Drohnen (UCAVS) bedeutend billiger als bemannte Kampfflugzeuge." Seit die US-Marine 2015 sogar die Luftbetankung solcher Kampfdrohnen gemeistert habe, ergänzt der RUSI-Experte, sei die Einsatzdauer nur noch durch den Ölverbrauch der Maschinen und die Inspektionszeiten begrenzt.

 3. Stockholm Security Conference mit dem Londoner Sicherheitsforscher Justin Bronk, RUSI (DW/M. von Hein)

Justin Bronk warnt vor Technikgläubigkeit

Kombination neuer Technologien

Beim SIPRI-Treffen geht es am Ende vor allem um die Frage, welche Bedrohungen sich aus der Kombination neuer Technologien ergeben. Dan Smith ist seit drei Jahren Direktor der Stockholmer Friedensforscher. "Die Idee hinter der Konferenz ist, dass wir die Themen zu häufig separat betrachten", erklärt er im Gespräch mit der Deutschen Welle. "Wir diskutieren zum Beispiel Cyber-Kriegsführung hier und nukleare Bedrohungen dort. Aber vielleicht liegt die wahre Gefahr im Hacken von Nuklearanlagen." Oder in der Kombination von 3D-Druck und Gentechnologie. Dan Smith fürchtet, dass biologische Kampfstoffe in Form von Nullen und Einsen als digitalisierte und neu zusammensetzbare Gensequenz  verbreitet  werden könnten. "Das müssten noch nicht einmal Viren sein, die Menschen krank machen. Das könnten auch biologische Stoffe sein, die Pflanzen angreifen, damit die Nahrungsmittelversorgung unterbrechen und für Chaos auf den Lebensmittelmärkten sorgen."

Um derartige Albträume zu diskutieren und nach Lösungen zu suchen, sind knapp 200 Teilnehmer ins Fotografiemuseum von Stockholm gekommen: Regierungsvertreter, Militärs, Forscher, Vertreter internationaler Organisationen, Leute aus der Privatwirtschaft. Um mit diesen komplexen Problemen fertig zu werden, so SIPRI-Direktor Smith, "müssen wir diesen Schmelztiegel von Diskussionen und Ideen schaffen." 

"Ethik zuerst"

Mit dabei ist auch Charlotte Lindsey Curtet, die Direktorin für digitale Transformation und Daten beim Internationalen Komitee vom Roten Kreuz, IKRK. Sie fordert, dass das internationale Völkerrecht und die Genfer Konvention weiter ihre Gültigkeit behalten müssen, egal, mit welchen Waffensystemen gekämpft werde. Die Position des IKRK sei, stellt Curtet klar, dass "ein Mensch zentral eingebunden sein muss im Entscheidungsprozess über den Einsatz jedweder Technologie oder Waffe, die töten, verletzen oder verstümmeln kann oder die wichtige Infrastruktur für das Leben von Zivilisten beeinträchtigen kann."

Heather Roff von der John Hopkins Universität an der amerikanischen Ostküste fordert, bereits bei der Entwicklung neuer Waffensysteme ethische Grundsätze von Anfang an mitzudenken. "Ethik zuerst und Ethik by Design" sind die Stichworte der Sicherheitsforscherin. Wie weit die Positionen im von SIPRI geschaffenen "Schmelztiegel der Ideen" noch auseinander liegen, lässt sich daran ermessen, dass ein hochrangiger Militär erklärt: "Wir wissen nicht, wo diese technologische Entwicklung uns hinführt. Aber wir werden diesen Weg gehen. Wir haben keine Alternative."

Und wie groß die Ratlosigkeit angesichts der komplexen Problemstellungen ist, illustriert vielleicht am besten die Bemerkung eines Teilnehmers am Buffet: "Unsere Situation entspricht dem Römischen Reich plus Cyber. Wir haben wenige Ideen, was wir tun können. Wir sollten Geschichtsbücher lesen."

 

Die Redaktion empfiehlt

WWW-Links

Audio und Video zum Thema