1. Ir al contenido
  2. Ir al menú principal
  3. Ir a más sitios de DW

Los robots asesinos podrían pronto decidir las guerras

Nina Werkhäuser
21 de agosto de 2019

La prohibición de armas autónomas está en debate. Un grupo de estados quiere evitarlo, pero en la ONU en Ginebra, el debate sobre la prohibición de las armas letales autónomas se está estancando.

https://p.dw.com/p/3OHyc
Autonome Waffen |  BAE Systems: Taranis-Flugzeug
Imagen: picture-alliance/AP Photo/BAE Systems

El secretario general de Naciones Unidas, António Guterres, está alarmado: las armas autónomas son "políticamente inaceptables y moralmente repugnantes" y deberían estar prohibidas por el derecho internacional. "Consideren las consecuencias si un sistema de armas letales autónomas pudiera seleccionar y atacar como objetivo a personas de forma independiente", dijo el secretario general de la ONU, apelando repetidamente a la comunidad internacional. Sus representantes se están asesorando actualmente en Ginebra sobre la prohibición de los llamados "robots asesinos”. Pero aún no hay acuerdo a la vista.

Militarización de la inteligencia artificial

Lo que parece una imagen horrorosa es, en realidad y desde, hace mucho tiempo, un hecho, según el secretario general: muchos ejércitos de todo el mundo ya están probando armas que combinan inteligencia artificial y robótica en una tecnología potencialmente mortal. Si las máquinas luchan independientemente en el campo de batalla, pueden salvar vidas humanas. Esta es la lógica militar. Las máquinas no se cansan y son menos susceptibles a cometer errores, argumentan los defensores. Incluso podría tener ventajas: se evitaría el daño a las instalaciones civiles.

Violación del derecho internacional

Según la definición del Comité Internacional de la Cruz Roja (CICR), las armas autónomas eligen sus propios objetivos y los combaten de forma independiente. Ningún soldado, al final, presionaría el gatillo o el botón de disparo. Ya hay misiles guiados que esperan en el aire hasta que su objetivo esté en una posición favorable y luego lo atacan por su cuenta.

Según los investigadores, en los campos de batalla del futuro las personas no decidirán sobre la vida o la muerte, sino los algoritmos. Pero eso viola el derecho internacional humanitario. En los ataques se debe distinguir claramente entre combatientes y civiles. Los sistemas de armas autónomos no pueden hacerlo. "No podemos implantar en estas armas un chip con el derecho internacional", argumentan los opositores. Debe garantizarse que siempre haya una persona que tenga el proceso de control sobre un ataque.

Un hospital afgano destruido por las fuerzas aéreas estadounidenses. Supuestamente, un daño colateral.
Un hospital afgano destruido por las fuerzas aéreas estadounidenses. Supuestamente, un daño colateral.Imagen: picture-alliance/AP Photo/N. Rahim

Lenguaje complicado

Durante cinco años se ha debatido en la ONU, en Ginebra, cómo se puede garantizar esto, en el marco de la Convención sobre Ciertas Armas Convencionales (CCW). En 1995, logró prohibir el uso de armas láser cegadoras antes de que se utilizaran en guerras. Un resultado similar esperan también los detractores de las armas autónomas, pero las negociaciones van lentas.

Sobre todo, los pioneros en el ámbito de los sistemas de armas autónomas, es decir, Rusia, Estados Unidos e Israel, son quienes rechazan una prohibición vinculante en virtud del derecho internacional. Estos pesos pesados militares se enfrentan a un grupo de 28 estados más pequeños, que sí exigen una prohibición vinculante, incluido Austria como único país de la UE. Estos cuentan con un fuerte y constante apoyo de la sociedad civil.

Entretanto, 113 organizaciones no gubernamentales de más de 50 países apoyan la "Campaña para detener los robots asesinos”. El Parlamento Europeo, muchos científicos y 21 ganadores del Premio Nobel de la Paz también comparten esta postura.

Protestas en Berlín contra los robots asesinos.
Protestas en Berlín contra los robots asesinos.Imagen: Reuters/A. Hilse

Prohibición solo sobre papel

Alemania no se ha decantado por ninguna de las partes, aunque la coalición de gobierno alemán se pronunció en su momento al respecto: "Rechazamos los sistemas de armas autónomas que están fuera del control humano y queremos prohibirlos en todo el mundo". Sin embargo, la delegación alemana considera que una prohibición vinculante a efectos del derecho internacional es actualmente inviable.

Además, la resistencia de EE. UU. y Rusia, por ejemplo, es demasiado fuerte y, por lo tanto, el riesgo de que las negociaciones fracasen por completo es alto. Lo que el gobierno alemán no menciona es que también tiene interés en futuros sistemas de armas con características autónomas para equipar el avión de combate franco-alemán "FCAS" con drones y satélites.

¿Cuántos años más de negociaciones?

Existe la posibilidad de que las conversaciones fracasen: actualmente la propuesta está sobre la mesa para negociar dos años más. Hasta entonces, se debe alcanzar un "marco normativo". Esto está muy lejos de la prohibición vinculante que exige una parte de la comunidad internacional.

Thomas Küchenmeister, portavoz de la "Campaña para Detener Robots Asesinos" en Alemania, está decepcionado por la "formulación poco clara" de la propuesta actual. La necesidad del control humano en el uso de la violencia armada se "minimiza aún más", criticó. Küchenmeister teme que las conversaciones en la CCW en Ginebra "nunca conduzcan a una prohibición vinculante de las armas autónomas".

Para los críticos de las armas autónomas, eso no significa que vayan a dejar de hacer presión. Tampoco se pudo lograr prohibir las minas antipersona y las municiones en racimo en la ONU, en Ginebra. Como resultado, los que apoyaban la prohibición se agruparon fuera de la organización mundial e hicieron una campaña internacional. Finalmente lograron que se firmaran las prohibiciones en Ottawa y Oslo. Hoy son parte del derecho internacional.

(rmr/jov)

Deutsche Welle es la emisora internacional de Alemania y produce periodismo independiente en 30 idiomas. Síganos en Facebook | Twitter | YouTube