Robots autónomos letales y sus implicancias en la arena internacional

Por Catalina Mas, miembro del Observatorio de Política Internacional.


Campaña: Stop Killer Robots
Fuente: cfr.org

Introducción


El término robots autónomos letales puede resultar un tanto confuso y, además, hacer eco a las producciones de ciencia ficción. Lamentablemente, esa confusión y/o fantasía no distan tanto de la realidad y de los obstáculos que tenemos hoy en día para poder conceptualizar y regular el uso de tecnologías cada vez más independientes de la decisión humana. Los mismos pueden significar, a priori, una plétora de consecuencias graves en términos de paz y seguridad, pero también de política internacional, equilibrios de poder y consensos.


Este tipo de tecnologías cuentan con características tales que se presentan como un gran desafío para la generación de consensos internacionales y, consecuentemente, la regulación (o prohibición) de su uso o proliferación.


De esta manera, se abordará, en una primera instancia, la definición de armas autónomas letales y cómo las dificultades que aparecen en su conceptualización se traducen en obstáculos para su regulación. Asimismo, se compararán las posiciones de regulación y de prohibición de proliferación y uso de armas autónomas letales de dos de los principales desarrolladores de las mismas -China y Estados Unidos-. En una segunda instancia, se abordarán las consecuencias referidas a los efectos del prospecto de las mismas sobre los equilibrios de poder, la expresión de política exterior de los Estados y los paralelismos frente a la proliferación y tratados de regulación de otro tipo de armas.


Hacia una definición consensuada


Las armas autónomas letales son dispositivos con la capacidad de seleccionar y atacar objetivos sin la necesidad de un humano que los conduzca (Congressional Research Center, 2020). Delega la decisión de utilizar -o no- la fuerza a un sistema de algoritmos de inteligencia artificial, implicando un cambio en las concepciones éticas y exposición de los conflictos armados. No podemos identificar un tipo específico de dispositivo reconocible como arma autónoma letal, sino que puede ser cualquier dispositivo -tanque, dron, avión, barco,etc- que no necesite de la intervención de un humano en la mayor parte (incluyendo la decisión de atacar) o en todo el proceso de ataque de un objetivo bélico.

Cualquier discusión sobre los desafíos conceptuales con respecto a la autonomía de las armas debe comenzarse señalando un malentendido en común: la falta de progreso en la Convención de Ciertas Armas Convencionales no puede atribuirse a que los Estados partes no hayan llegado todavía a una definición compartida, sino a que, el concepto fue mal concebido desde el principio. El fundamento subyacente fue que el control de armas siempre requiere una categorización precisa del objeto antes de que se pueda regular. Se requiere un enfoque cualitativo y un nuevo lenguaje diplomático para comprender los desarrollos tecnológicos subyacentes actuales y con miras al futuro.


Sin embargo, es cierto que existe -sobretodo por parte de la sociedad civil- la necesidad de reconocer y operacionalizar el concepto de "control humano significativo". Tomando este concepto ¿por qué se diferenciaría de las minas antipersonales o los sistemas de defensa terminal? La inteligencia artificial no es condición necesaria para la automatización de estos procesos. La autonomía de las armas no son innovaciones necesariamente materiales, sino la utilización de la inteligencia artificial la cual genera un nuevo nivel de automatización, aprendiendo a distinguir objetivos sin demasiado input más que una imagen satelital.


El diferencial detrás de las armas autónomas en sí no es la automatización o la maquinaria, sino el conocimiento y la programación detrás de estas, un bien intangible que ve surgir nuevos desafíos al momento de regular esta tecnología.


El hecho de que sean algoritmos de inteligencia artificial los que tomen las decisiones, genera una gran cantidad de vulnerabilidades tales como: una carencia de interpretación del contexto para reconocer objetivos, sesgos discriminatorios, imprevisibilidad en su relación con el entorno y riesgos de escala en la interacción entre dos o más sistemas.


Ahora bien, esta falta de previsibilidad y consenso con respecto a cómo operacionalizar a las armas autónomas letales conlleva, por un lado, que la posición de política exterior de los distintos actores se escude en la definición que mayormente se adecúe a sus objetivos, y por el otro, la naturaleza difusa del concepto y el potencial beneficioso de la inteligencia artificial nos obliga a repensar en torno a la regulación frente a la prohibición, así como la reproducción o difusión frente a la proliferación (Kallerborn, 2020).


En este caso, es difícil hablar de prohibición al no tratarse de una categoría fácilmente distinguible de arma codificable en el derecho internacional. Sin embargo, la regulación nos permite establecer una obligación de mantener la supervisión humana sobre las operaciones así sea tan solo al momento de dar el último visto bueno para atacar. Otra posible acción sería la identificación de las armas autónomas letales de mayor riesgo como enjambre de drones, armas biológicas, químicas, nucleares, etc. e imponer restricciones sobre éstas.


Asimismo, al ser el software o código el que distingue a este tipo de armas, son más susceptibles a réplicas y repeticiones en diversos dispositivos, por lo que no podemos hablar de mera proliferación o desarrollo, sino que es fácilmente reproducible y se puede difundir de manera incontrolable. Este último punto, por su parte, conlleva sus corolarios geopolíticos y en términos de política exterior, ya que no necesariamente la tecnología quedará en manos de los Estados -como la energía nuclear en su momento- sino que puede ser replicada por actores paraestatales que exceden al alcance del derecho internacional.


Marco normativo y política exterior.


Si bien es cierto que persisten las trabas conceptuales que dificultan el consenso, la sociedad civil y un conjunto de países se encuentran organizados con el fin de poder regular este tipo de armas. Por ejemplo, todas las asambleas de la Convención sobre Ciertas Armas Convencionales, relacionadas a armas autónomas letales, tuvieron una convergencia sobre la importancia de mantener el control humano sobre los sistemas de armas y el uso de la fuerza.

Esto se refleja en un principio sobre la interacción hombre-máquina que los Estados de la CCW acordaron en 2019. La interacción hombre-máquina atrajo el mayor interés durante el Foro virtual de Berlín sobre sistemas de armas autónomas letales (Sauer, 2021). A fines de 2019, se acordó celebrar cuatro ciclos de reuniones de la Convención sobre Ciertas Armas Convencionales en 2020-2021 para discutir el desarrollo de “un marco normativo y operativo” para los sistemas de armas autónomas letales. Se comprometieron a esforzarse por obtener resultados en la Sexta Conferencia de Revisión de la CCW en diciembre de 2021.


Desde 2013, 30 países han pedido la prohibición de tales armas totalmente autónomas: Argelia, Argentina, Austria, Bolivia, Brasil, Chile, China, Colombia, Costa Rica, Cuba, Djibouti, Ecuador, Egipto, El Salvador, Ghana, Guatemala, Santa Sede, Irak, Jordania, México, Marruecos, Namibia, Nicaragua, Pakistán, Panamá, Perú, Estado de Palestina, Uganda, Venezuela y Zimbabwe. China ha pedido un tratado para prohibir el uso de sistemas de armas autónomos letales, pero no su desarrollo o producción, lo cual no es sorprendente dado que también se encuentra entre las naciones más avanzadas en la búsqueda de tales armas (Human Rights Watch, 2020).


Por su parte, el Movimiento de Países No Alineados (MNOAL), ha pedido un "instrumento internacional legalmente vinculante que estipule prohibiciones y regulaciones sobre sistemas de armas autónomas letales" varias veces desde 2018.


Actualmente, son países como Australia, Turquía, China, Israel, Rusia, Corea del Sur, Reino Unido y Estados Unidos los que están invirtiendo fuertemente para desarrollar este tipo de sistemas. En el caso de Estados Unidos, ellos han planteado que este tipo de armas significan “importantes cuestiones legales, políticas y éticas” y recomendó un mayor debate en un foro de derecho internacional humanitario (Gobierno de Estados Unidos, 2013). Una directiva de política del Departamento de Defensa de 2012 sobre autonomía en los sistemas de armas se renovó sin modificaciones sustanciales en 2018 por otros cinco años (Directiva 3000.09, 2012). La directiva permite el desarrollo de sistemas de armas autónomos letales, pero Estados Unidos insiste en que "ni fomenta ni prohíbe el desarrollo de tales sistemas futuros", a la vez que invierte fuertemente en aplicaciones militares de inteligencia artificial.


Por su parte, China apoyó el inicio de conversaciones multilaterales sobre sistemas de armas autónomas letales en el Consejo de Derechos Humanos de mayo de 2013. China ha destacado el potencial de las armas totalmente autónomas para alterar el equilibrio estratégico internacional. En abril de 2018, China pidió la prohibición de las armas totalmente autónomas, pero luego aclaró que su llamado se limitaba al uso y no al desarrollo y la producción (Gobierno de China, 11/04/18). Desde entonces, China no ha repetido explícitamente su llamado a un nuevo tratado internacional para prohibir este tipo de armas.


De esta forma, se pueden observar vaivenes y falta de coordinación entre las potencias que mayor inversión poseen en el desarrollo de estas. Resurge así el debate con respecto a la proliferación y regulación previamente expuesto, haciendo hincapié en las implicancias que este tipo de tecnologías tienen en el equilibrio internacional.


Desafíos de cara al futuro


Como se ha podido comprobar, los sistemas de armas autónomas letales suponen un gran conjunto de problemas entre los que se encuentran: la falta de control ético en su accionar, el bajo costo que supone la reproducción de las mismas una vez desarrolladas, la posibilidad de proliferación por parte de actores no estatales, el efecto desestabilizador que esto conlleva y los grandes desafíos en términos de derecho internacional.


La posibilidad de réplica es especialmente preocupante dado que no podemos predecir de manera fehaciente los posibles riesgos o interacciones de los sistemas automáticos para mitigar sus impactos. Paralelamente, tampoco poseemos un gran poder explicativo desde el canon de las relaciones internacionales realistas, este dilema escaparía al paradigma de que en la carrera armamentista o nuclear había disuasión por parte de actores claramente identificable como Estados que tenían el monopolio del desarrollo armamentístico.


En este caso, la réplica o copia de distintos sistemas, sumado a la falta de necesidad de un gran ejército para el manejo de este tipo de armas, deja al alcance una poderosa herramienta que podría escapar fácilmente al alcance de la regulación. De esta forma, la única forma de control es adelantarnos al desarrollo y uso teniendo en vistas el peligro inminente que suponen estas tecnologías para el equilibrio internacional.



Bibliografía consultada


  • Sauer, F. (2021). Stepping back from the brink: Why multilateral regulation of autonomy in weapons systems is difficult, yet imperative and feasible. International Review, Red Cross. IRRC No. 913. Disponible en: https://international-review.icrc.org/authors/frank-sauer

  • Kallerborn, Z. (14/10/2020). A Partial Ban on Autonomous Weapons Would Make Everyone Safer. Foreign Policy. Disponible en: https://foreignpolicy.com/2020/10/14/ai-drones-swarms-killer-robots-partial-ban-on-autonomous-weapons-would-make-everyone-safer/

  • Human Rights Watch (10/08/2020). Stopping Killer Robots: Country Positions on Banning Fully Autonomous Weapons and Retaining Human Control. Disponible en: https://www.hrw.org/report/2020/08/10/stopping-killer-robots/country-positions-banning-fully-autonomous-weapons-and

  • Congressional Research Center (01/12/2020). Defense Primer: U.S. Policy on Lethal Autonomous Weapon Systems. Estados Unidos. Disponible en: https://fas.org/sgp/crs/natsec/IF11150.pdf

  • Estados Unidos (30/05/13). Declaración ante el Consejo de Derechos Humanos de Naciones Unidas.

  • Estados Unidos (21/11/2012). Directiva 3000/09. Departamento de Defensa.

  • Gobierno de China (11/04/18). Documento de trabajo presentado al Grupo de expertos gubernamentales de la Convención sobre Armas Convencionales sobre sistemas de armas autónomas letales. Disponible en: https://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/documents/GGE.1-WP7.pdf


Valoramos la pluralidad de opiniones. Los artículos publicados por el CENTRO DE POLÍTICA INTERNACIONAL no necesariamente representan las opiniones de todxs lxs miebrxs.




  • Instagram - Negro Círculo
  • YouTube - Círculo Negro
  • Twitter - Círculo Negro
  • Facebook - Círculo Negro
  • Spotify - Círculo Negro