top of page

Armas autónomas hoy: entre algoritmos, soberanía y multilateralismo

Por Santiago Riva, Licenciado en Ciencia Política. Miembro del Laboratorio de Investigación en Geopolítica Argentina (LIGA-UBA). Colaborador del Observatorio de Defensa y Seguridad Internacional (CEPI-UBA).

Fuente de la imagen: Comité Internacional de la Cruz Roja (CIRC)
Fuente de la imagen: Comité Internacional de la Cruz Roja (CIRC)

Introducción

“Las máquinas autónomas con la capacidad y la discreción para quitar vidas sin intervención humana son políticamente inaceptables, moralmente repugnantes y deberían ser prohibidas por el derecho internacional” (Guterres. 2019).


Llanas y directas, las palabras del entonces secretario general de las Naciones Unidas, António Guterres, condensan el núcleo de un debate que permanece aún irresuelto: la adecuación del multilateralismo y el derecho internacional humanitario a los avances técnicos en el campo armamentístico.


La cuestión de las armas autónomas —“capaces de llevar a cabo una misión con intervención humana limitada o incluso inexistente” (Espada & Hortal, 2013, p. 3)— recorre desde 2013 foros multilaterales como la Convención sobre Ciertas Armas Convencionales (CCW), en cuyo seno opera un Grupo de Expertos Gubernamentales (GGE). No obstante, la coexistencia de potencias que reivindican su autonomía para desarrollar tales sistemas con fines de defensa y de otros Estados y actores civiles que exigen límites más estrictos ha impedido hasta ahora alcanzar consensos generales vinculantes.


Esta columna ofrece una prospectiva sobre medidas capaces mitigar los riesgos militares de las armas autónomas y saldar el vacío normativo existente en torno a ellas.


Automatización y juicio moral

La extensión de la automatización varía según el grado de control humano sobre sus acciones. Los sistemas de armas totalmente autónomos —o human-out-of-the-loop— pueden realizar tareas de detección (procesar datos externos como sonidos e imágenes), decisión (clasificar y seleccionar blancos según patrones y modelos de predicción de amenazas) y ejecución (emplear la fuerza letal) sin ninguna participación humana directa.

Aunque aún en fase germinal, esta tecnología representa un salto cualitativo: al reducir la amenaza a parámetros técnicos desplaza juicio moral por cálculo algorítmico preprogramado. El riesgo no es sólo técnico, sino también ético y político. ¿Quién asume la responsabilidad por un ataque fallido, por víctimas civiles o por una escalada no prevista? La opacidad de los algoritmos y la velocidad de decisión tensionan principios básicos del derecho internacional humanitario: distinción, proporcionalidad y rendición de cuentas.


Posibles caminos regulatorios

Una prohibición absoluta al estilo del Tratado de Ottawa sobre minas antipersonales parece hoy inverosímil. Difícilmente los países a la vanguardia del desarrollo armamentístico —como China, Rusia y los EEUU, que no han adherido siquiera a aquel Tratado— acepten un marco semejante. Por ello, conviene explorar medidas intermedias con mayor capacidad de generar consensos y producir efectos concretos.


En primer lugar, consensuar una definición legal común que distinga sistemas semiautónomos, con algo de supervisión humana, de aquellos plenamente autónomos. Sin claridad conceptual, cualquier intento normativo está condenado a la ambigüedad.

En segundo lugar, introducir el principio de “control humano significativo” como estándar mínimo para la legalidad en el diseño de estas armas. No implica supervisión constante, pero sí intervención humana en etapas críticas de la decisión letal (Santoni de Sio & Van den Hoven, 2018).


En tercer lugar, crear instancias de transparencia y verificación internacional, inspiradas en los regímenes de control de armas de destrucción masiva (Knuckey, 2016). Informes periódicos, inspecciones técnicas y controles de exportación ayudarían a reducir la desconfianza estratégica entre Estados.


Finalmente, seguir fomentando compromisos políticos y normas de soft law, como declaraciones éticas y códigos de conducta. Aunque no vinculantes, en contextos de inestabilidad geopolítica pueden establecer confianza, acuerdos de base y buenas prácticas para allanar el camino hacia acuerdos más ambiciosos (Al Qubaisi, 2025). Algunos ejemplos son los Principios de IA de la OCDE y los Principios de la OTAN para el Uso Responsable de la IA.


Conclusión

Más allá de la incógnita técnica sobre si los sistemas alcanzarán la sofisticación necesaria para decidir sobre vida y muerte conforme al derecho humanitario y con menor margen de error que un ser humano, el dilema es político: relegar la definición de amenaza a una lógica instrumental, sin mediación comunicativa, humana. La falta de consenso no puede ser excusa para evadir esta cuestión. Un marco flexible pero asentado en principios de responsabilidad humana, transparencia y control internacional es no sólo posible, sino urgente.


Referencias: Espada, C. G., & Hortal, M. J. C. (2013). Autonomous Weapons Systems, Drones and International Law. Revista del Instituto Español de Estudios Estratégicos, 2, 1-30.

Guterres, A. (2019, 25 de marzo). Secretary-General's message to Meeting of the Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons Systems. Recuperado el 17 de agosto de 2025, de https://www.un.org/sg/en/content/sg/statement/2019-03-25/secretary-generals-message-meeting-of-the-group-of-governmental-experts-emerging-technologies-the-area-of-lethal-autonomous-weapons-systems


Knuckey, S. (2016). “Autonomous weapons systems and transparency: towards an international dialogue”. Autonomous Weapons Systems; Law, Ethics, Policy, Nehal Bhuta, Susanne Beck, Robin Geiβ, Hin-Yan Liu & Claus Kreβ (Eds.), Cambridge University Press (2016).


Santoni de Sio, F., & Van den Hoven, J. (2018). “Meaningful human control over autonomous systems: A philosophical account”. Frontiers in Robotics and AI, 5, 323836.

Al Qubaisi, S. (2025, 3 de agosto). “Governing Lethal Autonomous Weapons in a New Era of Military AI”. trendsresearch.org. Recuperado el 27 de septiembre de 2025 de https://trendsresearch.org/insight/governing-lethal-autonomous-weapons-the-future-of-warfare-and-military-ai/?srsltid=AfmBOoqrcWtRfGTH-fuXq9irkfdt4zTFLaSRCnK5zP10mkZjIgQeUZ2M 


  • Spotify
  • Instagram
  • Facebook
  • Twitter
  • LinkedIn
  • YouTube

Centro de Estudios de Política Internacional - UBA

bottom of page