Drones e inteligencia artificial: la guerra en Ucrania como laboratorio del combate posmoderno
- UBA Centro de Estudios de Política Internacional
- 25 abr
- 4 Min. de lectura
Actualizado: hace 16 horas
Publicado por primera vez en Consejo Argentino para las Relaciones Internacionales (CARI) el 18/04/2025
Por Lautaro Rubbi, Profesor de RR. II. Coordinador del Observatorio en Defensa y Seguridad Internacional (CEPI - UBA)
El conflicto bélico en Ucrania ha devenido en un laboratorio geopolítico y tecnológico sin precedentes, donde la masificación de drones militares y la progresiva integración de la Inteligencia Artificial (IA) están reformulando las doctrinas estratégicas contemporáneas. Si bien la mayoría de estos sistemas aún requieren supervisión humana, la transición hacia formas de autonomía parcial es creciente y exponencial, por lo que plantea dilemas éticos, jurídicos y operacionales de creciente complejidad.
Durante los últimos meses, tanto Ucrania como Rusia han implementado transformaciones doctrinales sustantivas, que evidencian la transición de los vehículos aéreos no tripulados (UAV, por las siglas en inglés de Unmanned Aerial Vehicle) desde un rol auxiliar hacia una función estructural en el aparato bélico. Ucrania, a la vanguardia de esta mutación, ha institucionalizado brigadas especializadas en drones, incorporado unidades de enjambres FPV a nivel de compañía y reestructurado su orden de batalla para integrar operadores de UAV como piezas esenciales de sus maniobras ofensivas. Rusia, aunque inicialmente rezagada, ha replicado parcialmente este modelo mediante la creación de compañías de drones de asalto y la estandarización del empleo combinado de UAV de reconocimiento y ataque.
Esta convergencia doctrinal ilustra una reconfiguración conceptual profunda en la manera de concebir el combate moderno: el dron deja de ser un apéndice táctico para constituirse en el “nuevo fusil” del soldado posmoderno, uno que vuela, calcula y, en algunos casos, solo decide cuándo apretar el gatillo.
En el plano cuantitativo, el esfuerzo industrial ha sido igualmente notable. Solo en 2024, Ucrania fabricó más de 1,5 millones de drones FPV, mientras que Rusia alcanzó una tasa de producción cercana a las 4000 unidades diarias. Aunque muchas de estas plataformas son sistemas de bajo costo y limitada sofisticación, su efectividad ha quedado demostrada en el teatro de operaciones, especialmente en la destrucción de activos de alto valor. A nivel cualitativo, la incorporación de IA en drones, como el Saker Scout, ha multiplicado exponencialmente la letalidad: algoritmos de reconocimiento han elevado la tasa de impacto efectivo del 50 % al 80 % en ataques kamikaze, y han redefinido así las métricas tradicionales de eficiencia en combate.
La variedad de modelos desplegados —desde el Bayraktar TB2 y el Lancet-3 hasta los Shahed-136 y los FPV Kamikaze— revela un espectro tecnológico heterogéneo en cuanto al grado de autonomía. No obstante, los sistemas completamente autónomos continúan siendo excepcionales. La mayoría de las misiones aún requiere intervención humana para la selección o validación del objetivo, incluso si la navegación y el ataque son automatizados. Este modelo de semiautonomía operativa maximiza la eficiencia sin abolir del todo el juicio humano, manteniendo un delicado equilibrio entre letalidad y control responsable.
Sin embargo, el avance hacia una delegación creciente de funciones críticas a sistemas algorítmicos marca un umbral crucial: algunos UAV actuales ya detectan, clasifican y priorizan blancos con escasa mediación humana. La IA se configura así como un multiplicador táctico decisivo, capaz de convertir plataformas mínimas —tanto en tamaño como en coste— en instrumentos de guerra quirúrgica.
Esta dinámica de descentralización tecnológica no está exenta de riesgos. La proliferación de capacidades autónomas sin marcos regulatorios adecuados podría facilitar escaladas imprevistas o errores catastróficos. Por ejemplo, un dron con IA rudimentaria programado para atacar vehículos militares podría, en ausencia de criterios discriminatorios precisos, confundir un convoy humanitario con un objetivo legítimo, desencadenando represalias desproporcionadas y una espiral de violencia no deseada.
Este tipo de incidentes ilustra cómo la falta de supervisión humana significativa puede convertir un error algorítmico en un desencadenante de decisiones estratégicas impredecibles. Dadas las tensiones estructurales del sistema internacional actual, en algún escenario muy extremo (que en la historia de la humanidad no han sido pocos), una línea de código mal escrita podría desencadenar una crisis global.
Lo que acontece en Ucrania excede los contornos de una guerra regional: representa una fase de experimentación intensiva para la guerra del siglo XXI. Estados como Taiwán, Polonia o Israel están reconfigurando sus posturas defensivas a la luz de las lecciones del Donbás. Incluso actores no estatales ensayan adaptaciones tácticas inspiradas en la guerra de enjambres. En este contexto, los sistemas no tripulados reconfiguran no solo la praxis táctica, sino también el equilibrio estratégico global: al democratizar el acceso a capacidades ofensivas avanzadas, la tecnología de drones potenciados por IA podría permitir que actores subestatales o Estados periféricos erosionen la ventaja tecnológica de potencias convencionales. La verdadera revolución no reside en los circuitos de silicio, sino en los modos estratégicos de su apropiación.
Frente a este panorama, la comunidad internacional se enfrenta a una encrucijada normativa y ética. Como advirtió Norbert Wiener, padre de la cibernética, una automatización divorciada de fundamentos morales puede derivar en sistemas altamente eficaces, pero profundamente inaceptables desde el punto de vista ético. La formulación de marcos regulatorios consensuados y robustos se vuelve imperativa para preservar la centralidad del juicio humano en las decisiones letales. A medida que los sistemas autónomos ganan velocidad, precisión y autonomía, el margen de intervención responsable se ve crecientemente constreñido. En tanto el juicio humano pareciera tornarse cada vez más opcional, corremos el riesgo de que se torne cada vez más irrelevante.
Si bien los UAV aún no han sustituido de forma definitiva a las armas convencionales, su impacto acumulativo sobre las dinámicas operacionales es innegable. La ventana de oportunidad para instaurar principios éticos sólidos sigue abierta, aunque cada avance tecnológico no regulado la estrecha aún más
La velocidad de estos acontecimientos nos lleva a pensar que, tal vez, la inteligencia artificial no sea aún consciente de sus actos, pero probablemente nosotros tampoco lo seamos de sus consecuencias.
Comments