Deepfakes y guerra cognitiva: la nueva frontera de la seguridad internacional
- UBA Centro de Estudios de Política Internacional
- hace 17 horas
- 4 Min. de lectura
En un mundo marcado por la policrisis, las redes sociales y la inteligencia artificial han habilitado una forma de conflicto que opera en la sombra: la guerra cognitiva. Lejos de ser un fenómeno marginal, representa hoy uno de los desafíos más urgentes para la seguridad de los estados.
Por Mariano Vargas, Maestrando en Relaciones Internacionales. Licenciado en Seguridad. Colaborador del Observatorio de Defensa y Seguridad Internacional (CEPI - UBA).

Vivimos en una era de policrisis. El concepto, popularizado por el historiador Adam Tooze a partir del trabajo pionero del teórico francés Edgar Morin, refiere a la superposición simultánea de crisis de distinta naturaleza —políticas, económicas, sociales, tecnológicas— cuya interacción produce efectos que exceden a la suma de sus partes (Tooze, 2023). En este contexto, el avance acelerado de la inteligencia artificial y la masificación de las redes sociales no solo profundizan la policrisis, sino que han abierto un frente inédito en los conflictos contemporáneos: la guerra cognitiva.
La guerra cognitiva se sirve de dos fenómenos que vienen creciendo a pasos agigantados los últimos años, la desinformación y la información errónea. Estos fenómenos son percibidos en la actualidad como unos de los riesgos mas importantes que existen a nivel global. Tal es así que el Foro Económico Mundial en la Encuesta de Percepción de Riesgos Globales publicada en su Informe de Riesgos Globales 2026 ha ubicado en el 2° lugar a corto plazo, y en el 6° a largo plazo, del ranking de riesgos globales a la Desinformación y la Información errónea.
Si Carl von Clausewitz definió la guerra como la continuación de la política por otros medios, Peter Singer advierte que las redes sociales han transformado esa ecuación de manera radical. Al democratizar la producción y distribución de información, estas plataformas han borrado las fronteras del tiempo y la distancia, amplificando los medios disponibles para el conflicto a una escala sin precedentes (Singer, 2016). La consecuencia más crítica de este fenómeno, según el mismo autor, es que la información viralizada tiende a ser aceptada como verdadera sin mayor cuestionamiento, mientras que sus fuentes se vuelven progresivamente menos identificables.
Este escenario ha sido explotado durante los últimos años tanto por actores estatales como no estatales. Uno de los casos más documentados es el de la interferencia rusa en el ciclo electoral estadounidense de 2016, donde se difundió sistemáticamente información falsa que profundizó divisiones sociales preexistentes, como las asociadas al movimiento Black Lives Matter (Singer, 2016). Al año siguiente, una campaña similar buscó influir en las elecciones presidenciales francesas (Chesney & Citron, 2018). En ambos casos, la operación fue difícil de atribuir, más difícil aún de contener, y sus efectos se extendieron mucho más allá del ciclo electoral.
A este panorama se suman las deepfakes: manipulaciones digitales de video y audio, producidas mediante inteligencia artificial, que resultan extraordinariamente difíciles de detectar a simple vista. De acuerdo a Chesney y Citron (2018), estas herramientas pueden ser creadas y difundidas por cualquier ciudadano con acceso a tecnología de consumo masivo, lo que elimina la barrera técnica que históricamente limitaba la producción de desinformación sofisticada. Su potencial para moldear percepciones sobre elecciones, líderes políticos e incluso la legitimidad de instituciones enteras es, en consecuencia, enorme.
El uso de deepfakes por parte de organizaciones terroristas ilustra con crudeza esta amenaza. El Estado Islámico ha empleado estas técnicas para difundir propaganda y para generar terror psicológico en fuerzas de seguridad antes de operaciones militares. Uno de los casos más emblemático es la toma de Mosul en 2014: mediante información falsa distribuida a través de redes sociales, la organización convenció a las tropas iraquíes de que enfrentaban un ejército vastamente superior. Cuando el ataque real ocurrió, ejecutado por un grupo reducido con recursos limitados, las fuerzas regulares —numéricamente superiores— habían sido desmoralizadas por anticipado y no pudieron resistir (Chesney & Citron, 2018).
Lo que distingue a la guerra cognitiva de otras formas de propaganda o desinformación es su carácter sistémico y su capacidad de operar en lo que los analistas denominan zona gris: ese espacio de conflicto que se sitúa por debajo del umbral de la guerra convencional y que, por esa misma razón, escapa a las respuestas institucionales tradicionales. Los estados enfrentan aquí un doble problema: por un lado, la pérdida de control sobre los flujos de información que circulan en sus sociedades; por otro, la vulnerabilidad creciente de sus poblaciones frente a narrativas diseñadas para dividir, desestabilizar y erosionar la confianza en las instituciones.
La guerra cognitiva no reemplaza a los conflictos convencionales, sino que los precede, los acompaña y, en muchos casos, los hace innecesarios. Comprender su lógica y sus mecanismos es el primer paso para desarrollar respuestas efectivas. En el estado actual de la tecnología, ese es quizás el desafío más urgente que enfrentan los sistemas de seguridad del siglo XXI.
Referencias:
Chesney, R., & Citron, D. (2018). Deepfakes and the New Disinformation War. Foreign Affairs, 97(6), 147-155.
Singer, P. (2016). War Goes Viral. The Atlantic.
Tooze, A. (2023). This is why 'polycrisis' is a useful way of looking at the world right now. World Economic Forum 2023.
World Economic Forum (2026). The Global Risks Report 2026 (21th ed.).





Comentarios