Soberanía Cognitiva bajo asedio: IA, Microtargeting y la crisis de autenticidad en las elecciones argentinas de 2025
- UBA Centro de Estudios de Política Internacional
- hace 11 minutos
- 6 Min. de lectura
Por Carla Cantero, Miembro del Observatorio de Defensa y Seguridad Internacional (CEPI - UBA).

Introducción
La Inteligencia Artificial (IA) ya no solo amplifica los mensajes, sino que personaliza la manipulación emocional a niveles sin precedentes. Esta evolución representa un cambio de paradigma en cómo se desarrollan las operaciones de influencia modernas, combinando precisión algorítmica con ingeniería psicológica (RomasOps, 2025).
En las campañas electorales contemporáneas, la IA no solo optimiza la segmentación, sino que genera contenido sintético capaz de alterar percepciones y emociones colectivas, configurando un nuevo escenario de riesgo para las democracias.
Este artículo analiza el valor agregado de la IA en las operaciones de influencia política, abordando dos de sus manifestaciones más disruptivas: el microtargeting y los deepfakes, con especial atención al caso argentino durante las elecciones a concejales de 2025.
1. Microtargeting
El microtargeting, potenciado por la IA, consiste en la segmentación avanzada de audiencias mediante el análisis de grandes volúmenes de datos personales, comportamentales y psicológicos, cuyo objetivo es identificar las preferencias individuales para adaptar los mensajes a los rasgos y vulnerabilidades de cada ciudadano (Vergara, 2018).
El microtargeting no es nuevo en sí mismo. Durante décadas, las campañas políticas y publicitarias han segmentado audiencias según datos demográficos y comportamentales. Su uso actual se distingue por el grado de precisión y automatización alcanzado gracias a los algoritmos de aprendizaje automático (RomasOps, 2025).
Estudios recientes demuestran que los anuncios políticos personalizados según rasgos de personalidad son significativamente más persuasivos que los no personalizados. Esta personalización ya no requiere equipos humanos analizando datos, sino que puede automatizarse a escala masiva. Estas capacidades de microtargeting se combinan con tecnologías de síntesis de contenido. Los sistemas de IA generativa actuales pueden crear mensajes persuasivos adaptados a vulnerabilidades psicológicas específicas, sin necesidad de intervención humana (RomasOps, 2025).
Específicamente, en el contexto de las campañas políticas, esto supone la construcción de micro-audiencias a partir de "audiencias semilla", donde el mensaje publicitario se distribuye en aquellos perfiles que se asemejan a los suministrados como ejemplo. Esta visión, sumamente efectiva, delega la segmentación a los algoritmos de la plataforma, que cuentan con niveles de granularidad muy superiores a las reglas de segmentación escritas por humanos (7Puentes, 2021).
Estas tecnologías no solo detectan estados emocionales, sino que pueden adaptar contenido en tiempo real para maximizar el impacto. Un sistema de IA avanzado ajusta el tono, el lenguaje y el contenido basándose en análisis emocionales instantáneos, personalizando interacciones para optimizar la persuasión.
1.1. Microtargeting político y vigilancia masiva
El microtargeting político trasciende la simple propaganda; opera como una arquitectura de asimetría de poder diseñada para manipular el comportamiento, las opiniones y la ideología ciudadana. Su característica distintiva es la capacidad de aprender de las interacciones con los votantes y afinarse dinámicamente a través del diálogo virtual (Garcia, 2024).
García (2024) subraya que el microtargeting se encuentra estrechamente vinculado a la vigilancia social masiva y la recolección indiscriminada de datos. El modelo de negocio del capitalismo de vigilancia ha desarrollado una vasta red de monitoreo centrada en la dataficación de todos los aspectos de la ciudadanía (navegación web), pero también en procesos extractivos más invasivos sobre la privacidad y la intimidad corporal, la voz y el rostro. A esto se suma la extracción de metadatos a través de dispositivos IoT (asistentes virtuales, Smart TV, electrodomésticos inteligentes), con el fin de extraer valor económico y político (Garcia, 2024).
El objetivo final es persuadir y manipular la intención de voto de determinados ciudadanos en favor de los intereses de quien ejecuta los algoritmos. La puesta en marcha de este mecanismo provoca impactos negativos en los pilares fundamentales de las democracias deliberativas occidentales, principalmente en dos ámbitos:
Erosión de la privacidad: La monitorización, extracción y explotación de grandes conjuntos de datos de la intimidad socava la integridad, la dignidad y el anonimato de las personas, habilitando la posibilidad de monitorizar comportamientos y controlar acciones (Zuboff, 2020; Han, 2021; Varoufakis, 2023).
Crisis epistémica: La creación automatizada de contenidos personalizados erosiona el conocimiento y la veracidad necesarias para el funcionamiento democrático. No se trata solo de inducir al error, sino de generar un cinismo sistémico donde la ciudadanía pierde la capacidad de distinguir la verdad, debilitando su agencia política.
La combinación de estos factores permite que los actores que despliegan el microtargeting político intervengan y condicionen la soberanía y autodeterminación de la ciudadanía, poniendo en cuestión el control de los individuos sobre la construcción de sus propias convicciones (Garcia, 2024).
2. Deepfakes
La tecnología deepfake representa el punto culminante de esta convergencia entre IA generativa y manipulación emocional. Un deepfake no es solo una falsificación visual convincente; es un vector multimodal de persuasión que opera simultáneamente en múltiples niveles cognitivos (Romasops, 2025).
Amaka Peace One Unne analiza cómo los deepfakes políticos operan en frentes múltiples:
Frente lingüístico: Imitan meticulosamente las voces y la retórica de los políticos, creando una "falsa sensación de autenticidad" (p. 290).
Frente visual: La representación realista de figuras políticas crea una conexión innata con la audiencia, dado que las personas tienden a procesar la información visual con mayor rapidez que las palabras (Stenberg, 2006). Esta precisión, especialmente si representa figuras públicas conocidas, fomenta la resonancia emocional y aumenta el poder de influencia en la opinión pública (Westerlund, 2019, p. 291).
A medida que la tecnología avanza en alcance y sofisticación, su expresión se vuelve indistinguible del contenido auténtico. Las primeras iteraciones mostraban anomalías perceptibles (parpadeo antinatural, desalineación facial). Sin embargo, los algoritmos posteriores han perfeccionado estos fallos, dificultando su detección incluso para los expertos (p. 290).
3. Caso Argentino: El Deepfake de Mauricio Macri
En mayo de 2025, durante las elecciones a concejales en la Ciudad de Buenos Aires, una cuenta libertaria difundió un video creado con IA de Mauricio Macri promoviendo el voto por el candidato Manuel Adorni.
Este video, que resultó ser un deepfake, señalaba que para evitar el triunfo del kirchnerismo en la ciudad, el expresidente bajaba la candidatura de Lospennato y pedía apoyo al candidato de otra coalición, en este caso, de Javier Milei.
El material fue difundido el sábado por la noche, horas antes de la elección porteña. Esta táctica no solo violó la veda electoral, sino que funcionó como una operación de guerra relámpago informativa: al lanzarse durante la noche previa, se anuló la ventana de oportunidad para un desmentido efectivo, explotando la latencia de respuesta de las instituciones.
Aunque el Tribunal Electoral falló a favor del partido de Macri y ordenó la eliminación del video, la respuesta de la plataforma X fue insuficiente: se limitó a agregar una advertencia (etiquetado) en lugar de eliminar el contenido, evidenciando la ineficacia de la autorregulación corporativa frente a riesgos democráticos.
Este caso plantea un desafío crítico sobre la atribución de responsabilidad. La externalización del "juego sucio" a actores no estatales o cuentas anónimas (proxies) habilita una negación plausible (plausible deniability) por parte de la fuerza política beneficiada (La Libertad Avanza), permitiéndoles capitalizar el daño al adversario sin asumir el costo político directo.
Esto confirma que los deepfakes se han convertido en un arma estratégica en los arsenales electorales globales. Onebunne (2025) destaca que estas herramientas son vitales para manipular la opinión pública y fomentar la polarización.
El deepfake ha penetrado el núcleo de la estrategia política. Como informó Westerlund (2019), Jordan Peele creó un deepfake de Obama en 2018 para advertir sobre las noticias falsas; Trump apareció en videos manipulados sobre cambio climático y Nancy Pelosi fue víctima de alteraciones despectivas en 2019. A medida que los actores políticos explotan esta tecnología, resulta vital aplicar un análisis crítico del discurso para comprender sus mecanismos de influencia.
Conclusión
Esta revolución de los deepfakes está transformando la política, el comercio y la interacción social en tiempo real. A medida que la tecnología se vuelve más accesible y convincente, la pregunta fundamental no es si proliferarán, sino si somos capaces de construir las salvaguardias, la alfabetización y los marcos éticos necesarios para preservar la soberanía cognitiva en una era de autenticidad artificial.
Referencias:
Garcia, C. (2024). Microtargeting político y vigilancia social masiva. Impactos negativos en las democracias occidentales. Revista Internacional de Filosofía, Nº 93 (2024), pp. 73-89. http://dx.doi.org/10.6018/daimon.609851
Onebunne, A. P. (2025). From Aristotle to AI: Exploring the convergence of deepfakes and persuasion and their societal consequences. International Journal of Arts and Humanities, 6(1), 288-296. https://doi.org/10.25082/IJAH.2025.01.003
RosmarOps. (2025, 13 de abril). Operaciones de influencia en la era de la IA: del microtargeting al deepfake. https://rosmarops.com/operaciones-de-influencia-en-la-era-de-la-ia-del-microtargeting-al-deepfake-emocional/
Vergara, A. (2018, 4 de octubre). Microtargeting, el lenguaje de la manipulación. Idealex.press. https://idealex.press/microtargeting-el-lenguaje-de-la-persuasion/
7 puentes. (2021, 22 de septiembre). Campañas políticas online e inteligencia artificial: riesgos y amenazas. https://7puentes.com/blog/2021/09/22/ia-microtargeting-campanas-politicas/





Comentarios