La Guerra de la Información en Tiempos de Inteligencia Artificial
- UBA Centro de Estudios de Política Internacional
- hace 1 día
- 4 Min. de lectura
Por Facundo Jurisich, Estudiante avanzado de Ciencia Política (UBA). Especialista en teoría política y geopolítica. Redactor en Diario El Gobierno.

A lo largo de la historia de la humanidad, siempre se utilizó la información como un arma. En las guerras, conocer las tácticas o los recursos del enemigo era fundamental para la victoria. En la edad moderna, con la aparición de la sociedad civil y la opinión pública, la información pasa a ser un recurso fundamental a la hora de garantizar el apoyo a un gobierno, y por lo tanto su legitimidad.
Es así que en el siglo XX aparece la propaganda como manipulación sistemática de la información con el fin de favorecer los intereses políticos propios. Esta táctica, en la que el campo de batalla son las mentes de los individuos, fue posible en parte gracias al desarrollo de tecnologías novedosas para la época: la radio, la televisión y posteriormente internet.
Hoy en día, el auge de la inteligencia artificial, junto con un contexto político y cultural particular, llevan la propaganda a una fase más avanzada que nunca. Es así que, a nivel interno, distintos partidos políticos emplean imágenes o videos falsos de sus opositores, y a nivel externo ya no es posible saber qué imágenes o videos de una guerra son verdaderas. La inteligencia artificial también puede potenciar las capacidades de los actores no estatales en la guerra de la información, gracias a la reducción de costos en la generación de narrativas falsas; aunque este tema está reservado a otro artículo.
En primer lugar, la inteligencia artificial permite elaborar lo que se conoce como deepfakes. Estas son imágenes o videos falsos de una persona, pero que sin embargo alcanzan un nivel de realismo tal que parecen reales. Solo mediante un análisis exhaustivo es posible demostrar su falsedad, pero llegados a ese momento mucha gente ya habrá asumido que lo que vio era real.
La generación automática de contenido, sin embargo, no se limita únicamente al contenido audiovisual: también el texto puede ser generado automáticamente. Esto permite la creación masiva de narrativas sobre distintos temas, generando opiniones favorables o contrarias en relación a distintas personas, organizaciones o hechos. Mediante el uso de datos personales, estás narrativas pueden ser dirigidas a segmentos poblacionales específicos que sean más proclives a creer cierto tipo de información, o la información presentada de cierta forma. Esta estrategia es conocida como microtargeting.
Otro proceso que es acelarado por la inteligencia artificial es el de la creación de cuentas falsas, conocidas como bots. La creación de biografías o fotos de perfiles falsas es más fácil que nunca. Estas cuentas no son manejadas por seres humanos, sino por inteligencias artificiales, publicando mensajes generados automáticamente. La creación masiva de bots, junto con la generación automática de narrativas, permiten crear mensajes “enjambre”. Estos son mensajes que, con leves variaciones, replican la misma opinión desde múltiples cuentas distintas, dando lugar a la ilusión de que dicha opinión es mayoritaria.
Finalmente, la inteligencia artificial también reduce el costo y mejora la eficiencia del análisis de grandes cantidades de datos. Su utilidad radica en el monitoreo constante de las redes sociales, con el fin de detectar temas en tendencia, pero también en el análisis de los distintos tipos de comentarios frente a un tema específico, detectando emociones, sesgos y patrones de comportamiento. A partir de la detección de respuestas comunes frente a un tema, la inteligencia artificial puede buscar cosas en común entre todas las personas que responden de esa forma, estableciendo correlaciones. Todo esto sirve posteriormente para generar una narrativa más adaptada a lo que los distintos grupos son proclives a aceptar, dentro de los intereses del propagandista.
En el marco de la cultura de la posverdad, esta mejora técnica en las capacidades de la propaganda se vuelve aún más peligrosa. La posverdad se refiere a la idea de que al individuo ya no le importa si un mensaje es verdadero o falso, sino solo cómo ese mensaje le hace sentir y qué simboliza. Es así que una campaña de desinformación que genera indignación, puede tener efectos sociales importantes, aún si es falsa y aún si todo el mundo sabe que es falsa. Es común ver en redes sociales comentarios del tipo: “ya se que este video es mentira, pero no importa porque está defendiendo lo correcto”. Este desdén por la verdad, hoy en día generalizado, aumenta la eficacia de la propaganda.
Para concluir, cabe resaltar que la efectividad de la inteligencia artificial a la hora de hacer propaganda no se ve potenciada únicamente por el contexto cultural, sino también por sesgos cognitivos propios del ser humano en general.
En primer lugar existe el sesgo de confirmación, que consiste en la tendencia del ser humano a favorecer la información que confirma su postura y despreciar la información que la contradiga. Esto implica ser menos crítico con la información favorable y más exigente con la desfavorable, pero también significa no tomarse el trabajo de buscar evidencia que pueda refutar lo que pensamos. Las narrativas creadas con inteligencia artificial exacerban este sesgo, al servir en bandeja los datos necesarios para confirmar lo que pensamos, sin plantear ninguna búsqueda posterior de más evidencia.
Por otro lado, la generación de mensajes “enjambre” explota la tendencia tribal del ser humano: todo individuo quiere formar parte del grupo mayoritario, aún si eso implica resignar su propia opinión. Esta tendencia es explicada en libros como La espiral del silencio, y fue comprobado empíricamente en distintos experimentos. Es así que generar la apariencia de que una opinión es mayoritaria puede terminar llevando a que dicha opinión efectivamente lo sea.





Comentarios