La IA decide, ¿pero comprende?
- UBA Centro de Estudios de Política Internacional
- 24 abr
- 3 Min. de lectura
Actualizado: 6 may
El avance de la IA en la justicia y el empleo reaviva el debate sobre qué significa realmente “comprender”.
Por Pablo Pugliese, Licenciado en Ciencia Política con Orientación en Relaciones Internacionales. Coordinador del Observatorio en Defensa y Seguridad Internacional (CEPI - UBA)

A medida que las inteligencias artificiales (IAs) asumen un papel cada vez más determinante en áreas críticas como la justicia, el empleo y la toma de decisiones estratégicas, surge una pregunta esencial: ¿Podrán algún día llegar a comprender el mundo en el que operan, o se limitarán solo a procesarlo?
Este dilema ha sido objeto de debate durante décadas, pero hoy cobra una relevancia sin precedentes. Si bien las IAs han demostrado una eficiencia impresionante en el análisis de datos y la predicción de patrones, ¿serán capaces de captar el significado profundo de las acciones humanas?
Comprensión vs. Explicación: La Perspectiva de Weber
Para responder a esta pregunta, es útil recurrir a la distinción que hizo el sociólogo Max Weber hace más de un siglo: Erklären y Verstehen.
Erklären se refiere a la capacidad de explicar fenómenos a partir de relaciones causales y patrones cuantificables, un enfoque que las IAs dominan con precisión.
Verstehen, en cambio, implica interpretar el mundo desde la subjetividad humana, entendiendo intenciones, emociones y contextos.
Hoy, las IAs modernas, aunque sumamente eficientes en procesos que requieren una explicación causal como los que implican al Erklären, carecen de la capacidad de comprender el contexto emocional y subjetivo de las situaciones, que es propio del Verstehen. Si bien pueden procesar grandes volúmenes de datos, identificar patrones y hacer predicciones basadas en esos datos, no logran captar el sentido más amplio de las decisiones humanas ni los matices que las rodean.
El Riesgo de la IA en las Decisiones Críticas
Las IAs han demostrado su eficacia en tareas complejas, como el reconocimiento facial o la selección de candidatos en procesos de contratación. Sin embargo, esta eficiencia conlleva un peligro latente: la reproducción y amplificación de sesgos.
Un ejemplo preocupante es el uso de estos sistemas en la justicia penal, donde los algoritmos que predicen la reincidencia han mostrado tendencias a reforzar prejuicios raciales y socioeconómicos. Esto se debe a que estos modelos se entrenan con datos históricos, los cuales ya están impregnados de las desigualdades y sesgos del pasado. Si ciertos grupos fueron desproporcionadamente criminalizados o condenados en contextos anteriores, esa disparidad se traslada al algoritmo como una “tendencia” estadística. Así, lo que el sistema interpreta como un patrón objetivo no es más que una repetición de decisiones humanas influenciadas por factores sociales y estructurales. De esta manera, un sistema basado en datos históricos puede perpetuar desigualdades en lugar de corregirlas.
Ahora bien, aunque las críticas sobre los sesgos algorítmicos son legítimas, centrarse exclusivamente en los peligros de la inteligencia artificial pasa por alto una verdad incómoda: el juicio humano no es completamente objetivo. Los detractores de la IA a menudo tienden a idealizar la racionalidad y empatía humanas, olvidando que las personas también están expuestas a prejuicios inconscientes, emociones, presiones sociales y factores económicos que pueden nublar su juicio.
Una de las ventajas potenciales de la IA en este contexto es su auditabilidad. Mientras que, por ejemplo, los sesgos de un juez pueden ser difíciles de identificar y corregir, un algoritmo puede ser revisado, sus sesgos detectados y, teóricamente, ajustados o mitigados. Sin embargo, esta capacidad se ve limitada cuando hablamos de sistemas de "caja negra", en los que el proceso de toma de decisiones es opaco y carece de transparencia. En estos casos, la explicabilidad y la trazabilidad se vuelven fundamentales: la explicabilidad permite que los humanos comprendan cómo y por qué un algoritmo toma decisiones, mientras que la trazabilidad asegura que se pueda rastrear cada paso del proceso para entender su lógica.
¿Una IA Transparente y Supervisada? El Desafío Ético
El debate entonces no se trata de elegir entre máquinas y humanos, sino de encontrar un modelo de equilibrio que combine la eficiencia de la IA con la profundidad interpretativa humana. Para lograrlo, es necesario asegurar tres principios clave:
Transparencia: Los algoritmos deben ser comprensibles y su proceso de decisión debe poder ser analizado y auditado.
Supervisión humana: La IA no debe operar de manera autónoma en decisiones de alto impacto sin una revisión ética y contextual por parte de expertos.
Corrección de sesgos: Es fundamental diseñar sistemas que minimicen desigualdades en lugar de reforzarlas.
El debate sobre la ética algorítmica debe ser honesto, reconociendo tanto las limitaciones de la IA como las fallas inherentes al juicio humano. La pregunta clave que definirá nuestra relación futura con estas tecnologías es si estamos preparados para delegar decisiones fundamentales sin asegurar primero una comprensión profunda, o al menos un marco ético robusto, que guíe su funcionamiento.
Comments