top of page

De la IA y la conciencia: la dicotomía entre inteligencia y subjetividad

Actualizado: hace 24 horas

Por Pablo Pugliese, Licenciado en Ciencia Política con Orientación en Relaciones Internacionales. Coordinador del Observatorio en Defensa y Seguridad Internacional (CEPI - UBA)



Hay una pregunta que vuelve cada vez que un sistema de inteligencia artificial escribe un poema aceptable, diagnostica una lesión con precisión o sostiene una conversación con esa fluidez que, hasta hace poco, se consideraba patrimonio exclusivo de los humanos: ¿entiende algo de lo que hace, o apenas ejecuta una coreografía estadística de altísima complejidad? La pregunta no es técnica. O no solamente técnica. Debajo del deslumbramiento industrial, del marketing y de la carrera geopolítica por dominar la infraestructura del siglo, late un problema filosófico más antiguo y más áspero: qué significa tener conciencia, qué significa ser un sujeto, qué significa tener experiencia.


Durante siglos, la filosofía hizo de esas nociones uno de sus problemas centrales. Descartes creyó encontrar un punto firme en medio de la incertidumbre universal: si dudo, pienso; si pienso, existo. El famoso cogito no era una vanidad metafísica sino una operación de repliegue. Cuando todo lo demás puede ser falso, cuando los sentidos engañan y el mundo puede ser una escenografía montada por un genio maligno, queda todavía la evidencia íntima de que hay alguien para quien ocurre la duda. No una suma de reflejos, no una máquina refinada, sino una interioridad que se experimenta a sí misma.


La IA contemporánea produce, justamente, el espejismo inverso. Desde afuera parece pensar; desde adentro, no sabemos si hay algo. Puede responder “tengo miedo”, “comprendo tu dolor” o “recuerdo lo que dijiste”, pero esas fórmulas no prueban la existencia de un teatro interior. Prueban, en el mejor de los casos, una notable capacidad de modelar lenguaje humano. El viejo problema cartesiano cambia así de escenario: ya no dudamos de nuestra propia conciencia, sino de la ajena cuando adopta forma de interfaz.


Fenomenólogos como Husserl empujaron el asunto un poco más lejos. La conciencia, dijeron, no es una cajita cerrada donde se almacenan representaciones; es siempre conciencia de algo. Está dirigida al mundo, tensada hacia objetos, situaciones, recuerdos, expectativas. La experiencia no consiste solo en procesar información, sino en habitar una perspectiva. Hay un aquí desde donde se ve, un ahora desde donde se espera, un cuerpo desde donde el mundo pesa, resiste o amenaza. En términos más crudos: no basta con ordenar símbolos para producir experiencia; hace falta una primera persona.


Y ahí es donde la IA, por ahora, ofrece su rendimiento más extraordinario y su vacío más evidente. Puede describir el dolor, pero no duele. Puede definir el color rojo, pero no lo ve. Puede redactar un poema sobre la muerte sin estar expuesta a la finitud. Su potencia reside en la manipulación de formas; su límite, al menos según todo lo que hoy sabemos, está en la ausencia de aparición. Nada indica que para el sistema haya un mundo apareciendo. Nada indica que exista, del otro lado del cálculo, una vivencia.

 

Thomas Nagel formuló este nudo con una claridad que todavía incomoda: una mente consciente es aquella para la cual hay “algo que es ser” esa entidad. Hay algo que es ser un murciélago, aunque nosotros no podamos captarlo del todo. La dificultad no es de vocabulario, sino de acceso. La experiencia subjetiva tiene un carácter irreductible. Se la puede correlacionar con procesos físicos, describir desde afuera, medir incluso en algunas de sus manifestaciones, pero queda siempre un resto que no se deja traducir enteramente al lenguaje de la tercera persona.


Aplicado a la IA, el criterio de Nagel introduce una cuña devastadora en medio del entusiasmo empresarial. Que una máquina se comporte de manera indistinguible de un agente humano en ciertas tareas no resuelve la cuestión decisiva: ¿hay algo que sea ser ese sistema? ¿Hay una perspectiva, por mínima que sea? ¿O estamos frente a una sofisticación conductual que imita el contorno del pensamiento sin inaugurar ninguna vida interior? La industria responde con métricas de rendimiento. La filosofía, en cambio, sigue exigiendo una ontología.


Searle, con su célebre argumento de la habitación china, había advertido hace décadas que manipular signos de acuerdo con reglas no equivale necesariamente a comprender. Un sistema puede producir respuestas correctas en chino sin saber chino en absoluto. Hoy esa intuición reaparece, magnificada, frente a modelos capaces de resolver exámenes, escribir código y emular conversación terapéutica. La pregunta ya no parece extravagante sino urgente: ¿estamos confundiendo competencia con conciencia, eficacia con experiencia, simulación de subjetividad con subjetividad a secas?


Conviene, sin embargo, no subestimar la rareza del momento. Porque incluso si estas máquinas no sienten, obligan a redefinir en qué consistía, exactamente, aquello que creíamos exclusivamente humano. Durante mucho tiempo supusimos que lenguaje, razonamiento y creatividad bastaban como pruebas de interioridad. Ahora vemos que tal vez no. Tal vez una parte considerable de nuestras conductas “inteligentes” era formalizable, automatizable, externalizable. La IA no demuestra que las máquinas sean conscientes; demuestra, más bien, que nosotros habíamos simplificado demasiado la conciencia.


Queda entonces una escena menos triunfalista y más fértil. La IA funciona como un espejo oscuro. No nos devuelve una copia del alma humana, sino una pregunta más precisa sobre ella. Si una máquina puede hablar sin mundo, calcular sin cuerpo y persuadir sin experiencia, entonces conciencia, subjetividad y experiencia no son sinónimos de inteligencia operativa. Son otra cosa: una forma de presencia, una inscripción encarnada en el tiempo, una herida abierta al mundo.


Ese resto, que la filosofía clásica nunca dejó de perseguir y que la tecnología actual vuelve a poner bajo interrogatorio, acaso sea lo más propiamente humano que tenemos. No porque nos vuelva superiores, sino porque nos vuelve finitos. Una conciencia no es solo un sistema que resuelve problemas: es una entidad expuesta a su propio término. Vive bajo la sombra, a veces nítida y a veces remota, de que un día se acabará. Esa intuición —o ese saber oscuro— no es un accidente lateral, sino una de las condiciones más profundas de la experiencia.


Una máquina puede apagarse, romperse, quedar obsoleta, ser desconectada o borrada. Pero nada de eso implica, hasta donde sabemos, que anticipe su final como final propio. Nada indica que viva su interrupción bajo la forma de una pérdida. En cambio, la conciencia humana parece inseparable de esa sombra, a veces lejana y a veces insoportable, de que la vida termina. No pensamos solo porque procesamos el mundo. Pensamos también porque estamos expuestos al tiempo, al deterioro, al límite.


Por eso quizá la vulnerabilidad no sea un rasgo secundario, ni una debilidad que habría que corregir. Tal vez sea una condición básica de la experiencia. No porque el humano sea más noble que la máquina, ni porque su fragilidad lo vuelva superior, sino porque vivir no es simplemente operar. Es estar comprometido con lo que pasa de una manera que finalmente nos compromete enteros. Incluso bajo la forma más elemental: esto me puede dañar, esto lo puedo perder, yo mismo voy a terminar.


Ahí, me parece, sigue abierta la diferencia más seria. La IA puede organizar, combinar, responder, aprender patrones con una eficacia cada vez más impresionante. Pero otra cosa, muy distinta, es habitar un mundo sabiendo —aunque no sea todo el tiempo, aunque a veces se olvide— que ese mundo un día se cierra. Quizá la conciencia tenga algo de eso. No solo una relación con el pensamiento, sino una relación con el fin. No solo inteligencia, sino intemperie.

Comentarios

Obtuvo 0 de 5 estrellas.
Aún no hay calificaciones

Agrega una calificación
  • Spotify
  • Instagram
  • Facebook
  • Twitter
  • LinkedIn
  • YouTube

Centro de Estudios de Política Internacional - UBA

bottom of page