En un episodio del podcast Theories of everything, el neurocientífico Anil Seth y el biólogo Michael Levin tienen una conversación sobre si las máquinas pueden ser conscientes. El debate es conocido: unos sostienen que el cerebro es una computadora biológica y, por tanto, replicable en silicio; otros afirman que la consciencia es irreductiblemente orgánica, imposible de trasplantar a un sustrato digital. Levin propone algo distinto. Sugiere que la consciencia podría no depender del material específico —neuronas o transistores—, sino que tanto sistemas biológicos como digitales podrían acceder a lo que él llama «capas platónicas profundas de la realidad». Una versión actualizada de las Formas: patrones universales abstractos a los que diferentes arquitecturas podrían conectarse por rutas distintas.
La hipótesis tiene cierta elegancia. Intenta escapar del reduccionismo burdo que equipara la mente a un software ejecutándose sobre hardware húmedo. Pero tropieza con un problema elemental: explica un misterio invocando otro misterio más profundo. No sabemos cómo emerge la experiencia subjetiva de los procesos físicos del cerebro —es lo que Chalmers llamó el «problema difícil» de la consciencia—, y postular que sistemas digitales podrían acceder a los mismos patrones abstractos no nos acerca un milímetro a la solución. En todo caso, multiplica las incógnitas. ¿Qué naturaleza tienen esos patrones? ¿Cómo puede algo material —sea carbono o silicio— conectar con estructuras abstractas? ¿Y por qué el acceso a esas estructuras debería generar experiencia subjetiva en ambos casos? Levin no responde estas preguntas. Nadie puede responderlas, porque la consciencia sigue siendo el punto ciego de todas las ciencias que pretenden explicarla.
Además, no me parece que el problema de fondo sea ese. El problema es que la pregunta misma —¿puede la IA ser consciente?— es estéril. Es inverificable por definición: no existe acceso a la experiencia subjetiva ajena, ni siquiera entre humanos. Inferimos consciencia en los demás por analogía, por comportamiento, por la suposición razonable de que organismos similares al nuestro tienen vidas interiores similares. Con una máquina, esa analogía se quiebra. Podemos construir sistemas que reporten experiencias, que simulen emociones, que exhiban comportamientos indistinguibles de los conscientes. ¿Cómo distinguir entre consciencia genuina y simulación sofisticada? No hay experimento posible, no hay test de Turing que resuelva la cuestión. Y lo más importante: aunque pudiéramos responderla, la pregunta desvía la atención de lo que realmente importa, que no es si la máquina tiene interioridad, sino qué nos ocurre a nosotros cuando consumimos productos que simulan tenerla.
En 1981, Jean Baudrillard publicó Simulacres et Simulation, un libro que durante años me pareció excesivamente teórico, uno de esos textos académicos tan del gusto de cierta izquierda que prefiere la verborrea conceptual al contacto con la realidad. He tenido que revisar sus ideas para darme cuenta de que tal vez lo descarté demasiado apresuradamente. La tesis de Baudrillard es sabida: en las sociedades contemporáneas, los signos han dejado de representar la realidad para sustituirla. El filósofo francés describe una genealogía en cuatro fases. Primero, la imagen es un reflejo fiel de lo real: un retrato que representa un rostro, una fotografía que documenta un suceso. Segundo, la imagen empieza a enmascarar y deformar: la pintura barroca que dramatiza, el anuncio que embellece. Tercero, la imagen oculta la ausencia de realidad: el reality show que promete vida auténtica pero está enteramente guionizado, el influencer cuyo estilo de vida es pura escenografía financiada con deuda. Y cuarto, el puro simulacro: signos que no remiten a nada exterior, que no representan ni enmascaran ni ocultan, sino que simplemente circulan en un sistema autónomo de referencias cruzadas. Copias sin original. El mapa que precede al territorio.
Todo esto nos resulta ya familiar. Vivimos en lo que Baudrillard llamó hiperrealidad: un régimen donde la distinción entre lo real y lo representado se ha vuelto operativamente irrelevante. Sabemos que las imágenes mienten, que las noticias están editadas, que las redes sociales son escenografía. El cinismo contemporáneo es, en parte, una adaptación a este régimen. Nos hemos acostumbrado a los simulacros de la realidad exterior. Pero Baudrillard escribía antes de internet, antes de los smartphones, antes de que la aceleración tecnológica comprimiera décadas en meses. No podía anticipar lo que vendría después. Y la gran diferencia que nos brinda nuestro tiempo es que la inteligencia artificial no solo simula el mundo exterior: simula los productos de la interioridad humana. Esto es un salto cualitativo respecto al diagnóstico de Baudrillard. Los modelos de lenguaje generan argumentos, intuiciones, reflexiones, conexiones inesperadas, matices, incluso dudas. Producen outputs que tienen la forma exacta de lo que emerge de una consciencia sin que haya consciencia detrás. No son representaciones de pensamientos ajenos; son simulacros de pensamiento que no remiten a ningún sujeto pensante. Un ejemplo sencillo: le pides a un modelo que reflexione sobre un recuerdo vívido de la infancia. El texto que genera puede ser hermoso, evocador, lleno de detalles sensoriales que resuenan con la experiencia humana. Puede ser apropiado por alguien para vehicular su propio relato, para dar forma a un recuerdo que de otro modo permanecería informe. Pero el texto no remite a ninguna infancia real. No hay experiencia detrás, no hay sedimentación de lo vivido, no hay el peso específico de haber estado ahí. Es un simulacro de interioridad. Otro ejemplo, más cercano al trabajo: un modelo te entrega una estrategia empresarial brillante, una conexión entre variables que no habías considerado, una solución que parece proceder de alguien que ha pensado el problema durante semanas. Como profesional ganas —tienes la estrategia, puedes implementarla, puedes facturarla—. Pero como individuo pierdes algo difícil de medir: la experiencia de haber llegado ahí por ti mismo, la memoria del proceso, la lenta maduración de una idea que se convierte en tuya porque la has habitado. Y un tercero: un estudiante usa la inteligencia artificial para escribir una reflexión sobre un libro que no ha leído. El texto es coherente, bien estructurado, demuestra comprensión de los temas centrales, pero antecede a la experiencia de lectura. El significado llega antes que el encuentro con la obra. Y la experiencia humana es todo lo contrario: el significado llega con el tiempo, muchas veces incluso a destiempo, cuando ya no podemos hacer nada con él. La inteligencia artificial, en cambio, activa siempre el mismo mecanismo: producimos interioridades plausibles sin haber vivido nada. Recibimos significados que no hemos construido. Nos instalamos en sentidos que no hemos habitado. Y aquí es precisamente donde el debate sobre la consciencia de la inteligencia artificial demuestra su verdadera irrelevancia. Importa poco si la máquina es consciente. Importa mucho más si nosotros seguimos siéndolo en el sentido fuerte del término: seres que generan sentido desde la experiencia vivida, no desde la recombinación de patrones ajenos. Se pone demasiada atención en el riesgo —infundado, inverificable— de que las máquinas desarrollen interioridad y muy poca en el riesgo de que nosotros la perdamos. Que dejemos de distinguir entre lo que surge de la experiencia y lo que emerge de la simulación. Que tratemos la apariencia de profundidad como equivalente a la profundidad misma.
Simone Weil, en sus escritos sobre el trabajo, identificó la atención plena como condición de la experiencia auténtica. Lo que vio en las fábricas de los años treinta fue una deshumanización sistemática: el obrero reducido a extensión de la máquina, sus movimientos fragmentados y repetitivos, su ritmo adaptado al de los engranajes, la mente desconectada de lo que hacían las manos. El trabajo industrial, organizado según los principios del taylorismo —organización «científica» del trabajo para buscar la máxima productividad—, arrancaba al trabajador de su propia experiencia. Le dejaba el cuerpo pero le robaba la atención. Lo que tenemos ahora es análogo, pero opera en el ámbito del pensamiento. No es la deshumanización del trabajo manual: es la deshumanización del trabajo mental. Y hay una diferencia básica: aquella era impuesta por la necesidad económica, por la estructura de la producción industrial; esta es, en gran medida, voluntaria. Elegimos delegar fragmentos de nuestro proceso de pensamiento, elegimos recibir significados prefabricados, ahorrar el tiempo y el esfuerzo que requiere la elaboración propia. Si Baudrillard describió un mundo donde los signos sustituyen la realidad, nosotros estamos entrando en un mundo donde los significados sustituyen la experiencia. El primer simulacro erosiona nuestra relación con el mundo. El segundo erosiona nuestra relación con nosotros mismos. Y esta segunda erosión es más difícil de detectar, porque ocurre precisamente en el lugar desde el cual deberíamos detectarla.
El significado siempre ha requerido tiempo, resistencia, proceso. No solo el resultado, sino el trayecto hacia él. La memoria del esfuerzo, la sedimentación de lo vivido, la lenta decantación de una idea que se vuelve tuya porque has luchado con ella: ese es el resultado de una consciencia habitada. El sentido que se construye en el encuentro con la dificultad, en la fricción entre lo que queremos decir y nuestra incapacidad de decirlo, en el espacio que se abre cuando no tenemos respuestas inmediatas. La inteligencia artificial comprime todo esto. Entrega el output sin el proceso. Nos deja con resultados que podemos usar pero que no podemos habitar. Con significados que podemos repetir pero que no nos pertenecen. Y no sé si esto constituye un empobrecimiento irreversible o simplemente una transformación cuyas consecuencias todavía no podemos medir. Pero es muy posible que estemos acumulando masa crítica para un salto cualitativo que aún no imaginamos. Y es igualmente posible que estemos institucionalizando una forma de mediocridad que se confunde con eficiencia. Lo que sí tengo claro es que la pregunta relevante no es si la inteligencia artificial puede tener consciencia. La pregunta oportuna es si, al externalizar los productos de nuestra interioridad, no estaremos vaciándola sin darnos cuenta. Baudrillard anticipó un mundo de superficies sin profundidad. Quizás lo que viene sea peor: un mundo de profundidades simuladas, indistinguibles de las reales salvo para quien todavía recuerde lo que significaba habitar una idea en lugar de recibirla.
Ilustración: Bailarina automática. Ready-made creado por Olga Toutain (ca. 1980). Colección particular.
