Hay una pregunta que flota cada con fuerza sobre el mundo de la inteligencia artificial: ¿pueden los modelos de lenguaje como GPT o Claude llegar a tener experiencia subjetiva? ¿Pueden ser conscientes de su propia existencia? ¿Pueden sentir algo? La respuesta que da la corriente dominante en filosofía de la mente —el funcionalismo computacional— es que sí, al menos en principio: si un sistema procesa información de la manera correcta, la consciencia emergerá, independientemente de si está hecho de neuronas o de silicio. Alexander Lerchner, investigador de Google DeepMind, acaba de publicar un artículo que desafía esta idea de raíz. Y lo hace sin apelar a la biología ni a la intuición: solo con física y lógica. Su título es The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness.
Su punto de partida es inusual. En lugar de preguntarse qué es la consciencia —una pregunta que, reconoce, todavía no tiene respuesta definitiva—, Lerchner pregunta algo más manejable y, a su juicio, más urgente: ¿qué es exactamente la computación, en términos físicos? La respuesta que construye es sencilla. La computación, argumenta, no es una propiedad intrínseca de la materia. No es algo que simplemente "ocurre" en un chip de la misma manera en que ocurre la gravedad o el electromagnetismo. La computación es, fundamentalmente, una descripción de procesos físicos, no los procesos en sí mismos. Y esa distinción, aparentemente técnica, lo cambia todo.
El argumento descansa sobre una figura que Lerchner llama el cartógrafo. Un transistor a 5 voltios no es "un 1" por naturaleza propia: es "un 1" porque un agente consciente decidió que ese rango de voltaje equivale a ese símbolo. Sin ese acto de asignación semántica, no hay computación; solo hay física. El cartógrafo no es un observador pasivo, sino un agente activo y metabólicamente vivo que hace dos cosas simultáneas: extrae conceptos de la experiencia directa —el concepto "rojo" no es un dato abstracto, sino un estado neurofisiológico constituido por haber experimentado el rojo muchas veces— y luego asigna símbolos arbitrarios a esos conceptos. La consecuencia lógica es que los conceptos existen dentro del cartógrafo, mientras que los símbolos son solo fichas físicas vacías. El mapa no contiene el territorio. Y ningún aumento en la complejidad del mapa puede generar el territorio por sí solo. Importante notar que ese cartógrafo, ese observador, es externo.
De aquí emerge la distinción central del artículo. Simular un proceso significa manipular símbolos de forma que el resultado imite el comportamiento del proceso real. Instanciar un proceso significa reproducir su dinámica física constitutiva. Una GPU puede simular la fotosíntesis con total precisión matemática, modelando cada reacción química, pero no producirá ni una sola molécula de glucosa ni liberará oxígeno. La simulación perfecta no equivale al proceso real. Lo mismo ocurre con el cerebro: un chip de silicio que imita el perfil eléctrico de una neurona no reproduce nada de lo que hace esa neurona como entidad viva —su metabolismo, sus interacciones hormonales, su integración con el organismo—. Borra el territorio y deja solo el mapa.
El funcionalismo, señala Lerchner, comete aquí lo que llama una inversión ontológica. La cadena causal real es esta: la física genera experiencia, la experiencia genera conceptos, y los conceptos permiten crear computación simbólica. El funcionalismo invierte esa cadena y propone que la física genera computación, y la computación genera consciencia. El problema es que esta inversión es circular: pretende explicar el origen del cartógrafo —la consciencia— apelando a un proceso que ya presupone su existencia. Es como intentar crear al lector a partir del libro.
El artículo anticipa las objeciones más comunes con notable precisión. ¿Y si el sistema está encarnado en un cuerpo físico, conectado al mundo mediante sensores y actuadores? No cambia nada esencial: los sensores de un robot transducen fuerzas físicas en voltajes, que luego son alfabetizados por un cartógrafo humano en símbolos digitales. El núcleo operativo del sistema sigue trabajando solo con símbolos. Conectar un ordenador a cámaras y brazos robóticos no lo convierte en el mundo; solo le permite recibir datos sobre él. ¿Y las redes neuronales, que operan en espacios vectoriales supuestamente continuos? Aunque se describen como sub-simbólicas, sus vectores son secuencias de números en coma flotante: símbolos discretos de un alfabeto finito. Ese alfabeto ya está ahí, integrado en el silicio, desde el diseño.
¿Y si la consciencia emerge simplemente por pura complejidad? La emergencia física real —como la humedad que emerge del agua— aparece sobre la dinámica causal intrínseca del sustrato. Lo que el funcionalismo propone es algo distinto: que un mapa abstracto, por volverse más complejo, se transmute en el territorio físico que describe. Eso no es emergencia; es una suposición de principio fundamental.
Al respecto de esta consciencia emergente a partir del perfeccionamiento y acumulación de características de algo anterior, cabe recordar la famosa frase de que "la bombilla eléctrica no surgió de la mejora ingente de las velas":
La conclusión de Lerchner es tajante pero, en su formulación, liberadora. La incapacidad de la computación para generar experiencia subjetiva no es un límite de ingeniería que se pueda superar con más parámetros o mejores arquitecturas. Es una necesidad lógica derivada de lo que la computación es. Esperar que un algoritmo instancie consciencia es como esperar que la fórmula matemática de la gravedad ejerza peso físicamente.
Esto tiene una implicación práctica directa para el campo de la seguridad en IA: el desarrollo de sistemas cada vez más capaces no está creando nuevos sujetos morales que merezcan derechos o consideración moral. Está creando herramientas predictivas más sofisticadas. El riesgo real no es que la IA sufra en sus derechos, sino que los humanos proyectemos en ella una subjetividad que no posee y tomemos decisiones equivocadas a partir de esa confusión.
Lo que construimos, por muy impresionante que sea, sigue siendo el mapa. El territorio somos nosotros
Puede leerse íntegramente desde este enlace.



0 comentarios :
Publicar un comentario