13/3/23

¿Pueden leerse electrónicamente los conceptos o palabras que el cerebro piensa?

 


Aunque la pregunta es muy antigua, sólo desde comienzos de este siglo se han realizado estudios que muestran cierta luz de que sí es posible leer la mente a distancia. Son pasos incipientes, pioneros, que necesitarán probablemente siglos para fructificar, pero que aportan cierta esperanza sobre las posibilidades existentes. 

En el 2016, un trabajo de investigadores de la Universidad de California en Berkeley, liderados por Alexander Huth, presentaron un artículo científico ("paper") titulado Decoding the Semantic Content of Natural Movies from Human Brain Activity que mostraba éxitos ciertos en la decodificación de las señales emitidas por el cerebro cuando este ve ciertos elementos.

En efecto, se sabe desde hace muchas décadas que el cerebro activa ciertas zonas en función de lo que hace, siente, ve o piensa. Es lógico pensar que si existiera una relación biunívoca clara entre los patrones de actividad cerebral y una imagen, una idea, un sentimiento o una palabra, bastaría grabar estas imágenes de activación neuronales para poder deducir qué estaba haciendo el cerebro en ese instante. 

Sin embargo, en general, esta activación es tan compleja que resulta imposible discernir si un área concreta se activa sólo por un estímulo aislado o bien por una determinada, y desconocida, combinación de causas. Adicionalmente, incluso hoy en día, los sistemas de medida exterior de la señales tampoco eran muy precisos, de modo que se intuía que esos patrones debían ser consecuencia de la actividad cerebral ante diversos acontecimientos o ideas, pero no había manera de progresar en el asunto.


El artículo del 2016 antes citado (que puede leerse íntegramente en este enlace), realizó un experimento singular con el objetivo de crear un modelo matemático que permitiera deducir el estímulo original en función de las figuras de activación observadas. En concreto lograron crear un algoritmo capaz de evaluar correctamente la visión de ciertos objetos en películas.

Lo primero, ciertamente, fue fijar un sistema de medida y el elegido fue la resonancia magnética funcional para medir la cantidad de oxígeno (blood-oxygen level-dependent - BOLD) en multitud de minúsculas zonas, en vóxeles, que podríamos concebirlos como píxeles tridimensionales. Una técnica no invasiva que, hoy por hoy, requiere grandes equipos y complejos cálculos (es decir, en ningún caso estamos cerca de poder popularizar la medición en tiempo real) pero que funciona y se usa ampliamente en medicina.

Una vez leídas las medidas de repuesta cerebrales, se trata de imaginar un modelo matemático que genere una respuesta experimental concreta y diferenciable cuando se enfrenta al cerebro a un estímulo determinado, y que este cálculo sea consistente y uniforme cada vez que se utilice con los mismos estímulos, es decir que los aciertos no sean aleatorios. 

Los investigadores conocían ya las dificultades de crear modelos basados en las técnicas de decodificación bayesiana y decodificación directa, especialmente debido a que una imagen o una palabra puede asignarse a muchas categorías. Por ejemplo, si se ve un coche, puede pensarse en "coche" pero también en "vehículo  a motor", "elementos de transporte", "una marca determinada", "berlina", "automóvil"; etc. etc. Para lidiar con esta red de categorizaciones,  los autores elaboraron una decodificación modificada basada en regresión logística jerárquica usando un conjunto de modelos a cuyas estimaciones se les aplica también este tipo de regresión. Así, las probabilidades de acertar con lo que se está pensando se optimizan. Esta función de regresión genera un valor en función de la entrada de datos. Se puede ver en la figura de portada (que pertenece al artículo técnico en cuestión) cómo, en ciertos momentos, cuando en la película se ve por ejemplo un animal, la función devuelve valores más altos porque "ha reconocido" el elemento.

Existen dos fases en el experimento. La primera es la de validación en la que se muestran al sujeto películas que contienen los conceptos a distinguir (un vehículo, una conversación, un animal y una cosa; este último concepto elegido así de difuso a propósito ya que engloba muchas otros conceptos) y se mide la respuesta humana cada segundo. Se crearon, entonces, modelos matemáticos de regresión logística jerárquica que ligaban estas respuestas de oxígeno medidas en la multitud de vóxeles observados cada segundo en las resonancias magnéticas con las respuestas que sabemos que deben existir en ese  determinado momento temporal de la película. Si, por ejemplo, en el minuto 2 aparece un automóvil, ese patrón puntual de vóxeles debe permitir al modelo deducir que se está viendo un coche. Es decir, la función debe mostrar un pico de valores.

Posteriormente, se pasó a la fase de validación en el que a las mismas personas usadas en la fase de validación se les mostraron nuevas películas (repitiéndoselas varias veces y sacando la media de patrones obtenidos para reducir el ruido aleatorio) y se midieron los patrones cerebrales. Introduciendo estos patrones en los modelos creados en la fase de validación, se observó si la función de regresión de dichos modelos acertaban con lo visto en las nuevas películas.

Y el resultado es que sí, que la correlación de aciertos era notable y que los modelos de regresión logística jerárquica parecen tener buenas perspectivas futuras. En la figura superior se observa claramente cómo las funciones de regresión muestran claros picos en los momentos en donde se observan animales, conversaciones o, en menor medida, vehículos. Como era de esperar, los picos son mucho menos pronunciados al ver "cosas" porque está más indefinido.

Evidentemente, se está en los primeros pasos, el experimento era en un entorno muy controlado y reducido, y aún es anecdótico. Pero, así se empieza.

Imaginémonos, entonces, dentro de 500 años. ¿Podremos contarnos historias telepáticamente? ¿Podremos entendernos en cualquier lengua puesto que visualizaremos los conceptos y no las palabras? ¿podremos "hablar" con una red neuronal de manera directa para pedir ayuda? ¿Podremos ser libres si nos monitorizan en todo momento lo que pensamos? 










0 comentarios :