Poder decodificar el habla directamente desde el cerebro es un objetivo que se ha perseguido desde hace muchos años. Ha habido algunos pequeños avances pero el éxito está muy lejos aún. Si llegara a lograrse, podrían tomarse las señales cerebrales y traducirlas a lenguaje emitido por un altavoz sin necesidad de que las palabras sean emitidas. Y, llegados a este punto, podría pensarse también en el proceso inverso, Tomar las palabras, y sin escucharlas, introducirlas directamente en el cerebro. Ni que decir tiene que sería un avance revolucionario para sordos y mudos, por ejemplo y los estudios en el campo son continuos. El año pasado, por ejemplo, Biblumliteraria se hacía eco de un trabajo en el mismo sentido.
Aunque el objetivo sigue siendo lejano, investigadores del Center for Integrative Neuroscience y del Department of Neurological Surgery, ambos de San Francisco, han desarrollado un sistema de inteligencia artificial que avanza un poco más en la buena dirección. En concreto, Joseph Makin, David Moses y Edward Chang, han experimentado con la traslación directa de señales del cortex a texto.
Diversos participantes recitaron repetidamente frases delante de un micrófono mientras se les registraba la actividad neuronal producida al hablar. Esta doble información alimentaba una red neuronal recurrente hasta que esta aprendía a identificar cada palabra con cierto modelo de activación neuronal, extrayendo esas sub-partes de la señal global registrada con la frase. Esta aproximación por frases completas es muy interesante.
Para realizar el experimento, se usaba un conjunto de 250 sensores de actividad en el córtex perisilviano.
Los resultados, aunque limitados, son interesantes y esperanzadores.
El artículo técnico, publicado en Nature, puede leerse en este enlace. Al final del mismo, los autores señalan los enlaces desde donde puede descargarse el código usado para entrenar a la red neuronal.
No hay comentarios:
Publicar un comentario