Se ha publicado en ArXiv un paper titulado Generative Agents: Interactive Simulacra of Human Behavior, estudio de un grupo de investigadores de la Universidad de Stanford liderado por Joon Sung Park que muestra los resultados de aplicar redes neuronales conversacionales (del tipo de GPT-4, ChatGPT o Barde) a las relaciones humanas y sus comportamientos. El equipo de Stanford demuestra que los grandes modelos de lenguaje (LLM) pueden ser usados para simular de manera convincente cómo nos relacionamos los humanos en nuestra vida social. Para ello, los modelos deben modificarse permitiendo que acumulen experiencia a medida que interaccionan.
Los resultados indican que es posible estudiar el desarrollo tanto de pequeña tareas cotidianas como relaciones complejas de amplio espectro social. Incluso, se observa que los "individuos" virtuales pasan a colaborar entre ellos de manera espontánea, no programada, como suele ocurrir en la vida real.
El estudio crea una pequeña ciudad con sus apartamentos, escuelas y lugares de recreo y se ha poblado con 25 "individuos", cada uno de ellos ligado a una red neuronal conversacional. Así, cada "individuo" puede recibir textos y acciones de los otros y crear respuestas. Por así decirlo, es recrear lo que cada uno de nosotros podemos "conversar" por ejemplo, con ChatGPT pero sustituyéndonos a nosotros mismos por otro ChatGPT, de modo que "hablen" dos sistemas de IA entre ellos.
Las redes de cada "individuo" son alimentadas con algunos datos básicos como ocupación, intereses, relaciones existentes con otros "individuos", recuerdos, etc. Las frases alimentadas a las redes neuronales originan, asimismo, acciones. Así, si la frase es "vamos a tomar un café", se disparará la acción de que el "muñequito" virtual se dirija a la cafetería donde podrá encontrar a otro "individuo" y "hablar" con él. Lo original del sistema es que las "personas" virtuales automáticas se relacionan verdaderamente a través del lenguaje.
Existe también la posibilidad de que los investigadores humanos interfieran con el mundo virtual de esa pequeña ciudad, al modo de como si Dios bajara a la tierra a decirnos algo.
El estudio ha encontrado dificultades no desdeñables para incorporar los recuerdos de lo que va sucediendo porque, en poco tiempo, los datos son tan numerosos y tienen poco que ver con la situación concreta actual, de modo que interfieren con el cómputo de las respuestas conversacionales. Por ello, y al modo de cómo funciona nuestro cerebro, es necesario purgar todos esos "recuerdos" de contexto, seleccionando sólo los importantes o relevantes en cada momento.
Hay una pequeña simulación de un amanecer, grabada de una sesión real, en este enlace.
No hay comentarios:
Publicar un comentario