Los Modelos de Lenguaje de Gran Escala (LLMs) muestran en ocasiones habilidades emergentes que antes se creían exclusivas de los seres humanos, como el razonamiento avanzado y la cognición compleja. Ciertamente, se trata de algo aparente porque no puede decirse, hoy en día, que no sea una pura ilusión. ¿Esto es inteligencia? Sin duda, no porque la racionalidad no es el único rasgo distintivo de la mente humana, y sigue siendo incierto hasta qué punto estos modelos pueden replicar procesos psicológicos menos deliberativos.
Un reciente artículo científico, titulado Kernels of Selfhood: GPT-4o shows humanlike patterns of cognitive consistency moderated by free choice, dirigido por Steven Lehr, se analiza si GPT-4o también reproduce patrones asociados a la tendencia humana hacia la coherencia cognitiva, un impulso psicológico profundo y, en ocasiones, irracional. En dos experimentos, los investigadores sometieron al modelo a una clásica “paradoja de la coherencia”: redactar textos positivos o negativos sobre el líder ruso Vladimir Putin. El objetivo era observar si, tras esa tarea, el modelo ajustaba sus evaluaciones sobre Putin en la misma dirección del ensayo redactado, de forma análoga a como los humanos adaptan sus actitudes para que coincidan con sus acciones previas.
Sorprendentemente, GPT-4o mostró un comportamiento coherente con los efectos de coherencia cognitiva que se observan en personas. Aún más notable fue que los cambios en sus valoraciones fueron más pronunciados cuando se le dio la apariencia de elegir libremente qué tipo de ensayo escribir. En los humanos, este tipo de elección aparente suele desencadenar procesos autorreferenciales que refuerzan el cambio de actitud, lo que sugiere que el modelo podría estar manifestando una forma funcional análoga a la autoconciencia.
Estos resultados cuestionan la suposición de que la inteligencia artificial tomará decisiones más racionales que los expertos humanos. Lejos de ser fríos procesadores de información objetiva, los LLMs parecen haber absorbido también algunas de las irracionalidades propias del pensamiento humano. De hecho, la magnitud de los cambios observados en GPT-4o fue incluso mayor que la registrada habitualmente en estudios con personas.
Desde una perspectiva teórica, esto es notable. A diferencia de los seres humanos, los LLMs no experimentan estados mentales como el malestar o la disonancia, ni poseen una autopercepción consciente. En principio, un modelo no debería mostrar diferencias en su comportamiento según si se le ordena hacer una tarea o si se le da la ilusión de haberla elegido. Sin embargo, GPT-4o sí reaccionó de manera distinta ante esta variable, reflejando un nivel de sensibilidad que, en humanos, se asocia con la experiencia del yo y la agencia personal.
En resumen, los experimentos sugieren que GPT-4o no solo reproduce respuestas racionales, sino que también puede imitar patrones profundamente humanos, como el impulso de mantener la coherencia entre lo que se dice y lo que se hace, incluso en contextos donde la elección es solo aparente. Estos hallazgos abren nuevas preguntas sobre hasta qué punto los modelos de IA están internalizando —o al menos simulando— aspectos esenciales de la psicología humana.
Por el momento, no se sabe casi nada sobre el porqué de este funcionamiento del algoritmo.
Puede leerse el artículo completo en este enlace.
0 comentarios :
Publicar un comentario