13/4/23

ChatGPT-5

 


Cuando la mayoría de nosotros estamos aún trasteando con ChatGPT-3, con los problemas de acceso intermitente que presenta, y mientras algunos privilegiados trabajan con ChatGPT-4 (o, simplemente, GPT4), que no es de libre disposición, se anuncia ya ChatGPT-5 que, según la empresa desarrolladora, OpenAI saldrá al mercado al final de este año. Incluso si hay algún retraso, como es habitual, podemos decir que en el 2024, la nueva versión, la más potente, estará disponible.

Un experto desarrollador de redes neuronales, Siqi Chen, ha publicado en Twitter que ChatGPT-5 será capaz de pasar el test de Turing, o dicho de otro modo, que será casi indistinguible de una mente humana. Chen dice también que se alcanzará el nivel AGI (Artificial General Intelligence), es decir un nivel de intelecto generalista que vaya más allá del lenguaje. 

Hay que ser prudentes porque todo esto, de momento, es mucho más ruido de marketing que realidad, sin menoscabo que ChatGPT y los sistemas competidores equivalentes son desarrollos muy notables e interesantes que suponen pasos significativos en la capacidad de comprender y generar lenguajes naturales y también constituyen avances, más modestos, hacia la AGI. Recalco esto. Ahora mismo son modelos de comprensión y generación de lenguaje, no modelos de inteligencia. No son HAL.

Un asunto profundo que se ha debatido siempre, tanto en la filosofía como en la neurología, es si la inteligencia humana es fruto de "algo" que aún no conocemos y que va más allá de la intrincada red física de conexiones de axones y glías o, si por el contrario, se trata simplemente de una capacidad emergente de la complejidad, que se manifiesta a partir de cierto punto, de cierto umbral; es decir si la inteligencia humana aparece en el momento en que se cruza una cierta transición de fase. Podemos hacer una comparación con lo que le ocurre al agua cuando se calienta. Durante mucho tiempo no sucede nada, sigue siendo agua, más caliente a cada momento, pero agua. De pronto, al alcanzar los 100ºC, se produce la transición de fase y rápidamente entra en ebullición y se convierte en vapor. 

¿A las redes neuronales les falta sólo eso? ¿Complejidad suficiente? ¿volumen? ¿no hay nada más? ¿Las redes neuronales se comportan, ahora, como "agua" porque, simplemente, no tienen el número de nodos necesarios? ¿Pasarán súbitamente a "hervir", a "pensar", una vez que alcancen un determinado número - muy grande - de nodos conectados? ¿ChatGPT está alcanzando esa complejidad tras la cual, de manera casi natural, el sistema se tornará verdaderamente inteligente al modo humano?

El tiempo lo dirá, pero no creo equivocarme diciendo que ese tiempo va a ser probablemente bastante largo. Incluso admitiendo que se trata sólo de una capacidad emergente de la complejidad, los miles de millones de conexiones de ChatGPT (ChatGpt3 tiene "sólo" unos 5000 millones de nodos y 175.000 millones de parámetros y las cifras de GPT-4 están cerca de los 120 billones de parámetros) no son nada respecto al número de conexiones del cerebro. ¿Basta con hacer más grandes las redes neuronales para que, de pronto, surja la inteligencia tal como la entendemos? En tal caso, justo en ese momento, surgiría "de pronto" una auténtica inteligencia artificial.

Entre medio, continúan las noticias catastrofistas que llenan las tertulias y alimentan los podcasts: que se perderán cientos de millones de puestos de trabajo a causa de la inteligencia artificial , que si la IA tiene la capacidad de diseñar un plan para acabar con la humanidad (cuando ChatGPT no es más que un generador de conversaciones), que si la realidad y la ficción serán indistinguibles, que poderes ocultos nos manejarán a través de ella, etc., etc. Incluso, el Consejero Delegado de OpenAI afirma que es bueno tener miedo a la AI.

No no es bueno y, no, no hace falta. Al menos, aún y por mucho tiempo. Lo que sí habrá que temer es a las empresas programadoras y será preciso legislar cómo se programa, entrena y cómo se utiliza porque, como cualquier otra herramienta humana, puede prepararse y/o usarse para el bien y para el mal.

Sería razonable empezar a dejar de llamar estos sistemas con el apelativo de "inteligencias" para que se entendieran mejor sus posibilidades y su uso.


to be continued....


No hay comentarios:

Publicar un comentario