Hace más de un año hablamos en este Biblumliteraria de GPT-2 de la firma OpenIA, un generador de texto que utilizaba técnicas de inteligencia artificial.
Los investigadores han proseguido su desarrollo y en julio han publicado un artículo técnico en ArXiv en que explican la nueva versión, GPT-3, que se está probando en estos momentos en su versión beta y en un circuito privado.
Se trata de una red neuronal inmensa de alrededor de 175.000 millones de nodos (contra apenas 1500 millones en la versión anterior GPT-2, que ya podía considerarse una cantidad enorme comparada con cualquier otro sistema de generación de textos) y es capaz de producir textos muy similares a los de autores humanos e, incluso, escritos especializados como partituras o código de ordenador.
Las muestras que se han filtrado, en cualquier caso, muestran que hay mucho aún por trabajar para alcanzar a un verdadero texto humano.
Como curiosidad, GPT-3 ha creado un informe sobre sí mismo.
No hay comentarios:
Publicar un comentario