17/8/20

GPT-3





Hace más de un año hablamos en este Biblumliteraria de GPT-2 de la firma OpenIA, un generador de texto que utilizaba técnicas de inteligencia artificial.


Los investigadores han proseguido su desarrollo y en julio han publicado un artículo técnico en ArXiv en que explican la nueva versión, GPT-3, que se está probando en estos momentos en su versión beta y en un circuito privado. 


Se trata de una red neuronal inmensa de alrededor de 175.000 millones de nodos (contra apenas 1500 millones en la versión anterior GPT-2, que ya podía considerarse una cantidad enorme comparada con cualquier otro sistema de generación de textos) y es capaz de producir textos muy similares a los de autores humanos e, incluso, escritos especializados como partituras o código de ordenador. 


Las muestras que se han filtrado, en cualquier caso, muestran que hay mucho aún por trabajar para alcanzar a un verdadero texto humano.


Como curiosidad, GPT-3 ha creado un informe sobre sí mismo.



No hay comentarios:

Publicar un comentario