Investigadores del OpenAI, un centro de I+D sin ánimo de lucro financiado entre otros por el mediático Elon Musk, por Amazon y por Microsoft, han publicado un artículo en el que afirman haber desarrollado con técnicas de Inteligencia Artificial un sistema muy avanzado de generación de texto capaz de imitar muy bien a un humano, tanto que - según dicen- no dan a conocer a la comunidad científica su sistema, tan sólo algunos de los resultados, "para evitar su mal uso". Hay que entender que se refieren a la posibilidad de automatizar la creación de fake news verosímiles. Una forma de proceder, sin duda, nada científica, menos aún cuando se publica un paper y se anuncian resultados que debieran estar soportados en datos y hechos reproducibles. Parece más una estrategia de marketing que una comunicación habitual de índole científica.
Con todo, echando mano de la fe y aceptando una visión comercial, el artículo, firmado por Alec Radford , Jeffrey Wu, Rewon Child, David Luan, Dario Amodei e Ilya Sutskever , explica el desarrollo de GPT-2, un sistema de red neuronal que ha sido entrenado con un gran conjunto de textos tomados de Internet. Para empezar, rechazan el uso de nichos especializados de lenguaje y el aprendizaje de la red neuronal de sólo un pequeño subconjunto de un idioma. Defienden la utilización de un aprendizaje con ejemplos de muchos ámbitos simultáneos.
El sistema parte de la modelización del lenguaje mediante la ecuación de probabilidades de Jelinek y Mercer aplicada a un conjunto de frases ejemplo (x1, x2,..., xn) compuestas de símbolos (s1,s2,...sn). Para el entrenamiento de la red, los investigadores utilizaron un amplio abanico de textos pero seleccionados por haber sido redactados por personas que tuviesen un cierto "prestigio", entendido este no en su sentido habitual sino en su relevancia, influencia o aceptación en redes (del tipo del "karma" de Reddit o Menéame, por ejemplo). En total, unos 40 Gb de texto. Los detalles más técnicos y matemáticos pueden leerse en el propio artículo técnico (ver enlace más abajo) siempre de manera fragmentada por cuanto que muchas informaciones, como se ha citado, han quedado reservadas.
El modelo, siguiendo con la fe en sus autores, es capaz de prolongar una frase dada, una semilla, de manera correcta, indistinguible de un humano, en el 50% de los casos aparentemente. El articulo, asimismo, indica los índice de éxito en tareas como creación de resúmenes, traducciones, contestación de preguntas concretas, comprensión lectora, etc. En los anexos se dan alguno ejemplos de generación de texto realizados por el sistema ciertamente brillantes aunque los autores ya señalan que han puesto los mejores conseguidos.
El artículo completo puede ser leído desde este enlace.
No hay comentarios:
Publicar un comentario