11/8/19

Distinguiendo entre textos humanos y generados por algoritmos




A medida que los generadores de texto se va perfeccionando, los párrafos escritos automáticamente por ordenador se van extendiendo. Si bien, aún estamos lejos de obtener niveles literarios interesantes, hay otros campos en que los algoritmos trabajan de manera similar a un humano: crónicas deportivas y financieras, por ejemplo, con periódicos que utilizan estos sistemas para automatizar unas noticias que son siempre muy parecidas y en donde basta cambiar algunos datos.

Claro está, esta automatización conlleva un riesgo, el de que las noticias así generadas sean tendenciosas para servir unos u otros intereses.

Investigadores de la Universidad de Harvard y del laboratorio MIT-IBM Watson de Inteligencia artificial han desarrollado una herramienta que permite distinguir si un texto es humano o no. Llamado GLTR, se basa en encontrar patrones repetitivos mediante técnicas de inteligencia artificial. No es infalible pero con su ayuda la tasa de detección de textos algorítmicos pasa de un 50% a un 75% aproximadamente. 

El paper completo en donde se describen la técnica, su aparato matemático y los resultados está subido al Arxiv, en este enlace.





No hay comentarios:

Publicar un comentario