Un nuevo artículo titulado Automated Speech Generation from UN General Assembly Statements: Mapping Risks in AI Generated Texts, de Joseph Bullock y Miguel Luengo-Oroz estudia los riesgos que comportan los generadores de textos cada vez más sofisticados que pueden crear noticias falsas que parezcan realmente auténticas. Se analiza la capacidad del sistema AWD-LSTM de crear textos siguiendo el estilo de diferentes líderes políticos utilizando una base de datos que contiene discursos hechos en las Naciones Unidas entre los años 1970 y 2015. Los textos generados son tan similares que fácilmente pueden ser tomados por verdaderos aunque digan lo contrario de lo que el verdadero orador hubiera dicho. Especialmente peligrosos son los discursos de odio que pueden crearse y difundirse en las redes de manera automática.
Los autores concluyen proponiendo una exhaustiva monitorización de los contenidos que se generan mediante inteligencia artificial, estudiar de manera legal y social el impacto que estos contenidos amañados pueden tener en la sociedad, crear estrategias de contraataque y aunar esfuerzos entre sociedad, empresas y políticos.
Los autores concluyen proponiendo una exhaustiva monitorización de los contenidos que se generan mediante inteligencia artificial, estudiar de manera legal y social el impacto que estos contenidos amañados pueden tener en la sociedad, crear estrategias de contraataque y aunar esfuerzos entre sociedad, empresas y políticos.
El artículo completo puede leerse en este enlace.
No hay comentarios:
Publicar un comentario