30/11/24

Malas prácticas en las publicaciones científicas por el uso de IA

 


La proliferación de artículos periodísticos o científicos, en ediciones impresas, digitales o ponencias, escritos por inteligencia artificial de manera automática se está convirtiendo en un problema. Primero, porque nadie certifica la veracidad de los escrito, segundo porque viola muchos derechos de copyright y, tercero, porque no sólo hay autores que usan textos automáticos embebidos en otros humanos, para alargarlos sino que, incluso, hay documentos hechos por ordenador listados como si fueran autores humanos.

En teoría, los artículos escritos por IA deben ser declarados como tales para que el lector sepa a qué se enfrenta y cuánta veracidad puede otorgar a lo escrito. Desgraciadamente, esta cláusula de "fair-play" no se está siguiendo como se debería, con lo cuál existe un creciente corpus de verificación escrito por ordenadores que carecen de fiabilidad, corrección y contraste.

Se ha publicado recientemente un artículo académico, liderado por Alex Glynn, de la Universidad de Louisville,  y titulado Suspected Undeclared Use of Artificial  Intelligence in the Academic Literature que aborda este problema y trata de determinar su gravedad. 

Tras el estudio se demuestra que el problema es grave con una amplia difusión de este tipo de artículos automáticos no declarados con el añadido de que, además, aparecen en sitios muy citados y siendo, también, elementos muy citados por otros autores que los toman por legítimos. Así, la mala información se disemina metastásicamente de manera asintótica.

Además, se han controlado las figuras que, muchas veces, son también generadas por ordenador. En algunos casos presentan fallos garrafales. Se cita, por ejemplo, el artículo de biología Frontiers in Cell and Devel opmental Biology con imágenes de los genitales de ratas a todas luces imposibles. El artículo fue retirado por los editores tras denunciarse los errores. Llama la atención la poca profesionalidad de muchos autores que no revisan lo generado y que prefieren tentar la suerte en aras a aumentar su ratio de publicaciones.

Para el análisis se han usado diversas técnicas entre las cuales puede destacarse la de detectar frases y construcciones típicas que las redes neuronales de generación de textos repiten como cotorras y que no son tan usuales en un texto humano. Se han utilizado 449 artículos publicados en 354 revistas y 51 ponencias presentadas en 45 conferencias.

En las conclusiones, se demanda que los editores sean mucho más rigurosos a la hora de asegurar que los textos generados por ordenador sean declarados claramente como tales. 

El artículo completo puede leerse desde este enlace.



0 comentarios :