En un reciente estudio publicado por la firma Graphite, se constata que la proliferación de artículos realizados con grandes modelos de lenguaje (LLM) es enorme en este momento.
Mientras que en el año 2020, el 95% de los artículos publicados habían sido escritos por seres humanos, en el 2025, esa proporción se ha reducido a solamente el 52%. Es decir, casi la mitad de lo publicado se ha redactado por algoritmos, sin creación o esfuerzo de los investigadores. Y eso que en este año, ha bajado algo ya que en 2024, los artículos generados por máquinas sobrepasaron el 50%.
Fue con el lanzamiento de ChatGPT en noviembre de 2022, cuando comenzó la producción de artículos generados por inteligencia artificial y, desde entonces, ha crecido de forma explosiva,
La razón de este hecho es evidente. El dinero. Mientras que el coste humano puede variar entre 20 y 100€, el coste de un texto escrito por un LMM apenas alcanza unos céntimos de euro.
Así, desde la aparición de modelos de lenguaje avanzados como ChatGPT, Claude y Gemini, muchas empresas han visto en estas herramientas una oportunidad para reducir costos y acelerar la producción de contenido. En lugar de invertir grandes sumas en redactores humanos, las organizaciones comenzaron a utilizar IA para crear artículos optimizados para buscadores, redes sociales y campañas publicitarias.
La bajada en este año puede deberse a que la ola de los LLM ha pasado y, ahora, comenzamos a ver los déficits y poca calidad de muchos de los textos detectado.
Para realizar el estudio se analizaron unos 65,000 de artículos que se validaron con programas de detección de textos automáticos (esto implica que no hay certeza total de que el estudio baraje buenos datos ya que los programas de detección de IA fallan muy a menudo). Los datos en bruto para este estudio puede verse aquí.
Paralelamente, se han publicado informaciones de que hasta un 54% del contenido de Linkedin está siendo actualmente producido por LLMs.
Son resultados muy preocupantes.
Primero, porque la veracidad y profundidad de esos artículos "automáticos" queda en entredicho. Ciertamente, con una validación y corrección exhaustiva por un humano, podrían servir pero esto está por ver que se haga. Y, además, genera una explosión de problemas cuando el nuevo conocimiento publicado de esta manera sirve para entrenar nuevos modelos.
Si las redes neuronales se entrenan con contenido generado por otras inteligencias artificiales, la calidad se degrada como cuando se fotocopia una fotocopia. Las ideas originales desaparecen. Todo converge hacia una uniformidad carente de nuevas ideas. Es como una bola de nieve: la basura producida hoy por la IA se convierte en los datos de entrenamiento de mañana, generando resultados aún peores, que luego vuelven a alimentar el ciclo.



0 comentarios :
Publicar un comentario