Tribuna Abierta

El peligro de la autoalimentación en la inteligencia artificial: cuando los datos generados por la IA afectan la coherencia

12/08/24 – 19:30 P.M

Los modelos de inteligencia artificial (IA) se están alimentando cada vez más de datos que ellos mismos generan, lo que resulta en la creación de contenidos que se vuelven progresivamente incoherentes, según diversos estudios científicos.

Las herramientas de IA generativa, como ChatGPT, requieren una enorme cantidad de datos para funcionar, muchos de los cuales provienen de internet. Sin embargo, internet está cada vez más lleno de contenido generado por IA. Este ciclo de autoalimentación deteriora la calidad de los modelos, produciendo respuestas menos originales y relevantes, como destacó un artículo de la revista Nature a finales de julio.

Investigadores de las universidades de Rice y Stanford han observado que los modelos de IA generadores de imágenes como Midjourney, Dall-E y Stable Diffusion muestran una disminución en la originalidad y coherencia de las imágenes a medida que se incorporan más datos sintéticos. Compararon este fenómeno con la crisis de las vacas locas, que surgió cuando se alimentaba a los bovinos con harinas animales contaminadas.

Las empresas de IA tienden a usar datos sintéticos debido a su bajo costo y fácil acceso en comparación con los datos creados por humanos. Sin embargo, la falta de fuentes de datos humanos de alta calidad está llevando a una degradación de los modelos, que podría, en la peor de las hipótesis, afectar negativamente la calidad de los datos en todo internet, advierte Richard Baraniuk de la Universidad de Rice.

La analogía con la crisis de las vacas locas sugiere que un internet saturado de contenido generado por IA podría poner en riesgo el futuro de la industria tecnológica. Jathan Sadowski, de la Universidad de Monash, plantea la pregunta de cuándo el uso de datos sintéticos se vuelve excesivo.

Fuente: El Economista
Foto: Tribuna Abierta

WP Radio
WP Radio
OFFLINE LIVE
Scroll al inicio
Abrir chat