La IA distorsiona las noticias: el 45% de las que genera son imprecisas o falsas

Según un estudio que analizó cientos de miles de respuestas, la atribución a las fuentes originales es uno de los errores más frecuentes entre las inteligencias artificiales: el 31% de las respuestas incluían referencias nulas, engañosas o incorrectas.
Getty Images

Si utilizas algún asistente de inteligencia artificial (IA) como fuente de información diaria, es posible que debas reconsiderarlo. Una nueva investigación coordinada por la Unión Europea de Radiodifusión (UER) y dirigida por la BBC reveló que estos sistemas inteligentes distorsionan los contenidos noticiosos de manera sistemática.

El estudio contó con la participación de 22 medios públicos de 18 países que difunden información en 14 idiomas. Los especialistas de estas instituciones analizaron más de 300.000 respuestas vinculadas con contenidos informativos generados por ChatGPT, Copilot, Gemini y Perplexity, evaluando cuatro criterios: precisión, referencias a fuentes originales, contexto y distinción entre opiniones y hechos verificables. Según sus autores, el alcance y la escala del análisis no tienen precedentes. 

El trabajo concluyó que, sin importar el idioma, la ubicación del usuario o la plataforma utilizada, el 45% de las respuestas generadas por los asistentes de IA presentaron al menos un problema significativo.

La atribución a las fuentes originales fue uno de los errores más frecuentes. Los investigadores detectaron que el 31% de las respuestas incluían referencias nulas, engañosas o incorrectas.

La falta de precisión también destacó como un problema relevante: el 20% de los resultados analizados contenía datos obsoletos o basados en alucinaciones generadas por las propias IA.

“Las noticias precisas y de alta calidad son un pilar fundamental de las sociedades democráticas. Representar fielmente cómo una fuente presenta un hecho u opinión es clave para garantizar la exactitud y la calidad. Cualquier contenido editorial entregado por un asistente de IA sin una señalización clara puede inducir a error a los lectores”, advierte el informe.

Aunque el estudio identificó fallos similares en todos los asistentes analizados, Gemini obtuvo el peor desempeño, con una tasa de error del 76%, más del doble que el resto.

La relevancia de estos resultados aumenta debido al papel que Google desempeña en el modelo actual de distribución y consumo de información, así como por su fuerte apuesta por incorporar funciones basadas en Gemini y su tecnología subyacente, como el Modo IA o los resúmenes generados con inteligencia artificial que hoy forman parte de la experiencia de Google Search.

“Esta investigación demuestra de forma concluyente que estas deficiencias no son incidentes aislados. Son sistémicas, transfronterizas y multilingües, y creemos que esto pone en riesgo la confianza pública. Cuando la gente no sabe en qué confiar, termina por no confiar en nada, y eso puede frenar la participación democrática”, afirmó Jean Philip De Tender, director de medios y subdirector general de la UER.

El Informe de Noticias Digitales 2025 del Instituto Reuters detectó que los asistentes y otras interfaces de IA emergen como nuevas fuentes informativas entre las audiencias. En general, el 7% de los consumidores de noticias en línea ya emplea alguna herramienta relacionada con esta tecnología. Sin embargo, el porcentaje asciende a 15% entre los usuarios menores de 25 años.

El reporte reconoce que existe cierto entusiasmo del público en torno al uso de la IA en el periodismo, especialmente entre quienes temen perderse historias relevantes. Los resúmenes (27%), la traducción a distintos idiomas (24%), las mejores recomendaciones de artículos (21%) y los chatbots para consultar sobre noticias (18%) son los casos de uso mejor valorados entre las audiencias.

Aun así, el público en general se mantiene escéptico frente a la aplicación de la IA en el periodismo y expresa mayor confianza cuando existe supervisión humana. “Se espera que estas tecnologías abaraten la producción de noticias y las actualicen con mayor rapidez, pero también que las vuelvan menos transparentes, menos precisas y menos fiables”, concluye el informe.

Fuente: Wired

Dejá una respuesta

Scroll al inicio