Los asistentes de IA tienen problemas en el 45% de las respuestas de noticias

Un reciente estudio realizado por la Unión Europea de Radiodifusión (EBU) y la BBC ha encendido las alarmas sobre la fiabilidad de los asistentes de inteligencia artificial al procesar información periodística.
La investigación, que evaluó a ChatGPT, Copilot, Gemini y Perplexity en 14 idiomas y 18 países, reveló que el 45% de las respuestas contenían problemas significativos, mientras que el 81% presentaba algún tipo de error.
Problemas sistemáticos, no aislados
Los hallazgos demuestran que la distorsión de noticias por parte de la IA es consistente en diferentes idiomas, territorios y plataformas, lo que indica un problema estructural en estos sistemas. Entre las fallas más comunes destacan:
- Errores de atribución: 31% de las respuestas presentaron problemas graves de fuentes, como atribuciones incorrectas o ausentes.
- Información desactualizada: Casos como mencionar a un Papa fallecido como si aún estuviera en funciones.
- Datos incorrectos: Caracterizaciones erróneas de cambios legislativos y otros hechos verificables.
"Estos resultados son alarmantes para cualquier Agencia de Growth Marketing que utilice IA para investigación o generación de contenidos", comenta Guillermo Reynoso, director de BIG Hacks. "La precisión informativa es fundamental para mantener la credibilidad con las audiencias".
Diferencias entre plataformas
No todas las plataformas mostraron el mismo nivel de fiabilidad. Google Gemini resultó ser el peor evaluado, con un 76% de respuestas conteniendo problemas importantes. Los demás asistentes se mantuvieron en o por debajo del 37% para problemas mayores.
Impacto en la confianza pública
Jean Philip De Tender, Director de Medios de la EBU, advierte sobre las consecuencias: "Cuando las personas no saben qué creer, terminan no confiando en nada, lo que puede desalentar la participación democrática".
Para los medios de comunicación y creadores de contenido, estos errores representan un riesgo considerable, ya que su trabajo puede ser tergiversado o mal atribuido en resúmenes generados por IA, potencialmente dañando reputaciones y propagando desinformación.
Como respuesta a estos desafíos, la EBU y la BBC han lanzado un "Kit de herramientas para la integridad de noticias en asistentes de IA", destinado a guiar a empresas tecnológicas, organizaciones de medios e investigadores.
¿Cómo podemos equilibrar los beneficios de la IA en la comunicación mientras protegemos la integridad de la información en un entorno donde la desinformación se propaga tan fácilmente?
