La propagación de información falsa generada por chatbots de Inteligencia Artificial se ha duplicado en un año

Sadeghi, McKenzie. AI False Information Rate Nearly Doubles in One Year. NewsGuard, 4 de septiembre de 2025. https://www.newsguardtech.com/wp-content/uploads/2025/09/August-2025-One-Year-Progress-Report-3.pdf

Texto completo

Un informe de NewsGuard, compartido con Axios el 4 de septiembre de 2025, revela que la tasa de propagación de información falsa por parte de chatbots populares se ha duplicado en el último año, pasando del 18% al 35% en respuestas a preguntas sobre temas de actualidad.

Este aumento coincide con actualizaciones realizadas por los desarrolladores de inteligencia artificial que han ampliado las capacidades de los chatbots, permitiéndoles responder a más solicitudes y acceder a información en tiempo real desde la web.

El estudio de NewsGuard se basa en su AI False Claims Monitor, una herramienta que mide cómo los modelos de IA manejan afirmaciones demostrablemente falsas sobre temas controvertidos. Los investigadores probaron diez herramientas de IA líderes utilizando solicitudes de la base de datos de False Claim Fingerprints de NewsGuard, que contiene afirmaciones falsas ampliamente difundidas en línea. Los resultados mostraron que la información falsa aumentó significativamente en las respuestas a preguntas sobre noticias, con modelos como Inflection y Perplexity produciendo las tasas más altas de afirmaciones falsas.

En 2024, la mayoría de los chatbots estaban programados con más cautela, rechazando preguntas sobre noticias y política o negándose a responder cuando no conocían la respuesta. Sin embargo, este año, los chatbots respondieron al 100% de las solicitudes, lo que, según NewsGuard, ha llevado a una mayor amplificación de falsedades durante eventos de noticias de última hora. Además, aunque los chatbots ahora citan fuentes en sus respuestas, estas referencias no garantizan la calidad de la información, ya que a veces se extraen de fuentes poco confiables o se confunden publicaciones establecidas con imitaciones de propaganda rusa.

NewsGuard también señaló que la creciente polarización política en Estados Unidos complica la creación de chatbots que proporcionen respuestas «neutrales» que satisfagan a todos los usuarios. La tendencia de los desarrolladores de IA a maximizar ganancias puede llevar a la evolución de modelos de IA en direcciones partidistas, adaptándose a las inclinaciones políticas de los usuarios.