Los chatbots de IA aún tienen dificultades con la precisión de las noticias

Pal, Moinak. «AI chatbots still struggle with news accuracy, study finds”. Digital Trends, 13 de enero de 2026

Texto completo

Se remarca la importancia del estudio dado que una proporción creciente de usuarios usa sistemas de IA para informarse. Aunque no reemplazan completamente a los medios tradicionales, estas herramientas ya se integran en hábitos informativos, lo que eleva el riesgo de difundir desinformación, especialmente cuando las respuestas se presentan con tono seguro y sin advertencias claras sobre sus limitaciones.

El artículo de Digital Trends resume los hallazgos de un experimento de cuatro semanas en el que se evaluó la capacidad de varios chatbots de inteligencia artificial generativa para identificar, priorizar y resumir noticias reales (incluyendo enlaces directos a los artículos) sobre acontecimientos diarios en Québec. La prueba fue diseñada y publicada originalmente por The Conversation, con el objetivo de medir cuánto pueden confiar los usuarios en estos sistemas como fuentes de noticias.

Los resultados del experimento revelaron problemas significativos: algunos chatbots, como Google Gemini, acabaron inventando medios de comunicación completos e informes que nunca existieron, lo que se conoce como alucinación de IA. Por ejemplo, en uno de los casos, Gemini afirmó falsamente que hubo una huelga de conductores de autobús escolar en Québec en septiembre de 2025, cuando en realidad lo que ocurrió fue la retirada temporal de autobuses Lion Electric por un problema técnico real.

Más allá de la fabricación de noticias completas, los sistemas evaluados generaron respuestas con errores frecuentes: citaron fuentes ficticias o inactivas, proporcionaron URLs incompletas o no válidas, tergiversaron el contenido de informes legítimos e insertaron conclusiones inventadas que no estaban en las noticias originales. En general, solo alrededor del 37 % de las respuestas incluyeron una URL de fuente completa y legítima, y menos de la mitad de los resúmenes fueron totalmente precisos.

El análisis también encontró que estas herramientas a menudo añadían información de más —como afirmar que cierta noticia “reavivó debates” o “expuso tensiones” que no existían en los hechos reales— creando narrativas que no estaban sustentadas. Esto puede dar la impresión de profundidad o perspicacia, pero en realidad amplifica la desinformación.

Además, los errores no se limitaron solo a invenciones completas: en algunos casos, los chatbots distorsionaron noticias reales, por ejemplo al informar incorrectamente sobre el trato a solicitantes de asilo o al dar ganadores equivocados de eventos deportivos, y otros cometieron errores básicos en datos como estadísticas o información personal. En suma, la IA generativa sigue teniendo dificultades para distinguir entre resumir hechos y crear contexto o sentido, lo que genera respuestas que pueden ser engañosas o inexactas.