
Weikmann, Teresa, Ferre Wouters, Marina Tulin, Michael Hameleers, Claes H. de Vreese, Brahim Zarouali y Michaël Opgenhaffen. 2026. “On the Same Page? Experts Are Mostly, but Not Always Aligned about Disinformation in Times of Generative AI.” Harvard Kennedy School (HKS) Misinformation Review, 3 de marzo de 2026. https://doi.org/10.37016/mr-2020-196
El estudio analiza hasta qué punto los expertos que trabajan en la lucha contra la desinformación comparten una visión común sobre el impacto de la inteligencia artificial generativa en la difusión de información falsa. Para ello, los autores realizaron una encuesta en línea a 92 especialistas europeos —académicos, verificadores de hechos y periodistas— vinculados a redes como el European Digital Media Observatory, una iniciativa impulsada por la Comisión Europea para combatir la desinformación digital.
El objetivo era examinar tres aspectos fundamentales: la percepción de competencia profesional frente a la desinformación generada por IA, la evaluación de los riesgos que plantea para la democracia y la sociedad, y la atribución de responsabilidades para mitigar sus efectos. Los resultados muestran que, aunque existen diferencias en la forma de abordar el problema, los expertos comparten un amplio consenso sobre la gravedad potencial del fenómeno y sobre la necesidad de respuestas coordinadas.
En términos de competencia percibida, la mayoría de los expertos afirma sentirse relativamente preparada para afrontar los desafíos que plantea la desinformación generada mediante inteligencia artificial. Sin embargo, los verificadores de hechos destacan como el grupo más confiado en su capacidad para detectar y analizar contenidos falsos. Esta mayor seguridad se explica en gran medida por su experiencia práctica y por el uso cotidiano de herramientas de verificación y detección digital. Por el contrario, académicos y periodistas muestran niveles de confianza algo menores, aunque aún elevados. Esta diferencia sugiere que la especialización profesional y la familiaridad con tecnologías de verificación influyen significativamente en la percepción de capacidad para enfrentarse a este tipo de amenazas informativas.
En relación con los riesgos asociados a la desinformación generada por IA, el estudio revela un elevado grado de consenso entre los tres grupos analizados. Una gran mayoría de los expertos considera que el principal peligro reside en el aumento de la confusión pública sobre la autenticidad de la información: la proliferación de imágenes sintéticas, deepfakes o textos generados automáticamente puede dificultar cada vez más distinguir entre lo verdadero y lo falso. Además, muchos expertos creen que esta situación puede erosionar el debate democrático al socavar la confianza en las fuentes informativas y en la evidencia visual o textual. No obstante, el análisis también muestra una posición matizada: algunos especialistas advierten que estos temores pueden formar parte de ciclos recurrentes de alarma tecnológica que históricamente acompañan la aparición de nuevas herramientas digitales.
Las divergencias más significativas aparecen cuando se analiza quién debería asumir la responsabilidad de combatir la desinformación generada por inteligencia artificial. Aunque existe un amplio acuerdo en señalar a las grandes plataformas digitales como actores clave —debido a su papel en la distribución masiva de contenidos—, los diferentes grupos profesionales enfatizan responsabilidades distintas. Los verificadores de hechos tienden a atribuir una mayor responsabilidad a las plataformas tecnológicas y también a su propio trabajo como actores especializados en la detección de información falsa. Los académicos, en cambio, destacan con mayor frecuencia el papel de los usuarios de noticias, subrayando la importancia de la alfabetización mediática y del desarrollo de competencias críticas para evaluar la información en línea. Los periodistas, por su parte, se sitúan en una posición intermedia, aunque tienden a expresar una visión más alarmista sobre el impacto potencial de estas tecnologías.
Desde el punto de vista de las políticas públicas, el estudio subraya la importancia de considerar la diversidad de perspectivas existentes entre los expertos que asesoran a las instituciones. Las diferencias observadas no implican necesariamente desacuerdo fundamental, sino que reflejan los distintos enfoques profesionales sobre cómo abordar el problema: algunos privilegian soluciones tecnológicas y regulatorias —como la responsabilidad de las plataformas—, mientras que otros destacan la dimensión educativa y social, centrada en la alfabetización mediática. En conjunto, los resultados sugieren que la lucha contra la desinformación generada por inteligencia artificial requiere un enfoque multidimensional que combine regulación tecnológica, verificación profesional y fortalecimiento de la capacidad crítica de los ciudadanos.