
He, Y., & Bu, Y. (2026). Academic journals’ AI policies fail to curb the surge in AI-assisted academic writing. Proceedings of the National Academy of Sciences of the United States of America, 123(9), e2526734123. https://doi.org/10.1073/pnas.2526734123
El artículo aborda una cuestión crítica y de enorme actualidad en el mundo académico: la eficacia real de las políticas de inteligencia artificial (IA) adoptadas por revistas científicas para abordar el uso de herramientas de generación automática de texto.
En respuesta al crecimiento explosivo de herramientas de IA generativas como asistentes de redacción, muchas revistas han implementado políticas que, en teoría, deberían promover la transparencia (por ejemplo, requiriendo divulgación del uso de IA) y limitar la adopción indiscriminada para salvaguardar la integridad y originalidad de la literatura científica. Sin embargo, los autores señalan que el impacto real de estas políticas no se ha evaluado exhaustivamente a gran escala hasta ahora.
Para cuantificar ese impacto, los investigadores analizaron una base de datos consistente de 5 114 revistas académicas y más de 5,2 millones de artículos científicos para observar si las métricas de uso de IA y divulgación variaban entre publicaciones con y sin políticas formales sobre IA. Este enfoque permite ir más allá de los debates teóricos sobre política editorial y aportar evidencia empírica sobre lo que está ocurriendo en la práctica: ¿la existencia de una política de IA en una revista realmente frena el uso de herramientas automáticas o mejora la transparencia declarada?
Los resultados muestran una tendencia sorprendentemente clara: el uso de herramientas de IA en la redacción de artículos científicos crece rápidamente en todos los campos y tipos de revista, independientemente de si existe o no una política formal sobre IA. Incluso entre las revistas que han adoptado políticas de divulgación o restricción, no se observa una reducción significativa en el crecimiento del uso de IA en la escritura de artículos científicos en comparación con aquellas sin políticas. Este hallazgo pone en duda la eficacia de las políticas actuales como mecanismos de control, y sugiere que muchas de las prácticas de supervisión existentes pueden ser insuficientes para moderar la adopción de IA en la producción académica.
Además, los autores realizaron un análisis específico del texto completo de 164 000 publicaciones científicas, con especial atención a 75 000 artículos publicados desde 2023. Este análisis reveló una brecha notable en la transparencia: solo 76 artículos (~0,1 %) declararon explícitamente el uso de IA en su redacción, a pesar de que las herramientas automáticas son ampliamente accesibles y utilizadas. Esto indica no solo un aumento general en el uso de IA, sino también una ausencia de prácticas de divulgación consistentes, incluso cuando las revistas requieren declaraciones obligatorias sobre asistencia automatizada.
Los patrones observados en el crecimiento del uso de IA también varían según la disciplina y las características de las publicaciones. Los autores subrayan que las tasas de adopción de IA son especialmente elevadas en países no anglófonos, en las áreas de ciencias físicas y en revistas de acceso abierto de alto impacto. Este aspecto plantea cuestiones adicionales sobre cómo las diferencias culturales, lingüísticas y de acceso influyen en el uso de IA y en las estrategias de divulgación.
En el corazón de su discusión, los autores critican la ineficacia de las políticas actuales de las revistas como herramienta de regulación o guía ética frente al uso de IA en la escritura académica. Argumentan que las políticas basadas principalmente en declaraciones de uso no han logrado frenar la adopción de estas tecnologías, ni han aumentado la transparencia de manera significativa. En consecuencia, instan a una reevaluación completa de los marcos éticos y normativos que gobiernan la publicación científica, sugiriendo que se necesitan enfoques más robustos y posiblemente mecanismos automatizados que detecten y gestionen el uso de IA para proteger la integridad y fiabilidad de la investigación científica.








