
Strzelecki, Artur. «‘As of My Last Knowledge Update’: How is Content Generated by ChatGPT Infiltrating Scientific Papers Published in Premier Journals?» Learned Publishing 38, no. 1 (2025). https://doi.org/10.1002/leap.1650
El artículo examina cómo el contenido generado por ChatGPT aparece en artículos revisados por pares en revistas de prestigio sin ser declarado por los autores. Utilizando el método SPAR4SLR, se identificaron fragmentos generados por IA en publicaciones indexadas en bases de datos científicas
El uso no declarado de contenido generado por ChatGPT en artículos científicos es un problema emergente, con ejemplos de textos generados por IA que han pasado desapercibidos en revistas académicas de prestigio. Esto ha sido detectado en publicaciones como Resources Policy, Surfaces and Interfaces y Radiology Case Reports, que finalmente fueron retiradas. La falta de transparencia sobre el uso de IA en la creación de contenido científico plantea desafíos para el proceso de revisión por pares y la aceptación de manuscritos en revistas científicas.
Este artículo propone investigar cómo identificar los artículos parcialmente generados por ChatGPT, cómo se citan en otros trabajos y cómo responden los editores a este tipo de contenido. La investigación busca mejorar las políticas editoriales y la calidad de los artículos publicados, enfocándose no solo en correcciones lingüísticas, sino en la creación de contenido generado por IA.
A través de búsquedas en Google Scholar, se ha identificó contenido generado por ChatGPT mediante frases recurrentes que este modelo utiliza, como «as of my last knowledge update» y «I don’t have access to». Estas frases fueron inicialmente utilizadas para encontrar artículos que contenían texto generado por la IA. Además, se identificaron otros términos frecuentes como «regenerate response», que aparecían en artículos científicos sin justificación, señalando que el contenido había sido generado o manipulado por el modelo de IA.
Utilizando el método SPAR4SLR, comúnmente empleado en revisiones sistemáticas de literatura, el autor analizó artículos indexados en las bases de datos Web of Science y Scopus, identificando secciones que presentan indicios de haber sido creadas íntegramente por ChatGPT.
Los principales hallazgos del estudio son:
- Presencia no declarada de contenido generado por IA: Se detectaron artículos en revistas de renombre que contienen material producido por modelos de lenguaje como ChatGPT, sin que los autores hayan reconocido su uso.
- Citas académicas: Varios de estos artículos ya han sido citados en otras investigaciones publicadas en revistas indexadas, lo que amplifica la difusión de contenido generado por IA en la literatura científica.
- Disciplinas afectadas: Aunque la mayoría de los artículos identificados pertenecen a las áreas de medicina e informática, también se encontraron en campos como ciencias ambientales, ingeniería, sociología, educación, economía y gestión.
La búsqueda identificó 1.362 artículos científicos en los que se confirma inequívocamente que porciones del texto fueron generadas por ChatGPT. La cantidad de artículos fue tal que podría realizarse un análisis manual, artículo por artículo. La mayoría de los resultados obtenidos por Google Scholar se vinculan con publicaciones de revistas no indexadas en bases de datos científicas de calidad como Web of Science y Scopus, o en plataformas que publican preprints, como arXiv, researchsquare, SSRN y otras. Sin embargo, una porción menor de los resultados pertenece a editores reconocidos como grandes publicadores científicos con gran influencia en los lectores. Muchos de los artículos identificados fueron publicados en revistas que están indexadas en las bases de datos Web of Science y Scopus y tienen indicadores de calidad como el Factor de Impacto y CiteScore derivados de la cantidad de citas.
El estudio subraya la necesidad de una discusión ética y metodológica sobre el uso de modelos de lenguaje como ChatGPT en la producción de trabajos académicos. La falta de transparencia en la utilización de estas herramientas puede comprometer la integridad científica y plantea interrogantes sobre la autoría y la originalidad en la investigación.
Este análisis invita a la comunidad académica a reflexionar sobre las implicaciones del uso de inteligencia artificial en la redacción científica y a establecer directrices claras que aseguren la transparencia y la calidad en las publicaciones.