
Joelving, Author Frederik. «Signs of Undeclared ChatGPT Use in Papers Mounting». Retraction Watch (blog), 6 de octubre de 2023. https://retractionwatch.com/2023/10/06/signs-of-undeclared-chatgpt-use-in-papers-mounting/.
La semana pasada, una revista ambiental publicó un artículo sobre el uso de energía renovable en la limpieza de tierras contaminadas, con un costo de acceso de 40 euros, y aparentemente escrito por investigadores chinos. El artículo incluía una frase peculiar, «Regenerate response», lo que planteó dudas sobre la posibilidad de contenido generado por IA. Este incidente destaca una tendencia creciente de uso de IA, en particular ChatGPT, en la investigación sin una debida declaración. El autor del artículo y la persona de contacto de la empresa no respondieron a las solicitudes de comentarios. Springer Nature, el editor, declaró que están investigando cuidadosamente el asunto de acuerdo con las mejores prácticas, pero no pudieron proporcionar más detalles en este momento.
Supuestamente escrito por investigadores en China, «Revitalizing our earth: unleashing the power of green energy in soil remediation for a sustainable future» incluye la frase superflua «Regenerate response» al final de una sección de métodos. Para aquellos que no están familiarizados, «Regenerate response» es un botón en ChatGPT de OpenAI que incita al chatbot a reformular una respuesta insatisfactoria.
«¿Los autores copiaron y pegaron la salida de ChatGPT e incluyeron por error la etiqueta del botón?» se preguntó Guillaume Cabanac, profesor de informática en la Universidad de Toulouse, en Francia, en un comentario en PubPeer..
Y agregó: «¿Cómo es que esta expresión sin sentido sobrevivió a la revisión de pruebas por parte de los coautores, editores, revisores, correctores de estilo y maquetadores?»
Este caso es el ejemplo más reciente de una creciente tendencia de uso descuidado y no declarado de ChatGPT en la investigación. Hasta ahora, Cabanac, cuyo trabajo fue cubierto en Nature el mes pasado, ha publicado más de 30 artículos en PubPeer que contienen esas dos palabras reveladoras y sueltas. Y eso no incluye los artículos que aparecen en revistas depredadoras, dijo el investigador científico a Retraction Watch.
«El software informático se ha utilizado durante décadas para ayudar a los autores», dijo Cabanac. «Solo piensa en Grammarly o DeepL para personas como yo. No soy hablante nativo de inglés, así que voy a WordReference, a veces voy a DeepL. Pero lo que hago es mirar el resultado y corregir los errores».
ChatGPT y otras herramientas que utilizan sistemas de IA conocidos como modelos de lenguaje a gran escala tienden a inventar cosas. Como informamos a principios de este año, ese trabajo independiente puede ser un problema para los investigadores que buscan ayuda para encontrar referencias.
«A veces elabora cosas que no estaban en la mente de los investigadores», dijo Cabanac. «Y ese es el punto de inflexión para mí. Cuando las personas utilizan el sistema para generar algo que no tenían en mente, como fabricar datos, generar texto con referencias a trabajos que ni siquiera leyeron, esto es inaceptable».
Según algunos editores, los chatbots tienen usos legítimos al escribir artículos. La clave es informar a los lectores sobre lo que se hizo.
El autor correspondiente del artículo ambiental, Kangyan Li de ESD China Ltd., no respondió a las solicitudes de comentarios. Tampoco lo hizo una persona de contacto mencionada en el sitio web de su empresa.
Un portavoz de Springer Nature, que publica la revista Environmental Science and Pollution Research en la que apareció el artículo, dijo que el editor estaba «investigando cuidadosamente el problema de acuerdo con las mejores prácticas de COPE» pero no pudo compartir más detalles en este momento.
No está claro cómo los autores, y mucho menos la revista, pudieron pasar por alto la extraña frase. «Tal vez no se trate de los autores, sino de una fábrica de papel», dijo Cabanac, refiriéndose a organizaciones poco fiables que venden espacios de autor en artículos científicos que pueden contener datos falsos.
«Regenerar respuesta» no es la única señal de participación no declarada de un chatbot que ha visto Cabanac. Un ejemplo aún más atroz es la frase «Como modelo lingüístico de IA, yo…«, que ha encontrado en nueve artículos hasta ahora.
A Cabanac le preocupa que un descuido tan flagrante, posiblemente la punta del iceberg, pueda pasar desapercibido tanto para el personal editorial como para los revisores.