ChatGPT y otras herramientas de IA podrían transformar la publicación científica

Gemma Conroy, «How ChatGPT and Other AI Tools Could Disrupt Scientific Publishing», Nature 622, n.o 7982 (10 de octubre de 2023): 234-36, https://doi.org/10.1038/d41586-023-03144-w.

La inteligencia artificial generativa tiene el potencial de transformar profundamente la publicación científica, pero su integración debe gestionarse cuidadosamente. Solo a través de un enfoque responsable y ético será posible maximizar sus beneficios mientras se mitigan los riesgos asociados.

Las herramientas de inteligencia artificial generativa, como ChatGPT, están revolucionando la publicación científica al transformar la forma en que se redactan y revisan manuscritos, informes de revisión por pares y solicitudes de subvenciones. Estas herramientas ofrecen beneficios significativos, como mayor eficiencia y equidad, pero también plantean preocupaciones relacionadas con la precisión, la ética y la calidad de las publicaciones. Por ejemplo, investigadores no nativos en inglés pueden superar barreras lingüísticas con la ayuda de estas tecnologías, mientras que el tiempo necesario para redactar documentos se reduce considerablemente. Sin embargo, estas mismas herramientas presentan riesgos asociados a inexactitudes y posibles usos indebidos.

Uno de los mayores cambios que trae la inteligencia artificial es la posible transformación del formato de los artículos científicos. En el futuro, los artículos podrían presentarse como documentos interactivos que permiten al lector explorar los datos y resultados de manera personalizada, en lugar de depender de los formatos estáticos actuales. Asimismo, la IA podría facilitar la realización de meta-análisis más amplios y detallados al procesar grandes volúmenes de literatura científica, algo que excede las capacidades humanas tradicionales. Esto abriría nuevas posibilidades para descubrir patrones y tendencias en la investigación.

No obstante, el uso de herramientas de IA generativa no está exento de riesgos. Estas tecnologías, al basarse en patrones más que en la verificación de hechos, pueden generar errores, referencias falsas o incluso artículos fraudulentos. Además, su accesibilidad podría fomentar prácticas poco éticas, como la proliferación de “fábricas de artículos”, donde se crean y venden manuscritos o posiciones de autoría. Por otro lado, las herramientas actuales para detectar textos generados por IA no son lo suficientemente fiables, lo que dificulta la identificación de fraudes y plantea un desafío significativo para los editores y revisores.

En el ámbito ético, el desarrollo de estas tecnologías también genera preocupaciones sobre plagio y derechos de autor. Muchos modelos de IA se entrenan con datos recopilados de Internet sin garantizar el consentimiento ni respetar restricciones de uso, lo que ha llevado a críticas que describen a la IA generativa como “plagio automatizado”. Además, las preocupaciones sobre la confidencialidad en la revisión por pares han llevado a algunas instituciones a prohibir el uso de estas herramientas en procesos sensibles como la evaluación de becas.

La equidad es otro aspecto clave. Mientras que herramientas como ChatGPT podrían nivelar el campo de juego para investigadores que no hablan inglés como lengua nativa, la posible monetización de estas tecnologías podría limitar su acceso a científicos de instituciones con menos recursos. Esto podría agravar las desigualdades ya existentes en la academia, especialmente si las herramientas avanzadas se vuelven prohibitivamente caras.

Para abordar estos desafíos, es esencial equilibrar la innovación con la integridad. Las revistas científicas deben establecer directrices claras sobre el uso de la IA, mientras que los gobiernos y las instituciones deben regular su implementación para garantizar una adopción ética y equitativa. Por su parte, los investigadores deben mantener habilidades críticas en redacción y análisis para no depender exclusivamente de estas herramientas en un entorno académico en rápida evolución.