¿Puede aparecer ChatGPT cómo autor o coautor de artículos científicos?

Stokel-Walker, Chris. «ChatGPT Listed as Author on Research Papers: Many Scientists Disapprove». Nature 613, n.o 7945 (18 de enero de 2023): 620-21. https://doi.org/10.1038/d41586-023-00107-z.

Varios científicos han expresado su desaprobación al ver que ChatGPT, la herramienta de IA, figura como coautor en al menos cuatro artículos de investigación. Esta situación ha llevado a las editoriales a tomar medidas rápidas para regular su uso.

El popular chatbot de inteligencia artificial ChatGPT ha hecho su entrada oficial en el ámbito de la literatura científica y ha sido citado como autor en al menos cuatro artículos y preprints. Este hecho ha suscitado debates entre directores de revistas, investigadores y editores sobre la inclusión de herramientas de IA en publicaciones académicas y la conveniencia de citar al bot como autor. Las editoriales se apresuran a establecer políticas para el chatbot, que OpenAI, una empresa tecnológica con sede en San Francisco (California), presentó en noviembre como herramienta de libre acceso.

Al ser consultados por el equipo de noticias de Nature, los editores y servidores de preprints coinciden unánimemente en que los sistemas de IA como ChatGPT no cumplen los requisitos para figurar como autores de estudios, ya que no pueden asumir la responsabilidad del contenido y la integridad de los artículos científicos. Sin embargo, algunos editores sugieren que la contribución de una IA a la redacción de artículos puede reconocerse en secciones distintas de la lista de autores. Es importante señalar que el equipo de noticias de Nature opera con independencia del equipo de su revista y de su editor, Springer Nature.

En un caso concreto mencionado, un editor informó a Nature de que ChatGPT había sido citado por error como coautor, y la revista tomaría medidas correctoras para rectificar el error.

En un preprint publicado en el repositorio médico medRxiv, ChatGPT aparece como uno de los 12 autores de un estudio que explora su uso en la educación médica. Richard Sever, cofundador del repositorio y de su sitio hermano bioRxiv, reconoce que la conveniencia de utilizar y atribuir herramientas de IA como ChatGPT en la investigación es un tema de debate. Sugiere que las convenciones relativas a los créditos de las herramientas de IA podrían evolucionar con el tiempo.

Sever subraya la necesidad de diferenciar entre el papel formal de un autor en un manuscrito académico y el concepto general de autor como redactor del documento. Dado que los autores son legalmente responsables de su trabajo, cree que sólo deben figurar en la lista las personas físicas. No obstante, reconoce que se han dado casos de personas que han intentado incluir como autores a entidades no humanas, como mascotas o personajes de ficción, pero considera que se trata más de una cuestión de comprobación y verificación que de una cuestión de política. Victor Tseng, autor correspondiente del preprint, no hizo comentarios cuando se le contactó.

En un número reciente de Nurse Education in Practice, un editorial citaba por error a ChatGPT como coautora junto a Siobhan O’Connor, investigadora en tecnología sanitaria de la Universidad de Manchester. Roger Watson, redactor jefe de la revista, reconoció el error y declaró que se corregiría con prontitud. Atribuyó el descuido al diferente sistema de gestión de los editoriales en comparación con los artículos de investigación.

Alex Zhavoronkov, director general de Insilico Medicine, una empresa de Hong Kong dedicada al descubrimiento de fármacos mediante IA, citó a ChatGPT como coautor en un artículo publicado en la revista Oncoscience. Zhavoronkov mencionó que su empresa ha publicado más de 80 artículos generados por herramientas de IA generativa y expresó su satisfacción por el rendimiento de ChatGPT a la hora de redactar un artículo de alta calidad en comparación con herramientas de IA anteriores.

En cuanto al cuarto artículo, fue coescrito por un chatbot anterior llamado GPT-3 y se publicó inicialmente en el servidor francés de preprints HAL en junio de 2022. La coautora, Almira Osmanovic Thunström, neurobióloga del Hospital Universitario Sahlgrenska de Gotemburgo (Suecia), mencionó que, tras recibir comentarios de los revisores, reescribió el artículo y lo envió a una segunda revista. Tras las revisiones, el artículo fue aceptado para su publicación con GPT-3 como autor.

Política editorial

Se están elaborando y revisando las políticas de las editoriales sobre el uso de ChatGPT y otras herramientas de IA en la autoría. Los redactores jefe de Nature y Science, Magdalena Skipper y Holden Thorp, respectivamente, afirman que ChatGPT no cumple los criterios de autoría debido a la falta de responsabilidad que puede atribuirse a los grandes modelos lingüísticos (LLM). Se recomienda a los autores que utilicen LLM durante el desarrollo de un artículo que documenten su uso en las secciones de métodos o agradecimientos, según proceda.

Taylor & Francis, una editorial con sede en Londres, está revisando actualmente su política sobre la autoría de la IA. Sabina Alam, Directora de Ética e Integridad Editorial, está de acuerdo en que los autores son responsables de la validez e integridad de su trabajo y deben reconocer el uso de los LLM en la sección de agradecimientos. Sin embargo, Taylor & Francis aún no ha recibido ningún envío que acredite a ChatGPT como coautor.

El consejo del servidor de preprints arXiv, que se centra en las ciencias físicas, ha mantenido debates internos y está avanzando hacia el establecimiento de un enfoque para el uso de IA generativas. Steinn Sigurdsson, director científico y astrónomo de la Universidad Estatal de Pensilvania, subraya que una herramienta de software no puede figurar como autor, ya que no puede dar su consentimiento a las condiciones de uso y al derecho a distribuir contenidos. Hasta el momento no se ha identificado ningún preprints arXiv en el que ChatGPT figure como coautor, y próximamente se darán orientaciones a los autores sobre esta cuestión.

La ética de la IA generativa

La ética que rodea a la IA generativa, como ChatGPT, plantea importantes consideraciones. Matt Hodgkinson, responsable de integridad de la investigación en la Oficina de Integridad de la Investigación del Reino Unido, señala que las directrices de autoría vigentes indican que ChatGPT no debe ser acreditado como coautor. Aunque es posible que las herramientas de IA realicen una contribución académica significativa, el aspecto crucial es su capacidad para aceptar la coautoría y asumir la responsabilidad del estudio o de su contribución específica. Aquí es donde el concepto de conceder la coautoría a las herramientas de IA encuentra obstáculos.

Alex Zhavoronkov, director general de Insilico Medicine, explica que al intentar utilizar ChatGPT para escribir artículos más técnicos, se quedó corto. La IA genera a menudo afirmaciones que pueden no ser exactas, y hacer la misma pregunta varias veces puede dar respuestas diferentes. Esto suscita preocupación por el posible uso indebido del sistema en el mundo académico, ya que personas sin conocimientos especializados podrían intentar redactar artículos científicos utilizando contenidos generados por la IA.

2 comentarios en “¿Puede aparecer ChatGPT cómo autor o coautor de artículos científicos?

  1. Pingback: ¿Debemos citar el ChatGPT ? 6 razones en la mesa de discusiones - empowerTIC

  2. Pingback: Se usar informação criada pelo chat GPT, como o devo referenciar? | bibl(i)forma

Los comentarios están cerrados.