Archivo de la etiqueta: Escritura académica

La huella de la Inteligencia Artificial en la escritura académica: un análisis del cambio lingüístico tras los LLMs

Kousha, Kayvan, and Mike Thelwall. “How Much Are LLMs Changing the Language of Academic Papers after ChatGPT? A Multi-Database and Full Text Analysis.” arXiv (September 2025). https://arxiv.org/abs/2509.09596

El artículo analiza cómo los modelos de lenguaje grande (LLMs), en particular tras la aparición pública de ChatGPT, están influyendo en el estilo lingüístico de los artículos académicos.

Para ello, los autores se centran en doce términos muy característicos de los textos generados o corregidos con LLMs —como delve, underscore, intricate o meticulous— y estudian su evolución en seis grandes bases de datos: Scopus, Web of Science, PubMed, PubMed Central (PMC), Dimensions y OpenAlex. Además, aplican un análisis exhaustivo a más de 2,4 millones de artículos de PMC publicados entre 2021 y mediados de 2025.

Los resultados muestran un crecimiento espectacular en la frecuencia de estos términos tras la popularización de ChatGPT. Por ejemplo, entre 2022 y 2024, delve aumentó cerca de un 1500 %, underscore un 1000 % e intricate un 700 %. En los textos completos de PMC, el uso de underscore seis o más veces en un artículo se disparó más de un 10.000 % entre 2022 y 2025. También destacan los aumentos de intricate (≈ 5400 %) y meticulous (≈ 2800 %).

El fenómeno no afecta de igual manera a todas las disciplinas. El crecimiento es mucho mayor en áreas STEM (Ciencia, Tecnología, Ingeniería y Matemáticas) que en Ciencias Sociales o en Artes y Humanidades. Asimismo, los autores detectan que la co-ocurrencia de estos términos es cada vez más fuerte: artículos que emplean underscore tienden también a incluir con mayor frecuencia pivotal o delve, mostrando correlaciones que en 2022 eran casi inexistentes.

Se evidencia que la influencia de ChatGPT y otros LLMs se percibe claramente en el lenguaje académico, no solo en la frecuencia de ciertos términos, sino también en un estilo más uniforme y “pulido”. Este fenómeno puede ayudar a investigadores no nativos en inglés a acercarse a los estándares de redacción científica, reduciendo barreras lingüísticas en la publicación internacional. Sin embargo, también plantean interrogantes sobre el riesgo de homogeneización, exceso de artificio o pérdida de diversidad estilística en la escritura académica.

Los detectores de escritura realizada por IA actuales no son fiables en escenarios prácticos

Sadasivan, Vinu Sankar, Aounon Kumar, Sriram Balasubramanian, Wenxiao Wang, y Soheil Feizi. “Can AI-Generated Text be Reliably Detected?arXiv, marzo 17, 2023. https://doi.org/10.48550/arXiv.2303.11156

Investigadores de la Universidad de Maryland, liderados por Soheil Feizi, profesor asistente de informática, han evaluado la fiabilidad de los detectores de contenido generado por inteligencia artificial (IA). Su conclusión es clara: los detectores actuales no son fiables en escenarios prácticos. Feizi señala que herramientas comunes como paráfrasis pueden reducir la precisión de detección a niveles similares a una simple moneda al aire.

Feizi distingue dos tipos de errores de detección: tipo I, cuando un texto humano es marcado como generado por IA, y tipo II, cuando un texto de IA pasa como humano. Ambos presentan graves implicaciones, especialmente en contextos académicos y editoriales, donde errores pueden arruinar reputaciones y ser extremadamente difíciles de refutar.

Adicionalmente, incluso los métodos basados en marcas digitales (watermarking), teóricamente diseñados para identificar contenido de IA, pueden ser vulnerables a ataques de suplantación. El investigador advierte que dichas fallas podrían socavar la credibilidad de los mecanismos de autenticación digital.

Soheil Feizi explica que, en la práctica, dada la semejanza en la distribución de estilos entre textos humanos y generados por IA —y la sofisticación creciente de las técnicas de engaño—, es “teóricamente imposible” distinguir con certeza absoluta el origen de un texto.

Por otro lado, Furong Huang, también profesora asistente en la Universidad de Maryland, adopta una posición más optimista. Ella sostiene que los modelos de detección podrían mejorar si se dispone de una gran cantidad de ejemplos genuinos de escritura humana para su entrenamiento. Es decir, la clave para refinar estas herramientas sería el acceso a más y mejores datos.

Conectores discursivos más utilizados en la redacción académica

Los conectores son palabras o expresiones que sirven para unir ideas, establecer relaciones lógicas entre frases o párrafos, y guiar al lector a través del razonamiento del autor. Son esenciales para lograr una escritura clara, ordenada y persuasiva.

El cuadro de CIFAIC presenta una clasificación ordenada de los conectores discursivos más utilizados en la redacción académica. Estos conectores están agrupados según la función lógica que cumplen dentro del texto, lo que permite al escritor seleccionar el más adecuado según la intención comunicativa. Por ejemplo, se incluyen conectores de adición como “además” o “incluso”, que sirven para sumar ideas; de contraste como “sin embargo” o “aunque”, que permiten oponer argumentos; y de causa como “porque” o “debido a”, que explican el origen de una afirmación. Esta organización facilita el uso consciente y estratégico de los conectores, lo cual es fundamental para lograr una escritura coherente y persuasiva.

En el contexto académico, los conectores son herramientas esenciales para estructurar el pensamiento de manera lógica y ordenada. No solo ayudan a enlazar frases y párrafos, sino que también guían al lector a través del razonamiento del autor. El uso adecuado de conectores mejora la cohesión textual, refuerza la argumentación y demuestra dominio del lenguaje formal. Además, permiten establecer relaciones complejas entre ideas, como la comparación, la ejemplificación, la concesión o la conclusión, lo que enriquece el contenido y le da profundidad.

En definitiva, dominar el uso de conectores es una habilidad clave para cualquier persona que aspire a escribir textos académicos de calidad. La imagen funciona como una excelente guía de consulta rápida, ideal para estudiantes, investigadores y profesionales que deseen mejorar la claridad y efectividad de sus escritos. Incorporar estos conectores de manera natural y precisa no solo eleva el nivel del texto, sino que también refleja rigor intelectual y capacidad crítica.

ChatGPT en la escritura académica: un análisis cienciométrico de la literatura publicada entre 2022 y 2023

Lendvai GF. ChatGPT in Academic Writing: A Scientometric Analysis of Literature Published Between 2022 and 2023Journal of Empirical Research on Human Research Ethics. 2025;0(0). doi:10.1177/15562646251350203

El artículo analiza cómo la literatura académica ha percibido la herramienta de inteligencia artificial ChatGPT en el contexto de la escritura académica. Utilizando un enfoque cientométrico, los autores examinan la evolución de las publicaciones académicas que abordan el uso de ChatGPT en la redacción de textos científicos, identificando tendencias, patrones y áreas de interés en la investigación.

El estudio se centra en el análisis de 171 artículos académicos revisados por pares, extraídos de la base de datos Scopus, que abordan el uso de ChatGPT en la escritura académica. Utilizando el software CiteSpace, los autores realizaron un análisis de co-citación de documentos para mapear la estructura temática e intelectual del discurso sobre ChatGPT en la producción de conocimiento académico.

Se identificaron diez clusters temáticos principales, entre los que destacan:

  1. Riesgos éticos: Incluye preocupaciones sobre la autoría, el plagio y la integridad académica.
  2. Aplicaciones prácticas: Uso de ChatGPT para la redacción de textos, generación de resúmenes y asistencia en la escritura.
  3. Innovaciones pedagógicas: Integración de ChatGPT en entornos educativos para mejorar la enseñanza y el aprendizaje.

El análisis también destacó una creciente aceptación de ChatGPT como herramienta para mejorar la escritura y apoyar marcos educativos innovadores, especialmente entre hablantes no nativos de inglés. Sin embargo, persisten preocupaciones sobre referencias inventadas, plagio, ética de la autoría y la fiabilidad de las herramientas de detección de IA.

El estudio destaca el creciente interés en la aplicación de ChatGPT en diversos aspectos de la escritura académica, incluyendo la generación de contenido, la asistencia en la redacción y la mejora de la calidad del texto. Además, se analizan las implicaciones éticas y metodológicas de utilizar herramientas de IA en la producción académica, considerando aspectos como la autoría, la originalidad y la integridad de la investigación.

A través de este análisis, los autores proporcionan una visión detallada de cómo la comunidad académica está incorporando ChatGPT en sus prácticas de escritura y los desafíos que esto implica. El estudio también sugiere áreas para futuras investigaciones y el desarrollo de directrices para el uso ético y efectivo de la inteligencia artificial en la redacción académica.

El estudio enfatiza la necesidad de una supervisión proactiva y el desarrollo de políticas para garantizar una integración responsable de la IA generativa en la investigación y la educación. Se sugiere que las instituciones académicas implementen directrices claras sobre el uso de herramientas como ChatGPT, promoviendo prácticas éticas y transparentes en la producción académica.

La inteligencia artificial y la generación de contenidos académicos

La inteligencia artificial y la generación de contenidos académicos

27 DE FEBRERO de 2025 10:00 AM de Colombia. 16 h. de España Escuela de Ingenieros Militares de Colombia Biblioteca Coronel Lino de Pombo de la Escuela de Ingenieros Militares los invita: CONFERENCIA Virtual GRATUITA

Conferenciante: Julio Alonso Arévalo Universidad de Salamanca

Preparación de la publicación: la redacción de artículos de investigación para su publicación

«Preparing to Publish», Open Textbook Library 2023.

PDF

ePub

Este libro ofrece abundante material didáctico sobre el tema de la redacción de artículos de investigación para su publicación y la realización de tesis o disertaciones. El texto proporciona a los estudiantes de posgrado información útil, estrategias y consejos sobre cómo navegar por la escritura disciplinaria en sus campos y cómo entender, diseccionar y, en última instancia, construir su propio artículo de investigación. El texto está organizado de acuerdo con un formato estándar de artículo de investigación, desglosando cada sección de la investigación empírica de una manera simple y directa para ayudar a los estudiantes de posgrado a construir un manuscrito de calidad, basado en argumentos, a medida que escriben los hallazgos de sus estudios empíricos.

Enseñanza de la escritura de la tesis de posgrado en entornos presenciales y virtuales

Enseñanza de la escritura de la tesis de posgrado en entornos presenciales
y virtuales
/ Guadalupe Alvarez … [et al.] ; coordinación general de Guadalupe Alvarez
… [et al.]. – 1a ed. – Los Polvorines : Universidad Nacional de General Sarmiento, 2023.

Texto completo

La proliferación internacional de los estudios de posgrado en las décadas recientes ha puesto de manifiesto un problema común: la escasa eficacia terminal de los programas. Entonces, se ha vuelto necesario diversificar las intervenciones pedagógicas y fundamentarlas con investigaciones científicas. A su vez, se torna cada vez más frecuente el uso de tecnologías digitales y ello exige estrategias docentes novedosas acordes con las necesidades de los estudiantes. De ahí que resulte relevante este libro, en el que se comunican hallazgos de investigaciones orientadas a reconocer y caracterizar prácticas de enseñanza que contribuyen al mejoramiento de la escritura de la tesis de posgrado en entornos presenciales y virtuales y sus articulaciones. Al respecto, se presentan las decisiones que guiaron el diseño, la puesta en práctica y la evaluación de los cursos, talleres y grupos de escritura que se implementaron en diferentes provincias argentinas, destinados a profesionales de diversas carreras. También se incluyen las perspectivas de tesistas sobre intervenciones centradas en favorecer la producción de las tesis.

ChatGPT puede convertir a los malos escritores en mejores

Williams, Rhiannon. «ChatGPT Can Turn Bad Writers into Better Ones». MIT Technology Review. Accedido 25 de agosto de 2023. https://www.technologyreview.com/2023/07/13/1076199/chatgpt-can-turn-bad-writers-into-better-ones/.

Según un estudio, las personas que utilizan ChatGPT como ayuda para escribir son más productivas y realizan trabajos de mayor calidad que las que no lo hacen.

Desde su lanzamiento en noviembre del año pasado, ChatGPT ha ayudado a la gente a hacer su trabajo, y sus entusiastas usuarios lo han utilizado para redactar todo tipo de documentos, desde material de marketing hasta correos electrónicos e informes.

Ahora tenemos el primer indicio de su efecto en el lugar de trabajo. Un nuevo estudio realizado por dos estudiantes de economía del MIT, publicado hoy en Science, sugiere que podría ayudar a reducir las diferencias en la capacidad de redacción de los empleados. Descubrieron que podría permitir a los trabajadores menos experimentados que carecen de habilidades de escritura producir un trabajo similar en calidad al de sus colegas más cualificados.

Shakked Noy y Whitney Zhang reclutaron a 453 profesionales del marketing, analistas de datos y profesionales con estudios universitarios y les pidieron que realizaran dos tipos de tareas que normalmente llevarían a cabo como parte de su trabajo, como redactar comunicados de prensa, informes breves o planes de análisis. A la mitad se les dio la opción de utilizar ChatGPT para ayudarles a completar la segunda de las dos tareas.

A continuación, un grupo de profesionales comprobó la calidad de los resultados y los calificó en una escala de 1 a 7, siendo 7 el mejor resultado. Cada trabajo fue evaluado por tres personas de la misma profesión, contratadas a través de la plataforma de investigación Prolific.

Los escritores que decidieron utilizar ChatGPT tardaron un 40% menos en completar sus tareas, y produjeron trabajos que los evaluadores calificaron con un 18% más de calidad que los de los participantes que no lo utilizaron. Los escritores que ya eran expertos en redacción pudieron reducir el tiempo que dedicaban a su trabajo, mientras que los que fueron evaluados como escritores más débiles produjeron trabajos de mayor calidad una vez que tuvieron acceso al chatbot.

«ChatGPT es muy bueno en la producción de este tipo de contenido escrito, por lo que su uso para automatizar partes del proceso de escritura parece probable que ahorre mucho tiempo», dice Noy, autor principal de la investigación.

«Una cosa que está clara es que es muy útil para el trabajo de cuello blanco: mucha gente lo utilizará y va a tener un efecto bastante grande en cómo se estructura el trabajo de cuello blanco», añade.

Sin embargo, los resultados de ChatGPT y otros modelos generativos de IA distan mucho de ser fiables. ChatGPT es muy bueno presentando información falsa como factualmente correcta, lo que significa que aunque los trabajadores puedan aprovecharlo para ayudarles a producir más trabajo, también corren el riesgo de introducir errores.

Dependiendo de la naturaleza del trabajo de una persona, ese tipo de inexactitudes podrían tener graves implicaciones. El abogado Steven Schwartz fue multado el mes pasado con 5.000 dólares por un juez por utilizar ChatGPT para elaborar un informe jurídico que contenía opiniones judiciales y citas legales falsas.

Recomendaciones de la Asociación Mundial de Editores Médicos (WAME) sobre chatbots e inteligencia artificial generativa en relación con las publicaciones académicas

Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications, WAME (World Association of Medical Editors) Revised May 31, 2023.

Los chatbots almacenan la información proporcionada, como el contenido y las instrucciones, y pueden utilizarla en respuestas futuras. Esto implica que el contenido académico generado o editado mediante IA puede permanecer y aparecer en futuras respuestas, lo que aumenta el riesgo de plagio involuntario tanto para el usuario como para los futuros usuarios de la tecnología. Es importante que cualquier persona que necesite mantener la confidencialidad de un documento, incluyendo autores, editores y revisores, sea consciente de este problema antes de considerar el uso de chatbots para editar o generar trabajos.

Sin embargo, los chatbots pueden utilizarse para tareas sencillas de tratamiento de textos (similares a los programas de tratamiento de textos y corrección gramatical), generación de ideas y textos o investigación sustantiva. Las recomendaciones se han adaptado para dar cabida a estas distintas aplicaciones.

1) Solo los humanos pueden ser autores;

2) Los autores deben reconocer las fuentes de sus materiales;

3) Los autores deben asumir la responsabilidad pública de su trabajo;

4) Los editores y revisores deben informar a los autores y entre sí sobre el uso de chatbots en la evaluación de manuscritos, revisiones y correspondencia;

5) Los editores requieren herramientas digitales adecuadas para abordar los efectos de los chatbots en la publicación.

Recomendación 1 de WAME: Los chatbots no pueden ser autores.

Las revistas han empezado a publicar artículos en los que se han utilizado chatbots como Bard, Bing y ChatGPT, y algunas revistas incluyen a los chatbots como coautores. El estatus legal de un autor difiere de un país a otro, pero en la mayoría de las jurisdicciones, un autor debe ser una persona jurídica. Los chatbots no cumplen los criterios de autoría del Comité Internacional de Editores de Revistas Médicas (ICMJE), en particular el de poder dar «la aprobación final de la versión que se publicará» y «ser responsable de todos los aspectos del trabajo para garantizar que las cuestiones relacionadas con la exactitud o integridad de cualquier parte del trabajo se investiguen y resuelvan adecuadamente.» Ninguna herramienta de IA puede «entender» una declaración de conflicto de intereses, y no tiene capacidad legal para firmar una declaración. Los chatbots no tienen ninguna afiliación independiente de sus desarrolladores. Dado que los autores que presentan un manuscrito deben asegurarse de que todos los nombrados como autores cumplen los criterios de autoría, los chatbots no pueden incluirse como autores.

Recomendación 2 de WAME: Los autores deben ser transparentes cuando se utilizan chatbots y proporcionar información sobre cómo se utilizaron.

Debe indicarse el alcance y el tipo de uso de chatbots en las publicaciones de revistas. Esto es coherente con la recomendación del ICMJE de reconocer la ayuda en la redacción y proporcionar en los Métodos información detallada sobre cómo se llevó a cabo el estudio y los resultados generados.

  • Recomendaciones de WAME 2.1: Los autores que envíen un artículo en el que se haya utilizado un chatbot/AI para redactar un nuevo texto deben indicar dicho uso en el agradecimiento; se deben especificar todas las indicaciones utilizadas para generar un nuevo texto, o para convertir texto o indicaciones de texto en tablas o ilustraciones.
  • Recomendación 2.2 de WAME: Cuando se utilice una herramienta de IA, como un chatbot, para realizar o generar trabajo analítico, ayudar a informar de los resultados (por ejemplo, generando tablas o figuras) o escribir códigos informáticos, esto debe indicarse en el cuerpo del artículo, tanto en el resumen como en la sección de métodos. Con el fin de permitir el escrutinio científico, incluida la replicación y la identificación de falsificaciones, debe facilitarse la secuencia de comandos completa utilizada para generar los resultados de la investigación, la hora y la fecha de la consulta, así como la herramienta de IA utilizada y su versión.

Recomendación 3 de WAME: Los autores son responsables del material proporcionado por un chatbot en su artículo (incluida la exactitud de lo presentado y la ausencia de plagio) y de la atribución adecuada de todas las fuentes (incluidas las fuentes originales del material generado por el chatbot). Los autores de artículos escritos con la ayuda de un chatbot son responsables del material generado por el chatbot, incluida su exactitud. Hay que tener en cuenta que el plagio es «la práctica de tomar el trabajo o las ideas de otra persona y hacerlas pasar por propias», y no sólo la repetición literal de un texto previamente publicado. Es responsabilidad del autor asegurarse de que el contenido refleja sus datos e ideas y no es plagio, fabricación o falsificación. De lo contrario, ofrecer dicho material para su publicación, independientemente de cómo se haya escrito, puede constituir una falta de ética científica. Del mismo modo, los autores deben asegurarse de que todo el material citado se atribuye adecuadamente, incluyendo citas completas, y que las fuentes citadas apoyan las declaraciones del chatbot. Dado que un chatbot puede estar diseñado para omitir fuentes que se opongan a los puntos de vista expresados en sus resultados, es responsabilidad de los autores encontrar, revisar e incluir tales puntos de vista contrarios en sus artículos. (Los autores deben identificar el chatbot utilizado y la pregunta específica (enunciado de la consulta) utilizada con el chatbot. Deben especificar qué han hecho para mitigar el riesgo de plagio, ofrecer una visión equilibrada y garantizar la exactitud de todas sus referencias.

Recomendación 4 de WAME: Los editores y revisores deben especificar, a los autores y entre sí, cualquier uso de chatbots en la evaluación del manuscrito y la generación de revisiones y correspondencia. Si utilizan chatbots en sus comunicaciones con los autores y entre sí, deben explicar cómo se utilizaron. Los editores y revisores son responsables de cualquier contenido y cita generados por un chatbot. Deben ser conscientes de que los chatbots retienen las instrucciones que se les envían, incluido el contenido del manuscrito, y que proporcionar el manuscrito de un autor a un chatbot viola la confidencialidad del manuscrito enviado.

Recomendación 5 de WAME: Los editores necesitan herramientas adecuadas que les ayuden a detectar contenidos generados o alterados por IA. Tales herramientas deben ponerse a disposición de los editores, independientemente de su capacidad para pagarlas, por el bien de la ciencia y del público, y para ayudar a garantizar la integridad de la información sanitaria y reducir el riesgo de resultados adversos para la salud. Muchos editores de revistas médicas utilizan enfoques de evaluación de manuscritos que no fueron diseñados para hacer frente a las innovaciones y las industrias de la IA, incluidos los textos e imágenes plagiados manipulados y los documentos generados en papel. Ya han estado en desventaja al tratar de diferenciar lo legítimo de lo fabricado, y los chatbots llevan este desafío a un nuevo nivel. Los editores necesitan acceder a herramientas que les ayuden a evaluar los contenidos con eficacia y precisión. Esto es especialmente importante para los editores de revistas médicas, donde las consecuencias adversas de la desinformación incluyen posibles daños a las personas.

¿Puede aparecer ChatGPT cómo autor o coautor de artículos científicos?

Stokel-Walker, Chris. «ChatGPT Listed as Author on Research Papers: Many Scientists Disapprove». Nature 613, n.o 7945 (18 de enero de 2023): 620-21. https://doi.org/10.1038/d41586-023-00107-z.

Varios científicos han expresado su desaprobación al ver que ChatGPT, la herramienta de IA, figura como coautor en al menos cuatro artículos de investigación. Esta situación ha llevado a las editoriales a tomar medidas rápidas para regular su uso.

El popular chatbot de inteligencia artificial ChatGPT ha hecho su entrada oficial en el ámbito de la literatura científica y ha sido citado como autor en al menos cuatro artículos y preprints. Este hecho ha suscitado debates entre directores de revistas, investigadores y editores sobre la inclusión de herramientas de IA en publicaciones académicas y la conveniencia de citar al bot como autor. Las editoriales se apresuran a establecer políticas para el chatbot, que OpenAI, una empresa tecnológica con sede en San Francisco (California), presentó en noviembre como herramienta de libre acceso.

Al ser consultados por el equipo de noticias de Nature, los editores y servidores de preprints coinciden unánimemente en que los sistemas de IA como ChatGPT no cumplen los requisitos para figurar como autores de estudios, ya que no pueden asumir la responsabilidad del contenido y la integridad de los artículos científicos. Sin embargo, algunos editores sugieren que la contribución de una IA a la redacción de artículos puede reconocerse en secciones distintas de la lista de autores. Es importante señalar que el equipo de noticias de Nature opera con independencia del equipo de su revista y de su editor, Springer Nature.

En un caso concreto mencionado, un editor informó a Nature de que ChatGPT había sido citado por error como coautor, y la revista tomaría medidas correctoras para rectificar el error.

En un preprint publicado en el repositorio médico medRxiv, ChatGPT aparece como uno de los 12 autores de un estudio que explora su uso en la educación médica. Richard Sever, cofundador del repositorio y de su sitio hermano bioRxiv, reconoce que la conveniencia de utilizar y atribuir herramientas de IA como ChatGPT en la investigación es un tema de debate. Sugiere que las convenciones relativas a los créditos de las herramientas de IA podrían evolucionar con el tiempo.

Sever subraya la necesidad de diferenciar entre el papel formal de un autor en un manuscrito académico y el concepto general de autor como redactor del documento. Dado que los autores son legalmente responsables de su trabajo, cree que sólo deben figurar en la lista las personas físicas. No obstante, reconoce que se han dado casos de personas que han intentado incluir como autores a entidades no humanas, como mascotas o personajes de ficción, pero considera que se trata más de una cuestión de comprobación y verificación que de una cuestión de política. Victor Tseng, autor correspondiente del preprint, no hizo comentarios cuando se le contactó.

En un número reciente de Nurse Education in Practice, un editorial citaba por error a ChatGPT como coautora junto a Siobhan O’Connor, investigadora en tecnología sanitaria de la Universidad de Manchester. Roger Watson, redactor jefe de la revista, reconoció el error y declaró que se corregiría con prontitud. Atribuyó el descuido al diferente sistema de gestión de los editoriales en comparación con los artículos de investigación.

Alex Zhavoronkov, director general de Insilico Medicine, una empresa de Hong Kong dedicada al descubrimiento de fármacos mediante IA, citó a ChatGPT como coautor en un artículo publicado en la revista Oncoscience. Zhavoronkov mencionó que su empresa ha publicado más de 80 artículos generados por herramientas de IA generativa y expresó su satisfacción por el rendimiento de ChatGPT a la hora de redactar un artículo de alta calidad en comparación con herramientas de IA anteriores.

En cuanto al cuarto artículo, fue coescrito por un chatbot anterior llamado GPT-3 y se publicó inicialmente en el servidor francés de preprints HAL en junio de 2022. La coautora, Almira Osmanovic Thunström, neurobióloga del Hospital Universitario Sahlgrenska de Gotemburgo (Suecia), mencionó que, tras recibir comentarios de los revisores, reescribió el artículo y lo envió a una segunda revista. Tras las revisiones, el artículo fue aceptado para su publicación con GPT-3 como autor.

Política editorial

Se están elaborando y revisando las políticas de las editoriales sobre el uso de ChatGPT y otras herramientas de IA en la autoría. Los redactores jefe de Nature y Science, Magdalena Skipper y Holden Thorp, respectivamente, afirman que ChatGPT no cumple los criterios de autoría debido a la falta de responsabilidad que puede atribuirse a los grandes modelos lingüísticos (LLM). Se recomienda a los autores que utilicen LLM durante el desarrollo de un artículo que documenten su uso en las secciones de métodos o agradecimientos, según proceda.

Taylor & Francis, una editorial con sede en Londres, está revisando actualmente su política sobre la autoría de la IA. Sabina Alam, Directora de Ética e Integridad Editorial, está de acuerdo en que los autores son responsables de la validez e integridad de su trabajo y deben reconocer el uso de los LLM en la sección de agradecimientos. Sin embargo, Taylor & Francis aún no ha recibido ningún envío que acredite a ChatGPT como coautor.

El consejo del servidor de preprints arXiv, que se centra en las ciencias físicas, ha mantenido debates internos y está avanzando hacia el establecimiento de un enfoque para el uso de IA generativas. Steinn Sigurdsson, director científico y astrónomo de la Universidad Estatal de Pensilvania, subraya que una herramienta de software no puede figurar como autor, ya que no puede dar su consentimiento a las condiciones de uso y al derecho a distribuir contenidos. Hasta el momento no se ha identificado ningún preprints arXiv en el que ChatGPT figure como coautor, y próximamente se darán orientaciones a los autores sobre esta cuestión.

La ética de la IA generativa

La ética que rodea a la IA generativa, como ChatGPT, plantea importantes consideraciones. Matt Hodgkinson, responsable de integridad de la investigación en la Oficina de Integridad de la Investigación del Reino Unido, señala que las directrices de autoría vigentes indican que ChatGPT no debe ser acreditado como coautor. Aunque es posible que las herramientas de IA realicen una contribución académica significativa, el aspecto crucial es su capacidad para aceptar la coautoría y asumir la responsabilidad del estudio o de su contribución específica. Aquí es donde el concepto de conceder la coautoría a las herramientas de IA encuentra obstáculos.

Alex Zhavoronkov, director general de Insilico Medicine, explica que al intentar utilizar ChatGPT para escribir artículos más técnicos, se quedó corto. La IA genera a menudo afirmaciones que pueden no ser exactas, y hacer la misma pregunta varias veces puede dar respuestas diferentes. Esto suscita preocupación por el posible uso indebido del sistema en el mundo académico, ya que personas sin conocimientos especializados podrían intentar redactar artículos científicos utilizando contenidos generados por la IA.