Archivo de la etiqueta: Ética de la información

Récord de retracciones en investigación en 2023: Más de 10.000 artículos retirados

Van Noorden, Richard. 2023. «More than 10,000 Research Papers Were Retracted in 2023 — a New Record». Nature, diciembre. https://doi.org/10.1038/d41586-023-03974-8.


Durante el año 2023, se ha registrado un número sin precedentes de retractaciones para artículos de investigación, superando los 10,000, en medio de esfuerzos editoriales por abordar una proliferación de documentos fraudulentos y prácticas fraudulentas en la revisión por pares. Un análisis realizado por Nature revela que entre las naciones líderes en producción de investigación, Arabia Saudita, Pakistán, Rusia y China destacan por tener las tasas de retractación más elevadas en las últimas dos décadas.

El año 2023 ha experimentado un aumento significativo en la retractación de artículos de investigación, con más de 10.000 retracciones, marcando un nuevo récord. Este aumento se atribuye a los esfuerzos de los editores para abordar documentos fraudulentos y manipulación de la revisión por pares. Entre los países líderes con altas tasas de retractación en las últimas dos décadas se encuentran Arabia Saudita, Pakistán, Rusia y China. Hindawi, una subsidiaria con sede en Londres de Wiley, es responsable de la mayoría de las retractaciones en 2023, con más de 8.000 artículos retirados debido a preocupaciones sobre la revisión por pares comprometida y manipulación del proceso de publicación.

Wiley ha decidido deshacerse la marca Hindawi y ha implementado procesos más rigurosos para garantizar la integridad del proceso de publicación y revisión por pares. El editor espera una pérdida de ingresos de 35-40 millones de dólares debido a estos problemas. A pesar de ser en su mayoría artículos falsos, los documentos retirados de Hindawi fueron citados colectivamente más de 35.000 veces, indicando su impacto.

.

.

La tendencia general de retractaciones supera el crecimiento de los documentos científicos, con el número total de retractaciones superando las 50.000. El análisis de Nature sugiere que la tasa de retractación se ha triplicado en la última década, alcanzando más del 0.2% en 2022. Arabia Saudita tiene la tasa de retractación más alta entre los países que han publicado más de 100.000 artículos en las últimas dos décadas.

.

.

El análisis también revela que alrededor de una cuarta parte de las retractaciones son documentos de conferencias, siendo el Instituto de Institute of Electrical and Electronics Engineers (IEEE) líder en esta categoría. IEEE ha enfrentado críticas por problemas como el fraude de citas y el plagio en algunos de sus documentos.

.

.

Los expertos en integridad enfatizan que las retractaciones registradas son solo la punta del iceberg, con potencialmente cientos de miles de artículos de «fábricas de documentos» (empresas que venden investigación falsa) que aún no se han abordado. Estos documentos fraudulentos representan un problema, ya que pueden agregarse a artículos de revisión y integrarse en la literatura convencional.

Puntos Clave:

  • Más de 10.000 artículos de investigación retractados en 2023, estableciendo un nuevo récord.
  • Hindawi, una subsidiaria de Wiley, es responsable de la mayoría de las retractaciones, con más de 8.000 artículos retirados.
  • Wiley discontinúa la marca Hindawi y anticipa una pérdida de ingresos de 35-40 millones de dólares.
  • Las tasas de retractación están aumentando, superando el crecimiento de los documentos científicos, con un número total que supera las 50.000.
  • Arabia Saudita tiene la tasa de retractación más alta entre los países que publican más de 100.000 artículos.
  • El IEEE lidera las retractaciones de documentos de conferencias, con medidas preventivas en su lugar pero enfrentando críticas por fraude de citas y plagio.
  • Los expertos en integridad sugieren que las retractaciones registradas son solo una fracción del problema, con potencialmente cientos de miles de documentos fraudulentos de «fábricas de documentos» aún por abordar.

Comprender los distintos tipos de mala conducta científica

Nader Ale Ebrahim «Shedding Light on the Shadows: Understanding Different Types of Scientific Misconduct». 2023. Accedido 18 de diciembre de 2023. https://www.linkedin.com/pulse/shedding-light-shadows-understanding-different-types-ale-ebrahim-y32qc.

En la búsqueda del conocimiento y la verdad, la comunidad científica opera sobre una base de confianza, integridad y conducta ética. Sin embargo, el panorama de la investigación científica no está exento de conductas impropias. Este artículo profundiza en diversas formas de mala conducta científica, con el objetivo de aumentar la conciencia y promover una cultura de honestidad y transparencia en la investigación.

  1. Plagio: El Ladrón Silencioso El plagio, el acto de utilizar el trabajo o las ideas de alguien más sin el debido reconocimiento, representa una grave violación de la integridad académica. Minimiza la credibilidad de la investigación y muestra falta de respeto por el trabajo original de otros. Detectar y prevenir el plagio es crucial para mantener la integridad de la literatura científica.
  2. Fabricación y Falsificación de Datos: El Arte de la Decepción La fabricación de datos implica crear datos ficticios, mientras que la falsificación implica manipular o alterar datos para ajustarlos a resultados deseados. Ambas prácticas son perjudiciales, ya que pueden llevar a conclusiones incorrectas y engañar a otros investigadores, potencialmente causando un efecto dominó de desinformación.
  3. Autoría indebida: Cuando se otorga autoría a individuos que no han contribuido significativamente a la investigación o, por el contrario, se omiten contribuyentes merecedores. Esta mala conducta cuestiona la autenticidad de la autoría y puede dar lugar a disputas y desconfianza dentro de la comunidad académica.
  4. Publicación Duplicada: Publicar los mismos datos o estudio en varias revistas como trabajo original es otra forma de mala conducta. Esta práctica puede distorsionar la literatura científica, dando una falsa impresión de hallazgos corroborados e inflando artificialmente el historial de publicaciones del investigador.
  5. Manipulación de la Revisión por Pares: La revisión por pares es fundamental para la validación de la investigación. Manipular este proceso, ya sea influyendo en los revisores o comprometiendo la imparcialidad de la revisión, socava la esencia misma de la validación de la investigación.

En conclusión, comprender y reconocer las diversas formas de mala conducta científica es el primer paso para combatirlas. Incumbe a las instituciones, revistas y a los propios investigadores fomentar un entorno donde la conducta ética sea la norma, no la excepción. La vigilancia, la educación y políticas rigurosas son clave para mantener la integridad de la investigación científica. Como miembros de la comunidad científica, debemos comprometernos con estos estándares, asegurando que nuestra búsqueda del conocimiento sea pura, creíble y confiable.

10 tipos de plagio que todo escritor académico debería conocer para evitarlo según Turnitin.

R, Dr Somasundaram. 2023. «10 Types of Plagiarism – Every Academic Writer Should Know – Updated». iLovePhD. 8 de julio de 2023. https://www.ilovephd.com/10-types-of-plagiarism-every-academic-writer-should-know/.

Ver infografía

El plagio es el problema más común al que se enfrentan los escritores académicos al redactar sus trabajos de investigación o tesis. La conocida herramienta de detección de plagio Turnitin clasifica el plagio en 10 tipos comunes antes de generar el informe. En este artículo, exploraremos los 10 tipos de plagio que todo escritor académico debería conocer para evitarlo.

1. Clonación (Clone) – Plagio: En la clonación, una persona copia el trabajo de otra (palabra por palabra) sin realizar ningún cambio y lo presenta como su propio trabajo.

2. Remodelación (Remix) – Plagio: En el tipo de plagio por remodelación, una persona recopila información de varias fuentes, la mezcla en un solo documento y reclama el trabajo como propio.

3. Copiar y Pegar (Ctrl+C) – Plagio: En este caso, se copia una parte significativa del texto de un solo origen sin realizar ninguna alteración, lo cual se denomina como plagio Ctrl+C.

4. Híbrido (Hybrid) – Plagio: En el plagio híbrido, se copian documentos de origen perfectamente citados y se organizan como un nuevo documento sin citarlos.

5. Buscar y Reemplazar (Find-Replace) – Plagio: Cambiar las palabras y frases más comunes en el contenido copiado y no realizar cambios en el documento es conocido como «buscar y reemplazar» – un tipo de plagio.

6. Reciclaje (Recycle) – Plagio: El reciclaje, también conocido como autoplagio, se refiere a la acción de tomar prestado de un documento anterior propio sin una cita adecuada.

7. Mezcla (Mashup) – Plagio: Cuando se copia un documento escrito de más de una fuente y se mezclan todos sin una cita adecuada, se llama plagio de mezcla.

8. Error 404 (404 Error) – Plagio: El «error 404» – plagio es cuando una persona crea un documento copiando de diversas fuentes y lo presenta como un solo documento con citas. Sin embargo, si las citas son inexactas o conducen a recursos que no existen, se llamará 404 tipos de plagio.

9. Agregador (Aggregator) – Plagio: En este tipo de plagio, el documento escrito incluye todas las citas adecuadas, pero no contiene trabajo original.

10. Retuitear (Re-Tweet) – Plagio: Si todo el documento escrito parece perfecto con marcas debidamente citadas, pero aún así el documento se asemeja en alguna parte a la estructura o las palabras originales del texto, se llama plagio por retuiteo.

Wiley dejará de utilizar la marca «Hindawi» por críticas sobre venta de autorías, lo que ha generado un descenso de ingresos de 18 millones de dólares

Kincaid, Author Ellie. 2023. «Wiley to Stop Using “Hindawi” Name amid $18 Million Revenue Decline». Retraction Watch (blog). 6 de diciembre de 2023. https://retractionwatch.com/2023/12/06/wiley-to-stop-using-hindawi-name-amid-18-million-revenue-decline/.


Wiley ha comunicado su decisión de no utilizar la problemática marca Hindawi. La editorial Hindawi ha llevado a controversias, desatando numerosas críticas acerca de la calidad de algunos de sus artículos, venta de autorías y retractaciones masivas. En un movimiento estratégico, Wiley planea integrar las alrededor de 200 revistas de Hindawi en el conjunto de su cartera para mediados del próximo año.

Hindawi era una editorial académica especializada en revistas de acceso abierto. La empresa se estableció en 1997 en Egipto y creció para convertirse en uno de los principales editores de acceso abierto en el mundo. Su adquisición por parte de Wiley en 2021 ha generado problemas significativos, con una pérdida de ingresos de 18 millones de dólares en el último trimestre financiero en comparación con el mismo trimestre del año anterior, según reveló la misma Wiley. Las revistas de Hindawi se han visto afectadas por la publicación de contenido de baja calidad y «fabricas de papel«*, lo que ha llevado a miles de retractaciones, cierres de revistas y la exclusión de varios títulos de un importante índice.

En el actual año fiscal, Wiley anticipa una pérdida de ingresos de entre 35 y 40 millones de dólares procedentes de Hindawi. Esto se debe a los esfuerzos en curso para abordar los problemas en las revistas y retractarse de los artículos. Matthew Kissner, presidente y CEO interino de Wiley, comunicó en la conferencia de resultados que la empresa espera que los ingresos comiencen a recuperarse en el próximo año fiscal.

* En el ámbito de la investigación, una fábrica de artículos se refiere a una organización con fines de lucro, no oficial y potencialmente ilegal que produce y vende manuscritos fraudulentos que pretenden asemejarse a investigaciones genuinas.

Cómo y por qué citar fuentes en trabajos académicos

Ayala Aceves, Marcela [et al.]. Cómo y por qué citar fuentes en trabajos académicos México: UNAM, 2023

Texto completo

El conocimiento se construye de manera colectiva, requiriendo la síntesis, análisis y reflexión sobre saberes previos y fuentes de información para generar ideas o conocimientos innovadores.

En el ámbito académico, es esencial otorgar crédito de manera sistemática y precisa a las fuentes y trabajos previos, reconociendo que el conocimiento se forma de manera colaborativa. El propósito de esta obra es mostrar la forma adecuada de citar fuentes y libros, resaltando la importancia de llevar a cabo este proceso, según señala en una entrevista.

Hacer referencia a las fuentes que respaldan el trabajo de manera sistemática es fundamental. Al hacerlo, reconocemos adecuadamente la autoría, permitimos la verificación de la información y tomamos conciencia de la naturaleza colaborativa del conocimiento.

Esta guía ofrece una explicación concisa sobre cómo y por qué citar diversos tipos de fuentes. Se recomienda utilizarla como referencia principal y consultar recursos adicionales, como los enlistados en la bibliografía. Para enriquecer los ejemplos y adaptarlos a casos específicos, se sugiere revisar las páginas siguientes en compañía de otras personas.

Ética de la investigación e inteligencia generativa. La responsabilidad de difundir resultados

Ética de la investigación e inteligencia generativa por Julio Alonso Arévalo. CURSO: Competencias digitales y alfabetización académica, nov. 2023

VER VIDEO

En el contexto de la IA, especialmente en la creación de obras generadas automáticamente, surge la cuestión de la atribución y la autoría. La ética de la investigación en este ámbito implica considerar quién debe recibir crédito por las creaciones generadas por algoritmos, si es el desarrollador del algoritmo, el usuario que lo emplea, o el propio algoritmo. Por un lado, los derechos de autor tradicionales están diseñados para proteger la creatividad humana, pero en el caso de obras generadas por IA, la autoría puede ser difusa. Algunos argumentan que los desarrolladores de algoritmos deberían ser reconocidos, mientras que otros abogan por formas innovadoras de atribución. En resumen, la ética de la investigación en inteligencia artificial y derechos de autor implica repensar y adaptar los marcos existentes para abordar de manera justa la creación de obras generadas por IA, garantizando la atribución adecuada y considerando los posibles sesgos en el proceso de desarrollo y entrenamiento de estos sistemas.

¿Podemos asegurarnos de que los sistemas de detección de la IA generativa sean precisos y justos?:

Statement on Principles for the Development and Use of Systems to Detect Generative AI Content. ACM, oct. 2023

Texto completo

Con el interés público centrado en tecnologías de IA generativa en constante aumento, algunos de los problemas más apremiantes giran en torno a preguntas como «¿Se está utilizando la IA generativa para crear imágenes y videos falsos?» y «¿Los estudiantes están utilizando la IA generativa para escribir trabajos y hacer trampa en los exámenes?» Por estas razones, hay una creciente demanda de sistemas que puedan detectar si una imagen, archivo de audio o trabajo escrito ha sido creado por un humano o un sistema de IA.

A pesar de que los sistemas de detección de IA están comenzando a proliferar, no existen estándares de la industria ni regulaciones gubernamentales que garanticen que estos sistemas sean precisos o justos. Debido a que el impacto de estos sistemas en las personas puede ser significativo, el Association for Computing Machinery’s US Technology Policy Committee (ACM USTPC) ha emitido una Declaración de Principios para el Desarrollo y Uso de Sistemas de Detección de Contenido de IA Generativa.

La introducción a la nueva Declaración de USTPC destaca diversos escenarios en los que sería deseable contar con sistemas para detectar contenido generado por IA. Por ejemplo, los empleadores que desean saber si se utilizó IA generativa para completar una solicitud de trabajo o las empresas de medios que intentan determinar si los comentarios publicados en plataformas fueron dejados por humanos o chatbots.

Al mismo tiempo, la Declaración señala que «la demanda de tales sistemas no es un indicador de su equidad o precisión». El comité continúa explicando que «ninguna tecnología de detección actualmente disponible es lo suficientemente confiable como para basar exclusivamente decisiones críticas, potencialmente alteradoras de la vida y la carrera…»

La declaración proporciona un contexto técnico sobre por qué no se puede garantizar la equidad y precisión de los sistemas de detección de IA generativa existentes y establece seis principios y recomendaciones específicos:

  1. Bajo riesgo de rechazos incorrectos y proceso de apelación impulsado por humanos: El uso de sistemas para detectar imágenes generadas por IA y otros medios que automáticamente marcan las presentaciones para su rechazo solo debe ser aceptable si estos sistemas de detección tienen un riesgo extremadamente bajo de rechazos incorrectos y si se proporciona un proceso de apelación impulsado por humanos.
  2. Presentaciones de alto riesgo: Generalmente no es apropiado rechazar automáticamente presentaciones de texto en circunstancias de alto riesgo que se clasifican como producidas por un sistema de IA generativa, incluso si se proporciona un proceso para apelar dichos rechazos. Ejemplos de presentaciones de alto riesgo incluyen (pero no se limitan a) tareas en el aula y solicitudes de admisión a una institución educativa, crédito o empleo.
  3. Códigos de conducta: Las entidades que utilizan sistemas de detección de IA generativa deben adoptar directrices, como códigos de conducta, manuales del empleado y códigos de honor ejecutables, que requieran que aquellos afiliados a la entidad cumplan con las políticas de IA de la organización.
  4. Impugnación de resultados: De acuerdo con declaraciones anteriores de USTPC, las personas deben tener la oportunidad de impugnar resultados siempre que se tome una decisión adversa sobre ellas, en su totalidad o en parte, basada en la salida de un sistema de IA.
  5. Formación adecuada: Los evaluadores de contenido humano deben recibir una formación adecuada de manera continua sobre los métodos y herramientas adecuados para validar el contenido presentado.
  6. Aumento de la financiación: Sería prudente y beneficioso aumentar la financiación del sector público y privado para la investigación sobre cómo desarrollar mecanismos de detección mejores, realizar análisis de impacto, realizar investigaciones de usuario y otros asuntos relacionados.

En palabras de Simson Garfinkel, autor principal de la declaración y presidente del Subcomité de Gobierno Digital de USTPC: «En principio, detectar texto e imágenes generados por la IA es un problema abierto. Aunque podría ser posible construir un sistema que pueda detectar el contenido generado por la IA de hoy, tal detector podría utilizarse para construir el sistema de generación de IA del mañana que evite dicha detección. Esta declaración se emite para agregar una voz de experiencia técnica al pánico moral sobre el uso de la IA generativa. Estamos diciendo que el texto e imágenes producidos por sistemas de IA generativa no pueden detectarse de manera confiable hoy. También alentamos a todas las instituciones a abstenerse de desplegar sistemas que pretendan detectar y descartar automáticamente materiales porque supuestamente fueron creados por un sistema de IA generativa».

Larry Medsker, presidente del Comité de Política Tecnológica de ACM de los Estados Unidos, agregó: «Esta nueva Declaración es parte de una serie continua que el Comité de Tecnología de ACM de los Estados Unidos publica para informar al público sobre las nuevas tecnologías y sus impactos en la sociedad. Recientemente, hemos estado especialmente activos en brindar aportes oportunos para abordar los nuevos desarrollos en IA». En esta línea, los miembros de USTPC han publicado “Principles for the Development, Deployment and Use of Generative AI” y “Statement on Principles for Responsible Algorithmic Systems.”

Además del autor principal Simson Garfinkel, los principales contribuyentes a la “Statement on Principles for the Development and Use of Systems to Detect Generative AI Content” incluyen a los miembros del comité Houssam Abbas, Andrew Appel, Harish Arunachalam, Ricardo Baeza-Yates, David Bauman, Ravi Jain, Carl Landwehr, Larry Medsker, Neeti Pokhriyal, Arnon Rosenthal y Marc Rotenberg.

Ética mundial de la IA: Revisión de 200 directrices y recomendaciones para la gobernanza de la IA

Corrêa, Nicholas Kluge, Camila Galvão, James William Santos, Carolina Del Pino, Edson Pontes Pinto, Camila Barbosa, Diogo Massmann, et al. «Worldwide AI ethics: A review of 200 guidelines and recommendations for AI governance». Patterns 4, n.o 10 (13 de octubre de 2023): 100857. https://doi.org/10.1016/j.patter.2023.100857.

La utilización de aplicaciones de inteligencia artificial (IA) ha experimentado un enorme crecimiento en los últimos años, aportando numerosas ventajas y comodidades. Sin embargo, esta expansión también ha provocado problemas éticos, como violaciones de la privacidad, discriminación algorítmica, problemas de seguridad y fiabilidad, transparencia y otras consecuencias no deseadas. Para determinar si existe un consenso mundial sobre los principios éticos que deben regir las aplicaciones de la IA y contribuir a la formación de futuras normativas, este documento realiza un metaanálisis de 200 políticas de gobernanza y directrices éticas para el uso de la IA publicadas por organismos públicos, instituciones académicas, empresas privadas y organizaciones de la sociedad civil de todo el mundo. Identificamos al menos 17 principios de resonancia prevalentes en las políticas y directrices de nuestro conjunto de datos, publicado como base de datos y herramienta de código abierto. Presentamos las limitaciones de realizar un estudio de análisis a escala mundial junto con un análisis crítico de nuestros hallazgos, presentando áreas de consenso que deberían incorporarse a futuros esfuerzos reguladores.

Los investigadores que aceptan manipular las citas tienen más probabilidades de que se publiquen sus trabajos

Singh Chawla, Dalmeet. «Researchers Who Agree to Manipulate Citations Are More Likely to Get Their Papers Published». Nature, 3 de mayo de 2023. https://doi.org/10.1038/d41586-023-01532-w.


Un estudio publicado en la revista Research Policy revela que los investigadores que son presionados por los editores para agregar citas superfluas en sus manuscritos tienen más probabilidades de tener éxito en la publicación de sus artículos que aquellos que se resisten.

El estudio se basa en una encuesta realizada en 2012 a 1.169 académicos que informaron haber sido solicitados para agregar citas innecesarias, de los cuales 1.043 cumplieron con la solicitud y agregaron al menos una cita.

Cuando los científicos son presionados para inflar sus trabajos con citas, el editor de la revista puede estar buscando aumentar el recuento de citas de su propia revista o el suyo propio. En otros casos, los revisores por pares pueden tratar de persuadir a los autores para que citen su trabajo. Los «anillos de citas», en los que varios académicos o revistas acuerdan citarse excesivamente entre sí, pueden ser más difíciles de detectar, ya que involucran a varias partes interesadas en lugar de solo dos académicos citándose desproporcionadamente.

Aunque los datos de la encuesta se recopilaron hace una década, los hallazgos siguen siendo relevantes hoy y la situación es poco probable que haya cambiado significativamente, según el autor del estudio, Eric Fong, de la Universidad de Alabama en Huntsville.

El estudio también encontró que los investigadores que cumplían plenamente con las solicitudes coercitivas de los editores tenían una tasa de aceptación del 85%, en comparación con el 77% para aquellos que cumplían parcialmente y el 39% para aquellos que se negaban a cumplir.

Para abordar este problema, Fong sugiere que las autocitas de las revistas deben excluirse de métricas como el factor de impacto de la revista, lo que reduciría la razón para solicitar más citas a otros trabajos publicados en la misma revista.

El director de integridad de la investigación en la Oficina de Integridad de la Investigación del Reino Unido y miembro del Consejo de Ética de Publicación (COPE), Matt Hodgkinson, está de acuerdo y afirma que es necesario eliminar el incentivo para realizar estas prácticas distorsionadoras.

Los editores que toman decisiones basadas en la coerción están distorsionando la literatura, y la educación de los editores individuales es una tarea pendiente. Los editores y revistas deben monitorear activamente las solicitudes de citas por parte de revisores y editores.

En febrero, una revista de la editorial holandesa Elsevier generó controversia al afirmar en una carta de rechazo a un autor que una de las razones para rechazar su artículo era la falta de citas a trabajos publicados en la misma revista. Elsevier aclaró que tenía una política clara contra la manipulación de citas y que los editores no deben intentar aumentar la clasificación de la revista inflando artificialmente las métricas.

El desarrollo de herramientas para detectar y señalar el exceso de referencias entre revistas y personas podría ser una solución para combatir estas prácticas.

IA generativa: el último chivo expiatorio de la evaluación de la investigación

Danny Kingsley. «Generative AI – the Latest Scapegoat for Research Assessment», LSE, 13 de octubre de 2023. https://blogs.lse.ac.uk/impactofsocialsciences/2023/10/13/generative-ai-the-latest-scapegoat-for-research-assessment/.

Reflexionando sobre el debate en torno a la inteligencia artificial generativa y su impacto en la comunicación académica, Danny Kingsley argumenta que, al igual que el acceso abierto hace veinte años, la IA refleja las deficiencias duraderas en la publicación y evaluación de la investigación.

Ha sido interesante observar la explosión de discusión en torno a ChatGPT y la IA generativa. Los comentarios oscilan entre el gran potencial que ofrece (en términos de eficiencia) y las preocupaciones sobre el daño que causará a sistemas de confianza de larga data. Uno de esos sistemas es la publicación académica.

A pesar de los desafíos planteados, ChatGPT simplemente refleja los problemas que ya aquejan al sistema de publicación académica actual. De hecho, de la misma manera en que hace una década, el acceso abierto fue un chivo expiatorio de la comunicación académica, ahora la IA generativa es un chivo expiatorio del sistema de publicación académica. Estas preocupaciones parten de una suposición subyacente: que el sistema actual está funcionando. Debemos preguntarnos: ¿es así?

No hay espacio aquí para una lista exhaustiva de los muchos y variados problemas del ecosistema actual de publicación académica. A modo de muestra, hay que tener en cuenta que por ejemplo las revistas depredadoras lamentablemente están aquí para quedarse, la preocupante cantidad de fraude en la investigación médica y que los investigadores que aceptan manipular citas tienen más probabilidades de que se publiquen sus artículos.

Dos estudios recientes, uno en Europa y otro en Australia, revelan el nivel de presión al que se ven sometidos los doctorandos y los investigadores en sus primeros años para proporcionar autoría regalada. También se han revelado alarmantes detalles sobre el intercambio de dinero por autoría, con precios que dependen de dónde se publicará el trabajo y el área de investigación. Las investigaciones sobre esto están llevando a una serie de retractaciones. Incluso la «naturaleza autocorrectiva» del sistema no funciona, con la revelación de un gran número de citas a artículos que habían sido retractados, y más de una cuarta parte de estas citas ocurrieron después de la retractación.

Consideremos algunas de las preocupaciones planteadas sobre la IA y la publicación académica. La incapacidad actual de la IA para documentar el origen de sus fuentes de datos a través de citas, y la falta de identificadores de esas fuentes de datos, significa que no hay capacidad para replicar los «hallazgos» generados por la IA. Esto ha llevado a llamados para el desarrollo de una especificación o estándar formal para la documentación de la IA respaldado por un modelo de datos sólido. Nuestro entorno actual de publicación no prioriza la reproducibilidad, con el intercambio de código como algo opcional y una adopción lenta de requisitos para compartir datos. En este entorno, la generación de datos falsos es motivo de preocupación. Sin embargo, ChatGPT «no es el creador de estos problemas; en cambio, permite que este problema exista en una escala mucho mayor».

A pesar de toda la preocupación, la IA generativa ofrece una forma de abordar las desigualdades en el sistema académico de publicación actual. Por ejemplo, escribir artículos en inglés cuando no es el primer idioma del autor puede ser una barrera significativa para participar en el discurso de investigación. La IA generativa ofrece una solución potencial para estos autores, argumentada en el contexto de la publicación médica. Otro argumento es que las reacciones impulsivas de los editores al uso de ChatGPT en artículos significa que estamos perdiendo la oportunidad de nivelar el campo de juego para los autores que tienen el inglés como segundo idioma (ESL).

Después de todo, la práctica de recibir asistencia en la redacción de artículos no es algo nuevo. Un estudio que investiga a autores prolíficos en revistas científicas de alto impacto que no eran investigadores encontró un sorprendente nivel de publicación en múltiples áreas de investigación. Estos autores son humanos (en su mayoría con títulos en periodismo), no IA.

Hablando de autoría, recientemente se informó que un radiólogo utilizó ChatGPT para escribir artículos y los publicó con éxito en áreas que estaban muy alejadas de su experiencia, incluyendo agricultura, seguros, derecho y microbiología. Esto es una representación excelente de las preocupaciones que muchos han expresado sobre la producción excesiva de artículos «escritos» por la IA generativa. Aunque las acciones del radiólogo son impactantes, este tipo de comportamiento no se limita al uso de la IA, como lo demuestra la admisión de un experto en carne español que había publicado 176 artículos en un año en múltiples áreas a través de asociaciones cuestionables.

El único impulsor de casi todas las prácticas de investigación cuestionables es la actual importancia del artículo publicado como la única producción que cuenta. El rabo está moviendo al perro.

Si un exceso de revistas y artículos de revista ya está alimentando las «fábricas de artículos» (que a su vez pueden generarse mediante IA), es posible que todo el ecosistema de publicación académica esté a punto de colapsar. Un comentario ha preguntado si el uso de la IA para ayudar a escribir artículos aumentará aún más la presión para publicar, dado que los niveles de publicación han aumentado drásticamente en la última década.

Estamos haciendo las preguntas equivocadas. Un buen ejemplo es este artículo que pregunta si los editores deberían preocuparse de que ChatGPT haya escrito un artículo sobre sí mismo. El artículo continúa discutiendo «otras preocupaciones éticas y morales» y pregunta: «¿Es correcto usar la IA para escribir artículos cuando la publicación de artículos se utiliza como un barómetro de la competencia, la permanencia y la promoción de los investigadores?».

Reformularía la pregunta como: «¿Es correcto que la publicación de artículos se utilice como la principal herramienta de evaluación de los investigadores?» El único impulsor de casi todas las prácticas de investigación cuestionables es la importancia actual del artículo publicado como la única producción que cuenta. El rabo está moviendo al perro.