Archivo de la etiqueta: Revisión científica

El uso ilícito de la inteligencia artificial en la revisión por pares desata una crisis de integridad científica

Gibney, Elizabeth. “Major conference catches illicit AI use — and rejects hundreds of papers.” Nature, 2026. https://doi.org/10.1038/d41586-026-00893-2

Se aborda un caso reciente que pone de manifiesto los desafíos éticos y metodológicos derivados del uso de la inteligencia artificial en la comunicación científica, en particular en el proceso de revisión por pares. Una importante conferencia internacional en el ámbito de la inteligencia artificial detectó el uso indebido de herramientas de IA por parte de revisores que evaluaban artículos científicos. Como consecuencia, los organizadores decidieron rechazar cerca de 500 trabajos —aproximadamente un 2% del total de envíos— al considerar que se habían vulnerado las normas establecidas sobre el uso de estas tecnologías en el proceso de evaluación.

El núcleo del problema reside en que algunos revisores emplearon modelos de lenguaje para generar o asistir en la redacción de sus informes de evaluación sin declararlo, lo que contraviene las políticas de muchas conferencias y revistas científicas. Estas normas suelen prohibir o restringir el uso de IA en la revisión por pares debido a riesgos relacionados con la confidencialidad de los manuscritos, la posible filtración de datos inéditos y la falta de transparencia en los criterios de evaluación. En este caso concreto, los organizadores pudieron identificar el uso de IA gracias a la presencia de marcas de agua (watermarks) en los textos generados por estas herramientas, lo que evidencia tanto el avance tecnológico en la detección como la creciente sofisticación de estos sistemas.

El artículo subraya que este episodio no es aislado, sino representativo de una tendencia más amplia en la que la inteligencia artificial está transformando profundamente los procesos académicos tradicionales. La revisión por pares, considerada durante décadas como un pilar de la calidad científica, se enfrenta ahora a nuevas tensiones derivadas de la automatización parcial de tareas intelectuales. La utilización de IA puede, en principio, agilizar procesos y mejorar la eficiencia, pero también introduce interrogantes sobre la autoría, la responsabilidad y la fiabilidad de las evaluaciones. En este contexto, se hace evidente la necesidad de redefinir las normas éticas y los protocolos de actuación en la comunidad científica.

Asimismo, el caso pone de relieve la dificultad de equilibrar innovación tecnológica e integridad académica. Por un lado, la IA ofrece herramientas poderosas para la redacción, el análisis y la síntesis de información; por otro, su uso no regulado puede comprometer principios fundamentales como la originalidad, la confidencialidad y la imparcialidad. El artículo sugiere que las instituciones científicas deberán adaptarse rápidamente, estableciendo políticas claras y mecanismos de supervisión eficaces para evitar abusos sin frenar el potencial transformador de estas tecnologías.

El texto presenta este incidente como una señal de alerta para la comunidad científica global. La irrupción de la inteligencia artificial en los procesos de evaluación no solo obliga a replantear las normas existentes, sino que también invita a una reflexión más profunda sobre el futuro de la ciencia, la confianza en sus mecanismos de validación y el papel de los investigadores en un entorno cada vez más mediado por tecnologías inteligentes.

La IA en la revisión por pares

Christensen, Neil Blair y Angela Cochran. “AI in Peer Review: Revisiting an 8‑Year‑Old Debate.” The Scholarly Kitchen (Society for Scholarly Publishing), 16 de marzo de 2026. https://scholarlykitchen.sspnet.org/2026/03/16/ai-in-peer-review-revisiting-an-8-year-old-debate/

En septiembre de 2018 se celebró en Oxford un debate organizado por SSP (Society for Scholarly Publishing) sobre el uso de la inteligencia artificial (IA) en el proceso de revisión por pares, con Angela Cochran defendiendo una postura escéptica y Neil Blair Christensen una más optimista. Ocho años después, ambos revisitan ese debate inicial para reflexionar sobre cómo han evolucionado sus posiciones y la presencia de la IA en la revisión académica, y para explorar hacia dónde podría dirigirse este campo en el futuro.

Angela Cochran, que en 2018 expresaba preocupaciones sobre la incapacidad de la IA para realizar análisis profundos y originales, reconoce que su comprensión del tema ha evolucionado con el avance tecnológico, pero mantiene la idea de que la IA por sí sola no resolverá los problemas fundamentales del sistema de revisión por pares. Señala que la mayoría de las herramientas actuales de IA se centran en tareas relacionadas con la integridad (detección de plagio, comprobaciones automáticas, etc.) en lugar de mejorar realmente la calidad global del proceso de revisión o aliviar la carga de trabajo de los revisores humanos. Aboga por que la IA se utilice para apoyar las tareas que sí pueden automatizarse, como ayudar a redactar la retroalimentación o liberar barreras lingüísticas para los revisores, más que para reemplazar el juicio humano.

Por su parte, Neil Blair Christensen reconoce que en 2018 subestimó la fuerza de las estructuras y culturas académicas existentes que determinan cómo se adopta la tecnología. Christensen subraya que, aunque la IA ha avanzado enormemente (con sistemas de lenguaje avanzado alimentando herramientas sofisticadas), los mismos retos que existían en 2018 persisten hoy: una enorme carga de trabajo para revisores voluntarios, un sistema de incentivos que valora publicaciones sobre evaluación crítica y una cultura editorial que apenas ha cambiado. Según él, la IA puede ayudar a “ejecutar” procesos (automatizando tareas repetitivas o analíticas), pero no puede por sí sola transformar los factores sistémicos que generan los problemas de revisión por pares, como los incentivos académicos y la escala de publicaciones.

Ambos autores coinciden en que la integración de la IA en la revisión por pares no debería ser una cuestión de “a favor o en contra”, sino de cómo implementar herramientas que efectivamente alivien la carga humana sin sacrificar rigor, creatividad o equidad. A pesar de los avances tecnológicos, múltiples desafíos éticos, culturales y prácticos permanecen, y tanto Cochran como Christensen creen que la IA debe utilizarse para facilitar el trabajo humano, ampliar la participación (por ejemplo, eliminando barreras lingüísticas) y ayudar a construir procesos más eficientes, no para sustituir las funciones centrales de evaluación crítica que solo los expertos humanos pueden hacer con confianza.

Retractados 45 artículos de un autor por el uso de direcciones de correo electrónico falsas en la revisión por pares

Marques, F. (2025, marzo). Use of fake email addresses leads to retraction of 45 articles by Brazilian scientists. Revista Pesquisa FAPESP. Recuperado de https://revistapesquisa.fapesp.br/en/use-of-fake-email-addresses-leads-to-retraction-of-45-articles-by-brazilian-scientists/

Se relata un caso significativo de problemas de integridad académica que llevó a la retracción de 45 artículos científicos firmados por un mismo investigador brasileño, el biólogo Guilherme Malafaia Pinto, del Instituto Federal Goiano (IF-Goiano), campus de Urutaí.

Los 45 trabajos fueron publicados en la revista Science of the Total Environment (STOTEN), editada por Elsevier, y su retirada no obedeció a errores experimentales o conclusiones erróneas, sino al compromiso del proceso de revisión por pares. Las notas de retracción señalaron que el sistema de evaluación había sido adulterado porque, aunque Malafaia sugería a revisores legítimos para sus manuscritos —práctica habitual en muchos procesos editoriales—, proporcionó direcciones de correo electrónico falsas para al menos tres de esos investigadores, de modo que las invitaciones de STOTEN llegaban a cuentas ficticias desde las cuales se devolvían opiniones favorables a la publicación. Como resultado, a pesar de que algunos artículos también recibieron evaluaciones de revisores independientes, Elsevier decidió retirar los trabajos al haber “perdido confianza en la validez o integridad” de los manuscritos.

La publicación también explora el contexto y las consecuencias del caso, tanto para el propio investigador como para la comunidad académica. Antes de este escándalo, Malafaia era un científico muy productivo, con casi 350 artículos publicados en una carrera de 15 años, supervisión de numerosos estudiantes de maestría y doctorado, y participación en comités editoriales de varias publicaciones, incluida STOTEN. Él niega haber manipulado deliberadamente la revisión de sus artículos, afirmando que usó direcciones de una base de datos china (CNKI) sin saber que eran falsas y que no tuvo participación directa en la redacción de los supuestos informes de revisión. En una carta abierta, argumentó que el problema fundamental era responsabilidad de los editores por no verificar los correos, y sugirió que sanciones menos drásticas que la retracción hubieran sido más apropiadas. Sin embargo, la situación ha tenido un impacto profundo en su reputación y la de sus colaboradores, muchos de los cuales ahora enfrentan cuestionamientos y el dilema de defender o distanciarse de los trabajos retractados; a la vez, la comunidad académica brasileña reflexiona sobre la importancia de fortalecer la ética y los sistemas de revisión para preservar la confianza en la ciencia.

División de opiniones sobre el uso de inteligencia artificial generativa en la revisión por pares: desafíos y perspectivas

Holst, Faye. «Reviewers Increasingly Divided on the Use of Generative AI in Peer ReviewIOP Publishing, 10 de septiembre de 2025. https://ioppublishing.org/news/reviewers-increasingly-divided-on-the-use-of-generative-ai-in-peer-review/

Un reciente estudio global llevado a cabo por IOP Publishing (IOPP) pone de manifiesto una creciente división de opiniones entre los revisores de las ciencias físicas respecto al uso de la inteligencia artificial generativa en el proceso de revisión por pares.

En comparación con el año anterior, se observa un aumento en el porcentaje de investigadores que consideran que la IA tendrá un impacto positivo en la revisión, alcanzando el 41%, mientras que un 37% mantiene una visión negativa. Este cambio refleja una polarización cada vez más marcada dentro de la comunidad científica, evidenciando que la adopción de la IA en este ámbito genera tanto expectativas como reservas.

Actualmente, IOPP mantiene una política que prohíbe el uso de herramientas de IA en la revisión por pares, argumentando que los modelos generativos no cumplen aún con los estándares éticos, legales y académicos necesarios para garantizar la integridad del proceso. No obstante, se reconoce de manera creciente que la IA puede desempeñar un papel de apoyo, complementando la labor humana en lugar de sustituirla. De hecho, un 32% de los investigadores ha experimentado con herramientas de IA para facilitar tareas como la corrección gramatical o la mejora del flujo del texto en sus revisiones. Sin embargo, su utilización plantea desafíos importantes, especialmente en lo relacionado con la confidencialidad y la protección de datos, dado que algunos revisores cargan manuscritos completos en plataformas de IA externas, lo que incrementa los riesgos asociados a la privacidad.

El estudio también destaca diferencias significativas en la percepción de la IA según el género y la experiencia de los investigadores. Las mujeres tienden a mostrar un menor optimismo respecto al potencial de la IA en la revisión por pares, en comparación con sus colegas masculinos, lo que sugiere la existencia de una brecha de género en la valoración de estas tecnologías. Asimismo, los investigadores más jóvenes se muestran generalmente más favorables a los beneficios de la IA, mientras que los profesionales con mayor experiencia tienden a ser más escépticos y cautelosos, reflejando así un contraste generacional en la adopción de nuevas herramientas tecnológicas.

Frente a estos desafíos, IOPP propone el desarrollo de herramientas de IA que se integren directamente en los sistemas de revisión por pares, con el objetivo de asistir a revisores y editores sin comprometer la seguridad ni la integridad de la investigación. Dichas herramientas deberían diseñarse para complementar el juicio humano, en lugar de reemplazarlo, asegurando que la asistencia tecnológica respalde el proceso editorial sin generar riesgos éticos ni vulneraciones de la confidencialidad. Si se implementan de manera adecuada, estas soluciones podrían no solo atender las preocupaciones sobre privacidad y ética, sino también optimizar la eficiencia y calidad de la revisión por pares.

Una herramienta de IA etiqueta más de 1000 revistas como «cuestionables» por prácticas posiblemente sospechosas

AI Tool Labels More Than 1000 Journals for ‘Questionable,’ Possibly Shady Practices.” Science, 29 de agosto de 2025.

Un nuevo estudio publicado en Science Advances presenta una herramienta basada en inteligencia artificial capaz de analizar aproximadamente 15 000 revistas de acceso abierto con el fin de detectar aquellas que podrían incurrir en prácticas editoriales cuestionables o «somosas».

El algoritmo identificó más de 1 400 títulos potencialmente problemáticos, de los cuales más de 1000 fueron confirmados tras revisión humana. Estos títulos no figuraban previamente en ninguna lista de vigilancia y varios pertenecen a editoriales de renombre, lo que resalta la gravedad del fenómeno

La herramienta evalúa múltiples señales de alerta, como tiempos de publicación inusualmente rápidos, tasas elevadas de autocitación, inconsistencias en los miembros del consejo editorial, y falta de transparencia en políticas de licenciamiento y tarifas. Muchos de estos criterios están alineados con las prácticas recomendadas por el Directory of Open Access Journals (DOAJ), que además sirve como base para el entrenamiento del modelo

Si bien el sistema mostró una tasa de falsos positivos—aproximadamente 350 publicaciones legítimas fueron erróneamente señaladas—los autores subrayan que el propósito de la herramienta no es reemplazar la evaluación humana, sino facilitar un primer cribado de alto volumen. La verificación final debe estar a cargo de expertos humanos en integridad académica.

Los investigadores esperan que esta tecnología funcione como un “cortafuegos para la ciencia”, ayudando a universidades, editores e índices académicos a resguardar la calidad del ecosistema científico ante el incremento de revistas predatorias que, de otro modo, podrían erosionar la confiabilidad del conocimiento. El estudio refleja una creciente necesidad de herramientas automatizadas que operen en conjunto con la evaluación humana para preservar la integridad de la publicación científica

ResearchRabbit, una herramienta de inteligencia artificial (IA) diseñada para optimizar la revisión de la literatura científica

ResearchRabbit

https://www.researchrabbit.ai/

ResearchRabbit es una herramienta de inteligencia artificial (IA) diseñada para optimizar el proceso de revisión de la literatura académica. Lanzada en 2021 por Research Rabbit Inc., fue creada por Lulú Liang y Eduardo L’Hotellier con el objetivo de ayudar a los investigadores a descubrir artículos académicos relevantes y explorar redes de citación de manera visual.

Características principales

Búsqueda y descubrimiento de artículos: Permite buscar artículos académicos y encontrar trabajos relacionados, citados o que citan el artículo seleccionado.

Visualización de redes de citas: Genera gráficos interactivos que muestran las relaciones entre artículos, facilitando la identificación de tendencias y conexiones en la literatura.

Integración con Zotero: Ofrece la posibilidad de sincronizar colecciones de ResearchRabbit con el gestor bibliográfico Zotero, permitiendo una gestión eficiente de las referencias .

Alertas personalizadas: Envía notificaciones sobre publicaciones recientes y tendencias emergentes dentro de los campos de interés del usuario.

ResearchRabbit es especialmente útil en bibliotecas universitarias, ya que facilita el acceso a información académica relevante y actualizada. Su capacidad para visualizar redes de citas y recomendar artículos relacionados mejora la eficiencia en la búsqueda de literatura y apoya en la elaboración de revisiones sistemáticas. Además, su integración con Zotero permite una gestión centralizada de las referencias, optimizando el flujo de trabajo de los investigadores.

Los revisores científicos que fueron citados en el artículo tienen más probabilidades de aprobarlo en su primera evaluación

Barnett, Adrian. 2025. Peer Reviewers Altered Their Recommendation Based on Whether They Were Cited or Wanted to Be Cited. A Matched Study of Open Peer Review at Four Journals.” OSF Preprints, version 2. CC-BY 4.0 https://osf.io/preprints/osf/wdvr9_v2

El estudio realizado por Adrian Barnett analiza si los miembros de los comites científicos en el proceso de revisión abierta por pares podrían estar influyendo en las decisiones editoriales basándose en si fueron citados en el manuscrito. Para ello, se revisaron un total de 18 400 artículos provenientes de cuatro plataformas (F1000Research, Wellcome Open Research, Gates Open Research y Open Research Europe), destacadas por hacer públicas tanto todas las versiones de los artículos como los comentarios de los revisores

El análisis reveló que los revisores que fueron citados en el artículo tenían más probabilidades de aprobarlo en su primera evaluación, en comparación con aquellos que no habían sido citados. Este patrón sugiere un posible sesgo o motivación adicional asociada con la presencia de una cita al revisor en el texto revisado

Para mitigar este tipo de influencias (por ejemplo, solicitudes de cita injustificadas), Barnett sugiere una práctica de transparencia adicional: que los revisores siempre indiquen claramente en sus comentarios cuándo y por qué están recomendando que se cite su trabajo. Esta medida podría ayudar a reducir las menciones motivadas únicamente por interés personal y reforzar la integridad del proceso de revisión.

La fiabilidad de ChatGPT en la detección de artículos retractados y la veracidad de la información académica

Thelwall, M., Lehtisaari, M., Katsirea, I., Holmberg, K., & Zheng, E.-T. (2025). Does ChatGPT ignore article retractions and other reliability concerns? Learned Publishing. Advance online publication. https://doi.org/10.1002/leap.2018

El trabajo destaca la necesidad de un uso crítico y cuidadoso de herramientas como ChatGPT en contextos académicos, donde la precisión y la confiabilidad de la información son esenciales.

El estudio examina cómo los modelos de lenguaje grande (LLMs), específicamente ChatGPT 4o-mini, manejan información sobre artículos académicos que han sido retractados o que presentan problemas de confiabilidad. Los autores recopilaron un conjunto de 217 estudios académicos que habían sido retractados o señalados por problemas, todos con alta repercusión en redes sociales (altmetrics). Se pidió a ChatGPT 4o-mini que evaluara la calidad de estos artículos en múltiples ocasiones (un total de 6510 evaluaciones). Sorprendentemente, en ninguna de las respuestas se mencionó que los artículos estaban retractados ni que tenían errores significativos, y en muchas ocasiones se les asignaron calificaciones altas, como «de clase mundial» o «excelente a nivel internacional».

Además, en un análisis complementario, se tomaron 61 afirmaciones extraídas de estos artículos problemáticos y se consultó a ChatGPT si cada una era verdadera. En dos tercios de los casos, el modelo respondió afirmativamente, incluyendo afirmaciones que ya habían sido desmentidas hacía más de diez años. Estos hallazgos ponen de relieve un riesgo importante: aunque los LLMs son cada vez más utilizados para apoyar revisiones académicas y búsquedas de información, no siempre detectan ni advierten sobre la retirada o la invalidez de la información que manejan. Por lo tanto, los usuarios deben ser cautelosos y verificar cuidadosamente cualquier contenido generado por estos modelos para evitar la propagación de información falsa o desactualizada.

Nature ha anunciado que comenzará a publicar automáticamente los archivos de revisión por pares junto con los artículos científicos

Hernández, María (editora). 2025. “Nature Looks to Open Up ‘Black Box’ of Science by Publishing Peer‑Review Files.” NBC News, 18 de junio de 2025. https://www.nbcnews.com/science/science-news/nature-looks-open-black-box-science-publishing-peer-review-files-rcna213359.

La revista Nature, una de las más influyentes del mundo científico, ha decidido dar un paso crucial hacia la transparencia editorial: comenzará a publicar automáticamente los archivos de revisión por pares de los artículos aceptados.

Esta medida implica que los informes de los revisores, junto con la respuesta de los autores y las decisiones editoriales, estarán disponibles para el público como parte del registro científico. Aunque los revisores seguirán siendo anónimos, su trabajo será visible, lo que representa un cambio significativo en una práctica tradicionalmente cerrada.

Esta iniciativa responde a las críticas recurrentes sobre la opacidad del sistema de revisión por pares, un pilar esencial en la validación del conocimiento científico. Según un estudio publicado en PLOS ONE, el 64 % de los investigadores encuestados considera que el sistema necesita más apertura. Publicaciones como eLife o F1000Research ya aplican modelos transparentes de revisión, lo que ha incrementado la confianza en sus procesos.

Además, Nature forma parte de Springer Nature, grupo editorial que impulsa la ciencia abierta (Open Science). Esta nueva política alinea la revista con estándares como los de la Iniciativa FAIR (Findable, Accessible, Interoperable, Reusable), promovidos por la Comisión Europea para mejorar la reproducibilidad y reutilización del conocimiento científico.

Sin embargo, la medida también genera debate. Algunos revisores temen que la exposición de sus comentarios, incluso de forma anónima, pueda llevar a represalias o influir en su libertad de crítica. Otros señalan que su labor, aún siendo central, no recibe suficiente reconocimiento. En ese sentido, plataformas como Publons y ORCID buscan mejorar la visibilidad del trabajo de los revisores, una tarea muchas veces no remunerada.

Otra preocupación emergente es la posible utilización de estos archivos como datasets para entrenar modelos de inteligencia artificial, lo que plantea desafíos éticos en cuanto al consentimiento y al uso de datos sensibles. Algunos expertos, como Jonas Heller, señalan que el acceso masivo a estos textos puede alimentar sistemas de IA que emulen el proceso de revisión sin intervención humana, lo que plantea un nuevo escenario para la publicación científica.

En conjunto, la decisión de Nature marca un cambio histórico que puede transformar la relación entre autores, editores y lectores, acercando la ciencia a un modelo más participativo, accesible y confiable.

Papel esencial de los editores como garantes de la confianza en el ecosistema de la comunicación científica

Ghildiyal, Ashutosh. «Gatekeepers of Trust: Reaffirming the Publisher’s Role in Service of the Reader.» The Scholarly Kitchen, 12 de mayo de 2025. https://scholarlykitchen.sspnet.org/2025/05/12/guest-post-gatekeepers-of-trust-reaffirming-the-publishers-role-in-service-of-the-reader/

Se propone una reflexión profunda sobre el papel esencial de los editores académicos como guardianes de confianza en el ecosistema de la comunicación científica. Frente a un entorno editorial marcado por la presión del acceso abierto, el avance de la inteligencia artificial y las crecientes demandas de productividad, el autor hace una llamada a recobrar la centralidad del lector y de la calidad editorial.

Ghildiyal afirma que los editores no son simples intermediarios entre autores y lectores, ni gestores técnicos del proceso de publicación. Son, más bien, custodios de la integridad intelectual y científica. Su función clave consiste en proteger a los lectores asegurando que la información publicada sea rigurosa, fiable y relevante. Esta tarea implica un compromiso con la verdad, con el progreso del conocimiento y con el fortalecimiento del bien público.

Uno de los principales desafíos identificados en el texto es la tensión entre cantidad y calidad. Las presiones comerciales —como el modelo de publicación por pago (APC), las métricas de impacto, o la necesidad de escalar la producción editorial— han llevado a priorizar el volumen de publicaciones por encima de su valor sustantivo. Esto amenaza la confianza de los lectores y debilita el rol crítico de los editores como filtros de calidad.

El artículo destaca que el lector debe volver a ocupar el centro del trabajo editorial. Más allá de las exigencias de autores o instituciones, el contenido publicado debe ser útil, claro y confiable para quienes lo consultan: investigadores, profesionales, docentes y ciudadanos informados. La confianza en la ciencia y en la comunicación académica se construye, principalmente, en esa relación entre editor y lector.

En este contexto, Ghildiyal propone una colaboración efectiva entre inteligencia artificial y juicio editorial humano. Las herramientas automatizadas pueden ser útiles para detectar errores formales, verificar datos o acelerar tareas repetitivas. Sin embargo, es imprescindible que los editores humanos mantengan el control sobre las decisiones críticas: evaluar la originalidad, la claridad conceptual y la relevancia social de los contenidos.

Finalmente, el autor advierte que la viabilidad futura de la edición académica depende de un equilibrio estratégico: aprovechar la tecnología sin sacrificar el rigor, y responder a las demandas del mercado sin diluir los principios de integridad. Para ello, propone prácticas editoriales transparentes, consistentes y centradas en ofrecer retroalimentación constructiva a los autores, siempre al servicio del lector.

Ghildiyal defiende que los editores deben reafirmar su compromiso con el lector como núcleo de su misión. Ser guardianes de confianza no es solo una metáfora: es una responsabilidad crítica para preservar la credibilidad de la ciencia y la utilidad social de la publicación académica en un mundo complejo y cambiante.