Archivo de la etiqueta: Revisión científica

Retractados 45 artículos de un autor por el uso de direcciones de correo electrónico falsas en la revisión por pares

Marques, F. (2025, marzo). Use of fake email addresses leads to retraction of 45 articles by Brazilian scientists. Revista Pesquisa FAPESP. Recuperado de https://revistapesquisa.fapesp.br/en/use-of-fake-email-addresses-leads-to-retraction-of-45-articles-by-brazilian-scientists/

Se relata un caso significativo de problemas de integridad académica que llevó a la retracción de 45 artículos científicos firmados por un mismo investigador brasileño, el biólogo Guilherme Malafaia Pinto, del Instituto Federal Goiano (IF-Goiano), campus de Urutaí.

Los 45 trabajos fueron publicados en la revista Science of the Total Environment (STOTEN), editada por Elsevier, y su retirada no obedeció a errores experimentales o conclusiones erróneas, sino al compromiso del proceso de revisión por pares. Las notas de retracción señalaron que el sistema de evaluación había sido adulterado porque, aunque Malafaia sugería a revisores legítimos para sus manuscritos —práctica habitual en muchos procesos editoriales—, proporcionó direcciones de correo electrónico falsas para al menos tres de esos investigadores, de modo que las invitaciones de STOTEN llegaban a cuentas ficticias desde las cuales se devolvían opiniones favorables a la publicación. Como resultado, a pesar de que algunos artículos también recibieron evaluaciones de revisores independientes, Elsevier decidió retirar los trabajos al haber “perdido confianza en la validez o integridad” de los manuscritos.

La publicación también explora el contexto y las consecuencias del caso, tanto para el propio investigador como para la comunidad académica. Antes de este escándalo, Malafaia era un científico muy productivo, con casi 350 artículos publicados en una carrera de 15 años, supervisión de numerosos estudiantes de maestría y doctorado, y participación en comités editoriales de varias publicaciones, incluida STOTEN. Él niega haber manipulado deliberadamente la revisión de sus artículos, afirmando que usó direcciones de una base de datos china (CNKI) sin saber que eran falsas y que no tuvo participación directa en la redacción de los supuestos informes de revisión. En una carta abierta, argumentó que el problema fundamental era responsabilidad de los editores por no verificar los correos, y sugirió que sanciones menos drásticas que la retracción hubieran sido más apropiadas. Sin embargo, la situación ha tenido un impacto profundo en su reputación y la de sus colaboradores, muchos de los cuales ahora enfrentan cuestionamientos y el dilema de defender o distanciarse de los trabajos retractados; a la vez, la comunidad académica brasileña reflexiona sobre la importancia de fortalecer la ética y los sistemas de revisión para preservar la confianza en la ciencia.

División de opiniones sobre el uso de inteligencia artificial generativa en la revisión por pares: desafíos y perspectivas

Holst, Faye. «Reviewers Increasingly Divided on the Use of Generative AI in Peer ReviewIOP Publishing, 10 de septiembre de 2025. https://ioppublishing.org/news/reviewers-increasingly-divided-on-the-use-of-generative-ai-in-peer-review/

Un reciente estudio global llevado a cabo por IOP Publishing (IOPP) pone de manifiesto una creciente división de opiniones entre los revisores de las ciencias físicas respecto al uso de la inteligencia artificial generativa en el proceso de revisión por pares.

En comparación con el año anterior, se observa un aumento en el porcentaje de investigadores que consideran que la IA tendrá un impacto positivo en la revisión, alcanzando el 41%, mientras que un 37% mantiene una visión negativa. Este cambio refleja una polarización cada vez más marcada dentro de la comunidad científica, evidenciando que la adopción de la IA en este ámbito genera tanto expectativas como reservas.

Actualmente, IOPP mantiene una política que prohíbe el uso de herramientas de IA en la revisión por pares, argumentando que los modelos generativos no cumplen aún con los estándares éticos, legales y académicos necesarios para garantizar la integridad del proceso. No obstante, se reconoce de manera creciente que la IA puede desempeñar un papel de apoyo, complementando la labor humana en lugar de sustituirla. De hecho, un 32% de los investigadores ha experimentado con herramientas de IA para facilitar tareas como la corrección gramatical o la mejora del flujo del texto en sus revisiones. Sin embargo, su utilización plantea desafíos importantes, especialmente en lo relacionado con la confidencialidad y la protección de datos, dado que algunos revisores cargan manuscritos completos en plataformas de IA externas, lo que incrementa los riesgos asociados a la privacidad.

El estudio también destaca diferencias significativas en la percepción de la IA según el género y la experiencia de los investigadores. Las mujeres tienden a mostrar un menor optimismo respecto al potencial de la IA en la revisión por pares, en comparación con sus colegas masculinos, lo que sugiere la existencia de una brecha de género en la valoración de estas tecnologías. Asimismo, los investigadores más jóvenes se muestran generalmente más favorables a los beneficios de la IA, mientras que los profesionales con mayor experiencia tienden a ser más escépticos y cautelosos, reflejando así un contraste generacional en la adopción de nuevas herramientas tecnológicas.

Frente a estos desafíos, IOPP propone el desarrollo de herramientas de IA que se integren directamente en los sistemas de revisión por pares, con el objetivo de asistir a revisores y editores sin comprometer la seguridad ni la integridad de la investigación. Dichas herramientas deberían diseñarse para complementar el juicio humano, en lugar de reemplazarlo, asegurando que la asistencia tecnológica respalde el proceso editorial sin generar riesgos éticos ni vulneraciones de la confidencialidad. Si se implementan de manera adecuada, estas soluciones podrían no solo atender las preocupaciones sobre privacidad y ética, sino también optimizar la eficiencia y calidad de la revisión por pares.

Una herramienta de IA etiqueta más de 1000 revistas como «cuestionables» por prácticas posiblemente sospechosas

AI Tool Labels More Than 1000 Journals for ‘Questionable,’ Possibly Shady Practices.” Science, 29 de agosto de 2025.

Un nuevo estudio publicado en Science Advances presenta una herramienta basada en inteligencia artificial capaz de analizar aproximadamente 15 000 revistas de acceso abierto con el fin de detectar aquellas que podrían incurrir en prácticas editoriales cuestionables o «somosas».

El algoritmo identificó más de 1 400 títulos potencialmente problemáticos, de los cuales más de 1000 fueron confirmados tras revisión humana. Estos títulos no figuraban previamente en ninguna lista de vigilancia y varios pertenecen a editoriales de renombre, lo que resalta la gravedad del fenómeno

La herramienta evalúa múltiples señales de alerta, como tiempos de publicación inusualmente rápidos, tasas elevadas de autocitación, inconsistencias en los miembros del consejo editorial, y falta de transparencia en políticas de licenciamiento y tarifas. Muchos de estos criterios están alineados con las prácticas recomendadas por el Directory of Open Access Journals (DOAJ), que además sirve como base para el entrenamiento del modelo

Si bien el sistema mostró una tasa de falsos positivos—aproximadamente 350 publicaciones legítimas fueron erróneamente señaladas—los autores subrayan que el propósito de la herramienta no es reemplazar la evaluación humana, sino facilitar un primer cribado de alto volumen. La verificación final debe estar a cargo de expertos humanos en integridad académica.

Los investigadores esperan que esta tecnología funcione como un “cortafuegos para la ciencia”, ayudando a universidades, editores e índices académicos a resguardar la calidad del ecosistema científico ante el incremento de revistas predatorias que, de otro modo, podrían erosionar la confiabilidad del conocimiento. El estudio refleja una creciente necesidad de herramientas automatizadas que operen en conjunto con la evaluación humana para preservar la integridad de la publicación científica

ResearchRabbit, una herramienta de inteligencia artificial (IA) diseñada para optimizar la revisión de la literatura científica

ResearchRabbit

https://www.researchrabbit.ai/

ResearchRabbit es una herramienta de inteligencia artificial (IA) diseñada para optimizar el proceso de revisión de la literatura académica. Lanzada en 2021 por Research Rabbit Inc., fue creada por Lulú Liang y Eduardo L’Hotellier con el objetivo de ayudar a los investigadores a descubrir artículos académicos relevantes y explorar redes de citación de manera visual.

Características principales

Búsqueda y descubrimiento de artículos: Permite buscar artículos académicos y encontrar trabajos relacionados, citados o que citan el artículo seleccionado.

Visualización de redes de citas: Genera gráficos interactivos que muestran las relaciones entre artículos, facilitando la identificación de tendencias y conexiones en la literatura.

Integración con Zotero: Ofrece la posibilidad de sincronizar colecciones de ResearchRabbit con el gestor bibliográfico Zotero, permitiendo una gestión eficiente de las referencias .

Alertas personalizadas: Envía notificaciones sobre publicaciones recientes y tendencias emergentes dentro de los campos de interés del usuario.

ResearchRabbit es especialmente útil en bibliotecas universitarias, ya que facilita el acceso a información académica relevante y actualizada. Su capacidad para visualizar redes de citas y recomendar artículos relacionados mejora la eficiencia en la búsqueda de literatura y apoya en la elaboración de revisiones sistemáticas. Además, su integración con Zotero permite una gestión centralizada de las referencias, optimizando el flujo de trabajo de los investigadores.

Los revisores científicos que fueron citados en el artículo tienen más probabilidades de aprobarlo en su primera evaluación

Barnett, Adrian. 2025. Peer Reviewers Altered Their Recommendation Based on Whether They Were Cited or Wanted to Be Cited. A Matched Study of Open Peer Review at Four Journals.” OSF Preprints, version 2. CC-BY 4.0 https://osf.io/preprints/osf/wdvr9_v2

El estudio realizado por Adrian Barnett analiza si los miembros de los comites científicos en el proceso de revisión abierta por pares podrían estar influyendo en las decisiones editoriales basándose en si fueron citados en el manuscrito. Para ello, se revisaron un total de 18 400 artículos provenientes de cuatro plataformas (F1000Research, Wellcome Open Research, Gates Open Research y Open Research Europe), destacadas por hacer públicas tanto todas las versiones de los artículos como los comentarios de los revisores

El análisis reveló que los revisores que fueron citados en el artículo tenían más probabilidades de aprobarlo en su primera evaluación, en comparación con aquellos que no habían sido citados. Este patrón sugiere un posible sesgo o motivación adicional asociada con la presencia de una cita al revisor en el texto revisado

Para mitigar este tipo de influencias (por ejemplo, solicitudes de cita injustificadas), Barnett sugiere una práctica de transparencia adicional: que los revisores siempre indiquen claramente en sus comentarios cuándo y por qué están recomendando que se cite su trabajo. Esta medida podría ayudar a reducir las menciones motivadas únicamente por interés personal y reforzar la integridad del proceso de revisión.

La fiabilidad de ChatGPT en la detección de artículos retractados y la veracidad de la información académica

Thelwall, M., Lehtisaari, M., Katsirea, I., Holmberg, K., & Zheng, E.-T. (2025). Does ChatGPT ignore article retractions and other reliability concerns? Learned Publishing. Advance online publication. https://doi.org/10.1002/leap.2018

El trabajo destaca la necesidad de un uso crítico y cuidadoso de herramientas como ChatGPT en contextos académicos, donde la precisión y la confiabilidad de la información son esenciales.

El estudio examina cómo los modelos de lenguaje grande (LLMs), específicamente ChatGPT 4o-mini, manejan información sobre artículos académicos que han sido retractados o que presentan problemas de confiabilidad. Los autores recopilaron un conjunto de 217 estudios académicos que habían sido retractados o señalados por problemas, todos con alta repercusión en redes sociales (altmetrics). Se pidió a ChatGPT 4o-mini que evaluara la calidad de estos artículos en múltiples ocasiones (un total de 6510 evaluaciones). Sorprendentemente, en ninguna de las respuestas se mencionó que los artículos estaban retractados ni que tenían errores significativos, y en muchas ocasiones se les asignaron calificaciones altas, como «de clase mundial» o «excelente a nivel internacional».

Además, en un análisis complementario, se tomaron 61 afirmaciones extraídas de estos artículos problemáticos y se consultó a ChatGPT si cada una era verdadera. En dos tercios de los casos, el modelo respondió afirmativamente, incluyendo afirmaciones que ya habían sido desmentidas hacía más de diez años. Estos hallazgos ponen de relieve un riesgo importante: aunque los LLMs son cada vez más utilizados para apoyar revisiones académicas y búsquedas de información, no siempre detectan ni advierten sobre la retirada o la invalidez de la información que manejan. Por lo tanto, los usuarios deben ser cautelosos y verificar cuidadosamente cualquier contenido generado por estos modelos para evitar la propagación de información falsa o desactualizada.

Nature ha anunciado que comenzará a publicar automáticamente los archivos de revisión por pares junto con los artículos científicos

Hernández, María (editora). 2025. “Nature Looks to Open Up ‘Black Box’ of Science by Publishing Peer‑Review Files.” NBC News, 18 de junio de 2025. https://www.nbcnews.com/science/science-news/nature-looks-open-black-box-science-publishing-peer-review-files-rcna213359.

La revista Nature, una de las más influyentes del mundo científico, ha decidido dar un paso crucial hacia la transparencia editorial: comenzará a publicar automáticamente los archivos de revisión por pares de los artículos aceptados.

Esta medida implica que los informes de los revisores, junto con la respuesta de los autores y las decisiones editoriales, estarán disponibles para el público como parte del registro científico. Aunque los revisores seguirán siendo anónimos, su trabajo será visible, lo que representa un cambio significativo en una práctica tradicionalmente cerrada.

Esta iniciativa responde a las críticas recurrentes sobre la opacidad del sistema de revisión por pares, un pilar esencial en la validación del conocimiento científico. Según un estudio publicado en PLOS ONE, el 64 % de los investigadores encuestados considera que el sistema necesita más apertura. Publicaciones como eLife o F1000Research ya aplican modelos transparentes de revisión, lo que ha incrementado la confianza en sus procesos.

Además, Nature forma parte de Springer Nature, grupo editorial que impulsa la ciencia abierta (Open Science). Esta nueva política alinea la revista con estándares como los de la Iniciativa FAIR (Findable, Accessible, Interoperable, Reusable), promovidos por la Comisión Europea para mejorar la reproducibilidad y reutilización del conocimiento científico.

Sin embargo, la medida también genera debate. Algunos revisores temen que la exposición de sus comentarios, incluso de forma anónima, pueda llevar a represalias o influir en su libertad de crítica. Otros señalan que su labor, aún siendo central, no recibe suficiente reconocimiento. En ese sentido, plataformas como Publons y ORCID buscan mejorar la visibilidad del trabajo de los revisores, una tarea muchas veces no remunerada.

Otra preocupación emergente es la posible utilización de estos archivos como datasets para entrenar modelos de inteligencia artificial, lo que plantea desafíos éticos en cuanto al consentimiento y al uso de datos sensibles. Algunos expertos, como Jonas Heller, señalan que el acceso masivo a estos textos puede alimentar sistemas de IA que emulen el proceso de revisión sin intervención humana, lo que plantea un nuevo escenario para la publicación científica.

En conjunto, la decisión de Nature marca un cambio histórico que puede transformar la relación entre autores, editores y lectores, acercando la ciencia a un modelo más participativo, accesible y confiable.

Papel esencial de los editores como garantes de la confianza en el ecosistema de la comunicación científica

Ghildiyal, Ashutosh. «Gatekeepers of Trust: Reaffirming the Publisher’s Role in Service of the Reader.» The Scholarly Kitchen, 12 de mayo de 2025. https://scholarlykitchen.sspnet.org/2025/05/12/guest-post-gatekeepers-of-trust-reaffirming-the-publishers-role-in-service-of-the-reader/

Se propone una reflexión profunda sobre el papel esencial de los editores académicos como guardianes de confianza en el ecosistema de la comunicación científica. Frente a un entorno editorial marcado por la presión del acceso abierto, el avance de la inteligencia artificial y las crecientes demandas de productividad, el autor hace una llamada a recobrar la centralidad del lector y de la calidad editorial.

Ghildiyal afirma que los editores no son simples intermediarios entre autores y lectores, ni gestores técnicos del proceso de publicación. Son, más bien, custodios de la integridad intelectual y científica. Su función clave consiste en proteger a los lectores asegurando que la información publicada sea rigurosa, fiable y relevante. Esta tarea implica un compromiso con la verdad, con el progreso del conocimiento y con el fortalecimiento del bien público.

Uno de los principales desafíos identificados en el texto es la tensión entre cantidad y calidad. Las presiones comerciales —como el modelo de publicación por pago (APC), las métricas de impacto, o la necesidad de escalar la producción editorial— han llevado a priorizar el volumen de publicaciones por encima de su valor sustantivo. Esto amenaza la confianza de los lectores y debilita el rol crítico de los editores como filtros de calidad.

El artículo destaca que el lector debe volver a ocupar el centro del trabajo editorial. Más allá de las exigencias de autores o instituciones, el contenido publicado debe ser útil, claro y confiable para quienes lo consultan: investigadores, profesionales, docentes y ciudadanos informados. La confianza en la ciencia y en la comunicación académica se construye, principalmente, en esa relación entre editor y lector.

En este contexto, Ghildiyal propone una colaboración efectiva entre inteligencia artificial y juicio editorial humano. Las herramientas automatizadas pueden ser útiles para detectar errores formales, verificar datos o acelerar tareas repetitivas. Sin embargo, es imprescindible que los editores humanos mantengan el control sobre las decisiones críticas: evaluar la originalidad, la claridad conceptual y la relevancia social de los contenidos.

Finalmente, el autor advierte que la viabilidad futura de la edición académica depende de un equilibrio estratégico: aprovechar la tecnología sin sacrificar el rigor, y responder a las demandas del mercado sin diluir los principios de integridad. Para ello, propone prácticas editoriales transparentes, consistentes y centradas en ofrecer retroalimentación constructiva a los autores, siempre al servicio del lector.

Ghildiyal defiende que los editores deben reafirmar su compromiso con el lector como núcleo de su misión. Ser guardianes de confianza no es solo una metáfora: es una responsabilidad crítica para preservar la credibilidad de la ciencia y la utilidad social de la publicación académica en un mundo complejo y cambiante.

Nature incluye la revisión por pares transparente

Nature. “Transparent Peer Review to Be Extended to All of Nature’s Research Papers.” June 16, 2025. https://www.nature.com/articles/d41586-025-01880-9.

Durante décadas, el proceso de revisión por pares en Nature —aunque esencial para la validación científica— se mantenía fuera del alcance del lector. Los comentarios de los revisores y las respuestas de los autores eran visibles solo para los implicados en el proceso editorial. Con la nueva política, estos documentos se publicarán junto con el artículo final, permitiendo a la comunidad académica y al público general acceder a una visión detallada de cómo evolucionó cada manuscrito a través de la crítica científica.

La medida pretende fortalecer la confianza en la ciencia publicada, promoviendo una mayor transparencia, integridad y rendición de cuentas. Al hacer públicos los intercambios entre autores y revisores, se ofrece una herramienta educativa poderosa: los investigadores, especialmente los más jóvenes, podrán aprender cómo responder a críticas, mejorar sus escritos científicos y participar activamente en una cultura de revisión rigurosa pero constructiva. Además, este cambio permitirá a los lectores comprender mejor los razonamientos detrás de las decisiones editoriales.

El equipo editorial de Nature sostiene que la revisión transparente puede mejorar la calidad general de la ciencia, ya que los revisores serán más cuidadosos y responsables en sus observaciones, sabiendo que sus comentarios estarán a la vista de todos. Asimismo, esperan que el nuevo sistema disuada posibles conflictos de interés o arbitrariedades dentro del proceso de evaluación.

En definitiva, la decisión de Nature de extender la revisión por pares transparente a todos sus artículos establece un precedente importante en el ámbito editorial académico. No solo impulsa a otras revistas científicas a considerar modelos similares, sino que también consolida una visión más abierta, colaborativa y confiable del proceso de producción científica. Esta medida se enmarca dentro de una tendencia más amplia hacia la ciencia abierta, que busca que el conocimiento científico sea accesible, reproducible y verificable en todas sus etapas.

El primer artículo redactado por una inteligencia artificial que supera la revisión por pares

Whitney Grace, “The First AI-Written Paper to Pass Peer ReviewArnoldIT, April 2, 2025, https://arnoldit.com/wordpress/2025/04/02/the-first-ai-written-paper-to-pass-peer-review/.

Sakana AI informa de que «The AI Scientist Generates Its First Peer-Reviewed Scientific Publication». Se trata del primer artículo generado completamente por IA que ha pasado el mismo proceso de revisión al que someten sus artículos los científicos humanos

El 2 de abril de 2025, la empresa tecnológica  Sakana AI anunció un hito en el campo de la inteligencia artificial y la investigación científica: por primera vez, un artículo generado íntegramente por una IA superó con éxito el proceso de revisión por pares, el mismo procedimiento riguroso al que se someten los trabajos elaborados por investigadores humanos. Este avance representa un punto de inflexión en la relación entre la inteligencia artificial y la producción académica.

El trabajo fue realizado por una versión mejorada de su sistema denominado The AI Scientist-v2, una evolución del modelo original desarrollado por Sakana AI. Aunque los detalles técnicos de esta nueva versión aún no han sido publicados (se prometen en una próxima entrega), se sabe que el experimento se llevó a cabo en colaboración con los organizadores del taller de la conferencia ICLR 2025 (International Conference on Learning Representations), una de las tres principales conferencias internacionales en el campo del aprendizaje automático y la inteligencia artificial, junto con NeurIPS e ICML.

Con el objetivo de garantizar la imparcialidad del proceso, el artículo fue sometido a una revisión a doble ciego: ni los autores del trabajo (en este caso, la IA) ni los evaluadores conocían la identidad de los otros. Aunque se informó al comité de revisión que podría recibir trabajos generados por IA, no se especificó cuáles lo eran, lo que permitió evaluar el contenido en igualdad de condiciones.

La IA fue instruida para investigar y escribir sobre un tema amplio y relevante dentro del campo del aprendizaje profundo. Tras completar el proceso de redacción, se generaron múltiples trabajos, de los cuales se seleccionaron tres para su envío, con el objetivo de no sobrecargar al comité revisor y asegurar la calidad del experimento. Los investigadores humanos responsables del proyecto realizaron un análisis interno de los textos generados y eligieron los tres que consideraron más sólidos, tanto por su calidad técnica como por la diversidad de los temas abordados.

De esos tres artículos, uno fue aceptado tras recibir evaluaciones muy favorables. Obtuvo una puntuación media de 6,33, situándose por encima del umbral medio de aceptación del taller e incluso por encima de muchas propuestas redactadas por científicos humanos. Las valoraciones individuales incluyeron puntuaciones de 6 (ligeramente por encima del umbral de aceptación) y 7 (calificado como un “buen artículo” y con recomendación clara de aceptación).

El objetivo declarado del experimento fue meramente científico: los desarrolladores querían medir, con honestidad y sin intenciones comerciales o engañosas, hasta qué punto una inteligencia artificial es capaz de desempeñar tareas complejas y creativas que tradicionalmente han estado reservadas al intelecto humano. En lugar de levantar sospechas sobre trampas o fraudes en el sistema académico, la intención fue demostrar el potencial real —y los límites— de la inteligencia artificial en la investigación científica contemporánea.

Este acontecimiento abre un debate crucial sobre el futuro de la autoría, la originalidad y la evaluación académica. También plantea preguntas sobre la relación entre humanos y máquinas en el ámbito del conocimiento: ¿Podrán las IA convertirse en colaboradoras regulares de los investigadores humanos? ¿Se redefinirá el concepto de autoría científica? ¿Cómo cambiarán los procesos de revisión y validación de contenidos académicos ante la irrupción de inteligencias artificiales con estas capacidades?

Aunque todavía es pronto para responder con certeza, lo que está claro es que The AI Scientist-v2 ha marcado un antes y un después. A partir de ahora, no solo habrá que competir con otros investigadores en la búsqueda de la verdad científica, sino también con algoritmos que, poco a poco, van demostrando que son capaces no solo de procesar información, sino también de generar conocimiento estructurado y valioso.