Archivo de la etiqueta: Revisión científica

Recomendaciones para acelerar la revisión abierta por pares de los preprints con el fin de mejorar la cultura científica

Avissar-Whiting M, Belliard F, Bertozzi SM, Brand A, Brown K, Clément-Stoneham G, et al. (2024) Recommendations for accelerating open preprint peer review to improve the culture of science. PLoS Biol 22(2): e3002502. https://doi.org/10.1371/journal.pbio.3002502


El proceso de revisión por pares es una parte importante del proceso científico, pero la revisión por pares tradicional en revistas está siendo sometida a un escrutinio cada vez mayor debido a su ineficiencia y falta de transparencia. A medida que los preprints se vuelven más ampliamente utilizados y aceptados, plantean la posibilidad de repensar el proceso de revisión por pares.

Los preprints están permitiendo nuevas formas de revisión por pares que tienen el potencial de ser más exhaustivas, inclusivas y colegiadas que la revisión por pares tradicional en revistas, y así cambiar fundamentalmente la cultura de la revisión por pares hacia una colaboración constructiva. En esta visión de consenso, se hace una llamada a la acción a los actores en la comunidad para acelerar el creciente impulso de compartir preprints y proporcionar recomendaciones para capacitar a los investigadores para que brinden una revisión por pares abierta y constructiva para los preprints.

Las revisiones críticas («reviews») de investigadores independientes («pares») pueden identificar vacíos conceptuales, lógicos o metodológicos en el trabajo científico. Por lo tanto, la revisión por pares se ha convertido en un aspecto clave del proceso científico y se utiliza en financiamiento y evaluación, así como para evaluar artículos, lo que puede ayudar a los autores a mejorar los manuscritos y brindar a los lectores (incluido el público en general) una mayor confianza en los hallazgos reportados. Aunque muchos investigadores ahora se sienten cómodos haciendo públicos sus manuscritos como preprints antes de la revisión por pares, las encuestas informan que el 90% de los investigadores creen que la revisión por pares mejora la calidad del trabajo publicado y ha mejorado el artículo más reciente que publicaron.

Sin embargo, la revisión por pares de revistas enfrenta muchos desafíos. Puede ser lenta, ineficiente, propensa a errores, inequitativa y excesivamente enfocada en brindar consejos a un editor de revista para ayudar en su decisión. A pesar de requerir una gran inversión de tiempo por parte de la comunidad científica, la revisión por pares realizada por 2 o 3 investigadores individuales no puede detectar todos los problemas en un estudio. Como resultado, graves fallos pueden salir a la luz solo después de la publicación en una revista, cuando un artículo se vuelve visible para un grupo más amplio de expertos. Mientras tanto, la falta de transparencia puede ocultar errores y sesgos en el proceso de revisión por pares. Aunque más de 500 revistas ahora publican revisiones por pares junto con los artículos publicados, la mayoría no lo hace, y las revisiones por pares de artículos rechazados casi nunca se hacen públicas. Esta es una oportunidad desperdiciada para proporcionar reconocimiento a los revisores, información contextual adicional que podría ayudar a los lectores de un artículo a evaluar sus méritos y la transparencia necesaria para estudiar y mejorar el proceso de revisión por pares. Además, los revisores pueden ser responsables de juzgar si un artículo es lo suficientemente emocionante o «completo» para una revista en particular. Esto puede contribuir a una tendencia en la que los revisores sugieran experimentos o análisis adicionales en lugar de brindar consejos centrados únicamente en el trabajo presentado. Como resultado, ahora se espera que los artículos de ciencias de la vida incluyan significativamente más datos que en décadas anteriores, lo que crea una carga adicional para los autores y, en última instancia, ralentiza la diseminación de nuevas evidencias científicas.

La creciente adopción de preprints ofrece una oportunidad importante para experimentar con nuevos enfoques de revisión por pares que podrían ayudar a abordar estos problemas. Nuevos enfoques que involucran revisión por pares abierta en preprints también podrían proporcionar beneficios a autores, revisores y lectores. Este punto de vista de consenso emite un llamado a la acción a los interesados ​​en la comunidad para acelerar el creciente impulso del intercambio de preprints y proporcionar recomendaciones para capacitar a los investigadores para que brinden una revisión por pares abierta y constructiva para preprints.

IOP Publishing (IOPP) proporciona comentarios a los revisores sobre sus informes de revisión para mejorar la calidad de la revisión por pares y fortalecer las mejores prácticas

Cullen, Cait. «IOP Publishing Unveils Industry-Leading Feedback System for Reviewers». IOP Publishing, 14 de noviembre de 2023. https://ioppublishing.org/news/iop-publishing-unveils-industry-leading-feedback-system-for-reviewers/


IOP Publishing (IOPP) ahora ofrece retroalimentación a los revisores sobre sus informes de revisión para mejorar la calidad de la revisión por pares y fortalecer las mejores prácticas en las ciencias físicas.

IOPP ha implementado el nuevo programa de manera voluntaria en todas sus revistas propietarias. Cuando los revisores optan por recibir comentarios sobre su informe, IOPP compartirá una evaluación numérica de qué tan útil fue el informe para los editores internos en una escala del 1 al 5, siendo 5 excepcional y 1 indicando que el informe no es adecuado para tomar una decisión. Luego, los revisores pueden ver información constructiva sobre la estructura y utilidad de los informes que explica la evaluación.

Una encuesta que incluyó a más de 1.200 investigadores que han revisado o sido invitados a revisar con IOPP muestra que recibir comentarios sobre sus informes de revisión mejoraría su experiencia en la revisión por pares, ya sea ser notificados sobre la decisión final sobre el artículo o recibir información sobre la calidad de su informe. En particular, los resultados muestran que los comentarios sobre la calidad de los informes son más valorados por los investigadores en etapas tempranas de sus carreras, donde estos comentarios pueden ser invaluables para desarrollar sus habilidades de investigación.

El lanzamiento sigue a una prueba exitosa del programa en tres revistas de IOP Publishing, incluyendo Engineering Research Express, Environmental Research Letters y Plasma Physics and Controlled Fusion. Más del 85% de los revisores involucrados en la prueba indicaron que recibir comentarios sobre su informe fue útil o muy útil. Desde que IOPP extendió el programa a todas sus revistas propietarias en septiembre, más de 2,700 revisores ya han optado por recibir comentarios sobre sus informes.

Laura Feetham, Gerente de Compromiso de Revisores en IOPP, dice: «El trabajo de nuestros expertos en revisión por pares es crucial para el avance de la ciencia, y sin embargo, los revisores rara vez (si es que alguna vez) reciben comentarios de los editores sobre la calidad de sus informes y en qué medida influyeron en la decisión editorial. Queríamos cambiar esto en nombre de nuestras comunidades de revisión por pares. Ahora, nuestros revisores pueden optar por recibir una evaluación honesta de su informe, directamente del editor. Nuestra esperanza es que esto mejore la transparencia en el sistema de revisión por pares y ayude a los investigadores en etapas tempranas de sus carreras a construir sus habilidades de revisión por pares».

La introducción de la retroalimentación a los revisores es la última de una serie de innovaciones en la revisión por pares en IOPP, que incluye una nueva política de co-revisión y el programa Peer Review Excellence.

Investigadores de la Universidad de Stanford diseñan un modelo de revisión por pares utilizando ChatGPT-4 con resultados sorprendentes

Stanford HAI. «Researchers Use GPT-4 To Generate Feedback on Scientific Manuscripts». Accedido 31 de octubre de 2023. https://hai.stanford.edu/news/researchers-use-gpt-4-generate-feedback-scientific-manuscripts.

Combinando un amplio modelo lingüístico (LLM) y artículos científicos revisados por pares de código abierto, investigadores de Stanford han creado una herramienta basada en inteligencia Artificial que esperan pueda ayudar a otros investigadores a pulir y mejorar sus borradores.

La investigación científica tiene un problema con poder disponer de pares que analicen la validez de los artículos. No hay suficientes revisores cualificados para evaluar todos los estudios. Este problema afecta sobre todo a los investigadores jóvenes y a los de instituciones menos conocidas, que a menudo no tienen acceso a mentores experimentados que puedan dar su opinión a tiempo. Además, muchos estudios científicos son rechazados sumariamente sin revisión por pares.

Intuyendo una crisis creciente en una época de aumento de los estudios científicos, investigadores de IA de la Universidad de Stanford han utilizado el gran modelo lingüístico GPT-4 y un conjunto de datos de miles de artículos publicados anteriormente -repletos de los comentarios de sus revisores- para crear una herramienta que pueda «revisar previamente» los borradores de manuscritos.

«Esperamos que los investigadores puedan utilizar esta herramienta para mejorar sus borradores antes de presentarlos oficialmente a congresos y revistas», afirma James Zou, profesor adjunto de Ciencia de Datos Biomédicos en Stanford y miembro del Instituto de IA Centrada en el Ser Humano (HAI) de Stanford. Zou es el autor principal del estudio, publicado recientemente en arXiv.

Los investigadores empezaron comparando los comentarios realizados por un gran modelo lingüístico con los de revisores humanos. Afortunadamente, una de las revistas científicas más importantes, Nature, y sus quince subrevistas (Nature Medicine, etc.), no sólo publica cientos de estudios al año, sino que incluye los comentarios de los revisores de algunos de esos trabajos. Y Nature no es la única. La International Conference on Learning Representations (ICLR) hace lo mismo con todos los trabajos -tanto los aceptados como los rechazados- de su conferencia anual sobre aprendizaje automático.

«Entre los dos, curamos casi 5.000 estudios y comentarios revisados por pares para compararlos con los comentarios generados por GPT-4», dice Zou. «El modelo lo hizo sorprendentemente bien».

Las cifras se asemejan a un diagrama de Venn de comentarios superpuestos. Entre los cerca de 3.000 artículos de la familia Nature incluidos en el estudio, había una intersección entre GPT-4 y los comentarios humanos de casi el 31 por ciento. En el caso de ICLR, las cifras eran aún mayores: casi el 40% de los comentarios de GPT-4 y humanos coincidían. Es más, si se consideran únicamente los artículos rechazados del ICLR (es decir, los artículos menos maduros), el solapamiento de comentarios entre GPT-4 y humanos aumentó hasta casi el 44%: casi la mitad de todos los comentarios de GPT-4 y humanos coincidían.

La importancia de estas cifras se hace más patente si se tiene en cuenta que, incluso entre los humanos, existe una variación considerable entre los comentarios de los distintos revisores de un mismo artículo. El solapamiento entre humanos fue del 28% en las revistas Nature y del 35% en ICLR. Según estos parámetros, el rendimiento de GPT-4 es comparable al de los humanos.

Pero aunque las comparaciones entre ordenadores y humanos son instructivas, la verdadera prueba es si los autores de los artículos revisados valoran los comentarios aportados por uno u otro método de revisión. El equipo de Zou llevó a cabo un estudio de usuarios en el que investigadores de más de 100 instituciones enviaron sus artículos, incluidos muchos preprints, y recibieron los comentarios de GPT-4. La mitad de los investigadores participantes consideraron que GPT-4 era el método más eficaz. Más de la mitad de los investigadores participantes consideraron que los comentarios de GPT-4 eran «útiles/muy útiles» y el 82 por ciento los consideraron «más beneficiosos» que ciertos comentarios de algunos revisores humanos.

En el artículo, Zou se apresura a señalar que el método tiene sus limitaciones. En particular, los comentarios de GPT-4 pueden ser a veces más «genéricos» y no detectar los problemas técnicos más profundos del artículo. El GPT-4 también tiende a centrarse sólo en aspectos limitados de los comentarios científicos (por ejemplo, «añadir experimentos con más conjuntos de datos») y se queda corto a la hora de profundizar en los métodos de los autores.

Zou insistió en que el equipo no está sugiriendo que la GPT-4 elimine al «experto humano (par)» de la revisión por pares y sustituya a la revisión humana. La revisión por expertos humanos «es y debe seguir siendo» la base de la ciencia rigurosa, afirma.

«Pero creemos que la retroalimentación de la IA puede beneficiar a los investigadores en las primeras etapas de la redacción de sus artículos, sobre todo si se tienen en cuenta las crecientes dificultades para obtener a tiempo la opinión de los expertos sobre los borradores», concluye Zou. «Desde ese punto de vista, creemos que GPT-4 y la retroalimentación humana se complementan bastante bien».

MDPI, Hindawi y Frontiers en la lista negra de la política científica de China y Malasia

MDPI, Frontiers e Hindawi son revistas de acceso abierto, lo que significa que todos los lectores pueden descargarlas gratuitamente, pero los autores tienen que pagar una cuota, que no es barata (APCs). En los últimos años, muchas de las revistas de estas editoriales han sido incluidas en la lista de advertencia del Instituto de Literatura de la Academia China de Ciencias, aunque algunas de sus revistas están incluidas en los cuartiles Q1 y Q2 de Clarivate Analytics

Estas editoriales cobran a los autores elevados gastos de procesamiento de artículos (APC) para que sus artículos sean aceptados (la mayoría de las veces con rapidez). Sin embargo, debido a su rapidez, las revistas de estas editoriales son muy populares entre los académicos con fondos suficientes. Muchos investigadores noveles y estudiantes de doctorado publican artículos en sus revistas mientras sus «ricos» supervisores pagan el APC.

MDPI fue incluida en la lista de Jeffrey Beall de empresas editoriales depredadoras de acceso abierto en febrero de 2014. En octubre de 2015, Frontiers también se añadió a su lista de editoriales de acceso abierto depredadoras «potenciales, posibles o probables». En 2010, Beall incluyó un subconjunto de revistas de Hindawi en una lista de presuntas editoriales de acceso abierto depredadoras. La lista de Beall se cerró en 2017 por presiones de su empleador.

Ahora, el Ministerio de Universidades de Malasia ha emitido una directiva que prohíbe a las universidades públicas del país utilizar fondos del presupuesto estatal para respaldar la publicación de artículos en revistas asociadas a MDPI, Hindawi y Frontiers, tres destacados editores. Esta decisión se basa en preocupaciones relacionadas con la integridad académica y la precisión de la autoría en trabajos académicos dentro del país. Para hacer cumplir estas restricciones, el Ministerio ha establecido un comité dedicado para supervisar las publicaciones en revistas depredadoras o de baja calidad, con el objetivo de mejorar la ética académica y salvaguardar la reputación de las universidades y el país en su conjunto.

La Universidad de Industria y Comercio de Zhejiang en China también incluyó en una lista negra todas las revistas afiliadas a MDPI, Hindawi y Frontiers a principios de 2023. Los artículos publicados en revistas de estos editores no serán considerados al evaluar las capacidades de investigación y los logros de los docentes, según la votación del consejo universitario.

Además, el Fondo de Innovación Vingroup (VINIF), bajo el Instituto de Investigación de Big Data, ha introducido regulaciones que rigen su Programa de Subvención para Proyectos de Ciencia y Tecnología y las becas postdoctorales nacionales. Estas regulaciones establecen que los proyectos de investigación respaldados por VINIF deben cumplir con criterios específicos, incluida la publicación en revistas internacionales u organizaciones de investigación reputadas clasificadas como Q1 o su equivalente. Es importante destacar que los artículos de revistas relacionadas con MDPI y Hindawi no son elegibles bajo estas pautas.

Además de estas acciones, muchas revistas de MDPI, Hindawi y Frontiers figuran en la lista de advertencia de la Academia China de Ciencias. Esta lista tiene como objetivo advertir a los investigadores chinos sobre la selección de revistas y alentar a los editores a mejorar la calidad de sus artículos. La mayoría de las revistas en esta lista pertenecen a las categorías Q1 y Q2 según la clasificación ISI/WoS.

MDPI Publishing, Hindawi Publishing y Frontiers Publishing son los tres editores incluidos en esta lista negra. MDPI es uno de los editores más grandes del mundo de artículos científicos, con más de 429 revistas de acceso abierto. Hindawi, fundado originalmente en Egipto en 1997 y adquirido por el grupo editorial estadounidense Wiley en 2021, publica actualmente más de 282 revistas. Frontiers Publishing, con sede en Suiza y fundado en 2007, supervisa más de 221 revistas académicas.

¿Puede la IA generativa aportar algo a la revisión académica por pares?

Impact of Social Sciences. «Can Generative AI Add Anything to Academic Peer Review?», 26 de septiembre de 2023. https://blogs.lse.ac.uk/impactofsocialsciences/2023/09/26/can-generative-ai-add-anything-to-academic-peer-review/.

Aunque las aplicaciones de IA generativa prometen eficiencia y pueden beneficiar el proceso de revisión por pares, dadas sus deficiencias y nuestro limitado conocimiento de su funcionamiento interno, Mohammad Hosseini y Serge P.J.M. Horbach sostienen que no deberían utilizarse de forma independiente ni indiscriminada en todos los contextos. Centrándose en los últimos acontecimientos, sugieren que el proceso de revisión por pares es uno de los contextos en los que la IA generativa debería utilizarse con mucho cuidado, si es que se utiliza.


En el siempre cambiante panorama de la investigación académica y la comunicación académica, la llegada de la inteligencia artificial generativa y modelos de lenguaje grandes (LLM) como el ChatGPT de OpenAI ha despertado atención, elogios y críticas. El uso de la inteligencia artificial generativa en diversas tareas académicas se ha discutido en profundidad. Entre los posibles casos de uso, contar con el apoyo de la inteligencia artificial generativa para revisores y editores en el proceso de revisión por pares parece una opción prometedora. El sistema de revisión por pares ha enfrentado durante mucho tiempo diversos desafíos, incluyendo revisiones sesgadas o no constructivas, escasez de revisores expertos y la naturaleza que consume mucho tiempo de la empresa.

Aunque el uso de la inteligencia artificial generativa podría mitigar algunos de estos desafíos, como ocurre con muchas discusiones sobre la integración de nuevas tecnologías en flujos de trabajo existentes, también existen varias preocupaciones legítimas. Recientemente se analizó el uso de LLM en el contexto de cinco temas críticos dentro del contexto de la revisión por pares: los roles de los revisores y editores, la calidad y funciones de las revisiones por pares, problemas de reproducibilidad y las amplias implicaciones sociales y epistémicas del proceso de revisión por pares. Se concluyó que la inteligencia artificial generativa tiene el potencial de remodelar los roles tanto de los revisores por pares como de los editores, agilizando el proceso y posiblemente aliviando problemas relacionados con la falta de revisores. Sin embargo, esta posible transformación no está exenta de complejidad.

Asistir en las revisiones, pero no ser un revisor independiente

En su forma actual, las aplicaciones de IA generativa son incapaces de realizar revisiones por pares de forma independiente (es decir, sin supervisión humana), porque siguen cometiendo demasiados errores y su funcionamiento interno es desconocido y cambia rápidamente, lo que da lugar a resultados impredecibles. Sin embargo, la IA generativa puede ayudar a los actores del proceso de revisión por pares de otras maneras, por ejemplo, ayudando a los revisores a mejorar sus notas iniciales para que sean más constructivas y respetuosas. Además, la IA generativa puede permitir a los académicos que no escriban en su lengua materna contribuir al proceso de revisión en otros idiomas (por ejemplo, inglés), o ayudar a los editores a redactar cartas de decisión basadas en un conjunto de informes de revisión. Estos casos de uso podrían ayudar a ampliar el grupo de revisores y hacer que el proceso sea más eficiente y equitativo.

Confidencialidad, sesgo y robustez

A pesar de estos posibles beneficios, y además de las limitadas capacidades de la inteligencia artificial generativa para llevar a cabo revisiones independientes, existen preocupaciones importantes relacionadas con el uso de LLMs en contextos de revisión. Estas preocupaciones se refieren, por ejemplo, a la forma en que los desarrolladores de herramientas de inteligencia artificial generativa utilizan los datos proporcionados. Especialmente cuando se envían conjuntos de datos que pueden contener información personal o confidencial, la forma en que los desarrolladores de las herramientas utilizan el contenido proporcionado debería ser transparente, lo cual no es el caso en la actualidad. Además, las herramientas de inteligencia artificial generativa corren el riesgo de agravar algunos de los sesgos existentes en la revisión por pares, ya que reproducen contenido y sesgos presentes en sus datos de entrenamiento. En tercer lugar, dado que estas herramientas evolucionan rápidamente y su resultado depende en gran medida de la indicación proporcionada (incluso cambios menores podrían tener un gran impacto en el contenido generado), su resultado no siempre es reproducible. Esto plantea dudas sobre la robustez de las revisiones generadas con la ayuda de la inteligencia artificial, lo que refuerza la idea de que la inteligencia artificial generativa solo podría servir para mejorar (en cuanto a formato, tono, gramática y legibilidad) las revisiones que han sido escritas por revisores humanos.


Externalización del elemento social de la revisión por pares

Otra preocupación se relaciona con el hecho de que la revisión por pares es un proceso inherentemente social. De hecho, en lugar de ser un mecanismo de control mecánicamente objetivo, la revisión por pares se basa en las interacciones entre colegas acerca de lo que significa hacer buena ciencia. Por lo tanto, el proceso es un medio importante para debatir y negociar las normas de la comunidad acerca de qué preguntas deben abordarse, qué métodos son apropiados o aceptables, qué formas de comunicación son más adecuadas y muchas otras cuestiones. La revisión por pares también es un componente constitutivo fundamental de la integridad de la investigación y las normas éticas. En un estudio reciente, descubrimos que, en lo que respecta a las normas de integridad de la investigación, los investigadores valoran principalmente la opinión de sus pares epistémicos, es decir, aquellos que publican en las mismas revistas o asisten a las mismas conferencias, en lugar de, por ejemplo, otros colegas que trabajan en el mismo instituto. Los procesos de revisión por pares son un lugar destacado donde los expertos «se encuentran» y donde se desarrollan discusiones sobre estos temas, de manera implícita o explícita. Externalizar estos procesos a herramientas automatizadas podría empobrecer estas discusiones y tener consecuencias imprevistas más amplias.

Desarrollos recientes

En los último meses varios acontecimientos han cambiado el panorama de la inteligencia artificial generativa y han tenido un impacto en su uso con fines de revisión académica por pares. La reacción de algunos financiadores, como el National Institutes of Health (NIH) [Notice number NOT-OD-23-149] y Australian Research Council [Policy on Use of Generative Artificial Intelligence in the ARC’s grants programs]) que han prohibido el uso de la inteligencia artificial generativa en sus procesos de revisión y evaluación de subvenciones, se encuentra entre estos cambios.

Estos financiadores están principalmente preocupados por la confidencialidad y la generación de contenido falso, y con razón. La revisión de subvenciones es un juego diferente en comparación con las revisiones de artículos en revistas, ya que lo primero moldea las agendas de investigación y el acceso a recursos financieros, mientras que lo segundo informa principalmente sobre los resultados de estudios que ya se han realizado y, a veces, se han publicado como preprints.

En cuanto a la generación de contenido falso, los modelos de inteligencia artificial generativa aún cometen errores, incluso a nivel de hechos básicos. Por lo tanto, utilizarlos para revisar subvenciones y posteriormente distribuir fondos podría dañar seriamente la integridad del flujo de trabajo de los financiadores y comprometer la legitimidad de las decisiones de financiamiento. Además, las solicitudes de subvención a veces contienen información detallada sobre cada miembro del proyecto, cuya privacidad podría verse comprometida si se comparte con terceros. Esto también es una preocupación principal cuando se utiliza la inteligencia artificial generativa para revisar manuscritos o conjuntos de datos, que podrían contener información personal o sensible sobre los participantes en la investigación o tecnologías.

Las aplicaciones de la inteligencia artificial generativa todavía se encuentran en fases tempranas de desarrollo y en un futuro cercano podrían beneficiar el proceso de revisión por pares de muchas maneras. Dicho esto, dadas las limitaciones de esta tecnología, se deberían fomentar experimentos a pequeña escala y una adopción gradual. También debemos estar preparados para poner fin a su uso cuando sea necesario o en casos en los que los riesgos superen a los beneficios.

Si bien apoyamos la prohibición de las aplicaciones de inteligencia artificial generativa en algunos contextos, también tenemos preocupaciones sobre esta estrategia a largo plazo. Además de la complicada pregunta de cómo hacer cumplir dicha prohibición y supervisar el cumplimiento, siempre es necesario equilibrar las preocupaciones en relación con la inteligencia artificial generativa con sus beneficios en términos de eficiencia, que podrían liberar recursos financieros (en el caso de los financiadores, para financiar proyectos adicionales). En el futuro, recomendamos a los diferentes grupos de usuarios en la academia que revisen y modifiquen con frecuencia sus políticas sobre el uso de aplicaciones de inteligencia artificial generativa en función de las circunstancias y adopten medidas de mitigación de riesgos que se adapten a su contexto específico.

Revisión de la revisión científica por pares

Review of Peer Review” UK Research and Innovation (UKRI), 2023

Texto completo

Este informe considera la revisión por pares desde la perspectiva de la cultura de la investigación y es un recurso para todos los financiadores que busquen optimizar e innovar sus procesos de revisión por pares.

UKRI encargó a Technopolis la realización de este proyecto independiente, que es una síntesis de pruebas sobre diferentes tipos de intervenciones en los procesos de revisión por pares, sus objetivos, inconvenientes e impacto. Esto ayudará a los financiadores a diseñar los procesos de concesión de subvenciones y a comprender los beneficios y los posibles inconvenientes de los distintos enfoques.

Se formulan recomendaciones para todos los financiadores, entre ellas:

  • Que los sistemas de tecnología de la información (TI) deben tener la flexibilidad y el funcionamiento necesarios
  • Que algunas intervenciones pueden convertirse en una «nueva normalidad» para reducir la carga y la parcialidad en todos los ámbitos
  • Que los financiadores deben supervisar todas las intervenciones que lleven a cabo
    que las investigaciones sobre la cultura de la investigación en general deben continuar junto con las intervenciones en los procesos que se analizan en el informe

Importancia de la revisión abierta para una ciencia abierta

Peelle, J. & Washington University in Saint Louis. (2023.). Reviewing for open science [Data set]. https://doi.org/10.15200/winn.145877.76807

La revisión por pares abierta es un componente fundamental de la ciencia abierta. Al abrir lo que históricamente ha sido un proceso cerrado, se amplían las oportunidades para detectar errores, validar los hallazgos y aumentar nuestra confianza general en los resultados publicados.

El artículo de Jonathan Peelle «Reviewing for open science» habla sobre la importancia de las prácticas de ciencia abierta en la revisión por pares. Peelle argumenta que las prácticas de ciencia abierta, como el pre-registro y el compartir datos y materiales, pueden mejorar la transparencia y el rigor de la investigación científica.

Peelle sugiere que los revisores pueden desempeñar un papel importante en la promoción de las prácticas de ciencia abierta pidiendo a los autores que pre-registren sus estudios, compartan sus datos y materiales, y proporcionen descripciones detalladas de sus métodos. Los revisores también pueden animar a los autores a utilizar marcos y herramientas de ciencia abierta, como el Marco de Ciencia Abierta y el Acelerador de Ciencia Psicológica.

Además, Peelle enfatiza la importancia de la comunicación abierta y transparente entre revisores y autores durante todo el proceso de revisión por pares. Sugiere que los revisores deben proporcionar comentarios detallados sobre las fortalezas y debilidades de un estudio, y que los autores deben responder a los comentarios de manera oportuna y constructiva.

En general, el artículo de Peelle destaca las formas en que las prácticas de ciencia abierta pueden mejorar la calidad y reproducibilidad de la investigación científica, y enfatiza el papel importante que los revisores pueden desempeñar en la promoción de estas prácticas.

Publons: cómo acreditar y registrar tu actividad de revisión por pares

Rewarding your peer review and editorial contributions: Publons
By Chantal Hukkelhoven, 2019

Texto completo

Los investigadores dedican mucho tiempo y esfuerzo a revisar los manuscritos de otros investigadores, pero generalmente no son recompensados ​​por esta actividad ya que las revisiones suelen ser anónimas.

Publons es una plataforma integrada en Web of Science que crea y muestra perfiles verificados de las contribuciones editoriales y de revisión por pares previas a la publicación de un investigador para revistas académicas. Estos perfiles pueden incluirse, entre otros, en el currículum vitae, las solicitudes de financiación y las evaluaciones de promoción y rendimiento.

Estos perfiles pueden incluirse, entre otros, en el currículum vitae, las solicitudes de financiación y las evaluaciones de promoción y rendimiento. Publons también crea una visión general de la calidad de tus revisiones en comparación con sus pares. También es posible importar y mostrar tus propias publicaciones en Publons.

Formas de agregar revisiones de pares a tu perfil en Publons:

  1. Agregar revisiones realizadas para revistas asociadas a Web of Sciece
  2. Envíar certificados de revisión a reviews@publons.com
  3. Habilitar actualizaciones automáticas
  4. Agregar reseñas a través de los formularios en el sitio

En Publons puedes mantener el perfil privado o puedes mostrar varios niveles de detalles sobre cada revisión individual, como el año, el nombre del editor, el nombre de la revista o incluso el texto completo de la revisión, aunque las revistas pueden optar por anular este último. El contenido de la reseña se comparte mediante una licencia Creative Commons CC BY 4.0. También se muestra la duración media de la revisión en comparación con otras en su campo o institución, lo que sirve como indicador de la calidad de su trabajo.

También existen alternativas a Publons para registrar tus actividades editoriales y de revisión previas a la publicación. Hace unos seis meses, ORCID lanzó una función que agrega esta información tu perfil de ORCID. También existen otras plataformas menos conocidas, como Peerage of Science, como alternativa a Publons. Además, existen plataformas que registran tus reseñas después de la publicación, por ejemplo, F1000Research.

Percepciones de los estudiantes sobre los preprints descubiertos en Google: una ventana al reconocimiento y la evaluación

Cataldo, Tara Tobin, Ixchel M. Faniel, Amy G. Buhler, Brittany Brannon, Lynn Silipigni Connaway, y Samuel Putnam. «Students’ Perceptions of Preprints Discovered in Google: A Window into Recognition And Evaluation | Cataldo | College & Research Libraries», 4 de enero de 2023. https://doi.org/10.5860/crl.84.1.137.

Los preprints desempeñan un papel importante en la conversación académica. Este artículo examina las percepciones de los preprints a través de la lente de los estudiantes que utilizan un entorno simulado de Google. Se recogieron datos de 116 estudiantes de bachillerato, universidad comunitaria, licenciatura y posgrado, prestando atención a la utilidad, credibilidad e identificación de los preprints. Los resultados muestran que los indicios de preimpresión y de revisión por pares desempeñan un papel escaso o nulo a la hora de juzgar la utilidad o la citabilidad, pero la revisión por pares sí lo hace a la hora de juzgar la credibilidad. Además, la mayoría de los estudiantes no reconocieron estos recursos como preprints. Se discuten las implicaciones y recomendaciones en torno al conocimiento y uso de estas fuentes de información científica de libre acceso.

Tendencias mundiales en la producción de conocimientos y evolución del proceso de revisión científica por pares

Witt, Steven. «Global Trends in Knowledge Production and the Evolving Peer Review Process». JLIS.It 14, n.o 1 (2023): 1-9. https://doi.org/10.36253/jlis.it-515.

Este ensayo pretende, pues, aportar más crítica y claridad al proceso de revisión por pares y a las formas en que está evolucionando la gestión de la revisión por pares. Estos cambios se producen en un contexto de crecimiento masivo del proceso de producción de conocimiento: tendencias globales, tecnologías de la información y políticas que animan a más personas en todo el mundo a participar en el proceso de investigación. Estos cambios globales van acompañados de tensiones en el proceso de revisión por pares y, en particular, de preguntas sobre quién puede ser revisor y quién tiene derecho a producir conocimientos en el marco de estos procesos. Este ensayo no es tanto una revisión y un análisis formales de la revisión por pares en el ámbito de la biblioteconomía y la documentación, sino que adopta la forma de una narración autoetnográfica que pretende basarse en las observaciones, experiencias y reflexiones personales del investigador para examinar de forma crítica los cambios que se están produciendo en el sistema de revisión por pares.