Archivo de la etiqueta: Índice de rechazo

La presión sobre la publicación científica en la era de la sobreproducción académica

Hanson, Mark A., Pablo Gómez Barreiro, Paolo Crosetto, y Dan Brockington. 2024. “The Strain on Scientific Publishing.” Quantitative Science Studies 5 (4): 823–843. https://doi.org/10.1162/qss_a_00327

El artículo analiza la presión creciente que sufre la publicación científica como consecuencia del aumento acelerado del número de artículos que se publican cada año. Aunque la producción de conocimiento científico se ha expandido de forma notable, el número de investigadores capaces de leer, evaluar y revisar ese volumen de trabajos no ha crecido al mismo ritmo, lo que genera una sobrecarga estructural en todo el sistema editorial académico.

Los autores muestran que, en la última década, las bases de datos científicas han registrado un incremento muy significativo del número de artículos indexados. Este crecimiento ha intensificado las exigencias para los investigadores, que no solo deben producir más publicaciones, sino también dedicar una cantidad cada vez mayor de tiempo a tareas como la lectura y la revisión por pares. Como resultado, el sistema de “publicar o perecer” se vuelve más exigente y menos sostenible. Así, el número de artículos indexados en bases como Scopus y Web of Science se ha incrementado de forma exponencial en los últimos años, con un aumento de alrededor del 47 % entre 2016 y 2022.

Mientras que las grandes editoriales tradicionales (como Elsevier o Springer) han aumentado su producción de manera moderada, otras —especialmente aquellas que dependen de modelos de acceso abierto con cargos por procesamiento de artículos (APC) como MDPI y Frontiers— han visto incrementos marcados en artículos por revista y en la proporción de publicaciones a través de special issues o números especiales. Esto sugiere que las estrategias editoriales específicas pueden estar impulsando parte de la expansión de contenidos.

El trabajo propone una serie de métricas para analizar esta tensión, entre ellas el aumento del volumen total de artículos, el uso creciente de números especiales, los tiempos de evaluación editorial, las tasas de rechazo y la evolución de las métricas de impacto. Estas medidas permiten observar cómo las prácticas editoriales han cambiado y cómo algunas estrategias contribuyen a acelerar la publicación sin que ello garantice una mejora en la calidad científica.

Uno de los hallazgos más relevantes es que ciertos modelos editoriales, especialmente aquellos basados en el acceso abierto financiado mediante cargos por publicación, han impulsado un crecimiento muy rápido del número de artículos por revista. En algunos casos, este crecimiento se apoya en un uso intensivo de números especiales, lo que puede facilitar procesos editoriales más rápidos y homogéneos, pero también suscita dudas sobre el rigor de la revisión por pares.

El análisis de los tiempos de aceptación muestra que algunas revistas publican artículos con gran rapidez y con escasa variación entre los plazos de revisión, lo que sugiere procesos altamente estandarizados. Aunque la rapidez no implica necesariamente baja calidad, los autores señalan que esta tendencia puede aumentar la presión sobre revisores y editores y reducir la capacidad de evaluación crítica en profundidad.

En relación con las tasas de rechazo, el estudio revela que no existe un patrón único: algunas editoriales mantienen niveles altos, mientras que otras los reducen o los estabilizan. Esto indica que el aumento de publicaciones no responde a una lógica uniforme, sino a decisiones editoriales específicas que influyen directamente en la carga global del sistema.

El artículo también aborda la inflación de las métricas de impacto, mostrando cómo el aumento generalizado de citas puede distorsionar la percepción de calidad científica. La dependencia excesiva de indicadores bibliométricos refuerza comportamientos estratégicos por parte de investigadores y revistas, orientados a maximizar visibilidad y rendimiento cuantitativo más que a fortalecer la solidez del conocimiento producido.

En sus conclusiones, los autores sostienen que la tensión en la publicación científica no es consecuencia de un único factor, sino del encaje problemático entre incentivos académicos, modelos de negocio editoriales y sistemas de evaluación de la investigación. Para aliviar esta presión, consideran necesario repensar las políticas de evaluación, mejorar la transparencia editorial y reducir la dependencia de métricas basadas exclusivamente en el volumen de publicaciones.

Las altas tasa de rechazo de artículos por parte de una revista no garantiza un buen posicionamiento de impacto

0808peerreview

Selecting for impact: new data debunks old beliefs por Pascal Rocha da Silva in el blog Frontiers OA Posted on December 21, 2015

http://blog.frontiersin.org/2015/12/21/4782/

Una de las creencias más asentadas de la publicación académica es que las revistas que buscan un alto factor de impacto deben ser altamente selectivas, aceptando sólo los documentos que se prevee que pueden ser muy importante y novedosos, y que por lo tanto probablemente vayan a atraer a un gran número de citas. Según el estudio que aquí se analiza esta afirmación no es del todo cierta; ya que en un estudio de 570 revistas no se econtró ninguna correlación aparente entre el índice de rechazo y el factor de impacto obtenido

En la medición de la calidad de revistas científicas hay algunos mitos que tienen una base poco cierta, es el caso de la creencia de que el rechazo masivo de trabajos de investigación publicados por revistas científicas favorece tener un alto factor de impacto (FI) parece no ser tan cierta.  Esto tiene que ver con que las consideradas mejores revistas rechazan entre el 90 a 95% de los manuscritos que reciben, lo que obliga a los autores de estos artículos a que tengan que volver a presentarlos en otras revistas de factor de impacto más moderado, en las que pueden encontrar mayor receptividad. Desgraciadamente la mayoría de los 20.000 o más revistas científicas de todo el mundo editorial académico siguen su ejemplo.

El análisis encontró que casi no hay correlación entre el factor de impacto de una revista – una polémica medida del número de citas que recibe un título – y la proporción de originales que rechaza. Para ello Pascal Rocha da Silva, editor de una revista de acceso abierto, trazó los factores de impacto de 570 revistas en relación con las tasas de rechazo, para determinar que no había «absolutamente ninguna correlación» entre ambos parámetros. Ya que algunas revistas que rechazaron más de nueve de cada 10 trabajos tenían un factor de impacto muy por debajo de la media, mientras que otras que aceptaron la mayoría de las comunicaciones tenían mejores puntuaciones. Aunque también se encontró que un pequeño grupo de revistas con los factores de impacto más altos si tenían una tasa de rechazo de más del 90 por ciento (Nature, Science,… )

En el gráfico de abajo se trazan los factores de impacto de 570 revistas seleccionadas aleatoriamente indexadas en el Journal Citation Reports en 2014 (Thomson Reuters, 2015), versus sus tasas de rechazo.

rejection-rate

El autor considera que una tasa de rechazo de hasta el 30 por ciento es justificable, pero más allá de esta cifra estima que se están rechazando artículos de calidad con la finalidad de diseñar altos índices de impacto que finalmente no tienen que ver con el factor de impacto obtenido por la publicación. Pero también es importante destacar que  hay una gama de revistas con factor de impacto entre 5 y 10 (es decir, moderado) que tienen muy bajas tasas de rechazo. En el caso de las revistas más selectivas, con tasas de rechazo de más del 60 por ciento, se comprobó que un mayor número de rechazos se correlacionan débilmente con un mejor factor de impacto.

En 2013, organizaciones como el Wellcome Trust y el Consejo de Financiación de Educación Superior para Inglaterra se inscribieron para la Declaración de San Francisco de Evaluación de la Investigación (DORA), que opta por que los factores de impacto sean desechados como base para las decisiones de financiación, de nombramientos y ascensos. La Declaración de San Francisco sobre Evaluación de la Investigación (DORA), impulsada por la Sociedad Americana de Biología Celular (BCSV), junto con un grupo de directores y editores de revistas científicas, reconoce la necesidad de mejorar la forma en que se evalúan los resultados de la investigación científica.