Archivo de la etiqueta: Impacto

Dar a los investigadores una renta básica universal por el impacto de la investigación para reducir las desigualdades en la financiación de la investigación

To reduce inequalities in research evaluation, give researchers a universal basic income for research impact. Mark Reed LSE, June 21st, 2021

Texto completo

Mark Reed propone que, en lugar de asignar fondos de impacto a un pequeño número de instituciones de alto rendimiento, la financiación se asigne de forma más amplia a los investigadores individuales. Sostiene que esto no sólo limitaría la concentración excesiva de recursos en instituciones concretas, sino que también beneficiaría a la cultura de impacto de la investigación en general, al limitar la competencia de suma cero entre instituciones por el impacto y permitir a los investigadores perseguir, o elegir no perseguir, formas de impacto de la investigación más intrínsecamente motivadas.

El vínculo entre la evaluación de la investigación y la asignación de fondos ha creado conflictos de intereses, reales y percibidos, para los investigadores que buscan generar impacto, y es la causa de muchas de las consecuencias negativas no deseadas de la agenda de impacto en el Reino Unido. La mayoría (57%) de los académicos del Reino Unido tienen actitudes negativas hacia el Research Excellence Framewor (REF), se sienten presionados para cumplir con los objetivos del REF (54%) y piensan que su creatividad está siendo limitada debido a que la investigación está impulsada por una agenda de impacto (75%). Sin embargo, son pocos los que opinan sobre lo que debería sustituir al REF.

Otros países están siguiendo los pasos del Reino Unido al desarrollar sus propios sistemas para evaluar el impacto de la investigación financiada con fondos públicos, pero ninguno ha vinculado hasta ahora las puntuaciones a la financiación de la misma manera. Tampoco han experimentado el mismo nivel de consecuencias imprevistas. Una forma de resolver esta tensión sería debilitar el vínculo entre las puntuaciones de impacto en el REF y las asignaciones de financiación, y así reducir los incentivos extrínsecos para el impacto. En la actualidad, la financiación está “clasificada por calidad”, de modo que las “mejores” instituciones obtienen la mayor parte de la financiación, pero ¿este sistema en que “los ricos se hacen más ricos” no hace más que perpetuar la desigualdad y dificultar que las instituciones desarrollen y retengan el talento? ¿Producen las instituciones de investigación intensiva más investigación de alta calidad porque tienen mejores investigadores e instalaciones? ¿O bien superan a las universidades más nuevas en gran parte debido a un sistema que tienen el poder y el interés de mantener? La respuesta es ambas cosas.

Si el sistema concentra los recursos en un pequeño número de instituciones, será más fácil producir investigación de alta calidad en esos lugares y atraerán a los investigadores más ambiciosos de las nuevas universidades, que buscarán la ventaja que supone trasladarse a una institución del Grupo Russel. Si los recursos se repartieran de forma más equitativa, sería más fácil investigar en las instituciones posteriores a 1992, que a su vez podrían invertir en sus mejores investigadores con menos miedo a que sean absorbidos por su institución local del Grupo Russel en cuanto empiecen a aportar ingresos significativos por investigación.

Si la financiación del REF está destinada a fomentar la capacidad y el liderazgo de la investigación en el Reino Unido, ¿por qué limitarla a los que ya son líderes y tienen más capacidad, cuando podríamos nivelar todo el sector?

Así pues, he aquí una idea (que no es nueva, pero sí buena): hacer que la financiación sea proporcional al número de académicos activos en investigación y darles a todos una renta básica universal por su investigación e impacto. No estoy hablando de eliminar la financiación competitiva de la investigación, pero si al menos el 50% de la financiación del REF fuera a parar a cuentas individuales del personal, todos tendríamos las mismas oportunidades de realizar proyectos de semilla, impacto, creación de redes y desarrollo de capacidades para prepararnos para nuestra próxima oferta de financiación, y podríamos tener una oportunidad más justa de éxito. A menudo me ha sorprendido la creatividad y los resultados que obtienen los Early Career Researcher (ECR) – un investigador de carrera temprana- con cantidades muy pequeñas de financiación, y creo que nos quedaríamos boquiabiertos con la investigación y el impacto que podría hacer posible la renta básica universal para los investigadores. Si la financiación del REF está destinada a fomentar la capacidad y el liderazgo de la investigación en el Reino Unido, ¿por qué limitarla a los que ya son líderes y tienen más capacidad, cuando podríamos nivelar todo el sector? Las instituciones y equipos con más recursos ya tienen suficiente ventaja para mantener su trayectoria sin que un cambio de este tipo suponga una nivelación para ellos.

No estoy sugiriendo que no haya condiciones. Los investigadores tendrían que demostrar que son activos en la investigación (como ya lo hacen en el REF), y creo que las instituciones deberían seguir produciendo estudios de caso de impacto respaldados por una investigación rigurosa.

Acceso abierto y medios de comunicación

Teresa Schultz; All the Research That’s Fit to Print: Open Access and the News Media. Quantitative Science Studies 2021; doi: https://doi.org/10.1162/qss_a_00139

El objetivo del movimiento de acceso abierto OA es ayudar a todos a acceder a la investigación académica, no solo a aquellos que pueden permitírselo. Sin embargo, la mayoría de los estudios que analizan si el movimiento OA ha cumplido con este objetivo se han centrado en si otros académicos están haciendo uso de la investigación de OA. Pocos han considerado cómo el público en general, incluidos los medios de comunicación, utiliza la investigación de OA. 

Este estudio buscó responder si los medios de comunicación mencionan los artículos de OA más o menos que los artículos de pago mediante el análisis de los artículos publicados desde 2010 hasta 2018 en revistas de los cuatro cuartiles del factor de impacto de la revista utilizando datos obtenidos a través de Altmetric.com y la Web of Science.

Los artículos de OA de la ruta oro, verde e híbrido tuvieron una correlación positiva con el número de menciones de noticias recibidas. Las menciones de noticias para artículos de OA vieron una caída en 2018

Evaluación Responsable de la Investigación

Responsible Research Assessment
Global Research Council (GRC)
Conference Report 2021

Texto completo

La Conferencia sobre Evaluación Responsable de la Investigación se realizó con el apoyo del Global Research Council el 23 al 27 de noviembre de 2020. Este informe presenta el contexto de la conferencia, algunos análisis clave y los principales resultados de la discusión. También propone próximos pasos para el GRC.

  1. La evaluación de la Investigación da forma a la cultura de la investigación
  • La evaluación de la investigación influye en cómo se realiza y difunde la investigación
  • Lo que los financiadores valoran y miden influirá en lo que se valora en el ecosistema
  • Los financiadores pueden iniciar un cambio de cultura positivo mediante un diseño y una de la evaluación de la investigación.
  • Como administradores del sistema de I+D, los financiadores deben abordar los obstáculos al cambio cultural, especialmente las presiones para obtener resultados en los ranking universitarios.

2. Diversos sectores de I+D generan una investigación de alta calidad e impacto

  • La definición de excelencia en la investigación de un financiador debe ser multidimensional
  • La excelencia en la investigación debe abarcar las perspectivas y experiencias de
    personas de todos los orígenes
  • Los financiadores deben apoyar la diversidad mediante una amplia cartera de financiación.

3. Fomentar un sistema de sistema de I+D que que no perjudique a la diversidad

  • Los financiadores deben emplear criterios claros, indicadores pertinentes y una autoevaluación
  • Los financiadores deben experimentar con nuevos procesos y comprobar que tienen los resultados deseados
  • La lucha contra los prejuicios y la igualdad de oportunidades son esenciales para la de la investigación y no deberían verse obstaculizados por una resistencia al cambio.

4. La investigación y la erudición son esfuerzos transnacionales

  • Los enfoques deben tener en cuenta el contexto local, la cultura, el idioma y las consecuencias imprevistas que repercuten en otros países
  • Los financiadores de todo el mundo deben ponerse de acuerdo sobre las condiciones necesarias para apoyar un sistema de I+D sano y vibrante
  • Los financiadores deben trabajar juntos para lograr una coordinación de alto nivel sobre lo que se valora y evalúa, ya que la colaboración puede generar un cambio sistémico.

5. Todas las partes interesadas en el ecosistema de I+D desempeñan un papel vital en su construcción

  • Todas las partes interesadas deben colaborar en el desarrollo y la evaluación de la investigación y resistirse a a echar la culpa a otras partes.
  • La resistencia al cambio debe contrarrestarse recompensando las evaluaciones responsables
  • La aceptación de nuevos enfoques puede lograrse mediante la cocreación.

Proceso de evaluación y criterios de selección de la revista Web of Science

Web of Science Core Collection journal evaluation criteria

PDF Inglés

Ver completo

Según Clarivate los principios básicos del proceso de selección siguen siendo los mismos: objetividad, selectividad y dinámica de cobranza. Se usa un conjunto de 28 criterios para evaluar revistas; estos se dividen en 24 criterios de calidad diseñados para seleccionar el rigor editorial y las mejores prácticas a nivel de revista, y cuatro criterios de impacto diseñados para seleccionar las revistas más influyentes en sus respectivos campos utilizando la actividad de citas como el principal indicador de impacto.

Las revistas que cumplen con los criterios de calidad ingresan al Emerging Sources Citation Index ™ (ESCI). Las revistas que cumplen con los criterios de impacto adicionales ingresan al Science Citation Index Expanded ™ (SCIE), Social Sciences Citation Index ™ (SSCI) o Arts & Humanities Citation Index (AHCI) según su área temática.

En este proceso, las revistas se reevalúan primero para determinar su calidad y la evaluación de impacto está sujeta a que se cumpla con la calidad. Si se cumplen los criterios de calidad e impacto, las revistas se trasladan a una colección emblemática. El equipo editorial de Web of Science se centra en las nuevas evaluaciones durante la primera mitad del año, la segunda mitad está dedicada a las reevaluaciones. Las revistas cubiertas se evalúan continuamente para determinar su calidad.

Cuando se completa la evaluación, se informará al editor del resultado y la revista:

  • ser eliminado de la cobertura si ya no cumple con los criterios de calidad
  • o permanecer si continúa cumpliendo con los criterios de calidad.

Si la revista cumple con los criterios de calidad, se indexará cualquier contenido que falte. Si la revista se elimina de la cobertura, el contenido no se completará. En los casos más graves de incumplimiento de los estándares editoriales de la revista, según lo determinen nuestros criterios de selección, el contenido publicado puede eliminarse de Web of Science ™. Los plazos para completar una reevaluación dependerán de las circunstancias particulares de cada caso.

Triaje inicial

El propósito principal de este paso de clasificación es garantizar una identificación inequívoca de la revista enviada para evaluación y saber a quién contactar si tenemos alguna duda o inquietud. No hay un período de embargo para volver a enviarlo si una revista no pasa la clasificación inicial.

  • Contiene ISSN,
  • Título, editor,
  • URL,
  • Acceso al contenido,
  • Presencia de la política de revisión por pares,
  • Detalles de contacto.

Triaje editorial

En este paso, los editores de Web of Science revisan la revista para determinar si se merece una evaluación editorial completa. No existe un período de embargo para reenvío si una revista no pasa la clasificación editorial. Exigencias:

  • Contenido académico
  • Títulos de artículos y resúmenes de artículos en inglés
  • Información bibliográfica en escritura romana
  • Claridad del lenguaje,
  • Puntualidad y / o volumen de publicación
  • Funcionalidad del sitio web / formato de revista
  • Presencia en declaraciones éticas
  • Detalles de afiliación editorial
  • Detalles de afiliación del autor

Evaluación editorial (calidad)

En este paso, los editores de Web of Science están verificando la alineación entre el título de la revista, el alcance declarado, la composición de su comité editorial y autoría, y su contenido publicado. También buscan pruebas de rigor editorial y adherencia a los estándares de la comunidad. Si una revista no pasa este paso, el reenvío está sujeto a un período de embargo de al menos dos años.

  • Composición de la Junta Editorial
  • Validez de las declaraciones
  • Revisión por pares
  • Relevancia del contenido
  • Detalles de la subvención
  • Adherencia a los estándares comunitarios
  • Distribución de autor
  • Citas apropiadas a la literatura

Evaluación editorial (impacto)

Los criterios en este paso están diseñados para seleccionar las revistas más influyentes en un campo de investigación determinado, utilizando la actividad de citas como un indicador principal de impacto. Si una revista no pasa este paso, la reevaluación está sujeta a un período de embargo de al menos dos años.

  • Análisis comparativo de citas
  • Análisis de citas del autor
  • Análisis de citas de la junta editorial
  • Importancia del contenido

El impacto de las bibliotecas públicas en Dinamarca: Un refugio para la comunidad

The impact of public libraries in Denmark: A haven in our community. conducted by Seismonaut and Roskilde Central Library
February 2021

Texto completo

A guide to the Impact Compass : The impact of public libraries in Denmark: A haven in our community conducted by Seismonaut and Roskilde Central Library
March 2021

Texto completo

Un reciente informe de Dinamarca que arroja luz sobre las diferentes formas en que las bibliotecas públicas marcan la diferencia en la vida de las personas, y cómo podemos medirlo.

¿Cómo entendemos y hablamos del valor y el impacto de una biblioteca? ¿Cómo afecta a las personas y a las comunidades? En el público danés el debate sobre las bibliotecas suele referirse a un puñado de cifras clave establecidas: Cuántas personas visitan nuestras bibliotecas públicas y cuántos materiales toman prestados. Son datos importantes que dicen algo sobre el uso de las bibliotecas públicas, pero no nos dan realmente una idea del valor y el impacto que tienen las bibliotecas públicas en las personas y las comunidades.

La Biblioteca Central de Roskilde se ha asociado con Seismonaut para poner a las personas y las comunidades en el centro del debate de la biblioteca pública por ello ha publica esta guía del usuario de la metodología en inglés para que otros puedan utilizarla. El objetivo es tanto crear una visión significativa de lo que significa la biblioteca pública danesa para la gente y el impacto y el valor que aportan a las comunidades, como inspirar a otras bibliotecas e instituciones de la cultura a adoptar esta lógica, asumir el método y diseñar y construir nuevas ideas y conocimientos locales.

Indicadores de impacto normalizado: origen, cálculo, limitaciones y aplicaciones a la política científica.

Indicadores de impacto normalizado: origen, cálculo, limitaciones y aplicaciones a la política científica. UNIR. Con Daniel Torres-Salinas

Los indicadores de Impacto Normalizado son adecuados para monitorizar, contextualizar y comparar el impacto de nuestro currículum y artículos científicos. También para analizar la trayectoria de un grupo de investigación… Se pueden utilizar como indicio de calidad en las solicitudes de ANECA, CNEAI, Ramón y Cajal, en la defensa de plazas de profesorado, etc. Estos indicadores se han popularizado ampliamente en España por las convocatorias Apoyo y acreditación de Centros de Excelencia Severo Ochoa y Unidades de Excelencia María de Maeztu. Desde el punto de vista bibliométrico uno de los criterios de evaluación más llamativos es la necesidad de que los investigadores garantes tengan un Impacto Normalizado de, como mínimo, 1,5. En este Seminario, Daniel-Torres Salinas, director de la Unidad de evaluación científica de la Universidad de Granada, analiza críticamente el origen de los indicadores de impacto normalizado de citación, como por ejemplo Crown Indicator, Category Normalized Citation Impact (Incites) o Field Weighted Citation Impact (SciVal). Y muestra cómo se calculan sus diferentes versiones, así como sus ventajas y limitaciones.

La investigación en Ciencias Sociales poco confiable recibe más atención que los estudios más sólidos

Unreliable social science research gets more attention than solid studies
By Cathleen O’Grady. Science May. 21, 2021 , 2:15 PM

Ver noticia completa

En 2011, un sorprendente trabajo de psicología causó sensación en las redes sociales, las noticias y el mundo académico: Las personas utilizaban Internet como una forma de memoria “externa”, según el estudio, confiando en ella para obtener información en lugar de recordar los hechos por sí mismos. En 2018, un hallazgo clave de ese documento no se replicó cuando un equipo de psicólogos lo puso a prueba junto con otros 20 estudios de ciencias sociales de alto perfil.

Sin embargo, el artículo original ha sido citado 1417 veces, y más de 400 de esas citas se produjeron después del proyecto de replicación de 2018. Eso es mucho más, en promedio, que los artículos del proyecto que sí se replicaron. Ahora, un nuevo estudio refuerza la popularidad de los estudios poco fiables: Los artículos de ciencias sociales que no se replicaron acumulan 153 citas más, de media, que los artículos que se replicaron con éxito.

Este último resultado es “bastante condenatorio”, dice el científico cognitivo de la Universidad de Maryland, College Park, Michael Dougherty, que no participó en la investigación. “El recuento de citas se ha considerado durante mucho tiempo como un indicador de la calidad de la investigación”, afirma, por lo que la conclusión de que la investigación menos fiable se cita más apunta a un “problema fundamental” en la forma de evaluar este tipo de trabajos.

Los economistas Marta Serra-García y Uri Gneezy, de la Universidad de California en San Diego, estaban interesados en saber si las ideas de investigación llamativas recibían más atención que las mundanas, aunque tuvieran menos probabilidades de ser ciertas. Para ello, recopilaron datos sobre 80 artículos de tres proyectos diferentes que habían tratado de replicar importantes hallazgos de las ciencias sociales, con distintos niveles de éxito.

Según informan hoy en Science Advances, el número de citas en Google Scholar fue significativamente mayor para los trabajos que no lograron replicar, con un aumento medio de 16 citas adicionales por año. Se trata de una cifra importante, dicen Serra-García y Gneezy, ya que los artículos publicados en revistas de alto impacto en el mismo periodo de tiempo acumularon un total de unas 40 citas al año de media.

Y cuando los investigadores examinaron las citas de los artículos publicados después de los proyectos de replicación más importantes, descubrieron que los artículos rara vez reconocían el fracaso de la replicación, mencionándolo sólo el 12% de las veces.

Los científicos quieren que su trabajo sea preciso, pero también quieren publicar resultados que llamen la atención. Es posible que los revisores bajen el listón de las pruebas cuando los resultados son especialmente sorprendentes o emocionantes, dice, lo que podría significar que los resultados sorprendentes y las pruebas más débiles van a menudo de la mano. Esto apunta a la necesidad de adoptar salvaguardias adicionales para reforzar la credibilidad de los trabajos publicados, como un umbral más alto para lo que se considera una buena prueba, y un mayor esfuerzo para centrarse en cuestiones y métodos de investigación sólidos, en lugar de hallazgos llamativos.

El resultado coincide con estudios anteriores que sugieren que la investigación popular es menos fiable. Un estudio de 2011 en Infection and Immunity, por ejemplo, encontró que las revistas de alto impacto tienen mayores tasas de retracción que las de menor impacto. Y la investigación de Dougherty -actualmente un preprint no revisado– ha encontrado que los artículos más citados se basaban en datos más débiles, dice. Pero un artículo publicado en 2020 en la revista Proceedings of the National Academy of Sciences, que analizaba una muestra diferente de artículos, no encontró ninguna relación entre las citas y las réplicas. Esto sugiere que la muestra de artículos podría ser realmente importante, dice Pfeiffer; por ejemplo, el efecto podría ser particularmente fuerte en las revistas de alto impacto.

Análisis conjunto de las preferencias ocultas de los investigadores por la bibliometría, la altmetría y las métricas de uso. 

Indicadores del experimento seleccionados como más útiles para decidir qué publicaciones leer

Lemke, S, Mazarakis, A, Peters, I. Conjoint analysis of researchers’ hidden preferences for bibliometrics, altmetrics, and usage metricsJ Assoc Inf Sci Technol. 2021; 72: 777– 792. https://doi.org/10.1002/asi.24445

Texto completo

El número de artículos académicos que se publican anualmente no deja de crecer, al igual que el número de indicadores con los que se mide el impacto de las publicaciones. Se sabe poco sobre cómo la creciente variedad de indicadores disponibles afecta a los procesos de selección de la literatura que leen los investigadores.

Se realizaron experimentos de clasificación integrados en una encuesta en línea con 247 investigadores participantes, la mayoría de ellos de ciencias sociales. Los participantes completaron una serie de tareas en las que se les pedía que clasificaran publicaciones ficticias en función de su relevancia esperada, basándose en sus puntuaciones respecto a seis métricas prototípicas. Mediante la aplicación de la regresión logística, el análisis de conglomerados y la codificación manual de las respuestas a la encuesta, se obtuvieron datos detallados sobre el modo en que las métricas destacadas del impacto de la investigación influyeron en los participantes a la hora de decidir qué artículos científicos leer.

Las respuestas a la encuesta revelaron una combinación de características cualitativas y cuantitativas que los investigadores consultan a la hora de seleccionar la bibliografía, mientras que el análisis de regresión mostró que, entre las métricas cuantitativas, el recuento de citas tiende a ser el que más preocupa, seguido de los factores de impacto de las revistas.

Los resultados sugieren una opinión comparativamente favorable de muchos investigadores sobre la bibliometría y un escepticismo generalizado hacia la altmetría. Los resultados subrayan la importancia de dotar a los investigadores de conocimientos sólidos sobre las limitaciones de las métricas específicas, ya que parecen desempeñar un papel importante en la evaluación diaria de la relevancia por parte de los investigadores.

Ranking de instituciones de investigación Scimago 2021

Mundial

Iberoamérica

España

Universidad de Salamanca

SCImago Institutions Rankings (SIR) es una clasificación de instituciones académicas y relacionadas con la investigación ordenadas por un indicador compuesto que combina tres conjuntos diferentes de indicadores basados en el rendimiento de la investigación, los resultados de la innovación y el impacto social medido por su visibilidad en la web.

El ranking ofrece una interfaz amigable que permite la visualización de cualquier clasificación personalizada a partir de la combinación de estos tres conjuntos de indicadores. Además, es posible comparar las tendencias de los indicadores individuales de hasta seis instituciones. Para cada gran sector también es posible obtener gráficos de distribución de los diferentes indicadores.

Las instituciones pueden agruparse por los países a los que pertenecen. También se han incluido las instituciones multinacionales (MUL) que no pueden atribuirse a ningún país. Las instituciones también pueden agruparse por sectores (Universidades, Sanidad, Gobierno,… ).

A efectos de la clasificación, el cálculo se genera cada año a partir de los resultados obtenidos durante un periodo de cinco años que termina dos años antes de la edición de la clasificación. Por ejemplo, si el año de publicación seleccionado es 2021, los resultados utilizados son los del quinquenio 2015-2019. La única excepción es el caso de los indicadores web, que sólo se han calculado para el último año. El criterio de inclusión es que las instituciones hayan publicado al menos 100 obras incluidas en la base de datos SCOPUS durante el último año del periodo seleccionado. La base de datos Unpaywall se utiliza para identificar los documentos de acceso abierto. Para el Factor Social se utilizan Altmetrics de PlumX metrics y Mendeley.

El objetivo del SIR es proporcionar una herramienta métrica útil para las instituciones, los responsables políticos y los gestores de la investigación para el análisis, la evaluación y la mejora de sus actividades, productos y resultados. El mejor cuartil lo obtiene la institución en su país comparando los cuartiles basados en el indicador global, el factor de investigación, el factor de innovación y el factor social.

¿Qué sucede cuando una revista se convierte a acceso abierto? Un análisis bibliométrico

Momeni, Fakhri.. [et al.]. What Happens When a Journal Converts to Open Access? A Bibliometric Analysis Scientometrics
arXiv:2103.14522
March 26, 2021

Texto completo

El aumento de la presión de las partes interesadas para hacer la transición de la investigación al acceso abierto ha llevado a que muchas revistas se conviertan o cambien de un modelo de publicación de acceso cerrado (CA) a uno de acceso abierto (OA). Cambiar el modelo de publicación puede influir en la decisión de los autores de enviar los artículos a una revista, y una mayor accesibilidad a los artículos puede influir en el comportamiento de las citas. En este artículo, el objetivo era comprender cómo cambiar una revista a un modelo de acceso abierto influye en los volúmenes de publicación futuros y el impacto de las citas de la revista. 

Se analizaron dos conjuntos independientes de revistas que habían cambiado a un modelo de acceso abierto, uno del Directory of Open Access Journals (DOAJ) y otro del Open Access Directory (OAD), y se comprobó su desarrollo en dos grupos de control respectivos de revistas similares.

Se evaluaron los cambios en el número de artículos publicados a lo largo del tiempo, así como dos métricas de citas a nivel de revista y artículo: el factor de impacto normalizado (IF) y el promedio de citas relativas (ARC), respectivamente. Los resultados muestran que, en general, las revistas que cambiaron a un modelo de acceso abierto aumentaron su producción de publicaciones en comparación con las revistas que permanecieron cerradas. La media normalizada de IF y ARC también aumentó generalmente después del cambio a un modelo de OA, a una tasa mayor que la observada en los grupos de control. Sin embargo, los cambios parecen variar en gran medida según la disciplina científica. En general, estos resultados indican que cambiar a un modelo de publicación de OA puede traer cambios positivos a una revista.