Archivo de la etiqueta: Impacto

Más allá del donut: cinco formas de utilizar las «almetrics» para el éxito académico

Impact of Social Sciences. «Beyond the Doughnut – Five Ways to Use Altmetrics for Academic Success», 1 de junio de 2023.

Texto completa

Una década después de su creación, Andy Tattersall analiza cómo los académicos pueden hacer uso de las altmétricas más allá de los recuentos y las métricas.

El artículo analiza el uso de las altmetrics (métricas alternativas) como una herramienta para evaluar el impacto académico más allá de las métricas tradicionales, como las citas en revistas científicas. El autor destaca cinco formas en las que las altmetrics pueden ser utilizadas para lograr el éxito académico:

  1. Comprender el impacto en línea: Las altmetrics permiten rastrear el impacto de la investigación más allá de las publicaciones académicas tradicionales, incluyendo menciones en redes sociales, blogs y medios de comunicación. Esto proporciona una visión más completa del alcance y la influencia de la investigación.
  2. Identificar colaboraciones potenciales: Las altmetrics pueden ayudar a identificar investigadores y grupos de investigación con intereses similares y con un impacto significativo en sus respectivas áreas. Esto facilita la colaboración y el intercambio de conocimientos.
  3. Evaluar el impacto temprano: Las altmetrics pueden proporcionar una evaluación temprana del impacto de la investigación, incluso antes de que se publiquen las citaciones académicas formales. Esto puede ser especialmente útil para investigadores que desean demostrar el impacto de su trabajo en etapas tempranas de sus carreras.
  4. Mejorar la visibilidad y el alcance: Al promover la investigación a través de plataformas en línea y redes sociales, las altmetrics pueden aumentar su visibilidad y alcanzar a audiencias más amplias. Esto puede llevar a un mayor reconocimiento y oportunidades de colaboración.
  5. Recopilar evidencia para evaluaciones: Las altmetrics pueden proporcionar evidencia adicional para complementar las evaluaciones tradicionales basadas en citas. Al incluir datos de altmetrics en los informes de actividad académica, los investigadores pueden demostrar un impacto más amplio y diverso de su trabajo.

En conclusión, el artículo destaca que las altmetrics ofrecen nuevas formas de evaluar y medir el impacto académico, complementando las métricas tradicionales. Su uso puede ayudar a los investigadores a comprender mejor el impacto de su trabajo, identificar oportunidades de colaboración, evaluar el impacto temprano, aumentar la visibilidad y recopilar evidencia adicional para evaluaciones académicas.

Los artículos de acceso abierto se citan mucho y cada vez más en Wikipedia

Yang, Puyu, Ahad Shoaib, Robert West, y Giovanni Colavizza. «Wikipedia and open access». arXiv, 23 de mayo de 2023. https://doi.org/10.48550/arXiv.2305.13945.

Wikipedia es una conocida plataforma de difusión del conocimiento, y las fuentes científicas, como los artículos de revistas, desempeñan un papel fundamental en apoyo de su misión. El movimiento de acceso abierto tiene como objetivo hacer que el conocimiento científico esté disponible abiertamente, e intuitivamente podríamos esperar que el acceso abierto ayude a promover la misión de Wikipedia. Sin embargo, se desconoce en gran medida el alcance de esta relación. Para llenar este vacío, se analizaron un gran conjunto de datos de citas de Wikipedia cuyo objetivo era analizar el papel del acceso abierto en los patrones de citación de Wikipedia.

Se descubrió que los artículos de acceso abierto se citan mucho y cada vez más en Wikipedia. Es más, muestran una probabilidad un 15% mayor de ser citados en Wikipedia en comparación con los artículos de acceso cerrado, después de controlar los factores de confusión. Este efecto de citación del acceso abierto es particularmente fuerte en el caso de los artículos con bajo número de citas, incluidos los publicados recientemente.

Los resultados demuestran que el acceso abierto desempeña un papel clave en la difusión del conocimiento científico, entre otras cosas al proporcionar a los editores de Wikipedia acceso oportuno a resultados novedosos. Estas conclusiones tienen importantes implicaciones para investigadores, responsables políticos y profesionales del campo de la ciencia y la tecnología de la información.

Resultados de la encuesta sobre el estado de la métrica responsable de 2021 (2022)

Figura 8 Fuentes de datos utilizadas para acceder a los datos de las métricas

Price, Robyn. «Results from the 2021 Responsible Metrics State of the Art Survey». The Bibliomagician (blog), 4 de agosto de 2022.

Ver completo


Ya están aquí los resultados de la séptima encuesta anual sobre el estado de la métrica responsable. Con un poco de retraso sobre nuestro calendario habitual de publicación, a continuación encontrará el resumen de los resultados de la encuesta de 2021 y algunas reflexiones sobre las tendencias desde que la comunidad de Bibliometría LIS inició la encuesta en 2015. Los resultados de las encuestas de años anteriores también están disponibles.

Se recibieron un total de 91 respuestas a la encuesta de 2021. Esta cifra es inferior a la recibida en 2020 (139 respuestas), que a su vez supuso un descenso sustancial con respecto a 2019 (218 respuestas). Aunque desconocemos la razón de este descenso (¿carga de trabajo por la pandemia? ¿Fatiga por las encuestas?), estamos muy agradecidos a los que respondieron y espero que muchos encuentren útil esta información.

La variedad de países representados en las respuestas muestra que el 73% de los encuestados trabajan fuera del Reino Unido.

DORA


La proporción de encuestados que informan que ya han firmado o es probable que firmen DORA sigue aumentando año tras año, del 30% en 2019; 32% en 2020 al 40% en 2021. Los factores contextuales en torno a esto podrían incluir el Wellcome Trust nombrando explícitamente a DORA como una ruta para que las organizaciones de financiación cumplan con su política de acceso abierto en 2018 y el nombramiento explícito de DORA por cOAlition S. Del 17% de los encuestados que informaron estar considerando activamente pero aún no decididos, los comentarios sobre la consideración de «perspectiva(s) disciplinaria(s)» y la firma potencial de DORA a un «‘nivel de unidad’ en lugar de un nivel universitario» indican perspectivas potencialmente diferentes sobre DORA a través de las líneas de la facultad o escuela.

Desarrollo de principios institucionales

Las organizaciones también pueden desarrollar su propio conjunto de principios de métrica responsable, y el porcentaje de encuestados que afirman haber creado o estar desarrollando sus propios principios ha aumentado de forma constante, llegando al 44% de los encuestados en 2021. Las organizaciones también pueden ser signatarias de DORA y desarrollar sus propios principios.

Fuentes de datos y herramientas

Las fuentes de datos que las instituciones encuestadas podían seleccionar para indicar que las utilizan para obtener informes de métricas muestran una popularidad sostenida de Scopus (23%) y Web of Science (20%) con respecto a los informes del año anterior, así como las plataformas institucionales (el CRIS y el Repositorio Institucional) y Google Scholar como fuentes. (Fig.8)

También se preguntó a los encuestados qué herramientas utilizan, lo que muestra la gran variedad de tipos de herramientas y estilos de análisis utilizados en el sector. La popularidad de herramientas como SciVal, Altmetric e InCites muestra la preferencia por herramientas que no necesitan conocimientos de codificación para recuperar datos y pueden crear indicadores con una construcción y un mantenimiento mínimos. SQL, VOSViewer y Bibliometrix/Biblioshiny demuestran la experiencia y los recursos del sector bibliométrico en materia de ciencia de datos y conocimientos de programación para crear soluciones personalizadas. La presencia de Google Big Query y PowerBI es especialmente interesante, ya que ninguno de los dos aparecía en los resultados de la encuesta de 2020, pero su uso cada vez mayor sugiere que, junto con Tableau, las instituciones están cada vez más interesadas en crear sus propios cuadros de mando de inteligencia empresarial y análisis, quizás para el acceso autoservicio a los datos de los usuarios que pueden conectarse a los almacenes de datos institucionales y fusionar múltiple (Fig. 9)

Figura 9 Herramientas utilizadas para construir métricas

Conclusiones

Dos tendencias continuas realmente positivas de 2015 a 2021 son el aumento del porcentaje de encuestados que afirman que su institución ha creado su propia política de métricas responsables (40% de los encuestados en 2021) y que ya se han comprometido o se comprometerán con DORA (40% de los encuestados en 2021). Esto, en mi interpretación, sugiere que hay un impulso en las instituciones para construir de manera significativa sus propios enfoques de evaluación basados en valores, así como para comprometerse con el programa global DORA y buscar su fortaleza. La intersección con otros marcos, como el Manifiesto de Leiden, y la adaptación de las políticas de otras instituciones también sugieren una cultura de flexibilidad e intercambio.

Algunas de las repercusiones citadas por los encuestados de sus políticas de métrica responsable en sus procesos institucionales son bastante notables, y algunas personas describen cambios positivos y tangibles que afectan a los procedimientos de RRHH y de evaluación. Algunos, por supuesto, también admitieron la lentitud de estos cambios y cierto apego persistente al Factor de Impacto en la evaluación. Entre las áreas en las que quizás todavía no se han tomado medidas para informar, o no se está dispuesto a hacerlo, se encuentran los mecanismos de cumplimiento. Esto puede estar relacionado con el 25% de los encuestados que afirmaron que la respuesta académica a las políticas de métricas responsables era «neutral», lo que sugiere que, en realidad, esto es difícil de captar y categorizar.

El número cada vez menor de encuestados que se someten a esta encuesta de 2019 a 2021 es una causa para que los autores contemplen si esto sigue siendo un recurso útil creado a partir del tiempo voluntario del Comité LIS-Bibliometrics. Si usted es lector y opina lo contrario, ¡háganoslo saber! Los comentarios, como siempre, están abiertos, al igual que el listserv y nuestra cuenta de Twitter.

Contribuciones: Encuesta de 2021 elaborada y distribuida por Nicolas Robinson Garcia, basada en encuestas históricas elaboradas por Lizzie Gadd; con análisis y redacción de 2021 por Robyn Price.

WeEditors.org: hacia la visibilidad y sostenimiento de revistas en acceso abierto

Díaz-Chieng, L. Y., Aviles Peralta , Y. A., Artigas, W., & Bustamante Cabrera, G. (2023). WeEditors.org: hacia la visibilidad y sostenimiento de revistas en acceso abiertoPalabra Clave (La Plata)12(2), e191. https://doi.org/10.24215/18539912e191

PDF

En los últimos años, la creación de redes sociocientíficas ha sido la norma, debido al gran impulso que puede significar agruparse y desarrollar actividades en conjunto para el logro de un fin común. En 2020 se creó la red WeEditors.org que nació de la iniciativa de tres editores de revistas científicas que querían conforman un grupo en donde se apostara por la profesionalización y se impulsaran a las revistas iberoamericanas, partiendo de la idea de que haciendo un grupo en donde convergieran revistas experimentadas y revistas nuevas, pudiera servir para transferir conocimientos y lograr en suma el mejoramiento de los procesos en la búsqueda de un posicionamiento de la ciencia latinoamericana. El objetivo de este artículo es caracterizar las revistas de la red WeEditors.org para el trazado de estrategias en pos del fortalecimiento y avance de dicha red. Se realizó un estudio descriptivo observacional durante el periodo comprendido entre los meses de mayo-junio de 2022, como fuente primaria fue empleada la base de datos Excel que forma parte del registro de dicha red, la cual contaba con un total de 98 revistas (N ꓿ 98). La realización de este estudio recopiló información interesante y suficiente para el diseño e implementación de actividades futuras a desarrollar sobre capacitaciones prácticas, implementación de publicación continua, de Ciencia Abierta, empleo de taxonomía CRediT y de código ORCID. La sistematización de este tipo de estudios de caracterización es vital para el trazado de las estrategias pertinentes y realizar las comparaciones para el análisis de la evolución de la red. Aún queda camino por recorrer, pero el futuro parece prometedor.

Construir una comunidad de evaluación en bibliotecas universitarias: Marco de Impacto de las Bibliotecas de Investigación (RLIF)

Baughman, Sue, Ava Brillat, Gordon Daines, Greg Davis, Stephanie JH McReynolds, and Margaret Roller. Building a Community of Assessment: Final Report of the Research Library Impact Framework Pilot Initiative. With an executive summary by Kevin Borden. Washington, DC: Association of Research Libraries, March 10, 2023. 

Ver informe

La iniciativa piloto Research Library Impact Framework (RLIF) de la Association of Research Libraries (ARL), establecida en 2019, ha publicado su informe final, Building a Community of Assessment. El informe detalla los proyectos de investigación, los hallazgos y las lecciones aprendidas realizadas en la fase piloto de este marco. También incluye información sobre el propio marco como medio para explorar y aprender sobre los impactos de las bibliotecas de investigación. Por último, el informe identifica los próximos pasos y las consideraciones potenciales para cualquier implementación futura.

El RLIF proporciona una estructura para examinar los servicios bibliotecarios, las operaciones, el impacto y la alineación con la misión y los objetivos institucionales en cuatro áreas críticas: Investigación y ciclo de vida académico; Enseñanza, aprendizaje y éxito de los estudiantes; Colecciones; y Espacio físico. El marco completo incluye 185 preguntas de investigación potenciales en estas áreas críticas. Sin embargo, el marco también pretende ser flexible y modular, permitiendo modificaciones y ajustes basados en cuestiones destacadas a las que se enfrentan las bibliotecas de investigación. De este modo, el marco sirve como herramienta para organizar y priorizar los esfuerzos de investigación.

La iniciativa Research Library Impact Framework (LG-18-19-0092) ha sido posible en parte gracias al Institute of Museum and Library Services (IMLS). Las opiniones, resultados, conclusiones o recomendaciones expresadas en este proyecto no representan necesariamente las del IMLS.

Futuros cambios en Journal Citation Reports para 2024

Editor-in-Chief, Nandita Quaderi, Vice President Editorial, y Web of Science Clarivate. «Mapping the Path to Future Changes in the Journal Citation Reports». Clarivate (blog), 7 de marzo de 2023. https://clarivate.com/blog/mapping-the-path-to-future-changes-in-the-journal-citation-reports/.

En julio de 2022, se cumplieron los planes para ampliar el Journal Impact Factor (JIF)™ a todas las revistas de la Web of Science Core Collection™ a partir de junio de 2023. Esto significa que este año, las revistas del Arts and Humanities Citation Index (AHCI)™ y del multidisciplinar Emerging Sources Citation Index (ESCI)™ en el Journal Citation Reports (JCR)™ recibirán un JIF por primera vez.

Recordamos que esta novedad obedece a dos motivos: Dar a todas las revistas de calidad un JIF proporcionará total transparencia a todos y cada uno de los artículos y citas que han contribuido al impacto académico de una revista, ayudando a demostrar su valor para la comunidad investigadora. También contribuirá a nivelar el terreno de juego para todas las revistas de calidad, incluidas las de acceso abierto, las de reciente creación o las especializadas, o las de ámbito regional y las del Sur Global.

Como resultado de este desarrollo, otras 9.000 revistas del JCR recibirán un JIF y se beneficiarán por primera vez de una página de perfil de revista mejorada. Además, se muestra el JIF con un decimal, en lugar de los tres decimales actuales, para animar a los usuarios a tener en cuenta otros indicadores y datos descriptivos del JCR a la hora de comparar revistas.

Clasificaciones por categorías en la versión 2023 del JCR

Este año se sugiere proporcionar clasificaciones por categorías y asignando cuartiles JIF solo para las revistas indexadas en el Science Citation Index Expanded (SCIE)™ y el Social Sciences Citation Index (SSCI)™.

También proporcionar clasificaciones separadas para las nueve categorías temáticas que están indexadas en múltiples ediciones. Por ejemplo, la Psiquiatría está incluida tanto en el SCIE como en el SSCI; este año, las revistas de Psiquiatría del SCIE seguirán clasificándose por separado de las revistas de Psiquiatría del SSCI.

El hecho de que el JIF se muestre con un decimal hará que las clasificaciones estén más igualadas. Esto afectará a la distribución de los cuartiles del JIF, ya que los cuartiles se calculan en función del número de posiciones en el ranking de una categoría determinada, y no simplemente del número de revistas de una categoría dividida equitativamente en cuatro (Figura 1).

Fig. 1

La distribución por cuartiles ha dado lugar normalmente a que aproximadamente el 25% de las revistas estén contenidas en cada cuartil, ya que los empates han sido poco frecuentes. Sin embargo, al aumentar el número de empates, la distribución cambia. Las revistas empatadas en el mismo rango no pueden dividirse entre dos cuartiles y con el aumento del número de empates veremos que algunos cuartiles contendrán un número mayor o menor de revistas que en años anteriores.

La fórmula para calcular los cuartiles puede encontrarse aquí

¿Cómo serán las clasificaciones por categorías en 2024?

En la versión del JCR del próximo año, se añadirán las revistas AHCI y ESCI a las clasificaciones por categorías del JCR y se asignarán a cuartiles JIF. Ya no habrá rankings de categorías específicos para cada edición y, en su lugar, se creará un único ranking para cada una de nuestras 254 categorías que incluirá revistas de las cuatro ediciones (SCIE, SSCI, AHCI y ESCI). Una vez más, tomando Psiquiatría como ejemplo, se mostrará un único ranking de Psiquiatría que incluye revistas indexadas en SCIE, SSCI y ESCI.

En el caso de AHCI, se introducirá por primera vez clasificaciones para las 25 categorías únicas específicas de artes y humanidades. No habrá categorías específicas de ESCI; todas las revistas indexadas en ESCI entran dentro de las 254 categorías temáticas existentes en SCIE, SSCI y AHCI.

La inclusión de 9.000 revistas adicionales de AHCI y ESCI en las clasificaciones por categorías del JIF también afectará a las clasificaciones generales y a la distribución por cuartiles el próximo año.

¿Por qué se está adoptando un enfoque gradual?

Se está ampliando el JIF a AHCI y ESCI y pasando a una visualización de un punto decimal del JIF este año y, a continuación, se incluirán las revistas AHCI y ESCI en las clasificaciones por categorías el próximo año, con el fin de proporcionar transparencia sobre cómo cada uno de estos cambios afecta por separado a las clasificaciones y cuartiles del JIF.

Esta es la primera de una serie de actualizaciones y análisis sobre cómo la ampliación del JIF a más revistas de calidad se traducirá en cambios en las clasificaciones y cuartiles en JCR y explicará cómo los usuarios pueden utilizar los filtros de JCR para ver clasificaciones que sólo incluyan revistas de ediciones de interés. Marque esta página y permanezca atento a nuevas actualizaciones.

Repensar el impacto de los datos abiertos: un primer paso hacia una evaluación europea del impacto de los datos abiertos

                                             

Publications Office of the European Union, Ooijen, C., Osimo, D., Regeczi, D., et al., Rethinking the impact of open data : a first step towards a European impact assessment for open data, Publications Office of the European Union, 2023, https://data.europa.eu/doi/10.2830/911822

Este informe es el primero de una serie de cuatro cuyo objetivo es establecer una metodología estándar para la evaluación del impacto de los datos abiertos que pueda utilizarse en toda Europa. Este ejercicio es clave porque no existe una definición coherente del impacto de los datos abiertos.

La falta de una base conceptual sólida ha hecho más difícil para los portales de datos demostrar su valor a través de pruebas empíricas. También pone en entredicho la capacidad de la UE para comprender y comparar los resultados de los distintos Estados miembros. La mayoría de los artículos académicos que buscan explorar el impacto de los datos hacen referencia a los marcos de datos abiertos existentes, siendo los de madurez de datos abiertos (ODM) y barómetro de datos abiertos (ODB) los más frecuentemente representados.

Estos dos marcos distinguen entre distintos tipos de impacto, y ambos mencionan en particular el impacto social, político y económico. El ODM también incluye en su marco el impacto medioambiental. A veces, estos marcos divergen de las propias recomendaciones de la Comisión Europea sobre la mejor manera de medir el impacto, como se explica en secciones específicas de las directrices para legislar mejor y la caja de herramientas para legislar mejor. Ayudan a responder a una pregunta fundamental para los responsables políticos: ¿son mayores los beneficios que se obtienen que los costes de recopilar y distribuir datos (abiertos)? En futuros informes de esta serie se estudiará cómo adaptar mejor los marcos existentes, como el MDD, a estas directrices de importancia crítica.

Del Estudio Economic Impact of Open Data: Opportunities for value creation in Europe (2020)

Por último, el informe también examina ejemplos y reflexiones sobre la reutilización de datos abiertos en las organizaciones. A continuación se resumen las principales conclusiones

  • La especificación e implementación de conjuntos de datos de alto valor como parte de la nueva Directiva de Datos Abiertos es una oportunidad prometedora para abordar las demandas de calidad y cantidad de los datos abiertos.
  • Abordar las demandas de calidad y cantidad es importante, pero no suficiente para alcanzar todo el potencial de los datos abiertos.
  • Los reutilizadores de datos abiertos tienen que ser conscientes y capaces de comprender y aprovechar su potencial.
  • La creación de valor de los datos abiertos forma parte del reto más amplio de la transformación de competencias y procesos: un proceso largo cuyo cambio e impacto no siempre son fáciles de observar y medir.
  • Las iniciativas sectoriales y la colaboración entre los sectores público y privado fomentan la creación de valor.
  • La combinación de datos abiertos con datos personales, compartidos o procedentes de crowdsourcing es vital para hacer realidad un mayor crecimiento del mercado de datos abiertos.
  • Para los distintos retos, debemos explorar y mejorar múltiples enfoques de reutilización de datos que sean éticos, sostenibles y adecuados a su finalidad.

¿Cuáles de los metadatos relevantes para bibliometría son iguales y cuáles diferentes al pasar de Microsoft Academic Graph a OpenAlex?

Scheidsteger, Thomas, y Robin Haunschild. «Which of the metadata with relevance for bibliometrics are the same and which are different when switching from Microsoft Academic Graph to OpenAlex?» Profesional de La Información 32, n.o 2 (4 de marzo de 2023). https://doi.org/10.3145/epi.2023.mar.09.

PDF Español

PDF Inglés

Con el anuncio de la retirada de Microsoft Academic Graph (MAG), la organización sin ánimo de lucro OurResearch anunció que proporcionaría un recurso similar bajo el nombre de OpenAlex. Así pues, se compararon los metadatos relevantes para los análisis bibliométricos de la última instantánea de MAG con una de las primeras de OpenAlex. Prácticamente todas las obras de MAG se transfirieron a OpenAlex conservando sus datos bibliográficos año de publicación, volumen, primera y última página, DOI, así como el número de referencias que son ingredientes importantes del análisis de citas. Más del 90% de los documentos MAG tienen tipos de documento equivalentes en OpenAlex. De los restantes, especialmente las reclasificaciones a los tipos documentales journal-article y book-chapter de OpenAlex parecen ser correctas y ascienden a más del 7%, por lo que las especificaciones de los tipos documentales han mejorado significativamente de MAG a OpenAlex. Como otro elemento de metadatos de relevancia bibliométrica, examinamos la clasificación temática de los documentos en MAG y en OpenAlex. Encontramos un número significativamente mayor de documentos con una asignación de clasificación temática en OpenAlex que en MAG. En el primer y segundo nivel, la estructura de clasificación es casi idéntica. Presentamos datos sobre las reclasificaciones de materias en ambos niveles en forma de tabla y gráfico. La evaluación de las consecuencias de las abundantes reclasificaciones de materias en las evaluaciones bibliométricas normalizadas por campos no entra dentro del ámbito del presente artículo. Aparte de esta cuestión abierta, OpenAlex parece ser en general al menos tan adecuado para los análisis bibliométricos como MAG para los años de publicación anteriores a 2021 o quizás incluso mejor debido a la cobertura más amplia de las asignaciones de tipos de documentos.

Clarivate añade un índice de citas de preprints a Web of Science

Preprint Citation Index

Clarivate ha añadido «Preprint Citation Index»a la plataforma Web of Science, se trata una colección multidisciplinar de preprints procedentes de una amplia gama de los principales repositorios de preprints. La finalidad de este cambio es que los investigadores puedan localizar y enlazar a preprints junto a otros contenidos de confianza en la base de datos, para agilizar el proceso de investigación y ayudar a establecer conexiones significativas más rápidamente.

En la publicación académica, un preprint es una versión de un trabajo de investigación o resultado disponible públicamente en repositorios en línea antes de la revisión por pares. El acceso a los preprints en la Web of Science agiliza y facilita a los investigadores su inclusión en los flujos de trabajo de investigación existentes. Permite el acceso inmediato a preprints actualizados, agregados y con capacidad de búsqueda desde repositorios seleccionados vinculados a los perfiles de los autores.

En el momento de su lanzamiento, Preprint Citation Index ofrece casi dos millones de preprints de los repositorios arXiv, bioRxiv, chemRxiv, medRxiv y Preprints.org. A lo largo de 2023 se añadirán documentos de más de una docena de repositorios adicionales. Los registros de preprints se pueden encontrar junto con otros resultados académicos en Web of Science y están conectados a las versiones finales de los registros, si procede. Aparecen claramente marcados en los resultados de búsqueda y no se incluyen en ninguna métrica de citas, como Times Cited Counts o Journal Impact Factor™ (JIF) dentro de Web of Science Core Collection™ o Journal Citation Reports™.

El Preprint Citation Index permite a los usuarios:

  • Localizar versiones de registro (cuando proceda) de preprints: Encontrar y referenciar artículos revisados por pares con enlaces desde los preprints en Web of Science Core Collection.
  • Conectar preprints con artículos de revistas: Descubrir conexiones entre preprints de vanguardia indexados en el Preprint Citation Index y artículos de revistas indexados en Web of Science Core Collection mediante enlaces de citas.
  • Amplíar la visión de la experiencia de un investigador: Sitúa los preprints en el contexto de la carrera de un investigador con los preprints mostrados en el perfil de investigador de Web of Science de un autor.
  • Supervisar las nuevas investigaciones en varios repositorios: Un autor puede establecer una alerta por palabras clave o por un investigador de su interés para recibir una notificación cuando estén disponibles preprints relevantes.

Cada registro del producto contiene metadatos bibliográficos estándar como autor, resumen, palabras clave, términos descriptores, etc. Los metadatos mejorados incluyen las direcciones completas de los autores, la financiación de las subvenciones y las referencias citadas. No se incluyen metadatos completos de versiones.

FUENTE: Clarivate. «Clarivate Adds Preprint Citation Index to the Web of Science», 9 de febrero de 2023. https://clarivate.com/news/clarivate-adds-preprint-citation-index-to-the-web-of-science/.

Los rankings universitarios y sus críticos: ¿una relación simbiótica?

Impact of Social Sciences. «University Rankings and Their Critics – a Symbiotic Relationship?», 6 de febrero de 2023. https://blogs.lse.ac.uk/impactofsocialsciences/2023/02/06/university-rankings-and-their-critics-a-symbiotic-relationship/.

A pesar de ser objeto de críticas constantes, los rankings universitarios han demostrado ser una característica resistente de la vida académica. Julian Hamann y Leopold Ringel analizan esta relación y sugieren que los que elaboran las clasificaciones y sus críticos se refuerzan mutuamente.

Recientemente, las prestigiosas facultades de Derecho y Medicina de Estados Unidos anunciaron su retirada de los rankings de U.S. News & World Report. Esto se convirtió inmediatamente en noticia, porque los rankings y las instituciones de enseñanza superior (IES) de élite han desarrollado una dependencia mutua: los rankings dependen de la participación de las IES de élite y de su prestigio para mejorar su propia reputación. Las IES de élite dependen de las clasificaciones porque los antiguos alumnos, los solicitantes y los responsables políticos las juzgan en función de su clasificación.

Sin embargo, algunas IES de élite estaban dispuestas a poner fin a esta relación. En noviembre de 2022, el decano de la Facultad de Derecho de Yale declaró que «las clasificaciones sólo son útiles cuando siguen una metodología sólida y limitan sus parámetros a lo que los datos pueden captar razonablemente». En un tono similar, el decano de la Facultad de Derecho de Harvard expresó su «preocupación por algunos aspectos de la metodología de clasificación de U.S. News». Otras facultades de Derecho y Medicina siguieron su ejemplo.

¿cómo prevalecen las rankings universitarias a pesar de enfrentarse a críticas generalizadas (y a veces hostiles)? Este estudio podría ofrecer algunas pistas al respecto.

Una idea importante de nuestro estudio es que las críticas sonoras no son nada nuevo. Si los rankings son un modelo de negocio de éxito, también lo es la investigación crítica sobre los rankings (recibir una invitación para escribir en este blog es un ejemplo de ello). Identificamos dos modos de crítica de las clasificaciones que dominan tanto el discurso académico como los debates en el dominio público.

El primer modo llama la atención sobre los efectos negativos. Los rankings supuestamente producen y consolidan desigualdades, inculcan un comportamiento oportunista por parte de quienes intentan anticiparse a los criterios de clasificación y atentan contra la independencia de la educación superior y la ciencia. La segunda modalidad se refiere a las deficiencias metodológicas. Los críticos sostienen que las medidas utilizadas son demasiado burdas y simplistas, que la metodología y los datos no son suficientemente transparentes y que ni la validez ni la fiabilidad son suficientes. Sorprendentemente, las últimas críticas de las facultades de Derecho y Medicina de Estados Unidos reflejan exactamente este sentimiento, ya que invocan cuestiones metodológicas.

¿Cómo sortean los rankings estos retos? Los creadores de los rankings han desarrollado dos modos de respuesta. La primera podría caracterizarse como defensiva: Los responsables de los rankings o bien restan importancia a su propia influencia y afirman que existen muchos enfoques para medir el rendimiento de las universidades, o bien hacen hincapié en que los rankings son inevitables y «están aquí para quedarse». El segundo modo (respuestas seguras) reivindica una amplia demanda de evaluaciones del rendimiento universitario, demuestra competencia científica o temporaliza los rankings enmarcándolas como siempre necesitadas de mejora. Al hablar de cuestiones de mejora, los responsables de los rankings aluden a menudo a la importancia de obtener ayuda de los investigadores. Por ejemplo, en un folleto sobre la metodología de los Impact Rankings, Times Higher Education invita a la crítica afirmando: «¡podemos mejorar el enfoque!». En la misma línea, los representantes de los rankings de U.S. News & World Report esbozan esta postura ostentosamente constructiva: «Aunque la metodología es el resultado de años de investigación, perfeccionamos continuamente nuestro enfoque basándonos en los comentarios de los usuarios, las conversaciones con escuelas y expertos en educación superior, las revisiones bibliográficas, las tendencias de nuestros propios datos, la disponibilidad de nuevos datos y la participación de decanos e investigadores institucionales en conferencias sobre educación superior».

El punto general aquí es que los clasificadores intentan dispersar la responsabilidad mediante la asunción de sus críticos. Cabe señalar que, para que esta estrategia tenga éxito, los críticos tienen que aceptar la oferta y participar realmente en conversaciones públicas. La crítica metodológica, al parecer, es la palanca clave para iniciar y mantener este compromiso mutuo: incluso cuando se acaloran, este tipo de debates siguen siendo constructivos en el sentido de que, según su lógica subyacente, los rankings deberían ser más rigurosas, fiables y válidas.

Creemos que nuestro estudio supone una importante contribución a la investigación sobre educación superior, que sólo ha prestado una atención menor al «trabajo discursivo» que hace que los rankings universitarios sean resistentes. Para una comprensión exhaustiva del tema, es necesario seguir explorando los rankings universitarios como fenómenos discursivos, lo que implica tratar en igualdad de condiciones tanto los elogios como las críticas que reciben. Esto también implica que debemos ser más conscientes de nuestra propia agencia: nos guste o no, como investigadores críticos podemos contribuir involuntariamente a la institucionalización de los rankings universitarios.

¿Cómo debemos interpretar, entonces, las recientes abandonos de las clasificaciones universitarias en la enseñanza superior estadounidense? Teniendo en cuenta nuestras conclusiones, y la última promesa de U.S. News & World Report de escuchar a los críticos y mejorar la metodología, nos inclinamos a proyectar que la empresa volverá con una clasificación totalmente nueva el año que viene. Lo más probable es que este episodio no sea el final del régimen de clasificación, sino que resulte ser una oportunidad más para crear resiliencia discursiva.