Archivo de la etiqueta: Bibliometría

El valor de las visualizaciones bibliométricas

Nees Jan van Eck ; Ludo Waltman. VOSviewer goes online!. Leiden Madtrics, 2021

Parte 1

Parte 2

Las visualizaciones bibliométricas a menudo se presentan como herramientas poderosas para identificar los patrones clave en grandes conjuntos de datos bibliométricos. Sin embargo, no todo el mundo está convencido de su valor. Algunos escépticos sugieren que estas visualizaciones son “agradables de ver, pero no útiles ni útiles” .

Basándose en casi 15 años de experiencia trabajando con visualizaciones bibliométricas, se ven muchos ejemplos del uso exitoso de estas visualizaciones, pero igualmente se encuentran muchos ejemplos de formas deficientes de usar visualizaciones bibliométricas, que a menudo conducen a conclusiones cuestionables.

Desde la experiencia, una visualización bibliométrica cuidadosamente diseñada puede ofrecer una gran cantidad de información valiosa. Sin embargo, para acceder a esta información, ser capaz de explorar interactivamente la visualización es bastante esencial. Una visualización estática sin ninguna posibilidad de interacción tiene mucho menos valor y es más probable que se malinterprete.

Con VOSviewer Online, las visualizaciones de redes bibliométricas se pueden explorar de forma interactiva en un navegador web. Esto hace que sea mucho más fácil compartir visualizaciones interactivas y reduce la necesidad de mostrar imágenes estáticas. VOSviewer Online se puede abrir en https://app.vosviewer.com

Informes bibliométricos para instituciones: Las mejores prácticas en un escenario de métricas responsables

Cabezas-Clavijo A and Torres-Salinas D (2021) Bibliometric Reports for Institutions: Best Practices in a Responsible Metrics ScenarioFront. Res. Metr. Anal. 6:696470. doi: 10.3389/frma.2021.696470

Texto completo

La realización de informes bibliométricos es una de las tareas habituales de los bibliotecarios y profesionales en el marco de sus funciones profesionales. La aparición de nuevas fuentes de datos, la necesidad de medir las nuevas actividades de investigación y la creciente demanda de una evaluación más justa y equitativa en el marco del movimiento de la Métrica Responsable ha llevado a reclamar una revisión de los enfoques tradicionales de este tipo de informes. El objetivo principal de este estudio es esbozar una serie de recomendaciones para bibliotecarios, consultores y bibliotecarios de apoyo a la investigación a la hora de redactar informes bibliométricos en sus instituciones. Estas buenas prácticas pueden mejorar significativamente la calidad y la utilidad de los informes bibliométricos, situando a sus practicantes como actores clave en el proceso de gestión de la ciencia.

Clarivate introduce un nuevo indicador de impacto como alternativa al Factor de Impacto, que tiene en cuenta las citas promedio durante 3 años

Journal impact factor gets a sibling that adjusts for scientific field By Cathleen O’GradyJun. Nature, 30, 2021

Texto completo

Los investigadores frecuentemente aluden al factor de impacto de las revistas de Clarivate Analytics, diciendo que la métrica, que informa el promedio de citas por artículo, tiene fallas metodológicas que respaldan comparaciones engañosas de revistas e investigadores. Hoy, la compañía dio a conocer una métrica alternativa que mejora algunos de estos defectos al permitir comparaciones más precisas entre revistas en diferentes disciplinas.

El anuncio se produce como parte del lanzamiento de la compañía en 2021 de su base de datos Journal Citation Reports que Incluye los últimos factores de impacto de revistas y otros análisis de revistas. Entre estos se encuentra el nuevo indicador JCI, que promedia las citas recopiladas por una revista durante 3 años de publicación, en comparación con los solo 2 años del factor de impacto. Es más, Clarivate dice que la JCI recoge revistas no cubiertas por el factor de impacto, incluidas algunas de Artes y Humanidades, así como revistas regionales o de campos científicos “emergentes”. 

JCI es “un paso adelante” y “más vale tarde que nunca”, dice Henk Moed, bibliométra y editor en jefe de la revista Scholarly Assessment Reports. Su principal avance, explica, no es nuevo en absoluto: durante décadas, los investigadores en bibliometría han estado desarrollando métodos para comparar el impacto de las citas entre disciplinas. Por ejemplo, los artículos de matemáticas citan generalmente solo un puñado de fuentes, los artículos de bioquímica suelen tener listas de citas con docenas o incluso cientos de entradas. Entonces, “no es un signo de calidad que los artículos de bioquímica se citen más”, dice Moed. Los factores de impacto, que simplemente suman las citas sin tener en cuenta la norma en un campo, pasan por alto este hecho.

Por esa razón, en 2010, Moed desarrolló la metodología para una métrica diferente, -Source Normalized Impact by Paper (SNIP)- que fue adoptada por el gran competidor de Clarivate, el gigante editorial Elsevier, en su índice de citas Scopus.

JCI de Clarivate, que utiliza una metodología diferente, proporciona una métrica similar a SNIP para las revistas en su base de datos Journal Citation Reports. Eso fortalecerá la posición de Clarivate en el mercado, dice Moed.

Pero el anuncio de Clarivate deja mucho que desear, incluida la transparencia, dice Marianne Gauffriau, bibliotecaria de investigación de la Biblioteca de la Universidad de Copenhague. El informe técnico de la compañía que describe la nueva métrica no cita ninguna de la literatura sustancial publicada por bibliometras a lo largo de los años.

También existe el riesgo de que, al igual que el factor de impacto, el JCI se utilice de forma inapropiada, dice Gauffriau. Con frecuencia, los evaluadores de premios y otras decisiones utilizan esas métricas para juzgar la producción académica de investigadores, instituciones y publicaciones individuales, una práctica que a menudo es criticada por los bibliometras como una forma defectuosa de juzgar la calidad.

Clarivate ha tratado de evitar el uso indebido de JCI desde el principio, dice Martin Szomszor, director del Instituto de Información Científica de la compañía. Ha dejado claro al describir el JCI que no está diseñado para evaluar investigadores individuales.

Es poco probable que JCI sustituya al factor de impacto de las revistas a corto plazo, dice Szomszor. Clarivate esperará para ver su aceptación, dándole la oportunidad de desarrollarse como una opción paralela.

Cómo pueden las bibliotecas de investigación apoyar a su comunidad universitaria en el acceso a los datos bibliométricos

Library Impact Practice Brief: Supporting Bibliometric Data Needs at Academic Institutions. Washington, DC: Association of Research Libraries, October 28, 2020. https://doi.org/10.29242/brief.waterloo2020

Texto completo

Este resumen de prácticas presenta la investigación realizada por el personal de la Biblioteca de la Universidad de Waterloo como parte de la participación de la biblioteca en la iniciativa Research Library Impact Framework initiative de ACRL. La investigación abordó la pregunta: “¿Cómo pueden las bibliotecas de investigación apoyar a su comunidad universitaria en el acceso a los datos bibliométricos necesarios para fines institucionales?” El informe explora: los antecedentes del servicio, los socios, los proveedores de servicios y los usuarios, cómo se utilizan los datos bibliométricos, las fuentes de datos, las principales lecciones aprendidas y los recursos recomendados

Research Metrics Guidebook: un complemento sencillo y práctico para el uso de herramientas como Scopus y SciVal,

Research Metrics Guidebook. Elsevier, 2020

Texto completo

Esta guía pretende ser un complemento sencillo y práctico para el uso de herramientas como Scopus y SciVal, que forman parte de la cartera de soluciones de Research Intelligence. Proporciona algunos datos sobre cómo se utilizan los datos subyacentes a las métricas, cómo se calculan y muestran las métricas, y sobre las variables, además del rendimiento, que pueden afectar a las métricas. También ofrece algunas sugerencias sobre las situaciones en las que las métricas son útiles, cuándo hay que tener cuidado y cómo se pueden abordar las deficiencias.

SciVal es una Una solución analítica basada en la web con una potencia y flexibilidad sin precedentes que proporciona un acceso completo al rendimiento de la investigación de más de 20.000 instituciones de investigación y sus investigadores asociados de 230 países de todo el mundo. SciVal permite visualizar el rendimiento de su investigación, comparar con sus homólogos, desarrollar asociaciones estratégicas, identificar y analizar nuevas tendencias de investigación emergentes y crear informes personalizados.

Resultados de la encuesta sobre el estado de las métricas responsables de 2020

Figura 2. Las 12 fuentes de datos más utilizadas por los encuestados

Nicolas Robinson-Garcia. Results from the 2020 Responsible Metrics State of the Art Survey, april 2021

Texto completo

Resultados de la encuesta sobre el estado de las métricas responsables de 2020. Siendo 2020 un año difícil para todos, observamos un descenso en la participación con respecto a los resultados de 2019, pasando de 218 encuestados a un total de 139. Aun así, la diversidad de países de los que proceden los encuestados, ya observada el año pasado, sigue siendo evidente (Figura 1). En este sentido, es destacable la diligencia e importancia que muchos profesionales dan a la encuesta y el tiempo que dedican a ello. De hecho, nos alegramos de ver comentarios en las redes sociales y de recibir correos electrónicos que reflejan los debates internos que se producen entre los colegas mientras preparan sus respuestas.

La encuesta de este año incluye algunos cambios notables con respecto a otras ediciones. Junto con las preguntas periódicas relacionadas con la integración de prácticas de métrica de investigación responsable en su institución, ampliamos el número de preguntas en dos direcciones. En primer lugar, queríamos conocer la organización y el departamento del encuestado para contextualizar mejor sus respuestas. En segundo lugar, formulamos preguntas específicas sobre las herramientas que utilizaban al producir métricas de investigación para sus instituciones.

El 76,3% de los encuestados trabajan en universidades, seguidos por el 14,4% que trabajan en institutos públicos de investigación. El resto se encuentra disperso en otras organizaciones, como empresas privadas (N=4), editoriales (N=3) u hospitales (N=1), entre otras. De los que trabajan en el ámbito académico, casi la mitad (45,3%) lo hace en la Biblioteca Universitaria, mientras que el 34,9% lo hace en la Oficina de Investigación. El número de personas que trabajan en la evaluación de la investigación varía mucho de unas instituciones a otras, con una mediana de 4 personas en las bibliotecas a 10 en las Oficinas de Planificación o 5 en las Oficinas de Investigación y con grandes diferencias dentro de los tipos de departamentos.

En cuanto a las fuentes y herramientas que utilizan en su trabajo diario, incluimos las suites bibliométricas y las bases de datos más conocidas, así como una opción de “otros” en la que los encuestados podían añadir otras herramientas que utilizaban para producir métricas de investigación. Web of Science y Scopus son las fuentes de datos más comunes, seguidas de los repositorios institucionales, Google Scholar y los sistemas institucionales CRIS. Sin embargo, es raro que se utilice una sola fuente de datos, y los encuestados indican que utilizan una media de más de tres fuentes de datos diferentes.

La variedad de herramientas y niveles de sofisticación muestra también una gran diversidad. Las respuestas van desde la indicación de la falta de uso de herramientas bibliométricas (N=11), pasando por el uso de herramientas comerciales (Scival, InCites), hasta la combinación de herramientas ad hoc con lenguajes de programación, herramientas de visualización y herramientas bibliométricas como Bibibliometrix o BibExcel.

Figura 4. Las 12 herramientas más utilizadas por los encuestados

Una vez más, las respuestas reflejan una gran versatilidad, ya que las herramientas rara vez se utilizan de forma aislada, sino que siempre se combinan para proporcionar análisis bibliométricos más precisos. Esto refleja el nivel de profesionalidad presente en el campo.

Firmantes del DORA

En comparación con los resultados del año pasado, el porcentaje de encuestados que han firmado la Declaración de San Francisco DORA es mayor que el de los que no lo han hecho. Esto puede ser el resultado de una mayor atención al DORA por parte del  Plan S, y de un requisito del financiador de la COAlición S, el Wellcome Trust, de que los beneficiarios demuestren un compromiso público con los principios del DORA. Entre otros comentarios, encontramos un encuestado que afirmó que su institución había considerado esta decisión como algo que los individuos, departamentos y facultades eran libres de hacer, pero que no harían en conjunto. También encontramos que el DORA todavía no ha llegado a todo el mundo, y 11 encuestados indicaron que nunca habían oído hablar de él. 10 encuestados indicaron que su institución había decidido no firmarlo, mientras que 4 afirmaron respaldarlo pero habían decidido no firmarlo. En este sentido, está por ver si acciones públicas como la emprendida recientemente contra la Universidad de Liverpool por los autores del Manifiesto de Leiden y los principios de Hong Kong, que es firmante del DORA pero no reflejó prácticas de métrica de investigación responsables, podrían tener una consecuencia en estas decisiones.

Desarrollo de principios institucionales

Casi el 70% de los encuestados ha considerado al menos el desarrollo de un conjunto de principios sobre el uso responsable de las métricas de investigación, un aumento en comparación con el 52% informado en la encuesta de 2019. De ellos, solo un encuestado indicó que su institución había decidido no hacerlo. Los encuestados dieron algunas nociones sobre cómo se están diseñando estos principios. En algunos casos, utilizarían o adaptarían los principios establecidos en el Manifiesto de Leiden a su contexto institucional; en otros casos, participarían activamente en el desarrollo de los principios nacionales. En un caso, un encuestado indicó que estaba trabajando con el INORMS para aplicar SCOPE a su marco de publicación responsable.

Las instituciones en las que los indicadores basados en la publicación pueden no aplicarse, no están exentas del uso de prácticas de métrica responsable. Una institución de Arte y Diseño informó de que “no utiliza la bibliometría, pero está considerando otras métricas que se relacionan más con el rendimiento de la investigación departamental que con el rendimiento individual”. Otros indicaron que, a pesar de no tener un conjunto oficial de principios, “consideran activamente la ética de lo que hacemos”.

Conclusiones

Siguiendo la tendencia del año pasado, observamos cómo parece que hemos superado la fase de reconocimiento y concienciación de la necesidad de un uso responsable de las métricas. Las respuestas son cada vez más críticas con la forma en que se implementa dicho uso e incluso las opiniones negativas están motivadas y bien argumentadas, y no se limitan a reconocer la ignorancia. La adopción del DORA sigue aumentando, pero los profesionales indican una respuesta ambivalente de las comunidades académicas a estas políticas. Muchas de las malas prácticas que rodean el uso de las métricas parecen estar bastante arraigadas en la cultura académica.

En cuanto a la introducción de nuevas preguntas, observamos que el desarrollo de las métricas requiere una serie de herramientas cada vez más complejas, tanto de propósito general como las diseñadas específicamente para producir métricas de investigación. Es interesante observar que se ha generalizado el uso de fuentes de datos, incluidas muchas de las nuevas bases de datos que han surgido en los últimos años (por ejemplo, Lens, Dimensions), lo que demuestra que los días en que la comunidad profesional estaba vinculadas únicamente a la Web of Science han quedado atrás.

En opinión del autor, el mensaje más relevante es el hecho de que estamos pasando a un debate más complejo sobre cómo se aplican en la práctica las métricas responsables (o cualquier otro tipo de enfoque de seguimiento o evaluación) y qué entendemos realmente por un uso responsable. En este sentido, temas como la personalización y la contextualización de los informes, la difusión y la visibilidad, así como la alfabetización en materia de métricas, parecen adquirir una gran importancia, haciendo que la conversación vaya más allá de la producción real de métricas y se centre en cómo se comunican, a quién y con qué propósito.

Análisis conjunto de las preferencias ocultas de los investigadores por la bibliometría, la altmetría y las métricas de uso. 

Indicadores del experimento seleccionados como más útiles para decidir qué publicaciones leer

Lemke, S, Mazarakis, A, Peters, I. Conjoint analysis of researchers’ hidden preferences for bibliometrics, altmetrics, and usage metricsJ Assoc Inf Sci Technol. 2021; 72: 777– 792. https://doi.org/10.1002/asi.24445

Texto completo

El número de artículos académicos que se publican anualmente no deja de crecer, al igual que el número de indicadores con los que se mide el impacto de las publicaciones. Se sabe poco sobre cómo la creciente variedad de indicadores disponibles afecta a los procesos de selección de la literatura que leen los investigadores.

Se realizaron experimentos de clasificación integrados en una encuesta en línea con 247 investigadores participantes, la mayoría de ellos de ciencias sociales. Los participantes completaron una serie de tareas en las que se les pedía que clasificaran publicaciones ficticias en función de su relevancia esperada, basándose en sus puntuaciones respecto a seis métricas prototípicas. Mediante la aplicación de la regresión logística, el análisis de conglomerados y la codificación manual de las respuestas a la encuesta, se obtuvieron datos detallados sobre el modo en que las métricas destacadas del impacto de la investigación influyeron en los participantes a la hora de decidir qué artículos científicos leer.

Las respuestas a la encuesta revelaron una combinación de características cualitativas y cuantitativas que los investigadores consultan a la hora de seleccionar la bibliografía, mientras que el análisis de regresión mostró que, entre las métricas cuantitativas, el recuento de citas tiende a ser el que más preocupa, seguido de los factores de impacto de las revistas.

Los resultados sugieren una opinión comparativamente favorable de muchos investigadores sobre la bibliometría y un escepticismo generalizado hacia la altmetría. Los resultados subrayan la importancia de dotar a los investigadores de conocimientos sólidos sobre las limitaciones de las métricas específicas, ya que parecen desempeñar un papel importante en la evaluación diaria de la relevancia por parte de los investigadores.

Teorías de la Informetría y la Comunicación Académica

Sugimoto, C. (Ed.). Theories of Informetrics and Scholarly Communication. De Gruyter, 2016.

Texto completo

La cienciometría se ha convertido en un elemento esencial en la práctica y la evaluación de la ciencia y la investigación, incluyendo tanto la evaluación de los individuos como los ejercicios de evaluación nacional. Sin embargo, los investigadores y profesionales de este campo han carecido de teorías claras que guíen su trabajo. Ya en 1981, el entonces estudiante de doctorado Blaise Cronin publicó “The need for a theory of citing” (La necesidad de una teoría de la citación), una llamada de atención a la incipiente comunidad cienciométrica para que elaborara teorías fundamentales en las que pudiera basarse el trabajo del campo. Más de tres décadas después, ha llegado el momento de volver a preguntar al sector cómo ha respondido a esta llamada. Este libro recopila las teorías fundamentales que guían la investigación en informetría y comunicación académica. Se trata de una compilación muy necesaria realizada por los principales especialistas en la materia que reúne las teorías que guían nuestra comprensión de la autoría, las citas y el impacto.

Breve introducción a la bibliometría

Ardanuy, Jordi. Breve introducción a la bibliometría. Barcelona: Universitat de Barcelona, 2012

Texto completo

La ciencia es una actividad intelectual que tiene por finalidad dar respuesta a preguntas y desde una perspectiva más práctica, la resolución de problemas. Como consecuencia, el grado de desarrollo científico se manifiesta en la profundidad de las preguntas o problemas con los que enfrente. La manera sistemática de dar respuesta satisfactoria a los problemas planteados es la investigación que, por tanto, resulta inextricablemente ligada a toda actividad científica, y cuyos resultados posibilitan el crecimiento del caudal de conocimiento científico.

Métricas para la evaluación de la innovación

Puede ser una imagen de texto que dice "å OCTI Boletín OCTI No. 10 marzo-abril 2021 Métricas para la evaluación de la innovación ച01 bility"

Métricas para la evaluación de la innovación. Boletín OCTI | No. 10 / marzo-abril, 2021

Texto completo

CONTENIDO

Importancia de las métricas para la evaluación de la innovación 4
Instrumentos de referencia para la generación de métricas de evaluación de la innovación 8
Principales indicadores para la evaluación de la innovación 12