Archivo de la etiqueta: Indicadores

Indicadores de medición del impacto de las citas bibliográficas

 

Indicators

Citation Performance Indicators — A Very Short Introduction
By PHIL DAVIS. Scholary Kitchen may 15, 201710

Texto completo

Phil Davis acaba de publicar en The Scholarly Kitchen un post en el que proporciona un breve resumen de los principales indicadores de citas utilizados hoy en día. Se trata de una publicación divulgativa, pero muy aclaratoria, no tanto de interés para bibliometras, como para el conocimiento por parte de investigadores, bibliotecarios y público en general. No se pretende que sea exhaustivo, ni se pretende opinar sobre el indicador que es mejor

Los indicadores son parámetros de medición que permite dar seguimiento y evaluar el cumplimiento de los objetivos de la actividad institucional respecto del logro o resultado en la entrega de bienes o servicios.

Lo más importante de un buen indicador es que tiene que tener una estrecha conexión teórica con la construcción subyacente que intenta medir. Un buen indicador simplifica los datos subyacentes, es fiable en sus informes y proporciona transparencia a los datos subyacentes.

Por último, cualquier discusión de los indicadores de desempeño invita a opiniones contrastadas tales como su uso indebido, abuso, implicaciones sociales, culturales y políticas que el alguna manera son ajenas al propio indicador.

Davis estructura los indicadores en tres grupos en función del diseño del algoritmo en el que se basa el indicador:

  1. Indicadores basados ​​en la ratio  se construye sobre el mismo modelo que el factor de impacto, dividiendo las citas recibidas entre el número de documentos publicados por la revista.
  2. Indicadores basados ​​en la gama (portfolio) calculan una puntuación basada en un conjunto clasificado de documentos.
  3. Indicadores basados ​​en la red, busca medir la influencia dentro de una red de citas mayor.

 

 

Indicadores basados en la ratio

Impact Factor: Total de citas en un año dado a todos los trabajos publicados en los últimos 2 años divididos por el número total de artículos y reseñas publicadas en los últimos 2 años. PROS: Fórmula sencilla con datos históricos. CONTRAS: el periodo de publicación de 2 años es demasiado corta para la mayoría de las disciplinas. PRODUCTOR: Clarivate (anteriormente Thomson Reuters), publicado anualmente en junio.

Impact Factor (5-yr): Abarca un periodo de publicación de 5 años en lugar de 2. PROS: La métrica preferida en campos en los que el ciclo de vida de la citación largo, por ejemplo, ciencias sociales. PRODUCTOR: Clarivate, publicado anualmente en junio.

CiteScore: Citas en un año dado a todos los documentos publicados en los últimos 3 años divididos por el número total de documentos publicados en los últimos 3 años. PROS: No intenta clasificar y limitar por tipo de artículo; Basado en un conjunto de datos Scopus más amplio; Recurso libre. CONTRAS: Preconcebido para las revistas que publican editoriales, noticias, cartas, etc.. PRODUCTOR: Elsevier, basado en los datos de Scopus, actualizado mensualmente.

Impact per Publication (IPP): Similar al Factor de Impacto con diferencias notables: 3 años. Periodo de publicación de 3 años; Incluye sólo citas a artículos clasificados como artículo,actas de conferencia o revisiones; Basado en un conjunto de datos Scopus. PROS: Periodo de análisis más largo; Las citas se limitan a aquellos documentos contados en el denominador. CONTRAS: Al igual que el factor de impacto, definir cual es el tipo de artículo correcto puede ser problemático. PRODUCTOR: CWTS, Universidad de Leiden, basada en los datos de Scopus, publicados cada mes de junio.

Source-Normalized Impact per Paper (SNIP): Similar a IPP, pero las puntuaciones de citas que se normalizan para tener en cuenta las diferencias entre los campos científicos, donde el campo está determinado por el conjunto de documentos que citan esa revista. PROS: Puede comparar el rendimiento de la revista entre entre disciplinas y campos. CONTRAS: La normalización hace que el indicador sea menos transparente. PRODUCTOR: CWTS, Universidad de Leiden para Elsevier, publicada cada mes de junio.

Indicadores basados ​​en la gama

H-index: Una medida de la cantidad y el rendimiento de un autor individual. Un autor con un índice de h habrá publicado h artículos, cada uno de los cuales ha sido citado por lo menos h veces. Si el índice h de un autor es 21, quiere decir que tiene almenos 21 documentos que se han citado 21 veces PROS: Mide el rendimiento profesional; No influenciado por valores atípicos (documentos altamente citados). CONTRAS: Dependiente del campo; Ignora el orden de la autoría; Aumenta con la edad y productividad del autor; Sensible a la autocitación, especialmente en Google Scholar. PRODUCTOR: Descrito por el cinetífico aleman J. E. Hirsch, muchas fuentes calculan los valores del índice h para los autores individuales.

h-5 : Variación del índice h que se limita a artículos publicados en los últimos 5 años. Utilizado por Google Scholar para comparar el rendimiento de la revista. PROS: Permite comparar autores jóvenes con autores más antiguos. CONTRAS: Dependiente del campo; Ignora el orden de la autoría en la publicación; Sensibles a la autocitación y al juego, especialmente en Google Scholar. Google Scholar también utiliza h5-median, que pretende reducir el sesgo de tamaño. PRODUCTOR: Google Académico. Publicado anualmente en junio.

Indicadores basados en la red

Eigenfactor: Mide la influencia de una revista en una red de citas. El cálculo de las puntuaciones se basa en la centralidad de los vectores propios, calculada a través de la ponderación iterativa, de manera que las citas de una revista tienen más influencia que otras. PROS: Ofrece una métrica que refleja de forma más clara la influencia científica como un entorno determinado. CONTRAS: Computacionalmente complejo, no fácilmente replicable. PRODUCTOR: Clarivate (anteriormente Thomson Reuters), publicado anualmente en junio.

Scimago Journal & Country Rank (SJCR): Similar al Eigenfactor pero calculado sobre la base de datos de Scopus. SJR asigna puntuaciones relativas a todas las fuentes en una red de citas. Su metodología se inspira en el algoritmo de Google PageRank, en que no todas las citas son iguales. Una fuente transfiere su propio «prestigio», o estado, a otra fuente a través del acto de citarlo. Una citación de una fuente con una SJR relativamente alta vale más que una citación de una fuente con una SJR más baja. PROS.  SJR permite al usuario clasificar su propio conjunto de fuentes personalizadas, independientemente de sus campos temáticos. PRODUCTOR: Elsevier, publicado anualmente en junio.

Relative Citation Ratio (RCR): Una métrica de citas normalizadas para artículos basados ​​en la base de datos PubMed del NIH. Un campo se define por las referencias en los artículos co-citado con el documento de interés. PROS: Permite que cada artículo sea definido por su propia cita En lugar de basarse en la clasificación de campos externos. CONS: Sensible a citas interdisciplinarias y revistas multidisciplinarias. El RCR depende del Factor de Impacto para ponderar las revistas que figuran en las referencias. PRODUCTORA: NIH.

 

 

 

 

Gestión por procesos, indicadores y estándares para unidades de información

manual-de-procesos-y-funciones

Contreras Contreras, Fortunato, Olaya guerrero, Julio Cesar, Matos Uribe, Fausto . Gestión por procesos, indicadores y estándares para unidades de información., 2017 fausto matos uribe. [book]

Descargar

En la opinión de varios autores especialistas en la materia, la gestión por procesos resurge con mayor vitalidad ante los cambios marcados en las necesidades, demandas y satisfacción de los clientes; la necesidad de hacer más eficiente la organización y porque las estructuras funcionales no responden a las necesidades de la organización y del mercado. Este libro contribuye a repensar un cambio obligado en los diseños organizacionales de las unidades de información y no podía ser más oportuno su contribución, además de aportar en incrementar la poca bibliografía en la Bibliotecología existentes en el país.

¿Más allá de los rankings universitarios? Generación de nuevos indicadores sobre las universidades mediante la vinculación de datos en plataformas abiertas

32559290781_8666bdeef6_o_d

Daraio, C. and A. Bonaccorsi «Beyond university rankings? Generating new indicators on universities by linking data in open platforms.» Journal of the Association for Information Science and Technology vol. 68, n. 2 (2017). pp. 508-529. http://dx.doi.org/10.1002/asi.23679

La necesidad de nuevos indicadores sobre las universidades está creciendo enormemente. Los gobiernos y los tomadores de decisiones a todos los niveles se enfrentan a las enormes oportunidades generadas por la disponibilidad de nuevos conocimientos e información y, simultáneamente, se ven presionados por restricciones presupuestarias estrictas. Los rankings universitarios, en particular, están atrayendo la atención de las políticas y los medios de comunicación, pero al mismo tiempo reciben duras críticas metodológicas.

Después de resumir las principales críticas a las clasificaciones, se analizan  dos tendencias en los requisitos de los usuarios para los indicadores; A saber, granularidad y referencias cruzadas. A continuación se sugiere que es necesario un cambio en el paradigma del diseño y producción de indicadores. El enfoque tradicional es aquel que aprovecha no sólo los datos existentes, sino que también sugiere una fuerte inversión para integrar las bases de datos existentes y crear indicadores adaptados. En el artículo se demuestra que tomando cono base el caso de las universidades europeas, cómo la integración de los datos existentes se puede desarrollar una plataforma de datos abierta que permite la construcción de nuevos indicadores.El poder del enfoque deriva de la capacidad de combinar fuentes heterogéneas de datos para generar indicadores que aborden una variedad de requisitos de los usuarios sin necesidad de diseñar indicadores de forma personalizada.

La bibliometría que viene: ALMetrics (Author Level Metrics) y las múltiples caras del impacto de un autor

27643042553_44f87a2c63_o_d

 

Orduña-Malea, E., A. Martín-Martín, et al. «La bibliometría que viene: ALMetrics (Author Level Metrics) y las múltiples caras del impacto de un autor» El Profesional de la Información vol. 25, n. 3 (2016).

Texto completo

La principal meta de este trabajo es fijar el objeto y contenido de una nueva rama de la bibliometría, a la que denominamos ALMetrics (Author-Level Metrics), que está centrada en el análisis cuantitativo del rendimiento de los autores científicos a través de la medición de todas las dimensiones de su actividad intelectual con los más variados indicadores métricos. El trabajo se dirige específicamente a listar, definir y clasificar las diferentes métricas que se ofrecen a día de hoy en los nuevos portales de información creados para mostrar la actividad científica de los autores. Se agrupan las métricas en siete conjuntos: publicación, citación, uso, participación, valoración, conectividad social y combinados. Se justifica el nacimiento de esta nueva especialidad bibliométrica en las nuevas tendencias que se avizoran en la evaluación científica, y que nos transportan desde una vieja bibliometría (basada en el análisis de la revista y la utilización del factor de impacto como indicador estrella) hacia una nueva bibliometría basada directamente en el análisis de los documentos y los autores a través de un crisol de indicadores que se alimentan no sólo de la avidez de los investigadores por el conocimiento, sino por el reconocimiento.

Herramientas y sitios utilizados para la medición del impacto científico

 

assessment-segment

Se muestran los resultados provisionales sobre el uso de herramientas y sitios para la medición de la investigación científica de la encuesta “Survey of scholarly communication tool usage” llevada a cabo por Bianca Kramer y Jeroen Bosman de la Universidad de Utrecht entre octubre de 2015 y febrero de 2016. La encuesta forma parte de un esfuerzo continuo para analizar el panorama cambiante de la comunicación científica.

En el apartado relativo a las herramientas y sitios web utilizados para la medición del impacto científico por parte de investigadores y bibliotecarios se formulo la pregunta ¿Cuales son las herramientas que utiliza para medir el impacto? Ofreciéndose la opción de elegir entre siete herramientas JCR, Altmetric.com, Scopus, ImpactStory, PLos ALM, Web of Science, Harzing.com y otras, tal como se ve en la figura.

101-innovations-survey-impact

En la encuesta participaron estudiantes de doctorado, investigadores postdoctorales, profesores y bibliotecarios. Aclarar que en el caso de los bibliotecarios, cuya labor es de apoyo a la investigación (en lugar de llevar a cabo la investigación activamente  ellos mismos) se les pide que indiquen qué herramientas que  recomiendan. Lo que significa que las respuestas de  los bibliotecarios indican promoción, en lugar de uso activo.

Entre los investigadores, las herramientas tradicionales como el JCR (factor de impacto), Web of Science y Scopus son utilizadas con más frecuencia que las herramientas altmétricas (altmetrics, ImpactStory y PLOS). Los bibliotecarios, sin embargo, seleccionaron las herramientas altmétricas en la misma medida que las herramientas de métricas tradicionales. El hecho de que los bibliotecarios recomienden mucho más a menudo herramientas altmétricas, tales como Altmetric.com y ImpactStory, en comparación con los investigadores, podría reflejar un mayor conocimiento o un mayor entusiasmo respecto al potencial de estas herramientas.

impact-percentage-respondents

Herramientas de medición científica utilizadas por investigadores y bibliotecarios

Quizás lo más sorprendente de estos resultados preliminares es que indican una proporción relativamente grande de herramientas altmétricas mencionadas por los investigadores de Arte y Humanidades en comparación con las otras disciplinas, Por una parte debe de tenerse en cuenta que el tamaño de la muestra es relativamente pequeño, por otra está la hipótesis de que estos resultados tienen que ver con que tradicionalmente la representación y uso de bases de datos de citas como Scopus y Web of Science por parte de los investigadores de Artes y Humanidades es muy limitada debido a la cobertura de estas bases de datos y la ausencia de las humanidades en JCR, por lo que tal vez están más abiertos a las oportunidades que ofrecen las herramientas altmétricas para medir el impacto de los resultados de sus investigaciones en este área de conocimiento.

impact-altmetrics-share

Preferencias por áreas de conocimiento

Además de las herramientas propuestas previamente por la encuesta se daba la posibilidad de incluir otras herramientas a través de una pregunta abierta, aquí se mencionó fundamentalmente Google Académico,  ResearchGate.

Los datos de esta encuesta están disponibles en Figshare:
http://dx.doi.org/10.6084/m9.figshare.1572175

Rankings ISSUE 2014 Indicadores sintéticos de las universidades españolas

Pérez, F., J. Aldás, et al.  [e-Book]  Rankings ISSUE 2014 Indicadores sintéticos de las universidades españolas. Madrid, Fundación BBVA, 2014.

Texto completo

El Proyecto U-Ranking, desarrollado en colaboración por la Fundación BBVA y el Instituto Valenciano de Investigaciones Económicas (Ivie), es una pieza central de un programa de actividades de ambas instituciones dirigido a documentar y analizar el papel del conocimiento en el desarrollo social y económico. Este documento presenta uno de los productos básicos de dicho proyecto, los Rankings ISSUE (Indicadores Sintéticos del Sistema Universitario Español), su metodología y los resultados correspondientes a la edición de 2014, la segunda que se presenta. El enfoque de ISSUE, la selección de las variables en las que se basan los rankings elaborados y la metodología seguida en el tratamiento de la información han sido exhaustivamente discutidos por el equipo del Ivie y con un amplio grupo de expertos en evaluación de universidades, información y gestión universitaria. Este documento presenta los resultados de la investigación desarrollada por el Ivie para construir la segunda edición de los Indicadores Sintéticos del Sistema Universitario Español (ISSUE), a partir del análisis de las actividades docentes, de investigación y de innovación y desarrollo tecnológico de las universidades. Los indicadores elaborados sirven de base para la elaboración de diversos rankings de las universidades españolas: dos rankings generales —uno de volumen de resultados (ISSUE-V) y otro de productividad (ISSUE-P)— así como otros más específicos: de docencia, de investigación, de innovación y desarrollo tecnológico, y de titulaciones concretas. Todos estos rankings constituyen aproximaciones a los resultados de las universidades que permiten compararlas desde distintas perspectivas. Mediante esas comparaciones, los indicadores sintéticos permiten evaluar su funcionamiento.

Manual de Construcción de indicadores de evaluación compuestos: metodología y manual del usuario

Handbook on Constructing Composite Indicators : Methodology and user guide. Edtion ed. Paris: OECD, European Commision, 2008.

Texto completo

Este manual tiene como objetivo proporcionar una guía para la construcción y uso de indicadores compuestos, para los responsables políticos, académicos, medios de comunicación y otras partes interesadas. Si bien hay varios tipos de indicadores compuestos, este manual se ocupa de los que comparan el rango de rendimiento por países en áreas tales como la competitividad industrial, el desarrollo sostenible, la globalización y la innovación. El Manual tiene como objetivo contribuir a una mejor comprensión de la complejidad de los indicadores compuestos y la mejora de las técnicas utilizadas actualmente para construirlos. En particular, contiene un conjunto de directrices técnicas que pueden ayudar a los constructores de indicadores compuestos para mejorar la calidad de su outputs. Ha sido preparado conjuntamente por la OCDE (Dirección de Estadística y la Dirección de Ciencia, Tecnología e Industria) y la Unidad de Econometría y Estadística Aplicada del Centro Común de Investigación (CCI) de la Comisión Europea en Ispra, Italia. Los autores principales de la CCI son Michela Nardo, Michaela Saisana, Andrea Saltelli y Stefano Tarantola. Los autores principales de la OCDE son Anders Hoffmann y Enrico Giovannini. La asistencia editorial fue proporcionada por CandiceStevens, Günseli Baygan, Karsten Olsen y Sarah Moore

Metodología para la evaluación de productos y servicios de información

 

livroibict

 

Rocha, E. d. C. and M. d. F. E. d. Sousa (2010). [e-Book] Metodologia para avaliação de produtos e serviços de informação. Rio de Janeiro, Instituto Brasileiro de Informação em Ciência e Tecnologia (IBICT).

Texto completo:

http://alturl.com/s745h (PDF)
http://alturl.com/upy3u (ePuB)

Los nuevos paradigmas de la información y la sociedad del conocimiento conllevan la necesidad de adaptar los sistemas de evaluación de la calidad de los productos y servicios de información, en est edocumento se recoge la propuesta del Instituto Brasileño de Información en Ciencia y Tecnología (Ibict), para llevar a cabo la evaluación de sus productos y servicios con el objetivo de satisfacer mejor las necesidades reales de sus miembros. Teniendo en cuenta la diversidad de la comunidad de usuarios y la diversidad de productos y servicios ofrecidos por el instituto, se adopta para dicha evaluación una metodología híbrida que comprende la aplicación de tres pasos: 1) evaluación cualitativa basada en el enfoque Sense-Making of Brenda Dervin, a través de entrevistas estructuradas. Para el análisis de los resultados se aplica la técnica de incidentes críticos John C. Flanagan; 2) Evaluación cuantitativa de formularios electrónicos en los sitios web de los productos y servicios evaluados; 3) y la aplicación de la heurística Jakob Nielsen para evaluar la usabilidad de las páginas web de productos y servicios. Con este método de triangulación se espera disponer de una visión contextualizada de las prácticas de información de los usuarios y mejorar las condiciones de utilización de los productos y servicios; conocer el grado de satisfacción de los usuarios y el grado de acceso y uso de bienes y servicios, así como información sobre la facilidad con la que los usuarios se relacionan con las interfaces de estos productos y servicios.

Indicadores de Acceso Abierto y comunicación científica en Latinoamérica

[]

Alperin, J. P., D. Babini, et al. (2014). [e-Book]  Open Access Indicators and Scholarly Communications in Latin America Buenos Aires, CLACSO.

Texto completo

As regional open access initiatives from Latin America have begun to produce and share indicators, this book on “Open Access Indicators and Scholarly Communications in Latin America” is a first attempt to systematically explore and describe them within the broader context of Open Science. In this process, the publication aims at identifying the presence, growth, use and reach of research results that are now “open” and freely available in the Web. This book is the result of a joint research and development project supported by UNESCO and undertaken in 2013 by UNESCO (Bhanu Neupane) in partnership with the Public Knowledge Project (PKP); the Scientific Electronic Library Online (SciELO); the Network of Scientic Journals of Latin America, the Caribbean, Spain and Portugal (RedALyC); Africa Journals Online (AJOL); the Latin America Social Sciences School-Brazil (FLACSO-Brazil); and the Latin American Council of Social Sciences (CLACSO) . This book aims to contribute to the understanding of scholarly production, use and reach through measures that are open and inclusive. This publication serves as an important milestone in the UNESCO’s Open Access Strategy that 196 countries have collectively endorsed. The publication has also received significant inputs from the PKP-FLACSO-IDRC’s project “Quality in Open Scholarly Communication of Latin America”, which was undertaken in 2012-2013 in collaboration with Latindex, SciELO and Redalyc.

Indicadores destacados de la Sociedad de la Información en España (enero 2015).

indicadores-destacados-de-la-sociedad-de-la-informacion_grande_5

Indicadores destacados de la Sociedad de la Información en España (enero 2015). Madrid: ONSI, 2015

Texto completo

Haz clic para acceder a indicadores_destacados_mayo_2015.pdf

Ya está disponible una nueva actualización del dosier de indicadores destacados de la Sociedad de la Información en España. El número de empresas activas del sector TIC y de los Contenidos alcanzó la cifra de 29.277 en 2013, con un incremento interanual del 2,2 %. En 2013 la facturación del sector TIC y de los Contenidos fue de 88.164 millones de euros. Las empresas TIC y de los Contenidos invirtieron más de 14.368 millones de euros. El valor estimado del VABpm del sector TIC y los Contenidos en 2013 fue de 44.591 millones de euros, lo que supone el 4,7 % del VABpm total. El número de empresas con acceso a Banda Ancha para España se ha incrementado 2 puntos porcentuales con respecto del año anterior, alcanzando el 98 %. En octubre de 2014 el número de líneas de banda ancha creció un 6 % respecto del mismo mes del año 2013, alcanzando los 12,82 millones de líneas. Para esta misma fecha el número de líneas de telefonía móvil ha ascendido a 50,82 millones de líneas sin considerar las líneas asociadas a máquinas. Para finalizar, los últimos indicadores publicados por EUROSTAT muestran para 2014 un incremento en el uso de Internet y la administración electrónica en España y Europa respecto del año anterior.