Archivo de la etiqueta: Evaluación

Lineamientos e indicadores para las bibliotecas académicas innovadoras

45777626111_5d725fdafb_b_d

Romero Bracho, Carmen, Navarro Lisowska, Bernadetta. Durán Garzón, Inírida. «Lineamientos e indicadores para las bibliotecas académicas innovadoras» Bogotá: Red Universitaria Metropolitana de Bogotá -RUMBO, 2018

Texto completo

Las bibliotecas académicas están enfrentando nuevos desafíos, los cuales se han visto influenciados especialmente por los cambios en los modelos de aprendizaje, la comunicación científica y las TIC, así como por los comportamientos y las necesidades de sus usuarios. Por ello, deben estar abiertas a crear modelos flexibles y adaptables a nuevos entornos educativos con un alto componente de innovación y creatividad. Sin embargo, éstas deben reconocerse dentro de las estructuras universitarias como verdaderos centros de recursos para el aprendizaje y la investigación que aportan a la permanencia estudiantil, a la disminución de la deserción, a la visibilidad institucional y al fortalecimiento de otras funciones sustantivas. Desde el contexto de la negociación, es importante tomar acciones estratégicas que promuevan iniciativas colectivas y mejores resultados frente al gran crecimiento de la industria editorial. Finalmente, los comportamientos de los usuarios del siglo XXI llevan a la necesidad de vigilar tendencias que permitan dar respuestas a corto o mediano plazo, como las citadas en los principales informes internacionales.

Uso de ORCID, DOI y otros identificadores abiertos en la evaluación de investigación

frma-03-00028-g001

Haak LL, Meadows A and Brown J (2018) Using ORCID, DOI, and Other Open Identifiers in Research EvaluationFront. Res. Metr. Anal. 3:28. doi: 10.3389/frma.2018.00028

Texto completo

 

En este trabajo, se discute el uso de identificadores persistentes en la evaluación de la investigación – para los individuos, sus contribuciones y las organizaciones que los patrocinan y financian su trabajo. Los sistemas de identificación global se encuentran en una posición única para compilar los datos de todas  las interacciones,  movilidad y colaboración global que se produce en torno a un documento de investigación. Al aprovechar las conexiones entre las infraestructuras locales y los recursos de información globales, los evaluadores pueden mapear las fuentes de datos que antes no estaban disponibles o que requerían de una mano de obra que podría ser prohibitiva.

Se consideran identificadores persistentes aquellos sistemas normalizados tales como ORCID iDs y DOIs, que están siendo incorporados en los flujos de trabajo de investigación a través de la ciencia, la tecnología, la ingeniería, las artes y las matemáticas; cómo esto está afectando la disponibilidad de datos para propósitos de evaluación; y proporcionamos ejemplos de evaluaciones que están aprovechando los identificadores. También se discute la importancia de la procedencia y la preservación para establecer la confianza en la fiabilidad y confiabilidad de los datos y las relaciones, y en la disponibilidad a largo plazo de los metadatos que describen los objetos y sus interrelaciones. Se concluye  con una discusión sobre las oportunidades y riesgos del uso de identificadores en los procesos de evaluación.

Ranking de los científicos en España (2018): del 1 al 5000.

 

univer20candara20bold

http://www.webometrics.info/en

 

Undécima edición: Ranking de investigadores españoles que trabajan en instituciones españolas (España) según sus perfiles públicos de Google Scholar Citations.

 

Ranking de investigadores españoles y extranjeros trabajando en España: 
60.000 perfiles públicos http://www.webometrics.info/en/GoogleScholar/Spain

Transparent Rankings de Repositorios de Acceso Abierto

Todos los Repositorios http://repositories.webometrics.info/en/transparent

Repositorios Institucionales http://repositories.webometrics.info/en/node/32

Portales de Revistas http://repositories.webometrics.info/en/node/33

CRIS / PURE http://repositories.webometrics.info/en/node/34

 

 

La ventaja de la cita del acceso abierto: ¿existe y qué significa para las bibliotecas?

oa_verbeeldingskr8-1

Lewis, C. L. «The Open Access Citation Advantage: Does It Exist And What Does It Mean For Libraries?» Information Technology and Libraries (ITAL) vol. 37, n. 3 (2018).

Texto completo

La última revisión bibliográfica de la investigación sobre las ventajas de citación de los documentos en acceso abierto – Open Access Citation Advantage (OACA)– fue publicada en 2011 por Philip M. Davis y William H. Walters. Este artículo reexamina las conclusiones a las que llegaron Davis y Walters al proporcionar una revisión crítica de la literatura de la OACA que se ha publicado en 2011, y explora cómo los aumentos en las tendencias de publicación deOA podrían servir como una herramienta de apoyo para las bibliotecas frente a los altos costos de las suscripciones a revistas.

La evaluación de las Humanidades y de las Ciencias Sociales en revisión

mona-lisa-final-760x755

Giménez Toledo, E. and E. G. Toledo «La evaluación de las Humanidades y de las Ciencias Sociales en revisión.» Revista española de Documentación Científica vol. 41, n. 3 (2018). pp. e208. http://redc.revistas.csic.es/index.php/redc/article/view/1012

Texto completo

La evaluación de las Humanidades y las Ciencias Sociales ha resultado siempre controvertida. En este artículo se revisan los cambios que se están produciendo en las metodologías y enfoques de la evaluación, así como las líneas de trabajo que están marcando estos procesos de evaluación en Europa. Las claves de la evaluación científica en la actualidad pueden resumirse en: 1. Utilización de datos completos sobre producción científica y desarrollo de fuentes de indicadores para revistas y libros académicos, al margen de las bases de datos comerciales; 2. Evaluación más cualitativa y/o con enfoques bottom up; 3. El acceso abierto y su implicación en la evaluación científica; 4. Métricas alternativas y citas abiertas; 5. Métricas responsables; 6. Impacto social de la investigación.

Pruebas externas de la validez de la revisión por pares mediante medidas de impacto.

 

istock-148441660-credit-retrorocket-1200-x-600

Gallo, S. A. and S. R. Glisson «External Tests of Peer Review Validity Via Impact Measures.» Frontiers in Research Metrics and Analytics vol. 3, n. 22 (2018). pp.: https://www.frontiersin.org/article/10.3389/frma.2018.00022

 

La revisión por pares se utiliza comúnmente en la ciencia como una herramienta para evaluar el mérito y el impacto potencial de los proyectos de investigación y hacer recomendaciones de financiación de la investigación. Si bien es probable que el impacto potencial sea difícil de evaluar con anterioridad, ha habido relativamente pocos intentos de obtener una idea de la exactitud predictiva de las decisiones de revisión utilizando medidas de impacto de los resultados de los proyectos finalizados.

Aunque existen muchos resultados, y por lo tanto medidas potenciales de impacto, para los proyectos de investigación, la gran mayoría de la evaluación de los resultados de la investigación se centra en la bibliometría. En el artículo se revisan los múltiples tipos de medidas de impacto potencial con interés en su aplicación para validar las decisiones de revisión. Se presenta una revisión de la literatura actual sobre la validación de las decisiones de revisión por pares con medidas de impacto de los resultados de la investigación; sólo se identificaron 48 estudios, aproximadamente la mitad de los cuales son de EE.UU. y el tamaño de la muestra por estudio varia enormemente. El 69% de los estudios utilizaron la bibliometría como resultado de la investigación. Mientras que el 52% de los estudios emplearon medidas alternativas (como patentes y licencias de tecnología, revisión por pares después del proyecto, colaboración internacional, éxito de la financiación en el futuro, obtención de puestos de trabajo y satisfacción profesional), sólo el 25% de todos los proyectos utilizaron más de una medida de los resultados de la investigación.

En general, el 91% de los estudios con controles no financiados y el 71% de los estudios sin dichos controles proporcionaron evidencia de al menos algún nivel de validez predictiva de las decisiones de revisión. Sin embargo, varios estudios informaron que también observaron errores considerables de tipo I y II. Además, muchos de los efectos de observación fueron pequeños y varios estudios sugieren un poder de discriminación grosero, capaz de separar las propuestas pobres de las mejores, pero no la discriminación entre las propuestas o solicitantes de nivel superior.

Se necesita más investigación, particularmente en la integración de múltiples tipos de indicadores de impacto en estas pruebas de validez, así como en la consideración del contexto de los resultados de la investigación en relación con los objetivos del programa de investigación y las preocupaciones de reproducibilidad, traducibilidad y sesgo de publicación. Paralelamente, se necesita más investigación centrada en la validez interna de los procedimientos de toma de decisiones de revisión y el sesgo de los revisores.

Alianza entre Elsevier e Impactstory para hacer que los artículos de acceso abierto sean más fáciles de encontrar en Scopus

41952188960_0c72be1456_b_d

 

El acuerdo permitirá a Elsevier integrar datos de OA a nivel de documento de la base de datos Unpaywall de Impactstory con contenido Scopus; la identificación y etiquetado de los artículos de OA de Scopus revisados por pares comenzará en agosto y se extenderá hasta noviembre de 2018.

El acuerdo entre Elsevier e Impactstory, una organización sin fines cuyo objetivo es desarrollar herramientas en línea para hacer la ciencia más abierta y reutilizable, los investigadores pronto podrán encontrar contenido de acceso abierto en Scopusmore de manera eficiente. Además, para los observatorios de investigación universitaria, la expansión de contenidos identificados con OA en Scopus permitirá mejorar el análisis estratégico y de benchmarking.

Jason Priem, cofundador de Impactstory. afirmo que «El movimiento de acceso abierto ha hecho un gran trabajo al hacer que el contenido este en abierto, pero no siempre ha hecho posible que este contenido abierto sea fácil de encontrar» y continuó diciendo que  «Al asociarnos con Elsevier, podemos hacer que el contenido de OA salga a la luz donde pueda ser utilizado». Un paso clave hacia un ecosistema de comunicación científica más poderoso y abierto universalmente».

La otra cofundadora de Impactstory, la Dra. Heather Piwowar, añadió: «Nuestro objetivo es aumentar el impacto del acceso abierto haciéndolo fácil de descubrir. Al integrar la base de datos Unpaywall en la plataforma Scopus, ampliamente utilizada, estamos inyectando una dosis masiva de datos acceso abierto en los flujos de trabajo de millones de nuevos investigadores en todo el mundo».

Actualmente, los usuarios de Scopus pueden filtrar los resultados de las búsquedas para enlazar con artículos de acceso abierto publicados en revistas que son sólo OA y que el editor ha registrado proactivamente como OA a través de Crossref. Con el nuevo acuerdo, la concordancia de documentos OA de la base de datos Unpaywall de Impactstory con contenido en Scopus aumentará la cantidad de contenido etiquetado como OA en Scopus a más de 7 millones de registros. Esto mejorará las posibilidades de descubrimiento y permitirá el análisis de tendencias de los modelos de publicación en todas las áreas temáticas de investigación y en todos los países.

 

 

 

 

Como influyen los factores de posicionamiento en la ordenación por relevancia en Google Scholar

epi-aseo-cabecera

Rovira, Cristòfol and Guerrero-Solé, Frederic and Codina, Lluís «Received citations as a main SEO factor of Google Scholar results ranking«. El profesional de la información, 2018, vol. 27, n. 3, pp. 559-569.

Texto completo

 

El objetivo de este artículo es analizar los factores de posicionamiento (SEO) externos que pueden influir en la ordenación por relevancia en Google Scholar y luego identificar el peso las citas recibidas en esta ordenación. Se ha aplicado una metodología de ingeniería inversa comparando el ranking de Google Scholar con un ranking formado tan sólo por el número de citas recibidas por los documentos. El estudio se realizó a partir de cuatro tipos de búsquedas sin palabras clave: por publicación, año, autor y “citado por”. Los resultados fueron coincidentes en las cuatro muestras con coeficientes de correlación entre los dos rankings superiores al 0,9. El presente estudio demuestra de forma más clara que en anteriores investigaciones que las citas recibidas es el factor SEO externo más relevante en el ranking de los resultados en Google Scholar. Los demás factores tienen una influencia mínima. Esta información proporciona una base sólida para la disciplina del posicionamiento en buscadores académicos (ASEO). También hemos desarrollado una nueva propuesta metodológica que aísla los factores SEO externos y que puede ser útil en futuras investigaciones.

La visibilidad de una revista académica electrónica

107la_visibilidad_de_una_revista_1024x1024

López-Ornelas, Maricela. La visibilidad de una revista académica electrónica. Una perspectiva comunicacional. Mexicali: Universidad Autónoma de Baja California., 2014

Texto completo

La visibilidad de una revista académica electrónica expone, bajo una perspectiva comunicacional, la visibilidad de la Revista Electrónica de Investigación Educativa (Redie) a través del análisis de sus contenidos y procesos de comunicación. En este sentido, estudia el consumo de la información que produce la revista mediante sus procedimientos de introspección. La investigación se apoya en una metodología de corte cuantitativo que, a la vez, se auxilia con el análisis de indicadores bibliométricos (institución, grado académico, nacionalidad de los autores, género, nivel de autoría, etcétera) y cibermétricos (países desde donde se consulta la revista, el origen de la conexión, las palabras clave empleadas en la búsqueda, el número de descargas de artículos en versión de documento portátil [pdf, por sus siglas en inglés], y el total de visitantes únicos por mes y año) para evaluar dos puntos fundamentales en la publicación: la comunicación interna generada a partir de sus autores y la comunicación externa establecida por los usuarios (lectores). Finalmente, los resultados muestran el nivel de visibilidad de la publicación.

Medición de la complejidad de las consultas en dos sistemas de descubirmiento para biblioteca: una comparación entre dos bibliotecas universitarias

librarian-opac-17052

Rachael A. Cohen, Angie Thorpe Pusnik. «Measuring Query Complexity in Web-Scale Discovery: A Comparison between Two Academic Libraries» Reference & User Services Quarterly (RUSA) vol. 57, no. 4, pp. 274–84 (2018)

Texto completo

Este estudio informa sobre el examen de los registros de transacciones de búsqueda de las herramientas de descubrimiento de escala web en dos campus de la Universidad de Indiana. Los autores discuten cómo recopilaron las consultas de búsqueda de los registros de transacciones, categorizaron las consultas de acuerdo con el cronograma de clasificación de la Biblioteca del Congreso y luego examinaron las consultas mediante herramientas de análisis de texto para identificar qué temas se buscaban y si los usuarios utilizaban opciones de búsqueda avanzada. Los resultados de esta investigación demuestran cómo se pueden utilizar los registros de transacciones para comunicar las interacciones de los usuarios dentro de los servicios de detección. Los hallazgos ofrecen una visión detallada de los temas y habilidades que el profesorado y los bibliotecarios deben comunicar para mejorar la enseñanza de la alfabetización informativa. Las consultas de búsqueda también revelan necesidades de información que proporcionan orientación a los gerentes de cobranza.