Archivo de la etiqueta: Evaluación

Uso de ORCID, DOI y otros identificadores abiertos en la evaluación de investigación

frma-03-00028-g001

Haak LL, Meadows A and Brown J (2018) Using ORCID, DOI, and Other Open Identifiers in Research EvaluationFront. Res. Metr. Anal. 3:28. doi: 10.3389/frma.2018.00028

Texto completo

 

En este trabajo, se discute el uso de identificadores persistentes en la evaluación de la investigación – para los individuos, sus contribuciones y las organizaciones que los patrocinan y financian su trabajo. Los sistemas de identificación global se encuentran en una posición única para compilar los datos de todas  las interacciones,  movilidad y colaboración global que se produce en torno a un documento de investigación. Al aprovechar las conexiones entre las infraestructuras locales y los recursos de información globales, los evaluadores pueden mapear las fuentes de datos que antes no estaban disponibles o que requerían de una mano de obra que podría ser prohibitiva.

Se consideran identificadores persistentes aquellos sistemas normalizados tales como ORCID iDs y DOIs, que están siendo incorporados en los flujos de trabajo de investigación a través de la ciencia, la tecnología, la ingeniería, las artes y las matemáticas; cómo esto está afectando la disponibilidad de datos para propósitos de evaluación; y proporcionamos ejemplos de evaluaciones que están aprovechando los identificadores. También se discute la importancia de la procedencia y la preservación para establecer la confianza en la fiabilidad y confiabilidad de los datos y las relaciones, y en la disponibilidad a largo plazo de los metadatos que describen los objetos y sus interrelaciones. Se concluye  con una discusión sobre las oportunidades y riesgos del uso de identificadores en los procesos de evaluación.

Ranking de los científicos en España (2018): del 1 al 5000.

 

univer20candara20bold

http://www.webometrics.info/en

 

Undécima edición: Ranking de investigadores españoles que trabajan en instituciones españolas (España) según sus perfiles públicos de Google Scholar Citations.

 

Ranking de investigadores españoles y extranjeros trabajando en España: 
60.000 perfiles públicos http://www.webometrics.info/en/GoogleScholar/Spain

Transparent Rankings de Repositorios de Acceso Abierto

Todos los Repositorios http://repositories.webometrics.info/en/transparent

Repositorios Institucionales http://repositories.webometrics.info/en/node/32

Portales de Revistas http://repositories.webometrics.info/en/node/33

CRIS / PURE http://repositories.webometrics.info/en/node/34

 

 

La ventaja de la cita del acceso abierto: ¿existe y qué significa para las bibliotecas?

oa_verbeeldingskr8-1

Lewis, C. L. “The Open Access Citation Advantage: Does It Exist And What Does It Mean For Libraries?” Information Technology and Libraries (ITAL) vol. 37, n. 3 (2018).

Texto completo

La última revisión bibliográfica de la investigación sobre las ventajas de citación de los documentos en acceso abierto – Open Access Citation Advantage (OACA)– fue publicada en 2011 por Philip M. Davis y William H. Walters. Este artículo reexamina las conclusiones a las que llegaron Davis y Walters al proporcionar una revisión crítica de la literatura de la OACA que se ha publicado en 2011, y explora cómo los aumentos en las tendencias de publicación deOA podrían servir como una herramienta de apoyo para las bibliotecas frente a los altos costos de las suscripciones a revistas.

La evaluación de las Humanidades y de las Ciencias Sociales en revisión

mona-lisa-final-760x755

Giménez Toledo, E. and E. G. Toledo “La evaluación de las Humanidades y de las Ciencias Sociales en revisión.” Revista española de Documentación Científica vol. 41, n. 3 (2018). pp. e208. http://redc.revistas.csic.es/index.php/redc/article/view/1012

Texto completo

La evaluación de las Humanidades y las Ciencias Sociales ha resultado siempre controvertida. En este artículo se revisan los cambios que se están produciendo en las metodologías y enfoques de la evaluación, así como las líneas de trabajo que están marcando estos procesos de evaluación en Europa. Las claves de la evaluación científica en la actualidad pueden resumirse en: 1. Utilización de datos completos sobre producción científica y desarrollo de fuentes de indicadores para revistas y libros académicos, al margen de las bases de datos comerciales; 2. Evaluación más cualitativa y/o con enfoques bottom up; 3. El acceso abierto y su implicación en la evaluación científica; 4. Métricas alternativas y citas abiertas; 5. Métricas responsables; 6. Impacto social de la investigación.

Pruebas externas de la validez de la revisión por pares mediante medidas de impacto.

 

istock-148441660-credit-retrorocket-1200-x-600

Gallo, S. A. and S. R. Glisson “External Tests of Peer Review Validity Via Impact Measures.” Frontiers in Research Metrics and Analytics vol. 3, n. 22 (2018). pp.: https://www.frontiersin.org/article/10.3389/frma.2018.00022

 

La revisión por pares se utiliza comúnmente en la ciencia como una herramienta para evaluar el mérito y el impacto potencial de los proyectos de investigación y hacer recomendaciones de financiación de la investigación. Si bien es probable que el impacto potencial sea difícil de evaluar con anterioridad, ha habido relativamente pocos intentos de obtener una idea de la exactitud predictiva de las decisiones de revisión utilizando medidas de impacto de los resultados de los proyectos finalizados.

Aunque existen muchos resultados, y por lo tanto medidas potenciales de impacto, para los proyectos de investigación, la gran mayoría de la evaluación de los resultados de la investigación se centra en la bibliometría. En el artículo se revisan los múltiples tipos de medidas de impacto potencial con interés en su aplicación para validar las decisiones de revisión. Se presenta una revisión de la literatura actual sobre la validación de las decisiones de revisión por pares con medidas de impacto de los resultados de la investigación; sólo se identificaron 48 estudios, aproximadamente la mitad de los cuales son de EE.UU. y el tamaño de la muestra por estudio varia enormemente. El 69% de los estudios utilizaron la bibliometría como resultado de la investigación. Mientras que el 52% de los estudios emplearon medidas alternativas (como patentes y licencias de tecnología, revisión por pares después del proyecto, colaboración internacional, éxito de la financiación en el futuro, obtención de puestos de trabajo y satisfacción profesional), sólo el 25% de todos los proyectos utilizaron más de una medida de los resultados de la investigación.

En general, el 91% de los estudios con controles no financiados y el 71% de los estudios sin dichos controles proporcionaron evidencia de al menos algún nivel de validez predictiva de las decisiones de revisión. Sin embargo, varios estudios informaron que también observaron errores considerables de tipo I y II. Además, muchos de los efectos de observación fueron pequeños y varios estudios sugieren un poder de discriminación grosero, capaz de separar las propuestas pobres de las mejores, pero no la discriminación entre las propuestas o solicitantes de nivel superior.

Se necesita más investigación, particularmente en la integración de múltiples tipos de indicadores de impacto en estas pruebas de validez, así como en la consideración del contexto de los resultados de la investigación en relación con los objetivos del programa de investigación y las preocupaciones de reproducibilidad, traducibilidad y sesgo de publicación. Paralelamente, se necesita más investigación centrada en la validez interna de los procedimientos de toma de decisiones de revisión y el sesgo de los revisores.

Alianza entre Elsevier e Impactstory para hacer que los artículos de acceso abierto sean más fáciles de encontrar en Scopus

41952188960_0c72be1456_b_d

 

El acuerdo permitirá a Elsevier integrar datos de OA a nivel de documento de la base de datos Unpaywall de Impactstory con contenido Scopus; la identificación y etiquetado de los artículos de OA de Scopus revisados por pares comenzará en agosto y se extenderá hasta noviembre de 2018.

El acuerdo entre Elsevier e Impactstory, una organización sin fines cuyo objetivo es desarrollar herramientas en línea para hacer la ciencia más abierta y reutilizable, los investigadores pronto podrán encontrar contenido de acceso abierto en Scopusmore de manera eficiente. Además, para los observatorios de investigación universitaria, la expansión de contenidos identificados con OA en Scopus permitirá mejorar el análisis estratégico y de benchmarking.

Jason Priem, cofundador de Impactstory. afirmo que “El movimiento de acceso abierto ha hecho un gran trabajo al hacer que el contenido este en abierto, pero no siempre ha hecho posible que este contenido abierto sea fácil de encontrar” y continuó diciendo que  “Al asociarnos con Elsevier, podemos hacer que el contenido de OA salga a la luz donde pueda ser utilizado”. Un paso clave hacia un ecosistema de comunicación científica más poderoso y abierto universalmente”.

La otra cofundadora de Impactstory, la Dra. Heather Piwowar, añadió: “Nuestro objetivo es aumentar el impacto del acceso abierto haciéndolo fácil de descubrir. Al integrar la base de datos Unpaywall en la plataforma Scopus, ampliamente utilizada, estamos inyectando una dosis masiva de datos acceso abierto en los flujos de trabajo de millones de nuevos investigadores en todo el mundo”.

Actualmente, los usuarios de Scopus pueden filtrar los resultados de las búsquedas para enlazar con artículos de acceso abierto publicados en revistas que son sólo OA y que el editor ha registrado proactivamente como OA a través de Crossref. Con el nuevo acuerdo, la concordancia de documentos OA de la base de datos Unpaywall de Impactstory con contenido en Scopus aumentará la cantidad de contenido etiquetado como OA en Scopus a más de 7 millones de registros. Esto mejorará las posibilidades de descubrimiento y permitirá el análisis de tendencias de los modelos de publicación en todas las áreas temáticas de investigación y en todos los países.

 

 

 

 

Como influyen los factores de posicionamiento en la ordenación por relevancia en Google Scholar

epi-aseo-cabecera

Rovira, Cristòfol and Guerrero-Solé, Frederic and Codina, Lluís “Received citations as a main SEO factor of Google Scholar results ranking“. El profesional de la información, 2018, vol. 27, n. 3, pp. 559-569.

Texto completo

 

El objetivo de este artículo es analizar los factores de posicionamiento (SEO) externos que pueden influir en la ordenación por relevancia en Google Scholar y luego identificar el peso las citas recibidas en esta ordenación. Se ha aplicado una metodología de ingeniería inversa comparando el ranking de Google Scholar con un ranking formado tan sólo por el número de citas recibidas por los documentos. El estudio se realizó a partir de cuatro tipos de búsquedas sin palabras clave: por publicación, año, autor y “citado por”. Los resultados fueron coincidentes en las cuatro muestras con coeficientes de correlación entre los dos rankings superiores al 0,9. El presente estudio demuestra de forma más clara que en anteriores investigaciones que las citas recibidas es el factor SEO externo más relevante en el ranking de los resultados en Google Scholar. Los demás factores tienen una influencia mínima. Esta información proporciona una base sólida para la disciplina del posicionamiento en buscadores académicos (ASEO). También hemos desarrollado una nueva propuesta metodológica que aísla los factores SEO externos y que puede ser útil en futuras investigaciones.