Archivo de la etiqueta: Evaluación

Comparando la cobertura de Google Scholar, Microsoft Academic, Dimensions, COCI de CrossRef, Web of Science y Scopus

 

1b3b556695916ac503a49761571d4a3c

 

Alberto Martín-Martín, Mike Thelwall, Enrique Orduna-Malea, Emilio Delgado López-Cózar. Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and OpenCitations’ COCI: a multidisciplinary comparison of coverage via citations. ArXiv, 2020. https://arxiv.org/abs/2004.14329

Descargar artículo

 

El estudio que compara la cobertura en citas de Google Scholar, Microsoft Academic, Dimensions, COCI de CrossRef, Web of Science y Scopus. Se analiza no solo la extensión sino el grado de solapamiento entre ellas, con lo cual os puede orientar a los bibliotecarios y, en general, a los científicos sobre qué fuente es las más adecuada para encontrar información científica exhaustiva y relevante. Es la primera vez que se comparan simultáneamente estas seis fuentes de datos, entre ellas por primera vez Microsoft Academic, Dimensions y Crossref y se hace a gran escala (3.073.353 citas)

 Se ha diseñado una aplicación que os permite comparar entre sí las bases de datos que deseéis y, sobre todo, como rinde cada una de ellas en 252 categorías temáticas. De esta manera podéis conocer con precisión las fortalezas y debilidades de cada base de datos en disciplinas y especialidades de todos los ámbitos de conocimiento. La aplicación se encuentra en: https://cutt.ly/Jyksa9M

 

Pautas para la evaluación en línea para educadores

 

2016_guidelines-online-assessment_

vd Westhuizen, Duan. Guidelines for Online Assessment for Educators. London: Commonwealth of Learning, 2019

Texto completo

 

Este trabajo comienza con una breve descripción de la educación en los países en desarrollo, para contextualizar el uso de las directrices. Aunque este documento pretende ser una herramienta práctica, es necesario incluir algunos análisis teóricos del concepto de evaluación en línea. Esto se proporciona en las Secciones 3 y 4, junto con la identificación y descripción de técnicas relevantes de evaluación en línea. La Sección 5 presenta diez principios para la evaluación en línea; Estos fueron el foco central de este trabajo. Finalmente, se identifican y describen brevemente algunas herramientas que pueden ser útiles para maestros y educadores. La Sección 6 hace referencia a los sistemas de gestión del aprendizaje y la evaluación en línea, mientras que la Sección 7 cubre otros recursos de evaluación en línea.

Conjunto de herramientas de evaluación comparativa para el aprendizaje basado en la tecnología

 

annotation202019-08-1320140612

 

Sankey, Michael ; Mishra, Sanjaya. Benchmarking Toolkit for Technology-Enabled Learning. The Commonwealth of Learning (COL) 2019

Texto completo

 

Este conjunto de instrumentos ayuda a las instituciones educativas que aplican la TEL a evaluar y comparar sus prácticas con las de otras instituciones. Proporciona un marco para la autoevaluación y la presentación de informes basado en 10 áreas e indicadores detallados para medir la calidad.

 

Estado de la penetración del acceso abierto en las universidades de todo el mundo

 

 

 Robinson-Garcia, Nicolas ; Costas, Rodrigo ;  Leeuwen, Thed N. van. State of Open Access Penetration in Universities Worldwide. ArXiv, 2020

Texto completo

 

La aplicación de políticas que promuevan la adopción de una cultura de ciencia abierta debe ir acompañada de indicadores que permitan analizar la penetración de esas políticas y sus posibles efectos en las prácticas de publicación e intercambio de investigaciones. En este estudio se presentan indicadores de la penetración del acceso abierto (OA) a nivel institucional para las universidades de todo el mundo. Combinando los datos de Web of Science, Unpaywall y la desambiguación de la Clasificación de Leiden de las instituciones, seguimos la cobertura del OA de la producción de las universidades para 963 instituciones.

 

¿Qué tiene de malo el índice H? según Jorge Hirsch, su inventor

 

web-of-science-h-index-700x350-1

 

Conroy, Gemma. What’s wrong with the H-index, according to its inventor “Severe unintended negative consequences”. Mature Index. 24 March 2020

Texto completo

 

El índice H se ha convertido en una de las métricas más utilizadas en el mundo académico para medir la productividad y el impacto de los investigadores. Pero cuando Jorge Hirsch lo propuso como una medida objetiva del logro científico en 2005, no pensó que se usaría fuera de la física teórica.»Ni siquiera estaba seguro de si publicarlo o no», dice Hirsch, físico de la Universidad de California en San Diego. «No esperaba que tuviera un impacto tan grande».

 

La métrica tiene en cuenta tanto el número de artículos que ha publicado un investigador como la cantidad de citas que recibe. Se ha convertido en una herramienta popular para evaluar a los investigadores.

 

jorgehirsch_200x225_jpg_medium_3

 

También es uno de los temas más polémicos que discuten los científicos, como escribe Hirsch en el boletín de Física y Sociedad de enero.

«Aproximadamente la mitad de la comunidad científica ama el índice H y la mitad lo odia», escribe Hirsch. «El índice H del propio científico es un gran predictor de si pertenece al primer o al segundo grupo».

Si bien Hirsch cree que el índice H sigue siendo una de las mejores medidas objetivas del logro científico, también escribe que puede «fallar espectacularmente y tener graves consecuencias negativas no deseadas».

Una desventaja es que puede disuadir a los investigadores del pensamiento innovador. Por ejemplo, un estudiante que trabaja con un profesor con un alto índice H puede ser reacio a cuestionar los conceptos que se le están enseñando, ya que es probable que asuman que el profesor es un experto en su campo en función de su puntaje.

La búsqueda de un índice H alto también puede alentar a los investigadores a elegir temas de investigación ‘candentes’ que sean más propensos a llamar la atención y tentarlos a publicar un artículo tras otro en un esfuerzo por aumentar su puntaje. «Es demasiado sensible a lo que es popular y de moda en la ciencia», dice Hirsch. Mientras más se cita un artículo, más difícil resulta cuestionar su validez, señala.

Hirsch señala que la métrica no recoge la investigación que se desvía de la corriente principal, algo que ha observado en su propio trabajo sobre la superconductividad.

Un análisis realizado en 2012 sobre 2.307 investigadores muy citados reveló que los índices H varían mucho entre las distintas disciplinas. Los investigadores de Medicina y Química tienen los índices H más altos de promedio, mientras que los matemáticos y los nformáticos y los científicos tienen el más bajo. (Ver gráfico).

 

c4cf27a6c65363b95618b194e9fa1f71

 

«Uno tiene que mirar la naturaleza del trabajo», dice Hirsch. “Si toma decisiones basadas en el índice H de alguien, puede terminar contratando a la persona equivocada o negando una subvención a alguien que es mucho más probable que haga algo importante. Tiene que usarse con cuidado.

Automatización en las bibliotecas universitarias con el Aleph 500.

b5ac0b9c61a6dc468f8a2b6576d85b8b

Gusmão, Alexandre Oliveira de Meira. [Book] Automação em bibliotecas universitárias brasileiras com o Aleph 500., 2020 Liz Universitária; Universidade Federal de Rondonópolis; Coordenação de Biblioteconomia, 2020.

Texto completo

 

Evalúa la calidad del software Aleph 500 de Ex-Libros en el entorno de las bibliotecas universitarias brasileñas. La metodología se basa en la validación y evaluación de un conjunto específico de requisitos de calidad generales y específicos de los productos informáticos aplicables al Aleph 500, que se pueden medir a partir de cuestionarios contestados por bibliotecarios y analistas de sistemas. Los resultados presentan la caracterización, los impactos del uso y la evaluación de la calidad del Aleph 500 (nivel de desempeño) en el escenario de las bibliotecas universitarias brasileñas.

Evaluación del desempeño institucional en materia de acceso abierto: metodología, desafíos y evaluación

 

quality-rating-1380x920-1

Chun-Kai Huang,  Cameron Neylon,  Richard Hosking,  Lucy Montgomery,  Katie Wilson,  Alkim Ozaygen, V Chloe Brookes-Kenworthy. Evaluating institutional open access performance: Methodology, challenges and assessment. bioRxiv . doi: https://doi.org/10.1101/2020.03.19.998336

 

El acceso abierto a los resultados de las investigaciones se está volviendo cada vez más importante para la comunidad de investigación y la sociedad mundial. Los cambios son impulsados por los mandatos de los financiadores, la política institucional, la promoción de base y el cambio de cultura. Ha sido un reto proporcionar un análisis sólido, transparente y actualizable de los progresos realizados en materia de acceso abierto que pueda servir de base para esas intervenciones, en particular a nivel institucional. Aquí proponemos una norma mínima de presentación de informes y presentamos un análisis a gran escala de los progresos en materia de acceso abierto en 1.207 instituciones de todo el mundo que muestra que se están realizando progresos sustanciales. El análisis detecta las respuestas que coinciden con las intervenciones de política y financiación. Entre los resultados sorprendentes figuran el alto rendimiento de las universidades de América Latina y África, en particular en lo que respecta al acceso abierto de la ruta dorada, mientras que los niveles generales de acceso abierto en Europa y América del Norte están impulsados por el acceso mediado por depósitos. Presentamos un top-100 de universidades mundiales con las principales instituciones del mundo que logran alrededor de un 80% de acceso abierto para las publicaciones de 2017.

The SCImago Institutions Rankings (SIR) 2020

 

82b97e05d803da9f73326348da78162d

 

SCImago Institutions Rankings (SIR)

https://www.scimagoir.com/

Ver Rankig de España

 

SCImago Institutions Rankings (SIR) es una clasificación de instituciones académicas y relacionadas con la investigación clasificada por un indicador compuesto que combina tres conjuntos diferentes de indicadores basados en el rendimiento de la investigación, los resultados de la innovación y el impacto social medido por su visibilidad en la web. Es posible visualizar la información por sectores (Gobierno, Salud, educación… ) y ver el ranking por regiones y países.

A efectos del ranking, el cálculo se genera cada año a partir de los resultados obtenidos durante un período de cinco años que finaliza dos años antes de la edición del ranking. Por ejemplo, si el año seleccionado para la publicación es 2020, los resultados utilizados son los del quinquenio 2014-2018. La única excepción es el caso de la web en

El desarrollo de una herramienta de evaluación para el análisis bibliométrico destinado a caracterizar las instituciones de investigación implica una enorme tarea de procesamiento de datos relacionada con la identificación y desambiguación de las instituciones a través de la afiliación institucional de los documentos incluidos en Scopus.

 

Jugando las métricas Mala conducta y manipulación en la investigación académica

3fcollid3dbooks_covers_026isbn3d978026253793326type3d

Mario Biagioli and Alexandra Lippman. Gaming the Metrics Misconduct and Manipulation in Academic Research. MIT, 2020

Texto completo

PDF

ePub

Cómo la creciente dependencia de las métricas para evaluar las publicaciones académicas ha producido nuevas formas de fraude académico y mala conducta.

El imperativo académico tradicional de «publicar o perecer» está cada vez más unido a la nueva necesidad de «impactar o perecer»: el requisito de que una publicación tenga «impacto», medido por una variedad de métricas, incluidas citas, vistas y descargas.

Gaming the Metrics examina cómo la creciente dependencia de las métricas para evaluar publicaciones académicas ha producido formas radicalmente nuevas de fraude académico y mala conducta. Los contribuyentes muestran que la «cultura de auditoría» basada en métricas ha cambiado el entorno de la investigación, fomentando el juego y la manipulación de indicadores cuantitativos, lo que condujo a la invención de formas novedosas de mala conducta, como los anillos de citas y las revisiones de pares manipuladas. Los capítulos, escritos por académicos y oteas partes interesadas en la publicación académica, proporcionan un mapa de fraude académico y mala conducta en la actualidad.

Evaluacion de bibliotecas universitarias con el Modelo EFQM

 

grafico_efqm

 

Alonso-Arévalo, Julio Evaluacion de bibliotecas universitarias con el Modelo EFQM., 2003 . In Encontro das Bibliotecas do Ensino, Lisboa (Portugal), 18-19 December 2003.

Texto completo

Ver además

La gestión de las bibliotecas universitarias : indicadores para su evaluación

 

Antecedentes y marco de desarrollo del modelo de la Fundación Europea para la Calidad, a través de un estudio general del mismo, sus fundamentos, conceptos y aplicación. Para posteriormente hacer un estudio de las fases que conlleva (Autoevaluación, Evaluación Externa y Evaluación Final). A continuación se hace un análisis de la aplicación del modelo a un caso real: El Servicio de Archivos y Bibliotecas de la Universidad de Salamanca.