Archivo de la etiqueta: Calidad

Bibliotecas y eficiencia: adaptación del indicador de la potencia del sistema de la metodología Secaba-Rank para nuevas necesidades al servicio de una sociedad cambiante

 

upo-biblioteca

 

Lázaro Rodríguez, Pedro; López Gijón, Javier; Herrera Viedma, Enrique (2020). “Bibliotecas y eficiencia : adaptación del indicador de la potencia del sistema de la metodología Secaba-Rank para nuevas necesidades al servicio de una sociedad cambiante”. BiD: textos universitaris de biblioteconomia i documentació, núm. 44 (juny). <http://bid.ub.edu/es/44/lazaro.htm&gt;. DOI: https://dx.doi.org/10.1344/BiD2020.44.4 [Consulta: 15-06-2020].

Texto completo

 

Objetivo: los objetivos de este trabajo son dos, el primero es adaptar el indicador de potencia del sistema de la metodología Secaba-Rank incluyendo medidas relacionadas con el presupuesto, préstamos, visitas, uso de Internet y asistencia a actividades culturales para calcular y obtener los resultados de la eficiencia de las bibliotecas o redes de lectura pública españolas; el segundo es comparar y analizar los resultados obtenidos en dicha adaptación del indicador de la potencia del sistema con los de los estudios anteriores para extraer conclusiones sobre la medida de la eficiencia de las bibliotecas en el contexto de una sociedad cambiante.

Metodología: en cuanto al primer objetivo, la metodología es la adaptación del indicador de la potencia del sistema de la herramienta Secaba-Rank. Dicho indicador, aplicado en trabajos anteriores para el cálculo de la eficiencia de bibliotecas públicas y universitarias españolas, pone en relación las salidas y entradas de los sistemas bibliotecarios y permite el cálculo de su eficiencia. La adaptación concreta consiste en incluir en las salidas dimensiones de las bibliotecas referidas a los préstamos, visitas, uso de Internet y asistencia a actividades culturales para relacionarlo con el presupuesto y obtener un nuevo indicador sobre eficiencia. En cuanto al segundo objetivo, la comparación de los resultados según los rankings generados para cada dimensión y la definida como potencia del sistema total, se lleva a cabo mediante el cálculo del coeficiente de correlación rho de Spearman.

Resultados: se demuestra que la metodología Secaba-Rank es adecuada para el estudio de la eficiencia de las bibliotecas en su rol actual, especialmente en el análisis que compara préstamos y visitas; uso de Internet y eficiencia total, y asistencia a actividades culturales y eficiencia total. Por último, en cuanto a los resultados de la eficiencia total considerando la relación entre el presupuesto y los préstamos, visitas, uso de Internet y asistencia a actividades culturales, en el ámbito español se identifican cuatro sistemas ineficientes (Cataluña, Comunidad Valenciana, Andalucía y País Vasco) y el resto de los sistemas son eficientes.

 

 

 

Impacto, calidad de la investigación y revisión científica en el contexto de la ciencia abierta

 

A partir del minuto aproximadamente, se explica de una manera bastante clara y amigable cómo funciona el sistema de comunicación científica, calidad impacto y revisión.

 

Encuesta sobre la calidad de los metadatos. Libro blanco de la Federación de Bibliotecas Digitales

 

2020-05-05_17-13-31

Steven Gentry.. [et al.]. “Survey of Benchmarks in Metadata Quality: Initial Findings” (A New White Paper From the Digital Library Federation).

Texto completo

Libro blanco en el que se ofrece un análisis general y una documentación de los resultados recogidos por una encuesta Qualtrics para reunir información sobre las prácticas de evaluación de metadatos en las bibliotecas digitales. Incluye un panorama general de las respuestas y un breve análisis, con alguna interpretación de las tendencias.

 

¿Qué tiene de malo el índice H? según Jorge Hirsch, su inventor

 

web-of-science-h-index-700x350-1

 

Conroy, Gemma. What’s wrong with the H-index, according to its inventor “Severe unintended negative consequences”. Mature Index. 24 March 2020

Texto completo

 

El índice H se ha convertido en una de las métricas más utilizadas en el mundo académico para medir la productividad y el impacto de los investigadores. Pero cuando Jorge Hirsch lo propuso como una medida objetiva del logro científico en 2005, no pensó que se usaría fuera de la física teórica.”Ni siquiera estaba seguro de si publicarlo o no”, dice Hirsch, físico de la Universidad de California en San Diego. “No esperaba que tuviera un impacto tan grande”.

 

La métrica tiene en cuenta tanto el número de artículos que ha publicado un investigador como la cantidad de citas que recibe. Se ha convertido en una herramienta popular para evaluar a los investigadores.

 

jorgehirsch_200x225_jpg_medium_3

 

También es uno de los temas más polémicos que discuten los científicos, como escribe Hirsch en el boletín de Física y Sociedad de enero.

“Aproximadamente la mitad de la comunidad científica ama el índice H y la mitad lo odia”, escribe Hirsch. “El índice H del propio científico es un gran predictor de si pertenece al primer o al segundo grupo”.

Si bien Hirsch cree que el índice H sigue siendo una de las mejores medidas objetivas del logro científico, también escribe que puede “fallar espectacularmente y tener graves consecuencias negativas no deseadas”.

Una desventaja es que puede disuadir a los investigadores del pensamiento innovador. Por ejemplo, un estudiante que trabaja con un profesor con un alto índice H puede ser reacio a cuestionar los conceptos que se le están enseñando, ya que es probable que asuman que el profesor es un experto en su campo en función de su puntaje.

La búsqueda de un índice H alto también puede alentar a los investigadores a elegir temas de investigación ‘candentes’ que sean más propensos a llamar la atención y tentarlos a publicar un artículo tras otro en un esfuerzo por aumentar su puntaje. “Es demasiado sensible a lo que es popular y de moda en la ciencia”, dice Hirsch. Mientras más se cita un artículo, más difícil resulta cuestionar su validez, señala.

Hirsch señala que la métrica no recoge la investigación que se desvía de la corriente principal, algo que ha observado en su propio trabajo sobre la superconductividad.

Un análisis realizado en 2012 sobre 2.307 investigadores muy citados reveló que los índices H varían mucho entre las distintas disciplinas. Los investigadores de Medicina y Química tienen los índices H más altos de promedio, mientras que los matemáticos y los nformáticos y los científicos tienen el más bajo. (Ver gráfico).

 

c4cf27a6c65363b95618b194e9fa1f71

 

“Uno tiene que mirar la naturaleza del trabajo”, dice Hirsch. “Si toma decisiones basadas en el índice H de alguien, puede terminar contratando a la persona equivocada o negando una subvención a alguien que es mucho más probable que haga algo importante. Tiene que usarse con cuidado.

Estado mundial de la revisión por pares

 

publons-global-state-of-peer-review-2018-page-034

 

2018 Global State of Peer Review report released, Publons, 2019

Texto completo

 

El informe sobre el estado mundial de la revisión científica plantea cuatro preguntas clave: ¿Quién está haciendo la revisión? ¿Cuán eficiente es el proceso de revisión? ¿Qué sabemos acerca de la calidad del examen por pares? y ¿Qué nos depara el futuro?

 

El informe sobre el estado mundial de la evaluación por pares, en el que se resumen los datos de una encuesta realizada a 11.000 investigadores internacionales, así como los datos de Web of Science, ScholarOne y Publons, presenta el estado del de la revisión científica en todo el mundo, combinando datos cuantitativos y cualitativos para este desglose muy completo del panorama del examen por homólogos.

Entre los muchos resultados presentados en el informe, se examinaron las regiones establecidas y emergentes que publican y revisan la investigación y se encontró que los investigadores de China, Brasil, Turquía, India, Irán, Corea del Sur, Malasia y Polonia estaban subrepresentados en comparación con los revisores de los EE.UU., Alemania, Italia, España, Francia, Países Bajos, Suecia, Canadá, Reino Unido y Japón.

También se encontró que los editores invitaban a los investigadores de sus propias regiones geográficas más de lo que la casualidad podría predecir.

En términos de eficiencia, el informe encontró que las tasas de finalización de los revisores están disminuyendo cada año, mientras que el número total de invitaciones de revisión enviadas está aumentando en un 9,8% interanual. La tasa de acuerdos de invitaciones en 2013 fue de alrededor de 0,54. En 2017 se había reducido a 0,44, y el número de exámenes completados de invitaciones sigue la misma tasa de disminución.

Sin embargo, una buena noticia del informe es que el proceso de revisión por pares no necesariamente puede tardar tanto como creemos. El informe encontró que los revisores tardaron una mediana de 16,4 días en completar una revisión después de aceptar la asignación (la media es de 19,1 días). Desglosando estos resultados en 22 áreas temáticas, el informe encontró que los tiempos de revisión eran más largos en Economía y Negocios y Matemáticas, con una media de unos 30 días, y más cortos en Farmacología y Química, con unos 12 días. Para varias áreas de estudio, los tiempos promedio de revisión por pares se han ido reduciendo, y para varias otras, ha habido un pequeño aumento.

En el informe también se examinó la extensión de los informes como método de evaluación de la calidad. Aunque se trata de una medida muy imperfecta, el informe proporciona algunos resultados interesantes. El promedio de palabras de los informes de revisión de regiones establecidas (por ejemplo, Estados Unidos, Reino Unido, Alemania, España) fue de 528, y de regiones emergentes (por ejemplo, Brasil, China, India, Corea del Sur) fue de 250. En el informe también se observaron revisiones más largas en revistas con un mayor factor de impacto que en revistas con un FI más bajo, y se sugirió que los directores de las revistas con un FI más alto podrían solicitar más revisiones de regiones que tienden a escribir revisiones más largas, independientemente de la calidad, o que los FI más altos se asocian con temas que tienden a tener revisiones más largas.

En la sección final del informe se mira hacia el futuro y se sugiere que, de continuar las tendencias, en los próximos años aumentará el número de invitaciones necesarias para conseguir revisores, es posible que siga disminuyendo el tiempo de revisión, y que las políticas de revisión y examen abiertos puedan afectar a las tasas en que los revisores estén de acuerdo; es probable o muy probable que el 40% de los encuestados menores de 26 años revisen en revistas que hagan públicas las identidades de los autores y revisores, y los informes de revisión.

 

Ranking SECABA de las Bibliotecas Españolas Universitarias 2020

slider_15

 

Ranking sobre la eficiencia de las redes de una manera visual e interactiva, permitiendo la comparación (Benchmarking) para encontrar modelos de buenas prácticas que sirvan de referencia entre las Bibliotecas contempladas y proponiendo un Mapa de la lectura como herramienta valiosa y original para el conocimiento y análisis de las mismas.

 

Ver en la página de SECABA

Metodología

Datos Universidad de Salamanca

 

Mostrando registros del 1 al 60 de un total de 60 registros

 

Indicadores de calidad en edición académica

 

sello-calidad-academica-edicion-modelo-aplicable-chile

Anabel Bonilla-Calero, David Carabantes-Alarcón, Miguel Ángel Sastre-Castillo. Indicadores de calidad en edición académica. Métodos de información. Vol. 10, Núm. 18 (2019)

Texto completo

El Sello de Calidad de Edición Académica creado por ANECA, FECYT y UNE tiene como objetivo promover el uso de indicadores en los procesos de evaluación más ajustados a todas las características de las investigaciones de cada disciplina, así como estimular la calidad en la edición académica mediante el reconocimiento de las mejores prácticas dentro de la edición universitaria española y convertirla en un signo distintivo que, tanto las agencias de evaluación de la actividad investigadora como la comunidad académica y científica, puedan identificar fácilmente. Hasta la fecha 39 colecciones de 21 editoriales diferentes han obtenido el Sello en las dos convocatorias celebradas hasta el momento. Estos resultados deben mantenerse actualizados, teniendo en cuenta que el mundo de las monografías es muy dinámico.

Las universidades españolas en el ranking de Shanghai

7e3ccbbf162bb2cdb00ee403c490d697

Ranking de Shanghái 2019

Desde 2003, ARWU ha estado presentando anualmente las 500 mejores universidades del mundo basándose en datos de metodología transparente y de terceros. Ha sido reconocido como el precursor de la clasificación de universidades a nivel mundial y el más digno de confianza.

ARWU utiliza seis indicadores objetivos para clasificar las universidades del mundo. Estos indicadores son el número de alumnos y profesores que han ganado premios Nobel y medallas Fields, el número de investigadores altamente citados, el número de artículos publicados en revistas de Nature y Science, el número de artículos indexados en Science Citation Index – Expanded (SCIE) y Social Sciences Citation Index (SSCI), y el rendimiento per cápita respecto al tamaño de una institución. AMRU califica más de 1.200 universidades al año y las 500 mejores se publican en la web.

A nivel internacional, la universidad estadounidense de Harvard ocupa el primer puesto mundial en la clasificación de 2019, que lleva ocupando desde la creación del Ranking en 2003. Después se sitúan Stanford y Cambridge.

En el caso de España, las universidadesde Barcelona, Granada, Valencia, Autónoma de Barcelona y Complutense de Madrid se sitúan entre las 300 mejores del mundo.

En el año 2009 son 13 los centros que se sitúan entre las 400 primeras universidades del mundo.  un avance moderado frente al año anterior que solo fueron 10 las universidades que estaban entre las 400 primeras.

 

 

 

Fundación DOAB: hacia un sello de calidad para libros académicos en acceso abierto

 

d7rjc6uxoaa8na2

 

La publicación científica ha experimentado una revolución durante con el desarrollo del acceso abierto, que permite a todo el mundo consultar artículos o libros académicos de forma gratuita. Pero en este entorno de libertad, los lectores y bibliotecarios deben poder orientarse hacia libros de calidad, certificados por la comunidad científica. Europa también está creando una fundación para etiquetar los libros académicos de acceso abierto y revisados por pares, la Fondation DOAB auspiciada bajo el impulso del CNRS, la Universidad de Aix-Marseille y la fundación holandesa OAPEN.

Hoy en día, es imposible pensar en la difusión del conocimiento científico sin plantear la cuestión del acceso abierto: una práctica de publicación que ofrece a todos la posibilidad de consultar gratuitamente producciones académicas compartidas en archivos abiertos o plataformas de publicación. Sin embargo, la multiplicación de iniciativas en este campo requiere establecer mecanismos de valoración de la calidad. ¿Cómo podemos garantizar la calidad y la pertinencia del contenido científico en un entorno cada vez más abierto?

Para responder al desafío del acceso abierto certificado y reconocido por los actores europeos, OpenEdition (CNRS/Aix-Marseille Université/EHESS/Université d’Avignon et des pays de Vaucluse) y la fundación holandesa Open access publishing in european network (OAPEN), han continuado su cooperación desde 2015 creando una fundación dedicada a esta misión.

Fondation Directory of open access books (DOAB), establece criterios de calidad con las partes interesadas de la investigación europea para certificar la calidad de los libros académicos disponibles en acceso abierto. Proporciona a los lectores y bibliotecarios una herramienta para identificar publicaciones abiertas reconocidas por la comunidad científica.

Antes de convertirse en una fundación, DOAB es un proyecto lanzado por OAPEN en 2012. Este directorio contiene ahora 17.000 libros de investigación académica de acceso abierto escritos en varios idiomas. Esta nueva autonomía en forma de fundación permitirá a la DOAB expandir su actividad en Europa y en todo el mundo, al tiempo que se garantiza que se tenga en cuenta la variedad de prácticas académicas en los diferentes países europeos.

Con el tiempo, DOAB se unirá al catálogo de servicios ofrecidos por la infraestructura OPERAS – acceso abierto en el espacio europeo de investigación a través de la comunicación académica – de la que OpenEdition y OAPEN son miembros fundadores junto con otros siete socios europeos.

La creación de la Fundación DOAB es una de las acciones incluidas en el plan científico abierto nacional presentado por el Ministro de Educación Superior, Investigación e Innovación Frédérique Vidal en 2018.

Gestión de la calidad en las bibliotecas: norma ISO 9001

 

images2

Aguilar, Ana and Fernández-Roca, Pilar and Puyuelo-Ramiz, Pilar. Gestión de la calidad en las bibliotecas: norma ISO 9001., 2007 [Report]

Texto completo

 

La gestión de la calidad define la política de la biblioteca, los objetivos y las evaluaciones, a priori y a posteriori, de los datos recogidos para desembocar en acciones correctivas y preventivas adecuadas. En este artículo se exponen los métodos para gestionar apropiadamente la calidad en las bibliotecas y se hace especial hincapié en la implementación de la norma ISO 9001:2000, en las medidas necesarias para llevar a cabo este modelo, en los elementos clave para obtener y mantener esta certificación, y en los criterios de un sistema de indicadores para evaluar la funcionalidad de la calidad en las bibliotecas.