Archivo de la etiqueta: Calidad

MIAR: Matriz de Información para el Análisis de Revistas

 

 

miar

MIAR: Matriz de Información para el Análisis de Revistas

http://miar.ub.edu/

MIAR recolecta datos para la identificación y análisis de más de 44.000 revistas científicas procedentes de 117 bases de datos.

Si se introduce en la casilla de búsqueda cualquier ISSN el sistema localizará en qué bases de datos de las contempladas en la matriz está indizada la revista, esté recogida o no con ficha propia en MIAR, y calculará su ICDS (sin contar el Índice de Pervivencia si no forma parte de MIAR).

MIAR es COLABORATIVA. Editores, autores y lectores pueden sugerir nuevas revistas,informar de errores, aportar notícias del sector o compartir la información en las redes sociales. Los editores pueden aportar información de valor añadido sobre sus revistas siempre que pueda ser contrastada con una fuente pública en Internet.

MIAR es INTEGRADORA. Además de mostrar la visibilidad en bases de datos, MIAR ofrece información de la presencia de la revista en repertorios de evaluación como por ejemplo el Sello de Calidad FECYT, Scimago Journal Rank, o CARHUS+, así como la política de acceso abierto recogida en el color ROMEO.

MIAR es TRANSPARENTE y está ACTUALIZADA. En todos los casos la información se procesa a partir del listado público que ofrecen las fuentes y puede ser contrastada directamente con el original. Nuestros agentes de software verifican los listados cada 15 días a fin de mantener actualizado el sistema con las últimas incorporaciones. El algoritmo de cálculo del ICDS es público y se muestra en cada ficha de revista.

 

El ICDS (Índice Compuesto de Difusión Secundaria)

04-miar

El ICDS (Índice Compuesto de Difusión Secundaria) es un indicador que muestra la visibilidad de la revista en diferentes bases de datos científicas de alcance internacional, o en su defecto en repertorios de evaluación de publicaciones periódicas. Un ICDS elevado significa que la revista está presente en diferentes fuentes de información de relevancia internacional. Para el cálculo del ICDS se establecen los siguientes criterios.

  • Si la revista aparece en los índices de citas de Web of Science Core Collections (AHCI, SCIE, SSCI o ESCI) o en Scopus se asigna una puntación de 3,5.
  • Si la revista aparece en en los índices clásicos de Web of Science (AHCI, SCIE o SSCI) y también en Scopus se asigna una puntación de +1.
  • Si la revista aparece en una base de datos de indización y resumen (especializada o multidisciplinar) o en DOAJ se asigna una puntuación de +3.
  • Si está incluida en dos o más bases de datos especializadas o multidisciplinares se asigna un total de 5 puntos (3+2).
  • Si no aparece en ninguna base de datos de indización pero sí en el catálogo Latindex (no confundir con el directorio Latindex) o en un repertorio de evaluación (CARHUS Plus, ERIHPlus y sello de calidad FECYT) se asigna una puntuación de 2,5.
  • Si aparece únicamente en la base española de sumarios DIALNET se asignan 0,4 puntos.
  • Para finalizar, el cálculo se completa con el índice de pervivencia de la revista, que se calcula en base al logaritmo del total de años de vida del título desde el inicio de su publicación, considerando un máximo de 30 años en el cálculo.

MIAR indica en el registro de cada revista cómo se ha obtenido su ICDS y asimismo detalla en qué grupo de bases de datos, o repertorios aparece.

Editada por la Facultat de Biblioteconomia i Documentació Universitat de Barcelona

Lineamientos e indicadores para las bibliotecas académicas innovadoras

45777626111_5d725fdafb_b_d

Romero Bracho, Carmen, Navarro Lisowska, Bernadetta. Durán Garzón, Inírida. “Lineamientos e indicadores para las bibliotecas académicas innovadoras” Bogotá: Red Universitaria Metropolitana de Bogotá -RUMBO, 2018

Texto completo

Las bibliotecas académicas están enfrentando nuevos desafíos, los cuales se han visto influenciados especialmente por los cambios en los modelos de aprendizaje, la comunicación científica y las TIC, así como por los comportamientos y las necesidades de sus usuarios. Por ello, deben estar abiertas a crear modelos flexibles y adaptables a nuevos entornos educativos con un alto componente de innovación y creatividad. Sin embargo, éstas deben reconocerse dentro de las estructuras universitarias como verdaderos centros de recursos para el aprendizaje y la investigación que aportan a la permanencia estudiantil, a la disminución de la deserción, a la visibilidad institucional y al fortalecimiento de otras funciones sustantivas. Desde el contexto de la negociación, es importante tomar acciones estratégicas que promuevan iniciativas colectivas y mejores resultados frente al gran crecimiento de la industria editorial. Finalmente, los comportamientos de los usuarios del siglo XXI llevan a la necesidad de vigilar tendencias que permitan dar respuestas a corto o mediano plazo, como las citadas en los principales informes internacionales.

Sellos Internacionales de Calidad de ANECA. Planeta Biblioteca 2018/11/07

43862182660_c70e1d8653_b_d

Ir a descargar

 

En esta ocasión tuvimos el enorme placer de contar en nuestro programa con Anabel Bonilla Calero, Jefa del Programa de Sellos Internacionales de Calidad de la Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA) que nos ha ilustrado sobre la propia institución, sus fines, objetivos y programas de la ANECA. En concreto nos hemos centrado en el “Proyecto de Sellos Internacionales de Calidad en ANECA”, como es el proceso de evaluación, que aspectos se tienen en cuenta, la metodología, el análisis de la calidad educativa, sus beneficios y las instituciones que han conseguido el sello de calidad educativa. También hemos charlado sobre los proyectos internacionales European Association for Quality Assurance in Higher Education (ENQA) y en la realizada por European Network for Accreditation of Engineering Education (ENAEE).

 

 

Ranking de las Bibliotecas Españolas Universitarias

41137889590_9c938dc924_b_d

Ranking de las Bibliotecas Españolas Universitarias

Secaba-Rank es una herramienta digital abierta que incluye Secaba-Rank Universitarias y Secaba-Rank Públicas con el objeto de conocer y evaluar la realidad de las bibliotecas universitarias y las redes de lectura pública españolas para su mejora.

Ayer se anunciaba Ranking de las Bibliotecas Españolas Universitarias elaborado por el equipo de investigación Secaba-Lab de la Universidad de Granada con datos relativos a 2016. La investigación toma datos de las bibliotecas universitarias incluidos en Rebiun para dicho año

La metodología empleada basada en la teoría general de sistemas ha permitido el desarrollo de indicadores de segundo nivel centrados en la eficiencia, facilitando el benchmarking y la localización de los modelos de buenas prácticas para la mejora constante y especialmente de las que más lo necesita

 la herramienta consta de las siguientes secciones: InicioSecaba-RankFormulación del SistemaIndicadoresSeries TemporalesBenchmarking, y Estimación y Predicción. Además, en la sección general sobre la Metodología se incluye toda la información referente al proceso que va desde los datos y su procesamiento, el cálculo de indicadores y la obtención de los resultados, incluyendo la explicación de nuestra metodología.

Aquí estaría el listado de las bibliotecas que ocupan las 10 primeras posiciones en el ranking sobre eficiencia para el año 2016.

  1. Universitat Autònoma de Barcelona (1.9)
  2. UNED (1.86)
  3. Universitat Politècnica de València (1.74)
  4. Universidad de Sevilla (1.54)
  5. Universidad Autónoma de Madrid (1.49)
  6. Universidad Pablo de Olavide (1.38)
  7. Universitat Rovira i Virgili (1.31)
  8. Universidad del País Vasco (1.3)
  9. Universitat de València (1.25)
  10. Universitat de Barcelona (1.24)

 

 

 

 

REDIB presenta el primer ‘ranking’ de publicaciones iberoamericanas, desarrollado con Clarivate Analytics

 

ddtlmjvxuaa8ndl

Ranking de Revistas REDIB

https://redib.org/recursos/Ranking/Revistas?lng=es

La Red Iberoamericana de Innovación y Conocimiento Científico (REDIB), plataforma del Consejo Superior de Investigaciones Científicas (CSIC) y Universia, ha presentado la primera clasificación de publicaciones científicas iberoamericanas, Ibero-American Journal Rankings, desarrollada con la colaboración de la compañía Clarivate Analytics. El nuevo ranking incorpora una metodología novedosa, ya que no sólo se centra en el impacto de las revistas científicas en la región, sino que además tiene en cuenta los artículos publicados.

La iniciativa nace del acuerdo que REDIB y Clarivate Analytics firmaron en julio del año pasado para consolidar un sistema de información bibliográfica que permita la generación de indicadores de calidad editorial y científica a nivel iberoamericano.

Revisión científica y revisión abierta. Planeta biblioteca 2018/05/09

40205026360_b9103c312d_b_d

Escuchar el programa de radio

Ir a descargar

 

La revisión por pares (en inglés peer review), es el sistema utilizado para evaluar la calidad de la investigación científica antes de su publicación. Los investigadores independientes en el mismo campo escrutan trabajos de investigación para otorgarles autoridad, validez, importancia y originalidad y de este modo ayudar a los editores a evaluar si los trabajos de investigación deben ser publicados en su revista. La revisión por pares generalmente se percibe como el estándar de oro y es un proceso de enorme importancia para la gestión del contenido del registro científico publicado y para la evolución de las carreras académicas de los científicos que lo producen. En el programa hablamos de como se conforman los comités científicos, como se desarrolla el proceso, que aspectos se evalúan de una investigación, las deficiencias del sistema y las alternativas al mismo, especialmente en un entorno digital en expansión que impulsa cambios en los criterios  para medir el impacto de la investigación y erudición.

En este momento, los desarrolladores de sistemas de información están experimentando con nuevas herramientas para la validación de los productos de investigación que facilita cuestiones tales como el acceso abierto a la investigación. Estas herramientas permiten a los investigadores registrar la investigación y ponerla fácilmente al alcance de otros investigadores. Por ello son muchas las voces que abogan por un sistema de revisión más abierto y transparente.

Ver además

Revisión científica: monográfico

Plataformas que practican revisión abierta:

Algunas sugerencias de lectura citadas:

  • Best Practices in Peer Review : AAUP Manual.The Association of American University Presses (AAUP) 2016 Texto completo
  • Guthrie, S., B. Guérin, et al. [eBook]  Alternatives to Peer Review in Research Project Funding. Santa Monica, CA, RAND, 2013 Texto completo
  • Buenas Prácticas para la Evaluación por Pares. [e-Book] Santiago de Chile, Association of American University Presses. Foro de Editores de Chile Texto completo
  • Wager, E., F. Godlee, et al. (2002). [e-Book] How to Survive Peer Review. London, BMJ. Texto completo
  • Burley, R. and E. Moylan (2017). [e-Book] What might peer review look like in 2030? A report from BioMed Central and Digital Science. Digital Science and BioMed Central. Texto completo
  • Alonso-Arévalo, Julio. Mejores contenidos, mayor prestigio: adquisición de originales, evaluación y rankings. VII Foro Internacional de Edición Universitaria y Académica. Feria Internacional del Libro de Guadalajara (FIL), 2016. Martes 29 de noviembre de 11:45 a 13:00 horas. Texto completo – PREZI
  • Ross,Tony Disambiguating post-publication peer review.  2016-09-14 scholarly communication en OpenAire blog Ver completo
  • Wilson, J. et al.  [e-Book] Peer Review: The nuts and bolts. London: Sense About Science, 2014 Texto completo
  • Kriegeskorte, N. and D. Deca (2012). [e-Book]  Beyond open access: visions for open evaluation of scientific papers by post-publication peer review, Frontiers, 2012. Texto completo

Indicadores de calidad de datos abiertos: el caso del portal de datos abiertos de Barcelona

exploring-open-data-quality-1280x739

Abella García, A., M. Ortiz de Urbina Criado, et al. “Indicadores de calidad de datos abiertos: el caso del portal de datos abiertos de Barcelona.” El profesional de la información vol. 27, n. 2 (2018).  pp. 375-382.

Texto completo

 

Los datos abiertos son una infraestructura básica para la creación de negocios y de productos y servicios. Para hacer un análisis de su utilidad hay que tener en cuenta que no es igual el acceso a los mismos y su difusión que su reutilización. El objetivo de este trabajo es analizar como el modelo de cinco estrellas de Berners-Lee y otros factores ayudan a evaluar la calidad de los datos de cara a su reutilización en el portal de datos abiertos de Barcelona y analizar su relación con su descarga y sus temáticas. Los resultados obtenidos muestran que puede ser interesante incorporar aspectos como la frecuencia de actualización de datos y la geolocalización en los modelos que miden la calidad de los datos abiertos para su reutilización.