Archivo de la etiqueta: Acreditación

MIAR: Matriz de Información para el Análisis de Revistas

 

 

miar

MIAR: Matriz de Información para el Análisis de Revistas

http://miar.ub.edu/

MIAR recolecta datos para la identificación y análisis de más de 44.000 revistas científicas procedentes de 117 bases de datos.

Si se introduce en la casilla de búsqueda cualquier ISSN el sistema localizará en qué bases de datos de las contempladas en la matriz está indizada la revista, esté recogida o no con ficha propia en MIAR, y calculará su ICDS (sin contar el Índice de Pervivencia si no forma parte de MIAR).

MIAR es COLABORATIVA. Editores, autores y lectores pueden sugerir nuevas revistas,informar de errores, aportar notícias del sector o compartir la información en las redes sociales. Los editores pueden aportar información de valor añadido sobre sus revistas siempre que pueda ser contrastada con una fuente pública en Internet.

MIAR es INTEGRADORA. Además de mostrar la visibilidad en bases de datos, MIAR ofrece información de la presencia de la revista en repertorios de evaluación como por ejemplo el Sello de Calidad FECYT, Scimago Journal Rank, o CARHUS+, así como la política de acceso abierto recogida en el color ROMEO.

MIAR es TRANSPARENTE y está ACTUALIZADA. En todos los casos la información se procesa a partir del listado público que ofrecen las fuentes y puede ser contrastada directamente con el original. Nuestros agentes de software verifican los listados cada 15 días a fin de mantener actualizado el sistema con las últimas incorporaciones. El algoritmo de cálculo del ICDS es público y se muestra en cada ficha de revista.

 

El ICDS (Índice Compuesto de Difusión Secundaria)

04-miar

El ICDS (Índice Compuesto de Difusión Secundaria) es un indicador que muestra la visibilidad de la revista en diferentes bases de datos científicas de alcance internacional, o en su defecto en repertorios de evaluación de publicaciones periódicas. Un ICDS elevado significa que la revista está presente en diferentes fuentes de información de relevancia internacional. Para el cálculo del ICDS se establecen los siguientes criterios.

  • Si la revista aparece en los índices de citas de Web of Science Core Collections (AHCI, SCIE, SSCI o ESCI) o en Scopus se asigna una puntación de 3,5.
  • Si la revista aparece en en los índices clásicos de Web of Science (AHCI, SCIE o SSCI) y también en Scopus se asigna una puntación de +1.
  • Si la revista aparece en una base de datos de indización y resumen (especializada o multidisciplinar) o en DOAJ se asigna una puntuación de +3.
  • Si está incluida en dos o más bases de datos especializadas o multidisciplinares se asigna un total de 5 puntos (3+2).
  • Si no aparece en ninguna base de datos de indización pero sí en el catálogo Latindex (no confundir con el directorio Latindex) o en un repertorio de evaluación (CARHUS Plus, ERIHPlus y sello de calidad FECYT) se asigna una puntuación de 2,5.
  • Si aparece únicamente en la base española de sumarios DIALNET se asignan 0,4 puntos.
  • Para finalizar, el cálculo se completa con el índice de pervivencia de la revista, que se calcula en base al logaritmo del total de años de vida del título desde el inicio de su publicación, considerando un máximo de 30 años en el cálculo.

MIAR indica en el registro de cada revista cómo se ha obtenido su ICDS y asimismo detalla en qué grupo de bases de datos, o repertorios aparece.

Editada por la Facultat de Biblioteconomia i Documentació Universitat de Barcelona

CRIS (Sistemas de Gestión de la Investigación): aproximación a los CRIS

kisspng-illustration-current-research-information-system-t-5baa12e2ed0049-3791777415378726109708

Rodríguez Terán, Ángela. “Sistemas de Gestión de la Investigación: aproximación a los CRIS Institucionales“. Trabajo de Fin de Grado. Univ. Salamanca. Salamanca bajo la dirección de Críspulo Travieso Rodríguez. Salamanca : Universidad de Salamanca, 2015

Texto completo

 

El presente trabajo se centra en los CRIS (Current Research Information System) o Sistemas de Gestión de la Investigación, especialmente en los de tipo institucional. Los CRIS son los sistemas más utilizados en los últimos años para llevar a cabo la evaluación científica dentro de las instituciones, como es el caso de las universidades. Se realiza un recorrido por su situación actual y para reforzar esa información se han realizado dos entrevistas a expertos que trabajan con los CRIS a diario. Anteriormente, la gestión de la información científica institucional estaba fragmentada en diferentes bases de datos y departamentos. Lo que se consigue con los CRIS es normalizar esta información y almacenarla en un único espacio. Los CRIS se actualizan constantemente, añadiendo mejoras y creando interoperabilidad con otros sistemas como, los repositorios o las bases de datos.

 

 

 

Ranking SPI 2018- Prestigio de las editoriales según expertos españoles. Editoriales mejor valoradas

cabecera_prueba2

Resultados. Rankings SPI 2018

2018

Ranking general (editoriales españolas y extranjeras)

Ranking por disciplinas (editoriales españolas y extranjeras)

 

SPI (Scholarly Publishers Indicators) es un sistema de información que ofrece indicadores y herramientas relacionados con las editoriales científicas o de interés para la investigación en el ámbito de las Humanidades y las Ciencias Sociales. En su origen fue creado como uno de los resultados del proyecto de investigación “Categorización de publicaciones científicas en Ciencias Humanas y Sociales” financiado por el CSIC. Ahora, gracias a la investigación desarrollada en el proyecto del Plan Nacional de I+D+i “Evaluación de editoriales científicas (españolas y extranjeras) de libros en Ciencias Humanas y Sociales a través de la opinión de los expertos y del análisis de los procesos editoriales” el sistema ha podido crecer. Los indicadores que se incluyen pretenden servir como referencia (no como valor definitivo de una editorial) en los procesos de evaluación y permitir la objetivación de algunos conceptos como el del “prestigio de la editorial”.

Sellos Internacionales de Calidad de ANECA. Planeta Biblioteca 2018/11/07

43862182660_c70e1d8653_b_d

Ir a descargar

 

En esta ocasión tuvimos el enorme placer de contar en nuestro programa con Anabel Bonilla Calero, Jefa del Programa de Sellos Internacionales de Calidad de la Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA) que nos ha ilustrado sobre la propia institución, sus fines, objetivos y programas de la ANECA. En concreto nos hemos centrado en el “Proyecto de Sellos Internacionales de Calidad en ANECA”, como es el proceso de evaluación, que aspectos se tienen en cuenta, la metodología, el análisis de la calidad educativa, sus beneficios y las instituciones que han conseguido el sello de calidad educativa. También hemos charlado sobre los proyectos internacionales European Association for Quality Assurance in Higher Education (ENQA) y en la realizada por European Network for Accreditation of Engineering Education (ENAEE).

 

 

La ventaja de la cita del acceso abierto: ¿existe y qué significa para las bibliotecas?

oa_verbeeldingskr8-1

Lewis, C. L. “The Open Access Citation Advantage: Does It Exist And What Does It Mean For Libraries?” Information Technology and Libraries (ITAL) vol. 37, n. 3 (2018).

Texto completo

La última revisión bibliográfica de la investigación sobre las ventajas de citación de los documentos en acceso abierto – Open Access Citation Advantage (OACA)– fue publicada en 2011 por Philip M. Davis y William H. Walters. Este artículo reexamina las conclusiones a las que llegaron Davis y Walters al proporcionar una revisión crítica de la literatura de la OACA que se ha publicado en 2011, y explora cómo los aumentos en las tendencias de publicación deOA podrían servir como una herramienta de apoyo para las bibliotecas frente a los altos costos de las suscripciones a revistas.

ie-CSIC : Índice de evaluación de editoriales

41505942540_c683e7b2c7_o_d

ie-CSIC : Indice de editoriales CSIC: manual PCO. Versión modificada noviembre 2017. Madris:CSIC, 2018

Texto completo

Listado de editoriales

La comunidad investigadora del CSIC cuenta con una nueva herramienta: se trata de ie-CSIC (Índice de editoriales CSIC), un índice de editoriales con valor asignado, con el propósito de ayudar en la evaluación de la producción científica de los investigadores del CSIC dentro de la PCO de cada centro e instituto.

 

La evaluación del cumplimiento de los objetivos que se realiza anualmente en el CSIC incluye la evaluación de la producción científica, y dentro de esta, tienen un destacado papel los libros y capítulos de libros. De forma paralela a las revistas científicas, a cada libro incluido en conCIENCIA se le asigna un valor alto, medio o bajo, dependiendo de la editorial en la que haya sido publicado. Hasta ahora no se había publicado un listado que permitiera a los investigadores conocer por anticipado cómo se valoraba la publicación en una u otra editorial, y las asignaciones de valor a las editoriales se habían llevado a cabo en distintos momentos y sin la posibilidad de manejar sistemáticamente datos de referencia externos.

Con el fin de corregir esta situación, se intentó recurrir a instrumentos y listados de valoración editorial, pero ninguno se adaptaba a las necesidades de una institución como el CSIC. Por ello, en junio de 2016 e impulsado por la VICYT, se puso en marcha un proceso para desarrollar un índice de editoriales con un valor asignado: ie-CSIC (Índice de Editoriales CSIC).

Para la elaboración de ie-CSIC, se partió de las editoriales registradas en conCIENCIA, cuyos nombres fueron corregidos y homogenizados con el fin de obtener una única entrada por editorial. El listado resultante se contrastó con las editoriales recogidas en cuatro índices reconocidos a nivel nacional e internacional: Book Citation Index (Thomson Reuters), Scholarly Publishers Indicators (SPI) / Prestigio editorial (Grupo ILIA/CSIC), Scopus Book Titles (Elsevier) y Norwegian Register for Scientific Journals, Series and Publishers (NSD). Finalizado este cotejo, se elaboró un único y extenso listado en el que a cada editorial se le asignó un valor (alto, medio, bajo) siguiendo criterios homogéneos y utilizando datos obtenidos de los instrumentos de referencia consultados. Para un mayor detalle sobre la metodología seguida, consúltese el pdf anexo.

En esta primera versión del índice de ie-CSIC, se recogen un total de 5817 editoriales procedentes de las cinco fuentes mencionadas en el párrafo anterior, de las cuales 1044 están clasificadas con valor Alto, 1664 con valor medio y 3109 con valor bajo.

Está previsto realizar actualizaciones periódicas de ie-CSIC para incorporar todas aquellas editoriales que se vayan registrando en conCIENCIA en el futuro, corregir los errores que se detecten y perfeccionar los datos. En el caso de que sea necesaria la revisión concreta de alguna editorial, esta podrá ser llevada a cabo por las ocho comisiones de áreas científicas del CSIC y sus decisiones se incluirán en versiones siguientes de ie-CSIC.

Revisión científica y revisión abierta. Planeta biblioteca 2018/05/09

40205026360_b9103c312d_b_d

Escuchar el programa de radio

Ir a descargar

 

La revisión por pares (en inglés peer review), es el sistema utilizado para evaluar la calidad de la investigación científica antes de su publicación. Los investigadores independientes en el mismo campo escrutan trabajos de investigación para otorgarles autoridad, validez, importancia y originalidad y de este modo ayudar a los editores a evaluar si los trabajos de investigación deben ser publicados en su revista. La revisión por pares generalmente se percibe como el estándar de oro y es un proceso de enorme importancia para la gestión del contenido del registro científico publicado y para la evolución de las carreras académicas de los científicos que lo producen. En el programa hablamos de como se conforman los comités científicos, como se desarrolla el proceso, que aspectos se evalúan de una investigación, las deficiencias del sistema y las alternativas al mismo, especialmente en un entorno digital en expansión que impulsa cambios en los criterios  para medir el impacto de la investigación y erudición.

En este momento, los desarrolladores de sistemas de información están experimentando con nuevas herramientas para la validación de los productos de investigación que facilita cuestiones tales como el acceso abierto a la investigación. Estas herramientas permiten a los investigadores registrar la investigación y ponerla fácilmente al alcance de otros investigadores. Por ello son muchas las voces que abogan por un sistema de revisión más abierto y transparente.

Ver además

Revisión científica: monográfico

Plataformas que practican revisión abierta:

Algunas sugerencias de lectura citadas:

  • Best Practices in Peer Review : AAUP Manual.The Association of American University Presses (AAUP) 2016 Texto completo
  • Guthrie, S., B. Guérin, et al. [eBook]  Alternatives to Peer Review in Research Project Funding. Santa Monica, CA, RAND, 2013 Texto completo
  • Buenas Prácticas para la Evaluación por Pares. [e-Book] Santiago de Chile, Association of American University Presses. Foro de Editores de Chile Texto completo
  • Wager, E., F. Godlee, et al. (2002). [e-Book] How to Survive Peer Review. London, BMJ. Texto completo
  • Burley, R. and E. Moylan (2017). [e-Book] What might peer review look like in 2030? A report from BioMed Central and Digital Science. Digital Science and BioMed Central. Texto completo
  • Alonso-Arévalo, Julio. Mejores contenidos, mayor prestigio: adquisición de originales, evaluación y rankings. VII Foro Internacional de Edición Universitaria y Académica. Feria Internacional del Libro de Guadalajara (FIL), 2016. Martes 29 de noviembre de 11:45 a 13:00 horas. Texto completo – PREZI
  • Ross,Tony Disambiguating post-publication peer review.  2016-09-14 scholarly communication en OpenAire blog Ver completo
  • Wilson, J. et al.  [e-Book] Peer Review: The nuts and bolts. London: Sense About Science, 2014 Texto completo
  • Kriegeskorte, N. and D. Deca (2012). [e-Book]  Beyond open access: visions for open evaluation of scientific papers by post-publication peer review, Frontiers, 2012. Texto completo