Archivo de la etiqueta: Acreditación

La gestión de revistas: mérito de transferencia universal. Justo y necesario

 

Ready To Get Published

Repiso, Rafael; Torres-Salinas, Daniel; Aguaded, Ignacio (2019). “La gestión de revistas: mérito de transferencia universal. Justo y necesario”. Anuario ThinkEPI, v. 13, e13e03.
https://doi.org/10.3145/thinkepi.2019.e13e03

Texto completo

 

Se analiza la pertinencia de la gestión editorial en el contexto de los sexenios de transferencia, concretamente la participación de los académicos en la edición de revistas científicas como mérito de transferencia, y lo hace desde dos perspectivas; justicia y necesidad. En la primera parte se aborda si la edición científica debe ser considerada  como mérito de transferencia, mientras que en la segunda parte se reflexiona en torno a la necesidad de reconocimiento por parte del sector. Se llega a la conclusión de que la gestión de revistas científicas es un mérito de transferencia que cumple todos los requisitos para ser considerado como tal en la actual convocatoria.

 

¿Qué es y qué implicaciones tiene las revistas incluidas en Emerging Sources Citation Index (ESCI) para la acreditación científica?

logo_esci

Emerging Sources Citation Index (ESCI)

 

Emerging Sources Citation Index (ESCI) es una base de datos de revistas que se puede consultar también desde  Web of Science, que se creo en el año 2015 con el objetivo de indizar las revistas que están en proceso de evaluación para integrarse en la Web of Knowledge (WoS), o revistas que aunque tienen una calidad científica acreditada en su disciplina, nunca llegarán a integrarse en WoS debido a que su área de conocimiento es muy limitado y nunca alcanzaran a tener un Factor de Impacto suficientemente alto. Según el editor, el índice incluye “publicaciones revisadas por pares de importancia regional y en campos científicos emergentes que cumplen con los criterios para su indexación en Web of Science”

A estas revistas se les exige una serie de requisitos previos como que sean revistas revisadas por pares, que hagan prácticas de publicación éticas, que contenidos sea de interés para su comunidad científica, que cumplan con los requisitos técnicos, que incluyan información bibliográfica en inglés y que preferentemente estén en formato electrónico.

Las revistas indexadas en el ESCI aunque no reciben factor de impacto, si son revistas citantes; es decir, que las citas de ESCI  se incluyen en el número de citas recogidas por Journal Citation Reports (JCR), contribuyendo de este modo a los factores de impacto de las revistas indexadas en JCR. Por lo tanto, los artículos en revistas indexadas por ESCI se incluyen en el cálculo del índice h de un autor y en los análisis realizados en datos de Web of Science o productos relacionados, como InCites.

El hecho de que una revista sea incluida en esta base de datos es considerado por algunas agencias de acreditación como un indicio de calidad de la revistas como por ejemplo en el caso de los sexenios del CNEAI, y en los procesos de acreditación científica de la Aneca, al mismo nivel que las revistas de WoS y como un indicador válido para la acreditación científica en Ciencias Sociales y Humanidades. (Fuiente; UNED)

ESCI cumple con las prioridades de Clarivate Analytics para ampliar la cobertura de la base de datos dando visibilidad y transparencia a las revistas que han solicitado ser incluidas en Web of Knowledge.

Según Clarivate Analytics, el total de revistas incluidas en ESCI es de 6.300. El 45% de las revistas son Europeas y un 8% son españolas, con un total de 535 revistas españolas en total, de las cuales 459 en Ciencias Sociales y Humanidades. (Fuente: Fundación Española para la Ciencia y la Tecnología)

 

Uso del Factor de Impacto de la Revista en la acreditación académica, promoción y evaluaciones

tyler-large

 

McKiernan EC, Schimanski LA, Muñoz Nieves C, Matthias L, Niles MT, Alperin JP.2019Use of the Journal Impact Factor in academic review, promotion, and tenure evaluations. PeerJ Preprints 7:e27638v2 https://doi.org/10.7287/peerj.preprints.27638v2

Supplemental information: Mentions of the Journal Impact Factor in review, promotion, and tenure documents. DOI: 10.7287/peerj.preprints.27638v2/supp-1

El Journal Impact Factor (JIF) fue diseñado originalmente para ayudar a las bibliotecas a decidir qué revistas indexar y comprar para sus colecciones. Sin embargo, en las últimas décadas, se ha convertido en una medida utilizada para evaluar los artículos de investigación en función del rango de la revista. Los investigadores a menudo informan que se sienten presión para publicar en revistas con alto Factor de Impacto y mencionan la confianza en el JIF como un problema con los actuales sistemas de evaluación académica. Aunque los informes de los investigadores son útiles, falta información sobre la frecuencia y la forma en que se utiliza actualmente el JIF para la acreditación, promoción y permanencia en el cargo (RPT).

En esta investigación se recopilaron y analizaron documentos de acreditación para la revisión, promoción y permanencia en el cargo (RPT). de una muestra representativa de 129 universidades de Estados Unidos y Canadá y de 381 de sus unidades académicas. Se encontró que el 40% de las instituciones de doctorado, de investigación intensiva (tipo R) y el 18% de las instituciones de maestría, o integrales (tipo M) mencionaron explícitamente el JIF, o términos estrechamente relacionados, en sus documentos RPT. Las instituciones de pregrado o de bachillerato (tipo B) no lo mencionaron en absoluto.

Una lectura detallada de estos documentos sugiere que las instituciones también pueden estar utilizando una variedad de términos para referirse indirectamente al JIF. El análisis cualitativo muestra que el 87% de las instituciones que mencionaron el JIF apoyaron el uso de la métrica en al menos uno de sus documentos de acreditación, mientras que el 13% de las instituciones expresaron cautela sobre el uso del JIF en las evaluaciones. Ninguno de los documentos de acreditación RPT que se analizaron criticó duramente al JIF ni lo prohibió su uso en las evaluaciones. De las instituciones que mencionaron el JIF, el 63% lo asociaron con calidad, el 40% con impacto o importancia, y el 20% con prestigio, reputación o estatus. En resumen, los resultados muestran que el uso del JIF se fomenta en las evaluaciones de acreditación académica, especialmente en las universidades en las que se hace investigación intensiva, e indican que hay mucho trabajo por hacer para mejorar los procesos de evaluación para evitar el potencial mal uso de métricas como el JIF.

 

Sello de Calidad en Edición Académica (CEA-APQ)

logosellocalidad

Sello de Calidad en Edición Académica (CEA-APQ)

http://www.selloceaapq.es/

 COLECCIONES QUE YA DISPONEN DEL SELLO DE CALIDAD CEA-APQ

El Sello de Calidad en Edición Académica, ha sido promovido por la Unión de Editoriales Universitarias Españolas (UNE) y avalado por la Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA) y la Fundación Española para la Ciencia y la Tecnología (FECYT).

El Sello tiene como objetivo reconocer las mejores prácticas dentro de la edición universitaria española y convertirse en un signo distintivo que tanto las agencias de evaluación de la actividad investigadora como la comunidad académica e investigadora podrán identificar fácilmente. Pretende igualmente ser una vía para promover y estimular la calidad en la edición académica.

Las colecciones que superen con éxito el proceso de evaluación obtendrán el Sello de Calidad en Edición Académica y mantendrán el reconocimiento de su calidad científica y editorial por un periodo de cinco años a contar desde la resolución definitiva de la convocatoria.

Acceda a las BASES DE LA CONVOCATORIA y la GUÍA DE EVALUACIÓN para conocer los pormenores del proceso de evaluación.

 

A medida que los investigadores publican en revistas menos prestigiosas, surgen nuevas medidas de calidad

36189958_s

As Scholars Are Driven to Less Prestigious Journals, New Measures of Quality Emerge. By Lindsay Ellis en The Chronicle of Higher Education February 18, 2019

Ver original

 

A medida que más estudiosos publican en revistas de acceso abierto menos reconocidas, se buscan otras formas de medir el impacto de sus investigaciones. Una medida potencial de alcance es la medición de los datos de las interaciones en línea: publicaciones en Twitter, enlaces a blogs y otras métricas de varios tipos (Altmetrics).

HuMetricsHSS, un proyecto de humanidades y ciencias sociales que hace un seguimiento de los indicadores en esos campos, incluye como otra de esas métricas la “apertura”, que incluye la “transparencia, la franqueza y la rendición de cuentas” de un investigador, además de la práctica de hacer que la investigación de un investigador tenga acceso abierto en todas las etapas.

Estos esfuerzos buscan cambiar las normas establecidas desde hace mucho tiempo. Los investigadores en sus primeras etapas de la carrera académica, alentados por los incentivos de permanencia y promoción, sienten la presión de publicar en revistas académicas de prestigio. Los miembros de las agencias de investigación encargados de evaluar el impacto de la investigación de un solicitante pueden no ser capaces de evaluar su contenido si no tienen la especialidad adecuada, por lo que el nombre de una revista de suscripción bien conocida puede servir como un indicador de calidad. Philip N. Cohen, profesor de sociología en la Universidad de Maryland en College Park. dice que las estructuras y los requisitos desarrollados por la agencias y universidades están obligando a investigadores y a los departamentos a “adaptarse a esta norma y a comprenderla”.

Cohen, ha estado siguiendo este impulso. Pero incluso ese enfoque más holístico todavía tiene deficiencias, dice. “Se está buscando una medida que funcione en todas las disciplinas o en diferentes contextos. Todo el mundo está buscando una forma alternativa”.

Hasta ahora, pocas instituciones han tomado esa táctica. Sólo el 5 por ciento de las instituciones mencionaron el término “acceso abierto” en los documentos de acreditación, promoción y tenencia, según una investigación realizada en 2018 por académicos de la Universidad Simon Fraser, la Universidad Estatal de Arizona, la Universidad de Vermont y la Universidad Nacional Autónoma de México.

 

 

MIAR: Matriz de Información para el Análisis de Revistas

 

 

miar

MIAR: Matriz de Información para el Análisis de Revistas

http://miar.ub.edu/

MIAR recolecta datos para la identificación y análisis de más de 44.000 revistas científicas procedentes de 117 bases de datos.

Si se introduce en la casilla de búsqueda cualquier ISSN el sistema localizará en qué bases de datos de las contempladas en la matriz está indizada la revista, esté recogida o no con ficha propia en MIAR, y calculará su ICDS (sin contar el Índice de Pervivencia si no forma parte de MIAR).

MIAR es COLABORATIVA. Editores, autores y lectores pueden sugerir nuevas revistas,informar de errores, aportar notícias del sector o compartir la información en las redes sociales. Los editores pueden aportar información de valor añadido sobre sus revistas siempre que pueda ser contrastada con una fuente pública en Internet.

MIAR es INTEGRADORA. Además de mostrar la visibilidad en bases de datos, MIAR ofrece información de la presencia de la revista en repertorios de evaluación como por ejemplo el Sello de Calidad FECYT, Scimago Journal Rank, o CARHUS+, así como la política de acceso abierto recogida en el color ROMEO.

MIAR es TRANSPARENTE y está ACTUALIZADA. En todos los casos la información se procesa a partir del listado público que ofrecen las fuentes y puede ser contrastada directamente con el original. Nuestros agentes de software verifican los listados cada 15 días a fin de mantener actualizado el sistema con las últimas incorporaciones. El algoritmo de cálculo del ICDS es público y se muestra en cada ficha de revista.

 

El ICDS (Índice Compuesto de Difusión Secundaria)

04-miar

El ICDS (Índice Compuesto de Difusión Secundaria) es un indicador que muestra la visibilidad de la revista en diferentes bases de datos científicas de alcance internacional, o en su defecto en repertorios de evaluación de publicaciones periódicas. Un ICDS elevado significa que la revista está presente en diferentes fuentes de información de relevancia internacional. Para el cálculo del ICDS se establecen los siguientes criterios.

  • Si la revista aparece en los índices de citas de Web of Science Core Collections (AHCI, SCIE, SSCI o ESCI) o en Scopus se asigna una puntación de 3,5.
  • Si la revista aparece en en los índices clásicos de Web of Science (AHCI, SCIE o SSCI) y también en Scopus se asigna una puntación de +1.
  • Si la revista aparece en una base de datos de indización y resumen (especializada o multidisciplinar) o en DOAJ se asigna una puntuación de +3.
  • Si está incluida en dos o más bases de datos especializadas o multidisciplinares se asigna un total de 5 puntos (3+2).
  • Si no aparece en ninguna base de datos de indización pero sí en el catálogo Latindex (no confundir con el directorio Latindex) o en un repertorio de evaluación (CARHUS Plus, ERIHPlus y sello de calidad FECYT) se asigna una puntuación de 2,5.
  • Si aparece únicamente en la base española de sumarios DIALNET se asignan 0,4 puntos.
  • Para finalizar, el cálculo se completa con el índice de pervivencia de la revista, que se calcula en base al logaritmo del total de años de vida del título desde el inicio de su publicación, considerando un máximo de 30 años en el cálculo.

MIAR indica en el registro de cada revista cómo se ha obtenido su ICDS y asimismo detalla en qué grupo de bases de datos, o repertorios aparece.

Editada por la Facultat de Biblioteconomia i Documentació Universitat de Barcelona

CRIS (Sistemas de Gestión de la Investigación): aproximación a los CRIS

kisspng-illustration-current-research-information-system-t-5baa12e2ed0049-3791777415378726109708

Rodríguez Terán, Ángela. “Sistemas de Gestión de la Investigación: aproximación a los CRIS Institucionales“. Trabajo de Fin de Grado. Univ. Salamanca. Salamanca bajo la dirección de Críspulo Travieso Rodríguez. Salamanca : Universidad de Salamanca, 2015

Texto completo

 

El presente trabajo se centra en los CRIS (Current Research Information System) o Sistemas de Gestión de la Investigación, especialmente en los de tipo institucional. Los CRIS son los sistemas más utilizados en los últimos años para llevar a cabo la evaluación científica dentro de las instituciones, como es el caso de las universidades. Se realiza un recorrido por su situación actual y para reforzar esa información se han realizado dos entrevistas a expertos que trabajan con los CRIS a diario. Anteriormente, la gestión de la información científica institucional estaba fragmentada en diferentes bases de datos y departamentos. Lo que se consigue con los CRIS es normalizar esta información y almacenarla en un único espacio. Los CRIS se actualizan constantemente, añadiendo mejoras y creando interoperabilidad con otros sistemas como, los repositorios o las bases de datos.