Archivo de la etiqueta: Acreditación

¿Publicar o Perecer? Decisiones de publicación del profesorado y el proceso de acreditación académica

 

publishorperish-01

Publish or perish? Faculty publishing decisions and the RPT process. By Meredith T. Niles, Lesley Schimanski, Erin McKiernan, and Juan Pablo Alperin – with Alice Fleerackers. En Scholarly Communications Lab JULY 30, 2019

Ver original

A medida que los puestos de profesor titular se vuelven cada vez más competitivos, la presión para publicar -especialmente en revistas de «alto impacto»- nunca ha sido mayor. Como resultado, muchos de los académicos de hoy en día creen que es necesario contar con un sólido historial de publicaciones para el proceso acreditación académica. Para algunos, publicar se ha convertido en sinónimo de éxito profesional.

Sin embargo, se sabe poco acerca de las percepciones de los académicos sobre el proceso de acreditación y cómo influyen en sus decisiones editoriales. ¿Qué resultados de investigación creen los profesores que se valoran en las decisiones de acreditacion? ¿Cómo afectan estas creencias dónde y qué publican?

Para averiguarlo, los autores llevaron a cabo una encuesta a los profesores de 55 instituciones académicas de Estados Unidos y Canadá, preguntándoles sobre sus propias prioridades de publicación y las de sus colegas, así como la importancia de sus percepciones en la revisión, promoción y permanencia en el cargo (acreditación).

 

¿Dónde publicar?

Cuando se trata de decidir dónde publicar su trabajo, los investigadores informaron que valoraban a la audiencia de la revista por encima de los demás factores. Los tres factores principales que identificaron fueron:

  1. Si la revista era leída por el público al que querían llegar
  2. El prestigio general de la revista
  3. Si la revista era leída regularmente por sus colegas

Por supuesto, otros factores, como el factor de impacto de la revista (JIF) o las tarifas asociadas a la publicación, seguían siendo importantes para muchos profesores, pero en menor medida que los lectores.

figure-1

Se vieron algunas diferencias demográficas significativas entre los profesores en sus prioridades de publicación. Por ejemplo, los encuestados no titulares -que están bajo mayor presión para desempeñarse que los profesores titulares- conceden mayor importancia al Factor de Impacto (JIF). Los profesores más jóvenes también fueron más dados a priorizar factores como la frecuencia de las citas de las revistas y el prestigio de las mismas, en comparación con los colegas establecidos.

Sin embargo, a la hora de evaluar las prioridades editoriales de los demás, el profesorado respondió de forma muy diferente. Creían que sus colegas tienden más a valorar factores como el prestigio de la revista y el Factor de Impacto a la hora de decidir dónde publicar su trabajo. También creen que sus colegas tienen menos probabilidades de tomar decisiones basadas en el número de lectores de la revista o que esté en acceso abierto.

figure-2

 

¿Qué consideran que es lo más importante en el proceso de acreditación?

Los investigadores identificaron los siguientes tres factores como los más importantes para las decisiones de acreditación:

  1. Número total de publicaciones
  2. Número de publicaciones por año
  3. Reconocimiento de nombres de revistas

Encontrando una notable disociación entre sus propias prioridades editoriales y lo que consideraban que beneficiaría a sus carreras.

figure-3

Una vez más, hubo importantes diferencias demográficas entre el profesorado, ya que los encuestados de mayor edad y con permanencia en el cargo -los más propensos a formar parte de los comités de acreditación científica – son menos dados a valorar el prestigio de las revistas y los indicadores de publicación, en comparación con los encuestados no titulares.

Finalmente, se estudio cómo las percepciones de los académicos sobre el proceso de acreditación científica afectaban sus propias prioridades de publicación a través de una serie de modelos. En resumen, se encontró que estas percepciones de lo que es valorado por el proceso de acreditación son más dadas a predecir las decisiones de publicación que la edad, el género o la historia de la publicación.

Conclusión

En conjunto, estos resultados ofrecen un panorama complejo de las presiones que enfrentan los profesores a la hora de decidir dónde publicar sus trabajos. Por un lado, la mayoría de los académicos valoran el número de lectores de una revista por encima de sus métricas de citación. Sin embargo, este valor está en desacuerdo con los factores que creen que les ayudarán a tener éxito en el proceso de acreditación -la cantidad de publicaciones y la reputación de la revista-, aunque el profesorado titular y los que a menudo forman parte de los comités de acreditación no valoran estos factores como algo muy importante. A esto se suman los desajustes entre las propias prioridades editoriales del profesorado y la forma en que perciben las de sus colegas. Tales desacuerdos ponen de relieve caminos claros para la discusión en el ámbito académico sobre lo que las comunidades valoran más.

 

 

La gestión de revistas: mérito de transferencia universal. Justo y necesario

 

Ready To Get Published

Repiso, Rafael; Torres-Salinas, Daniel; Aguaded, Ignacio (2019). “La gestión de revistas: mérito de transferencia universal. Justo y necesario”. Anuario ThinkEPI, v. 13, e13e03.
https://doi.org/10.3145/thinkepi.2019.e13e03

Texto completo

 

Se analiza la pertinencia de la gestión editorial en el contexto de los sexenios de transferencia, concretamente la participación de los académicos en la edición de revistas científicas como mérito de transferencia, y lo hace desde dos perspectivas; justicia y necesidad. En la primera parte se aborda si la edición científica debe ser considerada  como mérito de transferencia, mientras que en la segunda parte se reflexiona en torno a la necesidad de reconocimiento por parte del sector. Se llega a la conclusión de que la gestión de revistas científicas es un mérito de transferencia que cumple todos los requisitos para ser considerado como tal en la actual convocatoria.

 

¿Qué es y qué implicaciones tiene las revistas incluidas en Emerging Sources Citation Index (ESCI) para la acreditación científica?

logo_esci

Emerging Sources Citation Index (ESCI)

 

Emerging Sources Citation Index (ESCI) es una base de datos de revistas que se puede consultar también desde  Web of Science, que se creo en el año 2015 con el objetivo de indizar las revistas que están en proceso de evaluación para integrarse en la Web of Knowledge (WoS), o revistas que aunque tienen una calidad científica acreditada en su disciplina, nunca llegarán a integrarse en WoS debido a que su área de conocimiento es muy limitado y nunca alcanzaran a tener un Factor de Impacto suficientemente alto. Según el editor, el índice incluye «publicaciones revisadas por pares de importancia regional y en campos científicos emergentes que cumplen con los criterios para su indexación en Web of Science»

A estas revistas se les exige una serie de requisitos previos como que sean revistas revisadas por pares, que hagan prácticas de publicación éticas, que contenidos sea de interés para su comunidad científica, que cumplan con los requisitos técnicos, que incluyan información bibliográfica en inglés y que preferentemente estén en formato electrónico.

Las revistas indexadas en el ESCI aunque no reciben factor de impacto, si son revistas citantes; es decir, que las citas de ESCI  se incluyen en el número de citas recogidas por Journal Citation Reports (JCR), contribuyendo de este modo a los factores de impacto de las revistas indexadas en JCR. Por lo tanto, los artículos en revistas indexadas por ESCI se incluyen en el cálculo del índice h de un autor y en los análisis realizados en datos de Web of Science o productos relacionados, como InCites.

El hecho de que una revista sea incluida en esta base de datos es considerado por algunas agencias de acreditación como un indicio de calidad de la revistas como por ejemplo en el caso de los sexenios del CNEAI, y en los procesos de acreditación científica de la Aneca, al mismo nivel que las revistas de WoS y como un indicador válido para la acreditación científica en Ciencias Sociales y Humanidades. (Fuiente; UNED)

ESCI cumple con las prioridades de Clarivate Analytics para ampliar la cobertura de la base de datos dando visibilidad y transparencia a las revistas que han solicitado ser incluidas en Web of Knowledge.

Según Clarivate Analytics, el total de revistas incluidas en ESCI es de 6.300. El 45% de las revistas son Europeas y un 8% son españolas, con un total de 535 revistas españolas en total, de las cuales 459 en Ciencias Sociales y Humanidades. (Fuente: Fundación Española para la Ciencia y la Tecnología)

 

Uso del Factor de Impacto de la Revista en la acreditación académica, promoción y evaluaciones

tyler-large

 

McKiernan EC, Schimanski LA, Muñoz Nieves C, Matthias L, Niles MT, Alperin JP.2019Use of the Journal Impact Factor in academic review, promotion, and tenure evaluations. PeerJ Preprints 7:e27638v2 https://doi.org/10.7287/peerj.preprints.27638v2

Supplemental information: Mentions of the Journal Impact Factor in review, promotion, and tenure documents. DOI: 10.7287/peerj.preprints.27638v2/supp-1

El Journal Impact Factor (JIF) fue diseñado originalmente para ayudar a las bibliotecas a decidir qué revistas indexar y comprar para sus colecciones. Sin embargo, en las últimas décadas, se ha convertido en una medida utilizada para evaluar los artículos de investigación en función del rango de la revista. Los investigadores a menudo informan que se sienten presión para publicar en revistas con alto Factor de Impacto y mencionan la confianza en el JIF como un problema con los actuales sistemas de evaluación académica. Aunque los informes de los investigadores son útiles, falta información sobre la frecuencia y la forma en que se utiliza actualmente el JIF para la acreditación, promoción y permanencia en el cargo (RPT).

En esta investigación se recopilaron y analizaron documentos de acreditación para la revisión, promoción y permanencia en el cargo (RPT). de una muestra representativa de 129 universidades de Estados Unidos y Canadá y de 381 de sus unidades académicas. Se encontró que el 40% de las instituciones de doctorado, de investigación intensiva (tipo R) y el 18% de las instituciones de maestría, o integrales (tipo M) mencionaron explícitamente el JIF, o términos estrechamente relacionados, en sus documentos RPT. Las instituciones de pregrado o de bachillerato (tipo B) no lo mencionaron en absoluto.

Una lectura detallada de estos documentos sugiere que las instituciones también pueden estar utilizando una variedad de términos para referirse indirectamente al JIF. El análisis cualitativo muestra que el 87% de las instituciones que mencionaron el JIF apoyaron el uso de la métrica en al menos uno de sus documentos de acreditación, mientras que el 13% de las instituciones expresaron cautela sobre el uso del JIF en las evaluaciones. Ninguno de los documentos de acreditación RPT que se analizaron criticó duramente al JIF ni lo prohibió su uso en las evaluaciones. De las instituciones que mencionaron el JIF, el 63% lo asociaron con calidad, el 40% con impacto o importancia, y el 20% con prestigio, reputación o estatus. En resumen, los resultados muestran que el uso del JIF se fomenta en las evaluaciones de acreditación académica, especialmente en las universidades en las que se hace investigación intensiva, e indican que hay mucho trabajo por hacer para mejorar los procesos de evaluación para evitar el potencial mal uso de métricas como el JIF.

 

Sello de Calidad en Edición Académica (CEA-APQ)

logosellocalidad

Sello de Calidad en Edición Académica (CEA-APQ)

http://www.selloceaapq.es/

 COLECCIONES QUE YA DISPONEN DEL SELLO DE CALIDAD CEA-APQ

El Sello de Calidad en Edición Académica, ha sido promovido por la Unión de Editoriales Universitarias Españolas (UNE) y avalado por la Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA) y la Fundación Española para la Ciencia y la Tecnología (FECYT).

El Sello tiene como objetivo reconocer las mejores prácticas dentro de la edición universitaria española y convertirse en un signo distintivo que tanto las agencias de evaluación de la actividad investigadora como la comunidad académica e investigadora podrán identificar fácilmente. Pretende igualmente ser una vía para promover y estimular la calidad en la edición académica.

Las colecciones que superen con éxito el proceso de evaluación obtendrán el Sello de Calidad en Edición Académica y mantendrán el reconocimiento de su calidad científica y editorial por un periodo de cinco años a contar desde la resolución definitiva de la convocatoria.

Acceda a las BASES DE LA CONVOCATORIA y la GUÍA DE EVALUACIÓN para conocer los pormenores del proceso de evaluación.

A medida que los investigadores publican en revistas menos prestigiosas, surgen nuevas medidas de calidad

36189958_s

As Scholars Are Driven to Less Prestigious Journals, New Measures of Quality Emerge. By Lindsay Ellis en The Chronicle of Higher Education February 18, 2019

Ver original

 

A medida que más estudiosos publican en revistas de acceso abierto menos reconocidas, se buscan otras formas de medir el impacto de sus investigaciones. Una medida potencial de alcance es la medición de los datos de las interaciones en línea: publicaciones en Twitter, enlaces a blogs y otras métricas de varios tipos (Altmetrics).

HuMetricsHSS, un proyecto de humanidades y ciencias sociales que hace un seguimiento de los indicadores en esos campos, incluye como otra de esas métricas la «apertura», que incluye la «transparencia, la franqueza y la rendición de cuentas» de un investigador, además de la práctica de hacer que la investigación de un investigador tenga acceso abierto en todas las etapas.

Estos esfuerzos buscan cambiar las normas establecidas desde hace mucho tiempo. Los investigadores en sus primeras etapas de la carrera académica, alentados por los incentivos de permanencia y promoción, sienten la presión de publicar en revistas académicas de prestigio. Los miembros de las agencias de investigación encargados de evaluar el impacto de la investigación de un solicitante pueden no ser capaces de evaluar su contenido si no tienen la especialidad adecuada, por lo que el nombre de una revista de suscripción bien conocida puede servir como un indicador de calidad. Philip N. Cohen, profesor de sociología en la Universidad de Maryland en College Park. dice que las estructuras y los requisitos desarrollados por la agencias y universidades están obligando a investigadores y a los departamentos a «adaptarse a esta norma y a comprenderla».

Cohen, ha estado siguiendo este impulso. Pero incluso ese enfoque más holístico todavía tiene deficiencias, dice. «Se está buscando una medida que funcione en todas las disciplinas o en diferentes contextos. Todo el mundo está buscando una forma alternativa».

Hasta ahora, pocas instituciones han tomado esa táctica. Sólo el 5 por ciento de las instituciones mencionaron el término «acceso abierto» en los documentos de acreditación, promoción y tenencia, según una investigación realizada en 2018 por académicos de la Universidad Simon Fraser, la Universidad Estatal de Arizona, la Universidad de Vermont y la Universidad Nacional Autónoma de México.

 

 

MIAR: Matriz de Información para el Análisis de Revistas

 

 

miar

MIAR: Matriz de Información para el Análisis de Revistas

http://miar.ub.edu/

MIAR recolecta datos para la identificación y análisis de más de 44.000 revistas científicas procedentes de 117 bases de datos.

Si se introduce en la casilla de búsqueda cualquier ISSN el sistema localizará en qué bases de datos de las contempladas en la matriz está indizada la revista, esté recogida o no con ficha propia en MIAR, y calculará su ICDS (sin contar el Índice de Pervivencia si no forma parte de MIAR).

MIAR es COLABORATIVA. Editores, autores y lectores pueden sugerir nuevas revistas,informar de errores, aportar notícias del sector o compartir la información en las redes sociales. Los editores pueden aportar información de valor añadido sobre sus revistas siempre que pueda ser contrastada con una fuente pública en Internet.

MIAR es INTEGRADORA. Además de mostrar la visibilidad en bases de datos, MIAR ofrece información de la presencia de la revista en repertorios de evaluación como por ejemplo el Sello de Calidad FECYT, Scimago Journal Rank, o CARHUS+, así como la política de acceso abierto recogida en el color ROMEO.

MIAR es TRANSPARENTE y está ACTUALIZADA. En todos los casos la información se procesa a partir del listado público que ofrecen las fuentes y puede ser contrastada directamente con el original. Nuestros agentes de software verifican los listados cada 15 días a fin de mantener actualizado el sistema con las últimas incorporaciones. El algoritmo de cálculo del ICDS es público y se muestra en cada ficha de revista.

 

El ICDS (Índice Compuesto de Difusión Secundaria)

04-miar

El ICDS (Índice Compuesto de Difusión Secundaria) es un indicador que muestra la visibilidad de la revista en diferentes bases de datos científicas de alcance internacional, o en su defecto en repertorios de evaluación de publicaciones periódicas. Un ICDS elevado significa que la revista está presente en diferentes fuentes de información de relevancia internacional. Para el cálculo del ICDS se establecen los siguientes criterios.

  • Si la revista aparece en los índices de citas de Web of Science Core Collections (AHCI, SCIE, SSCI o ESCI) o en Scopus se asigna una puntación de 3,5.
  • Si la revista aparece en en los índices clásicos de Web of Science (AHCI, SCIE o SSCI) y también en Scopus se asigna una puntación de +1.
  • Si la revista aparece en una base de datos de indización y resumen (especializada o multidisciplinar) o en DOAJ se asigna una puntuación de +3.
  • Si está incluida en dos o más bases de datos especializadas o multidisciplinares se asigna un total de 5 puntos (3+2).
  • Si no aparece en ninguna base de datos de indización pero sí en el catálogo Latindex (no confundir con el directorio Latindex) o en un repertorio de evaluación (CARHUS Plus, ERIHPlus y sello de calidad FECYT) se asigna una puntuación de 2,5.
  • Si aparece únicamente en la base española de sumarios DIALNET se asignan 0,4 puntos.
  • Para finalizar, el cálculo se completa con el índice de pervivencia de la revista, que se calcula en base al logaritmo del total de años de vida del título desde el inicio de su publicación, considerando un máximo de 30 años en el cálculo.

MIAR indica en el registro de cada revista cómo se ha obtenido su ICDS y asimismo detalla en qué grupo de bases de datos, o repertorios aparece.

Editada por la Facultat de Biblioteconomia i Documentació Universitat de Barcelona

CRIS (Sistemas de Gestión de la Investigación): aproximación a los CRIS

kisspng-illustration-current-research-information-system-t-5baa12e2ed0049-3791777415378726109708

Rodríguez Terán, Ángela. «Sistemas de Gestión de la Investigación: aproximación a los CRIS Institucionales«. Trabajo de Fin de Grado. Univ. Salamanca. Salamanca bajo la dirección de Críspulo Travieso Rodríguez. Salamanca : Universidad de Salamanca, 2015

Texto completo

 

El presente trabajo se centra en los CRIS (Current Research Information System) o Sistemas de Gestión de la Investigación, especialmente en los de tipo institucional. Los CRIS son los sistemas más utilizados en los últimos años para llevar a cabo la evaluación científica dentro de las instituciones, como es el caso de las universidades. Se realiza un recorrido por su situación actual y para reforzar esa información se han realizado dos entrevistas a expertos que trabajan con los CRIS a diario. Anteriormente, la gestión de la información científica institucional estaba fragmentada en diferentes bases de datos y departamentos. Lo que se consigue con los CRIS es normalizar esta información y almacenarla en un único espacio. Los CRIS se actualizan constantemente, añadiendo mejoras y creando interoperabilidad con otros sistemas como, los repositorios o las bases de datos.

 

 

 

Ranking SPI 2018- Prestigio de las editoriales según expertos españoles. Editoriales mejor valoradas

cabecera_prueba2

Resultados. Rankings SPI 2018

2018

Ranking general (editoriales españolas y extranjeras)

Ranking por disciplinas (editoriales españolas y extranjeras)

 

SPI (Scholarly Publishers Indicators) es un sistema de información que ofrece indicadores y herramientas relacionados con las editoriales científicas o de interés para la investigación en el ámbito de las Humanidades y las Ciencias Sociales. En su origen fue creado como uno de los resultados del proyecto de investigación «Categorización de publicaciones científicas en Ciencias Humanas y Sociales» financiado por el CSIC. Ahora, gracias a la investigación desarrollada en el proyecto del Plan Nacional de I+D+i «Evaluación de editoriales científicas (españolas y extranjeras) de libros en Ciencias Humanas y Sociales a través de la opinión de los expertos y del análisis de los procesos editoriales» el sistema ha podido crecer. Los indicadores que se incluyen pretenden servir como referencia (no como valor definitivo de una editorial) en los procesos de evaluación y permitir la objetivación de algunos conceptos como el del «prestigio de la editorial».

Sellos Internacionales de Calidad de ANECA. Planeta Biblioteca 2018/11/07

43862182660_c70e1d8653_b_d

Ir a descargar

 

En esta ocasión tuvimos el enorme placer de contar en nuestro programa con Anabel Bonilla Calero, Jefa del Programa de Sellos Internacionales de Calidad de la Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA) que nos ha ilustrado sobre la propia institución, sus fines, objetivos y programas de la ANECA. En concreto nos hemos centrado en el «Proyecto de Sellos Internacionales de Calidad en ANECA», como es el proceso de evaluación, que aspectos se tienen en cuenta, la metodología, el análisis de la calidad educativa, sus beneficios y las instituciones que han conseguido el sello de calidad educativa. También hemos charlado sobre los proyectos internacionales European Association for Quality Assurance in Higher Education (ENQA) y en la realizada por European Network for Accreditation of Engineering Education (ENAEE).