Archivo de la etiqueta: ANECA

Sexenios de investigación 2024. Criterios para la evaluación de la actividad investigadora.

Resolución de 9 de diciembre de 2024, de la Comisión Nacional Evaluadora
de la Actividad Investigadora, por la que se publican los criterios para la
evaluación de la actividad investigadora
.

Texto completo

Baremo

La Comisión Nacional Evaluadora de la Actividad Investigadora (CNEAI) ha aprobado los criterios para la evaluación de la actividad investigadora correspondientes a la convocatoria de 2024. Estos criterios, que serán publicados en el Boletín Oficial del Estado (BOE), ya se han difundido para facilitar la preparación anticipada de las solicitudes. Finalmente, para garantizar transparencia y uniformidad, ANECA ha publicado un baremo único que será aplicado por los quince Comités Asesores.

Entre los cambios destacados, se elimina el apartado de «mínimos orientativos», permitiendo la obtención de una evaluación positiva mediante cinco aportaciones que cumplan con los criterios generales, sin depender de indicadores cuantitativos relacionados con medios de difusión. Esto refuerza el enfoque en la calidad intrínseca de las aportaciones.

El baremo para la evaluación de la actividad investigadora en la convocatoria de 2024 de los sexenios de investigación establece criterios clave para calificar las aportaciones de los solicitantes, otorgando mayor peso al impacto científico y contemplando elementos relacionados con la originalidad, la relevancia social y la promoción de la ciencia abierta. A continuación, se resumen los principales aspectos de cada criterio:

Contribución al progreso del conocimiento (10%)

Este apartado evalúa la originalidad, innovación y pertinencia de la investigación, destacando la capacidad del trabajo para abordar problemas relevantes en el área y proponer soluciones novedosas. Se valora también el enfoque metodológico, incluyendo el desarrollo de nuevos métodos o la mejora de los existentes. Se excluyen trabajos meramente descriptivos, recopilaciones bibliográficas sin análisis crítico o traducciones sin aportaciones significativas.

Impacto científico (60%)

Es el criterio más relevante, dividido en cuatro subcategorías principales:

  1. Uso de la aportación: Se mide por lecturas, descargas y visualizaciones en plataformas académicas.
  2. Citas recibidas: Considera el número y calidad de las citas recibidas, excluyendo autocitas.
  3. Calidad del medio de difusión: Se analiza la reputación del medio donde se publica, incluyendo revisiones por pares y estándares de calidad.
  4. Impacto del medio: Examina el reconocimiento científico del medio de publicación, con énfasis en premios, críticas y reseñas.

Se tienen en cuenta otros indicadores como vínculos con proyectos de investigación, tesis doctorales, premios y menciones en medios especializados.

Impacto social (10%)

Evalúa la repercusión de las investigaciones fuera del ámbito académico, como su influencia en políticas públicas, documentos normativos, guías clínicas o la industria. Además, se considera su difusión en medios de comunicación, plataformas digitales y eventos culturales, y la interacción con el público.

Contribución a la ciencia abierta (10%)

Se premian aportaciones accesibles públicamente, ya sea en versiones finales o preliminares, y el cumplimiento de principios FAIR en datasets y software. También se valora la publicación en revistas de acceso abierto (diamante) y el uso de licencias libres como Creative Commons.

Aportación preferente (10%)

Se analiza el ajuste de las aportaciones al tipo preferente definido en los criterios de evaluación, como artículos, libros, capítulos de libro, patentes o contribuciones a congresos.

Circunstancias reductoras

La puntuación puede reducirse en casos como:

  • Reiteración de publicaciones: Más de tres aportaciones en un mismo medio sin justificación suficiente.
  • Conflicto de interés editorial: Relaciones que comprometan la objetividad del proceso editorial.
  • Malas prácticas: Plagio, duplicación de contenido, alteración de datos o artículos retractados.
  • Procesos de revisión cuestionables: Medios con estándares poco fiables o periodos de aceptación injustificadamente cortos.
  • Autoría insuficientemente justificada: Participación no justificada adecuadamente en casos de coautoría múltiple.

Este baremo asegura una evaluación integral y motivada de las contribuciones, exigiendo evidencia clara de su relevancia científica, metodológica y social, y fomentando la transparencia en la producción académica.

Criterios de evaluación y requisitos mínimos de referencia de los méritos y competencias requeridos para obtener la acreditación 2024

Criterios de evaluación y requisitos mínimos de referencia de los méritos y competencias requeridos para obtener la acreditación. ANECA, 2024

Texto completo


La evaluación para la acreditación estatal de los cuerpos docentes universitarios se rige por el procedimiento establecido por la Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA) en aplicación del Real Decreto 678/2023. Se requiere la presentación de un currículo abreviado que destaque las contribuciones más relevantes en investigación, transferencia de conocimiento, docencia y, en el caso de aspirar a Catedrático/a de Universidad (CU), competencias de liderazgo. La evaluación se basa en la selección y narrativa de las contribuciones, considerando su calidad, relevancia e impacto. La evaluación puede ser favorable o desfavorable, siendo necesaria una puntuación mínima de 50 sobre 100 en cada bloque establecido. Los requisitos mínimos varían según el cuerpo docente y el área de especialización, con énfasis en la investigación, la docencia y, en áreas clínicas de Ciencias de la Salud, la actividad profesional. Se establecen excepciones para solicitantes con trayectorias destacadas en investigación internacionalmente reconocida. En el caso de Profesor/a Titular de Escuela Universitaria, la acreditación se otorga a quienes obtengan 90 puntos o más en el bloque de actividad docente, según lo dispuesto en el Real Decreto 678/2023.

Fundamentos de Bibliometría Narrativa

Torres-Salinas, D., Orduña-Malea, E., Delgado-Vázquez, A., & Arroyo-Machado, W. (2024). Fundamentos de Bibliometría Narrativa (v.1). Zenodo. https://doi.org/10.5281/zenodo.10512837

El documento ‘Fundamentos de Bibliometría Narrativa’ proporciona un análisis de la evolución de la evaluación científica, resaltando la influencia de manifiestos como DORA y CoARA en la configuración de prácticas éticas y responsables en la academia, así como su asimilación por las políticas científicas españolas. Este conecta dicho contexto con las contribuciones de la Bibliometría evaluativa, subrayando la transición hacia un enfoque más integrador que defiende la necesidad de un equilibrio entre métodos cuantitativos y cualitativos en la evaluación de la investigación. Asimismo, enfatiza cómo el Currículo Narrativo ha emergido como una de las herramientas fundamentales en los nuevos procesos de evaluación, ya que permite describir la complejidad y el contexto de los logros académicos. Se propone la Bibliometría Narrativa, definida como la utilización de indicadores bibliométricos para generar relatos y narrativas que permitan la defensa y exposición de un currículum científico y/o de sus aportaciones individuales en el marco de un proceso de evaluación científica. Para introducir al lector se presenta sin ánimo exhaustivo fuentes, indicadores y casos prácticos para aplicar efectivamente la Bibliometría Narrativa en distintos contextos de evaluación científica pero enfocado en la defensa de aportaciones. Este documento se ofrece por tanto, como una herramienta introductoria para evaluadores e investigadores para un uso responsable de los indicadores bibliométricos

España quiere cambiar su forma de evaluar a los científicos y acabar con la «dictadura de los artículos».

«Spain Wants to Change How It Evaluates Scientists—and End the ‘Dictatorship of Papers’». Accedido 30 de noviembre de 2023. https://www.science.org/content/article/spain-wants-change-how-it-evaluates-scientists-and-end-dictatorship-papers.

El muy criticado sistema español de evaluación de científicos, en el cual el único criterio para el avance profesional es la publicación de artículos, está listo para ser reformado según las nuevas propuestas de la Agencia Nacional de Evaluación y Acreditación (ANECA) del país.

Las reformas, anunciadas a principios de este mes, verían por primera vez a los investigadores de las universidades públicas de España evaluados por una variedad de resultados además de los artículos, y también se fomentaría la distribución de hallazgos a través de plataformas de acceso abierto. Muchos científicos están dando la bienvenida a este cambio, diciendo que ayudará a la academia a dejar atrás un sistema que ha sido descrito como el establecimiento de una «dictadura de artículos».

Actualmente, ANECA evalúa el «rendimiento investigador» de los académicos cada 6 años. Para obtener un modesto aumento salarial y ser elegibles para ascensos, los investigadores deben demostrar que han publicado un mínimo de cinco artículos durante ese período en revistas de alto impacto indexadas en el Journal Citation Reports (JCR), una base de datos producida por la empresa de análisis editorial Clarivate. Cumplir con este objetivo también permite a los científicos supervisar a estudiantes de doctorado y ser enumerados como investigadores principales en sus universidades, lo que les brinda acceso a un presupuesto más amplio.

El gobierno español introdujo este sistema en 1994 en un esfuerzo por aumentar la productividad de los investigadores del país. Y tuvo éxito: para 2021, España ocupaba el puesto 11 a nivel mundial en producción científica, con más de 100.000 publicaciones anuales, según el Ministerio de Ciencia e Innovación.

Pero muchos académicos dicen que el sistema ha tenido un impacto negativo en la calidad de su trabajo y en la ciencia en general. Desencadenó «una máquina insaciable de publicación de artículos», según Ángel Delgado Vázquez, jefe del Servicio de Apoyo al Aprendizaje e Investigación en la Universidad Pablo de Olavide. Los investigadores pueden trabajar frenéticamente para cumplir con el objetivo, publicando un artículo cada 2 días. Otros han tomado atajos, publicando artículos de baja calidad o buscando fraudulentamente la coautoría; algunos han admitido recibir pagos de investigadores en Arabia Saudita o India para coautorar artículos en los que no contribuyeron. Los críticos dicen que el sistema también ha alentado a los investigadores a priorizar la publicación sobre la enseñanza y a utilizar fondos públicos para pagar tarifas de procesamiento de artículos cada vez más altas impuestas por algunas revistas.

Bajo el nuevo sistema, ANECA quiere que las evaluaciones consideren una gama más amplia de resultados de investigación, incluyendo «publicaciones, patentes, informes, estudios, trabajos técnicos, obras artísticas, exposiciones, excavaciones arqueológicas, [y la] creación de registros bibliográficos». Los evaluadores ya no solo tendrán en cuenta el factor de impacto de las revistas en las que publican los científicos, sino también detalles como si la investigación llega a audiencias no académicas a través de informes de noticias o documentos gubernamentales. Los artículos también obtendrán una puntuación más alta cuando se produzcan en colaboración con comunidades locales u otros autores no académicos. Y en un intento de reducir el nivel de fondos públicos gastados en costos de publicación, los evaluadores tendrán en cuenta los artículos publicados en plataformas de publicación de acceso abierto no comerciales que no cobran tarifas a los autores, como Open Research Europe.

Los cambios son un intento de corregir un sistema que ha priorizado «cantidad sobre calidad» y de «reconocer que hay diferentes formas de hacer ciencia», según Pilar Paneque, directora de ANECA. También espera que el nuevo sistema ayude a reducir el fraude en la publicación. (Delgado Vázquez, por su parte, cree que «sin duda contribuirá a erradicar prácticas poco éticas»).

Las propuestas son una «apuesta audaz», según Núria Benítez Monforte, administradora de investigación en el Instituto Catalán de Nanociencia y Nanotecnología. Pero otros dicen que se necesita una reforma aún más radical. Por ejemplo, la científica de la información Eva Méndez, miembro de la Junta Directiva de la Coalición para el Avance de la Evaluación de la Investigación, sostiene que los ciclos de evaluación de 6 años deberían abolirse por completo, porque «solo sirven para enriquecer a las principales editoriales científicas, aumentando la frustración de los investigadores más jóvenes».

ANECA está revisando actualmente unos 600 comentarios que ha recibido sobre sus propuestas de cambios, con el objetivo de finalizar el nuevo sistema de evaluación a finales de este mes. Si todo sale según lo planeado, entraría en vigencia el 1 de enero de 2024.

Curso de Acreditación a profesor Titular de Universidad

 

academiapep

 

Curso de Acreditación a profesor Titular de Universidad
Impartido el 18 de marzo de 2020 por Rafael Repiso, profesor de UNIR.

La grabación de este curso está disponible en este enlace.

La presentación completa se puede descargar desde este enlace.

 Curso de Acreditación a profesor Catedrático de Universidad
Impartido el 10 de diciembre de 2019 por Rafael Repiso, profesor de UNIR.

La grabación de este curso está disponible en este enlace.

 

 

Ranking de visibilidad e impacto de revistas científicas españolas de Humanidades y Ciencias Sociales con sello de calidad FECYT

 

4b195179b6cbd7c3a9f794585d10e87a

Ranking de visibilidad e impacto de revistas científicas españolas de Humanidades y Ciencias Sociales con sello de calidad FECYT, 2020

Descargar

Ranking

Metodología

 

La Fundación Española para la Ciencia y Tecnología (FECYT) ha elaborado la Metodología de Clasificación de Revistas de Humanidades y Ciencias Sociales con Sello de Calidad FECYT que permite la ordenación de las revistas científicas en el Ranking de Visibilidad e Impacto de Revistas de Humanidades y Ciencias Sociales con Sello de Calidad FECYT. Un primer resultado se publicó en septiembre de 2019 bajo el título Metodología de Clasificación de Revistas con Sello de Calidad FECYT. El panel de expertos que participó en su elaboración ha ampliado y mejorado sustancialmente ese trabajo durante meses, y el resultado final es este documento.

El objetivo de este ranking es que sirva a la ANECA y a otras agencias de evaluación como herramienta para mejorar los sistemas de acreditación de la calidad de los trabajos publicados por los investigadores españoles de las áreas de Ciencias Sociales y Humanas. Fecha de publicación: 11 de febrero de 2020.

 

 

¿Qué es y qué implicaciones tiene las revistas incluidas en Emerging Sources Citation Index (ESCI) para la acreditación científica?

logo_esci

Emerging Sources Citation Index (ESCI)

 

Emerging Sources Citation Index (ESCI) es una base de datos de revistas que se puede consultar también desde  Web of Science, que se creo en el año 2015 con el objetivo de indizar las revistas que están en proceso de evaluación para integrarse en la Web of Knowledge (WoS), o revistas que aunque tienen una calidad científica acreditada en su disciplina, nunca llegarán a integrarse en WoS debido a que su área de conocimiento es muy limitado y nunca alcanzaran a tener un Factor de Impacto suficientemente alto. Según el editor, el índice incluye «publicaciones revisadas por pares de importancia regional y en campos científicos emergentes que cumplen con los criterios para su indexación en Web of Science»

A estas revistas se les exige una serie de requisitos previos como que sean revistas revisadas por pares, que hagan prácticas de publicación éticas, que contenidos sea de interés para su comunidad científica, que cumplan con los requisitos técnicos, que incluyan información bibliográfica en inglés y que preferentemente estén en formato electrónico.

Las revistas indexadas en el ESCI aunque no reciben factor de impacto, si son revistas citantes; es decir, que las citas de ESCI  se incluyen en el número de citas recogidas por Journal Citation Reports (JCR), contribuyendo de este modo a los factores de impacto de las revistas indexadas en JCR. Por lo tanto, los artículos en revistas indexadas por ESCI se incluyen en el cálculo del índice h de un autor y en los análisis realizados en datos de Web of Science o productos relacionados, como InCites.

El hecho de que una revista sea incluida en esta base de datos es considerado por algunas agencias de acreditación como un indicio de calidad de la revistas como por ejemplo en el caso de los sexenios del CNEAI, y en los procesos de acreditación científica de la Aneca, al mismo nivel que las revistas de WoS y como un indicador válido para la acreditación científica en Ciencias Sociales y Humanidades. (Fuiente; UNED)

ESCI cumple con las prioridades de Clarivate Analytics para ampliar la cobertura de la base de datos dando visibilidad y transparencia a las revistas que han solicitado ser incluidas en Web of Knowledge.

Según Clarivate Analytics, el total de revistas incluidas en ESCI es de 6.300. El 45% de las revistas son Europeas y un 8% son españolas, con un total de 535 revistas españolas en total, de las cuales 459 en Ciencias Sociales y Humanidades. (Fuente: Fundación Española para la Ciencia y la Tecnología)

 

Sello de Calidad en Edición Académica (CEA-APQ)

logosellocalidad

Sello de Calidad en Edición Académica (CEA-APQ)

http://www.selloceaapq.es/

 COLECCIONES QUE YA DISPONEN DEL SELLO DE CALIDAD CEA-APQ

El Sello de Calidad en Edición Académica, ha sido promovido por la Unión de Editoriales Universitarias Españolas (UNE) y avalado por la Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA) y la Fundación Española para la Ciencia y la Tecnología (FECYT).

El Sello tiene como objetivo reconocer las mejores prácticas dentro de la edición universitaria española y convertirse en un signo distintivo que tanto las agencias de evaluación de la actividad investigadora como la comunidad académica e investigadora podrán identificar fácilmente. Pretende igualmente ser una vía para promover y estimular la calidad en la edición académica.

Las colecciones que superen con éxito el proceso de evaluación obtendrán el Sello de Calidad en Edición Académica y mantendrán el reconocimiento de su calidad científica y editorial por un periodo de cinco años a contar desde la resolución definitiva de la convocatoria.

Acceda a las BASES DE LA CONVOCATORIA y la GUÍA DE EVALUACIÓN para conocer los pormenores del proceso de evaluación.

MIAR: Matriz de Información para el Análisis de Revistas

 

 

miar

MIAR: Matriz de Información para el Análisis de Revistas

http://miar.ub.edu/

MIAR recolecta datos para la identificación y análisis de más de 44.000 revistas científicas procedentes de 117 bases de datos.

Si se introduce en la casilla de búsqueda cualquier ISSN el sistema localizará en qué bases de datos de las contempladas en la matriz está indizada la revista, esté recogida o no con ficha propia en MIAR, y calculará su ICDS (sin contar el Índice de Pervivencia si no forma parte de MIAR).

MIAR es COLABORATIVA. Editores, autores y lectores pueden sugerir nuevas revistas,informar de errores, aportar notícias del sector o compartir la información en las redes sociales. Los editores pueden aportar información de valor añadido sobre sus revistas siempre que pueda ser contrastada con una fuente pública en Internet.

MIAR es INTEGRADORA. Además de mostrar la visibilidad en bases de datos, MIAR ofrece información de la presencia de la revista en repertorios de evaluación como por ejemplo el Sello de Calidad FECYT, Scimago Journal Rank, o CARHUS+, así como la política de acceso abierto recogida en el color ROMEO.

MIAR es TRANSPARENTE y está ACTUALIZADA. En todos los casos la información se procesa a partir del listado público que ofrecen las fuentes y puede ser contrastada directamente con el original. Nuestros agentes de software verifican los listados cada 15 días a fin de mantener actualizado el sistema con las últimas incorporaciones. El algoritmo de cálculo del ICDS es público y se muestra en cada ficha de revista.

 

El ICDS (Índice Compuesto de Difusión Secundaria)

04-miar

El ICDS (Índice Compuesto de Difusión Secundaria) es un indicador que muestra la visibilidad de la revista en diferentes bases de datos científicas de alcance internacional, o en su defecto en repertorios de evaluación de publicaciones periódicas. Un ICDS elevado significa que la revista está presente en diferentes fuentes de información de relevancia internacional. Para el cálculo del ICDS se establecen los siguientes criterios.

  • Si la revista aparece en los índices de citas de Web of Science Core Collections (AHCI, SCIE, SSCI o ESCI) o en Scopus se asigna una puntación de 3,5.
  • Si la revista aparece en en los índices clásicos de Web of Science (AHCI, SCIE o SSCI) y también en Scopus se asigna una puntación de +1.
  • Si la revista aparece en una base de datos de indización y resumen (especializada o multidisciplinar) o en DOAJ se asigna una puntuación de +3.
  • Si está incluida en dos o más bases de datos especializadas o multidisciplinares se asigna un total de 5 puntos (3+2).
  • Si no aparece en ninguna base de datos de indización pero sí en el catálogo Latindex (no confundir con el directorio Latindex) o en un repertorio de evaluación (CARHUS Plus, ERIHPlus y sello de calidad FECYT) se asigna una puntuación de 2,5.
  • Si aparece únicamente en la base española de sumarios DIALNET se asignan 0,4 puntos.
  • Para finalizar, el cálculo se completa con el índice de pervivencia de la revista, que se calcula en base al logaritmo del total de años de vida del título desde el inicio de su publicación, considerando un máximo de 30 años en el cálculo.

MIAR indica en el registro de cada revista cómo se ha obtenido su ICDS y asimismo detalla en qué grupo de bases de datos, o repertorios aparece.

Editada por la Facultat de Biblioteconomia i Documentació Universitat de Barcelona

Dialnet Métricas: nuevo portal orientado a los procesos de evaluación científica

 

44244245920_c67940e10c_o_d

Dialnet Métricas

Una iniciativa de Fundación Dialnet de la Universidad de la Rioja y el Grupo EC3 de la Universidad de Granada para desarrollar un índice de impacto de las revistas españolas de las diversas disciplinas de Ciencias Sociales y Humanidades. El portal aún está en beta. Ya puede verse un ejemplo de las revistas de Educación. Y posteriormente estarán disponibles las de Documentación y Ciencias del deporte.

Dialnet Métricas es un portal que, basándose en el análisis de las referencias bibliográficas citadas en las publicaciones existentes en Dialnet, ofrece un conjunto de indicadores para ayudar a identificar la relevancia de la producción científica.

El núcleo principal es un índice bibliométrico que analiza el impacto de las revistas de las diversas disciplinas de Ciencias Sociales y Humanidades, pero se incluyen también indicadores de cada una de las publicaciones, de los investigadores y de las instituciones a las que éstos pertenecen.

Es el resultado de un proyecto que surgió gracias a la iniciativa de Andoni Calderón, director de la biblioteca de la Complutense, con el objetivo de dar continuidad a In-Recx. Se trata de recuperar el espíritu de aquel proyecto, y presentar además otros servicios y otros indicadores de valor añadido, que esperamos sean de vuestro agrado.