Archivo de la etiqueta: Acreditación

Sexenios de investigación 2024. Criterios para la evaluación de la actividad investigadora.

Resolución de 9 de diciembre de 2024, de la Comisión Nacional Evaluadora
de la Actividad Investigadora, por la que se publican los criterios para la
evaluación de la actividad investigadora
.

Texto completo

Baremo

La Comisión Nacional Evaluadora de la Actividad Investigadora (CNEAI) ha aprobado los criterios para la evaluación de la actividad investigadora correspondientes a la convocatoria de 2024. Estos criterios, que serán publicados en el Boletín Oficial del Estado (BOE), ya se han difundido para facilitar la preparación anticipada de las solicitudes. Finalmente, para garantizar transparencia y uniformidad, ANECA ha publicado un baremo único que será aplicado por los quince Comités Asesores.

Entre los cambios destacados, se elimina el apartado de «mínimos orientativos», permitiendo la obtención de una evaluación positiva mediante cinco aportaciones que cumplan con los criterios generales, sin depender de indicadores cuantitativos relacionados con medios de difusión. Esto refuerza el enfoque en la calidad intrínseca de las aportaciones.

El baremo para la evaluación de la actividad investigadora en la convocatoria de 2024 de los sexenios de investigación establece criterios clave para calificar las aportaciones de los solicitantes, otorgando mayor peso al impacto científico y contemplando elementos relacionados con la originalidad, la relevancia social y la promoción de la ciencia abierta. A continuación, se resumen los principales aspectos de cada criterio:

Contribución al progreso del conocimiento (10%)

Este apartado evalúa la originalidad, innovación y pertinencia de la investigación, destacando la capacidad del trabajo para abordar problemas relevantes en el área y proponer soluciones novedosas. Se valora también el enfoque metodológico, incluyendo el desarrollo de nuevos métodos o la mejora de los existentes. Se excluyen trabajos meramente descriptivos, recopilaciones bibliográficas sin análisis crítico o traducciones sin aportaciones significativas.

Impacto científico (60%)

Es el criterio más relevante, dividido en cuatro subcategorías principales:

  1. Uso de la aportación: Se mide por lecturas, descargas y visualizaciones en plataformas académicas.
  2. Citas recibidas: Considera el número y calidad de las citas recibidas, excluyendo autocitas.
  3. Calidad del medio de difusión: Se analiza la reputación del medio donde se publica, incluyendo revisiones por pares y estándares de calidad.
  4. Impacto del medio: Examina el reconocimiento científico del medio de publicación, con énfasis en premios, críticas y reseñas.

Se tienen en cuenta otros indicadores como vínculos con proyectos de investigación, tesis doctorales, premios y menciones en medios especializados.

Impacto social (10%)

Evalúa la repercusión de las investigaciones fuera del ámbito académico, como su influencia en políticas públicas, documentos normativos, guías clínicas o la industria. Además, se considera su difusión en medios de comunicación, plataformas digitales y eventos culturales, y la interacción con el público.

Contribución a la ciencia abierta (10%)

Se premian aportaciones accesibles públicamente, ya sea en versiones finales o preliminares, y el cumplimiento de principios FAIR en datasets y software. También se valora la publicación en revistas de acceso abierto (diamante) y el uso de licencias libres como Creative Commons.

Aportación preferente (10%)

Se analiza el ajuste de las aportaciones al tipo preferente definido en los criterios de evaluación, como artículos, libros, capítulos de libro, patentes o contribuciones a congresos.

Circunstancias reductoras

La puntuación puede reducirse en casos como:

  • Reiteración de publicaciones: Más de tres aportaciones en un mismo medio sin justificación suficiente.
  • Conflicto de interés editorial: Relaciones que comprometan la objetividad del proceso editorial.
  • Malas prácticas: Plagio, duplicación de contenido, alteración de datos o artículos retractados.
  • Procesos de revisión cuestionables: Medios con estándares poco fiables o periodos de aceptación injustificadamente cortos.
  • Autoría insuficientemente justificada: Participación no justificada adecuadamente en casos de coautoría múltiple.

Este baremo asegura una evaluación integral y motivada de las contribuciones, exigiendo evidencia clara de su relevancia científica, metodológica y social, y fomentando la transparencia en la producción académica.

Publicar y perecer

AKABAYASHI, Akira Publish and perish: New issues in publication ethics. Indian Journal of Medical Ethics, [S.l.], v. IX, n. 2 (NS), p. 147, mar. 2024. ISSN 0975-5691. Avaialble at: Recuperado 10 de agosto de 2024, de https://ijme.in/articles/publish-and-perish-new-issues-in-publication-ethics/?galley=html

Tradicionalmente, la frase «Publica o perece» ha reflejado la presión sobre los académicos para publicar trabajos como medio para avanzar en sus carreras y asegurar fondos de investigación. Sin embargo, Akabayashi sugiere que esta expresión debería evolucionar a «Publica y perece», dado el impacto negativo que los crecientes costos de publicación están teniendo sobre la capacidad de los investigadores para difundir sus hallazgos.

El autor describe su propia experiencia en 2022, cuando publicó 35 artículos en revistas académicas. De estos, 24 fueron en revistas de acceso abierto y 11 en revistas híbridas. Las revistas de acceso abierto permiten que los artículos estén disponibles gratuitamente para todos los lectores, pero exigen que los autores paguen una tarifa por la publicación. Las revistas híbridas, por otro lado, suelen mantener los artículos tras un muro de pago, aunque los autores pueden optar por pagar una tarifa adicional para que sus artículos sean de acceso libre.

Akabayashi destaca los altos costos asociados con la publicación en acceso abierto, incluyendo las tarifas de procesamiento de artículos (APC) y los costos de edición del lenguaje, particularmente onerosos para investigadores que no tienen el inglés como lengua materna. En su caso, los costos totales por la publicación de sus 35 artículos en un solo año ascendieron a más de 62,000 dólares, incluyendo tanto las tarifas de publicación como los gastos de edición de idioma. Estos costos no solo afectan a los investigadores individuales, sino que también tienen un impacto desproporcionado en aquellos de países de ingresos bajos y medios, exacerbando las inequidades en la producción y difusión del conocimiento científico.

El artículo también aborda la problemática de las revisiones editoriales que exigen ediciones adicionales en inglés, lo que incrementa aún más los costos para los autores que deben pagar por servicios de traducción. Además, Akabayashi discute cómo las políticas de algunas revistas y las relaciones entre universidades y editoriales podrían ser reestructuradas para aliviar estos costos, sugiriendo que las universidades podrían negociar contratos con editoriales para eximir a sus investigadores de las tarifas de publicación.

El autor concluye enfatizando que la finalidad de la investigación es beneficiar a la sociedad, y que los altos costos actuales están minando este propósito. Propone que las revistas consideren modelos más flexibles, como el «Pay What You Want» (Paga lo que quieras), para las tarifas de publicación, o que reduzcan los costos en función de los gastos reales incurridos. Akabayashi argumenta que, si no se toman medidas para reducir estos costos, la capacidad de los investigadores para publicar y aplicar sus descubrimientos científicos se verá gravemente comprometida, lo que podría tener consecuencias negativas para el avance del conocimiento y, en última instancia, para la humanidad.

Criterios de evaluación y requisitos mínimos de referencia de los méritos y competencias requeridos para obtener la acreditación 2024

Criterios de evaluación y requisitos mínimos de referencia de los méritos y competencias requeridos para obtener la acreditación. ANECA, 2024

Texto completo


La evaluación para la acreditación estatal de los cuerpos docentes universitarios se rige por el procedimiento establecido por la Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA) en aplicación del Real Decreto 678/2023. Se requiere la presentación de un currículo abreviado que destaque las contribuciones más relevantes en investigación, transferencia de conocimiento, docencia y, en el caso de aspirar a Catedrático/a de Universidad (CU), competencias de liderazgo. La evaluación se basa en la selección y narrativa de las contribuciones, considerando su calidad, relevancia e impacto. La evaluación puede ser favorable o desfavorable, siendo necesaria una puntuación mínima de 50 sobre 100 en cada bloque establecido. Los requisitos mínimos varían según el cuerpo docente y el área de especialización, con énfasis en la investigación, la docencia y, en áreas clínicas de Ciencias de la Salud, la actividad profesional. Se establecen excepciones para solicitantes con trayectorias destacadas en investigación internacionalmente reconocida. En el caso de Profesor/a Titular de Escuela Universitaria, la acreditación se otorga a quienes obtengan 90 puntos o más en el bloque de actividad docente, según lo dispuesto en el Real Decreto 678/2023.

Fundamentos de Bibliometría Narrativa

Torres-Salinas, D., Orduña-Malea, E., Delgado-Vázquez, A., & Arroyo-Machado, W. (2024). Fundamentos de Bibliometría Narrativa (v.1). Zenodo. https://doi.org/10.5281/zenodo.10512837

El documento ‘Fundamentos de Bibliometría Narrativa’ proporciona un análisis de la evolución de la evaluación científica, resaltando la influencia de manifiestos como DORA y CoARA en la configuración de prácticas éticas y responsables en la academia, así como su asimilación por las políticas científicas españolas. Este conecta dicho contexto con las contribuciones de la Bibliometría evaluativa, subrayando la transición hacia un enfoque más integrador que defiende la necesidad de un equilibrio entre métodos cuantitativos y cualitativos en la evaluación de la investigación. Asimismo, enfatiza cómo el Currículo Narrativo ha emergido como una de las herramientas fundamentales en los nuevos procesos de evaluación, ya que permite describir la complejidad y el contexto de los logros académicos. Se propone la Bibliometría Narrativa, definida como la utilización de indicadores bibliométricos para generar relatos y narrativas que permitan la defensa y exposición de un currículum científico y/o de sus aportaciones individuales en el marco de un proceso de evaluación científica. Para introducir al lector se presenta sin ánimo exhaustivo fuentes, indicadores y casos prácticos para aplicar efectivamente la Bibliometría Narrativa en distintos contextos de evaluación científica pero enfocado en la defensa de aportaciones. Este documento se ofrece por tanto, como una herramienta introductoria para evaluadores e investigadores para un uso responsable de los indicadores bibliométricos

España quiere cambiar su forma de evaluar a los científicos y acabar con la «dictadura de los artículos».

«Spain Wants to Change How It Evaluates Scientists—and End the ‘Dictatorship of Papers’». Accedido 30 de noviembre de 2023. https://www.science.org/content/article/spain-wants-change-how-it-evaluates-scientists-and-end-dictatorship-papers.

El muy criticado sistema español de evaluación de científicos, en el cual el único criterio para el avance profesional es la publicación de artículos, está listo para ser reformado según las nuevas propuestas de la Agencia Nacional de Evaluación y Acreditación (ANECA) del país.

Las reformas, anunciadas a principios de este mes, verían por primera vez a los investigadores de las universidades públicas de España evaluados por una variedad de resultados además de los artículos, y también se fomentaría la distribución de hallazgos a través de plataformas de acceso abierto. Muchos científicos están dando la bienvenida a este cambio, diciendo que ayudará a la academia a dejar atrás un sistema que ha sido descrito como el establecimiento de una «dictadura de artículos».

Actualmente, ANECA evalúa el «rendimiento investigador» de los académicos cada 6 años. Para obtener un modesto aumento salarial y ser elegibles para ascensos, los investigadores deben demostrar que han publicado un mínimo de cinco artículos durante ese período en revistas de alto impacto indexadas en el Journal Citation Reports (JCR), una base de datos producida por la empresa de análisis editorial Clarivate. Cumplir con este objetivo también permite a los científicos supervisar a estudiantes de doctorado y ser enumerados como investigadores principales en sus universidades, lo que les brinda acceso a un presupuesto más amplio.

El gobierno español introdujo este sistema en 1994 en un esfuerzo por aumentar la productividad de los investigadores del país. Y tuvo éxito: para 2021, España ocupaba el puesto 11 a nivel mundial en producción científica, con más de 100.000 publicaciones anuales, según el Ministerio de Ciencia e Innovación.

Pero muchos académicos dicen que el sistema ha tenido un impacto negativo en la calidad de su trabajo y en la ciencia en general. Desencadenó «una máquina insaciable de publicación de artículos», según Ángel Delgado Vázquez, jefe del Servicio de Apoyo al Aprendizaje e Investigación en la Universidad Pablo de Olavide. Los investigadores pueden trabajar frenéticamente para cumplir con el objetivo, publicando un artículo cada 2 días. Otros han tomado atajos, publicando artículos de baja calidad o buscando fraudulentamente la coautoría; algunos han admitido recibir pagos de investigadores en Arabia Saudita o India para coautorar artículos en los que no contribuyeron. Los críticos dicen que el sistema también ha alentado a los investigadores a priorizar la publicación sobre la enseñanza y a utilizar fondos públicos para pagar tarifas de procesamiento de artículos cada vez más altas impuestas por algunas revistas.

Bajo el nuevo sistema, ANECA quiere que las evaluaciones consideren una gama más amplia de resultados de investigación, incluyendo «publicaciones, patentes, informes, estudios, trabajos técnicos, obras artísticas, exposiciones, excavaciones arqueológicas, [y la] creación de registros bibliográficos». Los evaluadores ya no solo tendrán en cuenta el factor de impacto de las revistas en las que publican los científicos, sino también detalles como si la investigación llega a audiencias no académicas a través de informes de noticias o documentos gubernamentales. Los artículos también obtendrán una puntuación más alta cuando se produzcan en colaboración con comunidades locales u otros autores no académicos. Y en un intento de reducir el nivel de fondos públicos gastados en costos de publicación, los evaluadores tendrán en cuenta los artículos publicados en plataformas de publicación de acceso abierto no comerciales que no cobran tarifas a los autores, como Open Research Europe.

Los cambios son un intento de corregir un sistema que ha priorizado «cantidad sobre calidad» y de «reconocer que hay diferentes formas de hacer ciencia», según Pilar Paneque, directora de ANECA. También espera que el nuevo sistema ayude a reducir el fraude en la publicación. (Delgado Vázquez, por su parte, cree que «sin duda contribuirá a erradicar prácticas poco éticas»).

Las propuestas son una «apuesta audaz», según Núria Benítez Monforte, administradora de investigación en el Instituto Catalán de Nanociencia y Nanotecnología. Pero otros dicen que se necesita una reforma aún más radical. Por ejemplo, la científica de la información Eva Méndez, miembro de la Junta Directiva de la Coalición para el Avance de la Evaluación de la Investigación, sostiene que los ciclos de evaluación de 6 años deberían abolirse por completo, porque «solo sirven para enriquecer a las principales editoriales científicas, aumentando la frustración de los investigadores más jóvenes».

ANECA está revisando actualmente unos 600 comentarios que ha recibido sobre sus propuestas de cambios, con el objetivo de finalizar el nuevo sistema de evaluación a finales de este mes. Si todo sale según lo planeado, entraría en vigencia el 1 de enero de 2024.

Publons: cómo acreditar y registrar tu actividad de revisión por pares

Rewarding your peer review and editorial contributions: Publons
By Chantal Hukkelhoven, 2019

Texto completo

Los investigadores dedican mucho tiempo y esfuerzo a revisar los manuscritos de otros investigadores, pero generalmente no son recompensados ​​por esta actividad ya que las revisiones suelen ser anónimas.

Publons es una plataforma integrada en Web of Science que crea y muestra perfiles verificados de las contribuciones editoriales y de revisión por pares previas a la publicación de un investigador para revistas académicas. Estos perfiles pueden incluirse, entre otros, en el currículum vitae, las solicitudes de financiación y las evaluaciones de promoción y rendimiento.

Estos perfiles pueden incluirse, entre otros, en el currículum vitae, las solicitudes de financiación y las evaluaciones de promoción y rendimiento. Publons también crea una visión general de la calidad de tus revisiones en comparación con sus pares. También es posible importar y mostrar tus propias publicaciones en Publons.

Formas de agregar revisiones de pares a tu perfil en Publons:

  1. Agregar revisiones realizadas para revistas asociadas a Web of Sciece
  2. Envíar certificados de revisión a reviews@publons.com
  3. Habilitar actualizaciones automáticas
  4. Agregar reseñas a través de los formularios en el sitio

En Publons puedes mantener el perfil privado o puedes mostrar varios niveles de detalles sobre cada revisión individual, como el año, el nombre del editor, el nombre de la revista o incluso el texto completo de la revisión, aunque las revistas pueden optar por anular este último. El contenido de la reseña se comparte mediante una licencia Creative Commons CC BY 4.0. También se muestra la duración media de la revisión en comparación con otras en su campo o institución, lo que sirve como indicador de la calidad de su trabajo.

También existen alternativas a Publons para registrar tus actividades editoriales y de revisión previas a la publicación. Hace unos seis meses, ORCID lanzó una función que agrega esta información tu perfil de ORCID. También existen otras plataformas menos conocidas, como Peerage of Science, como alternativa a Publons. Además, existen plataformas que registran tus reseñas después de la publicación, por ejemplo, F1000Research.

Anuncio de cambios en el Journal Citation Reports 2023 : Clarivate incluirá el Factor de impacto en todas las revistas indexadas en la Web of Science Core Collection

Quaderi, Nandita. Announcing changes to the 2023 Journal Citation Reports. Editor-in-Chief & Vice President Editorial, Web of Science, Clarivate

Ver original

A partir de la versión 2023 del JCR, los factores de impacto de las revistas se ampliarán a todas las revistas de la Web of Science Core Collection, incluidas las de arte y humanidades.

En la versión 2023 del Journal Citation Reports™, todas las revistas de la Web of Science Core Collection™ recibirán un Journal Impact Factor (JIF)™. Esto supone ampliar el JIF del Science Citation Index Expanded (SCIE)™ y del Social Science Citation Index (SSCI)™ para incluir revistas del Arts and Humanities Citation Index (AHCI)™ y del multidisciplinar Emerging Sources Citation Index (ESCI)™.

Journal Citation Reports anuales permiten a la comunidad investigadora, a los editores y a los bibliotecarios evaluar y comparar el impacto académico de las revistas de calidad del mundo mediante una serie de indicadores, datos descriptivos y visualizaciones.

Clarivate ha dedicido mostrar el JIF para todas las revistas indexadas en la Web of Science Core Collection como parte de su compromiso continuo con la integridad del registro académico. Para acelerar el ritmo de la innovación, los financiadores de la investigación, las instituciones y los investigadores necesitan poder tomar decisiones basadas en datos de calidad en los que puedan confiar. El riguroso proceso de selección permite mantener fuera de los índices a las revistas que no son de confianza, lo que, unido a cuidadosa curación de datos, significa que la comunidad investigadora puede confiar en los datos y métricas de los Journal Citation Reports.

El hecho de dotar a todas las revistas de calidad de un Factor de Impacto de la Revista (JIF) proporcionará total transparencia a los artículos y citas que han contribuido al impacto, y por tanto les ayudará a demostrar su valor a la comunidad investigadora.

Al ampliar el JIF a todas las revistas que han superado los rigurosos criterios de calidad de Web of Science, esta última mejora también ayuda a igualar las condiciones de todas las revistas de calidad, incluidas las de reciente creación, las de acceso abierto, las de ámbito especializado o regional y las del Sur Global

Esta decisión está en consonancia con la posición de que las publicaciones en todas las revistas de calidad, y no sólo en las muy citadas, que deberían poder incluirse en los ejercicios de evaluación de la investigación.

Esto significa que:

  • Casi 9.000 revistas -de más de 3.000 editores, muchos de los cuales son pequeños editores del mundo en desarrollo- tendrán un JIF por primera vez.
  • Habrá un aumento del 8% en las revistas de acceso abierto de la ruta dorada que tendrán un JIF.
  • Habrá un aumento mínimo del 5% en las revistas del Sur Global que tendrán un JIF.
  • Además, la versión 2023 del Journal Citation Reports mostrará el JIF con un decimal, en lugar de los tres actuales, para animar a los usuarios a tener en cuenta los demás indicadores y datos descriptivos de JCR al comparar las revistas.

Papel Mills: la fabricación de artículos para la venta de autorías

Paper Mills: research report drom COPE & STM. STM, 2022

Texto completo

En el ámbito de la investigación, una Paper Mills (fábrica de articulos) es una «organización no oficial, potencialmente ilegal y con ánimo de lucro, que produce y vende la autoría de manuscritos de investigación»

La fabricación de artículos es el proceso por el que se envían manuscritos terminados a una revista a cambio de una cuota en nombre de los investigadores con el fin de facilitarles la publicación, o para ofrecerles la autoría a cambio de dinero.

En unas ocasiones, los Paper Mills contienen operaciones sofisticadas que venden puestos de autoría en investigaciones legítimas, pero en muchos otros casos los trabajos contienen datos fraudulentos y pueden estar plagiados o ser poco profesionales. También puede incluir la fabricación de datos, lo que lleva a la ciencia basura y, a veces, a retractaciones en la literatura científica.

Los investigadores se ven presionados a publicar para avanzar en su carrera «Publish or perish», y por ello algunos recurren a estas prácticas inaceptables. Se trata de un problema de ética e integridad de la investigación que afecta a la publicación académica, una deshonestidad académica que implica el engaño y la autoría por contrato, más concretamente el ghostwriting académico, es decir la escritura fantasma, un término utilizado para describir la investigación académica escrita por alguien cuyo nombre no se reconoce.

En abril de 2022, el departamento de noticias de la revista Science publicó un post que identificaba cientos de artículos académicos publicados en los que se habían vendido puestos de autoría a través de un sitio web ruso que permitía a los investigadores pagar por el prestigio académico, sin exigir contribuciones legítimas en la investigación. Durante el periodo de tres años analizado, se identificaron 419 artículos que coincidían con manuscritos publicados posteriormente en muchas revistas académicas diferentes, con un sesgo significativo hacia las publicaciones en revistas depredadoras. Aunque los artículos fabricados aparecieron en varias revistas, sólo en International Journal of Emerging Technologies in Learning (Kassel University Press) se publicaron casi 100 artículos, aparentemente coordinados mediante la participación de editores de revistas que organizaban números especiales con espacio para coautores subastados por entre 180 y 5.000 dólares. En otra red coordinada, se descubrió que los editores invitados y los editores académicos asalariados de MDPI coordinaban la venta de autorías en cuatro revistas diferentes de MDPI, con un total de más de 20 artículos. Más allá de la colusión entre los editores y International Publisher Ltd., muchos trabajos de investigación legítimos también vendieron autorías desconocidas por parte de los editores de las revistas, y finalmente fueron aceptados en revistas publicadas por Elsevier, Oxford University Press, Springer Nature, Taylor & Francis, Wolters Kluwer y Wiley-Blackwell. Desde el 6 de abril de 2022, muchos de estos editores han abierto una investigación sobre el asunto.

En 2022 COPE y STM llevaron a cabo un estudio con Maverick Publishing Services, utilizando datos de las editoriales, para comprender la magnitud del problema de las Paper Mills. En el estudio también se entrevistó a las partes interesadas: investigadores, editores y a miembros de Retraction Watch.

Todos los implicados creen que el problema de las fábricas de artículos es una amenaza real para la integridad de los registros académicos, y que es necesario un esfuerzo colectivo porque los editores tienen claro que no pueden resolver este problema solos. Es necesario un esfuerzo conjunto de editores, financiadores e instituciones de investigación.

El documento recomienda una serie de acciones al respecto:

  • Es necesario un importante ejercicio de educación para garantizar que los editores sean conscientes del problema de las fabricación de artículos y que los editores/personal de redacción reciban formación para identificar los documentos falsos.
  • Inversión continua en herramientas y sistemas para detectar los artículos sospechosos a medida que se presentan.
  • Compromiso con las instituciones y los financiadores para revisar los incentivos para que los investigadores publiquen artículos válidos y no utilicen servicios que ofrezcan una publicación rápida pero falsa.
  • Investigar los protocolos que pueden establecerse para impedir que las Paper Mills logren sus objetivos.
  • Revisar el proceso de retractación para tener en cuenta las características únicas de los artículos fabricados.
  • Investigar cómo garantizar que los avisos de retractación se apliquen a todas las copias de un artículo, como los servidores de preprints y los repositorios de artículos.

Sexenios de investigación CNEAI 2021: ¿Dónde encontrar evidencias de impacto de la investigación

Sexenios de investigación CNEAI 2021: ¿Dónde encontrar evidencias de impacto de la investigación

VIDEO

PRESENTACION PPS

Un sexenio es un tramo de investigación reconocido al profesorado universitario por los méritos de su actividad investigadora, labor realizada a través de un programa de la ANECA, que se convoca y puede solicitar cada mes de diciembre de cada año. Se denomina así porque los solicitantes han de someter a evaluación una selección de los trabajos científicos publicados durante un período de seis años. La finalidad es el fomento, mediante la asignación de un complemento económico, del trabajo investigador de los docentes de las universidades españolas. Se orienta sobre como encontrar evidencias de impacto y productividad investigadora para la presentación de sexenios de investigación.

La Universidad de Utrecht dejará de tener en cuenta el factor de impacto para medir la calidad de sus investigadores

Woolston, Chris. Impact factor abandoned by Dutch university in hiring and promotion decisions. Nature, 25 June 2021

Ver completo

Los investigadores y el personal de la Universidad de Utrecht serán evaluados por su compromiso con la ciencia abierta y el trabajo en equipo.

Una universidad holandesa de Utrecht dice que está dejando formalmente de tener en cuenta el factor de impacto, una medida estándar del éxito científico, en todas las decisiones de contratación y promoción. Para principios de 2022, todos los departamentos de la Universidad de Utrecht en los Países Bajos juzgarán a sus académicos según otros estándares, incluido su compromiso con el trabajo en equipo y sus esfuerzos para promover la ciencia abierta, dice Paul Boselie, investigador de gobernanza y líder del proyecto para el nuevo programa de acreditación Recognition and rewards. “Los factores de impacto no reflejan realmente la calidad de un investigador o académico individual”, dice. «Creemos firmemente que algo tiene que cambiar y abandonar el factor de impacto es uno de esos cambios».

El factor de impacto de un científico es una puntuación que tiene en cuenta el número de publicaciones y la tasa de citas de las revistas donde se publican esos artículos. En este sistema, los artículos de revistas muy citadas como ScienceNature o Cell cuentan más que los artículos de revistas cuyo contenido se cita con menos frecuencia. Boselie dice que los factores de impacto, así como una medida relacionada llamada índice h, contribuyen a una «producción» de la ciencia que valora la producción pura sobre la buena investigación. “Se ha convertido en un modelo muy dañino que va más allá de lo que es realmente relevante para la ciencia y de promover la ciencia”, dice.

El nuevo esquema es parte del programa Open Science de Utrecht, un esfuerzo de múltiples vías para hacer que la investigación sea más transparente y cooperativa. Los gestores de los programas de ciencia abierta integrados en cada departamento evaluarán el progreso hacia la publicación de acceso abierto, la participación pública y el intercambio de datos.

La decisión de renovar la contratación y la promoción se ha inspirado en parte en la Declaración sobre Evaluación de la Investigación (DORA), un documento creado en 2012 en la reunión anual de la Sociedad Estadounidense de Biología Celular.

La declaración tiene como objetivo “mejorar las formas en que se evalúan los investigadores y los resultados de la investigación académica” y pide específicamente eliminar los factores de impacto como una forma de juzgar el mérito de los académicos. Hasta el momento, ha sido firmado por casi 20.000 personas e instituciones. La Universidad de Utrecht firmó el documento en 2019.

Entre los investigadores académicos, la insatisfacción con el uso y mal uso del factor de impacto en las evaluaciones y decisiones de permanencia, promoción y contratación ha aumentado en los últimos años. Un informe de 2018 calificó el factor de impacto como «una medida inadecuada para evaluar el impacto de los científicos» y concluyó que si no se modifica el sistema de evaluación actual es probable que se produzca un «comportamiento continuo que no siempre ha concluido en un comportamiento social positivo».

Todas las universidades de los Países Bajos, incluida Utrecht, se han adherido a Room for Everyone’s Talent’, un documento de posicionamiento de 2019 dirigido por VSNU, la asociación de empleados de las universidades holandesas. Ese documento pide un sistema de reconocimiento y recompensas que «permita la diversificación y vitalización de las trayectorias profesionales».

Aún así, eliminar las métricas estándar podría ser un movimiento arriesgado para la universidad y sus profesores y miembros del personal. Mientras otras universidades sigan dependiendo de los factores de impacto y otras métricas de productividad para la contratación y la promoción, los investigadores que surgen a través del sistema de Utrecht podrían estar en desventaja competitiva.