Archivo de la etiqueta: Evaluación

Aprovechar las citas de datos para responder a las necesidades de evaluación de datos de las bibliotecas.

Dean, Clare. 2025. Leveraging Data Citations to Respond to Libraries’ Data Evaluation Needs. Zenodo. https://doi.org/10.60804/yxna-f837

Se presenta un estudio sobre cómo la automatización de citas de datos puede mejorar las métricas de datos abiertos y ayudar a las bibliotecas a evaluar el uso y el impacto de los conjuntos de datos generados por sus instituciones.

Las bibliotecas desempeñan un papel clave en la promoción de los datos abiertos y necesitan evaluar el uso e impacto de los conjuntos de datos para apoyar la gestión de datos de investigación y reconocer el trabajo de sus investigadores. Sin embargo, medir este impacto es complejo debido a la dispersión y falta de visibilidad de la información.

Una solución prometedora es el uso de citas de datos como indicadores de utilización. Para demostrar su valor, se analizó el uso de datos en la Universidad Northwestern y la Universidad de Colorado Boulder mediante el Data Citation Corpus y Europe PMC. Se observó un aumento significativo de citas entre 2020 y 2023, con un pico en 2021. Los repositorios más citados fueron dbSNP, Protein Data Bank y European Nucleotide Archive, reflejando un fuerte enfoque en biomedicina y biología estructural.

En cuanto a áreas intensivas en datos, Northwestern destaca en investigación médica y neurociencia, mientras que Colorado Boulder lo hace en ciencias ambientales y biología vegetal. Las citas provienen principalmente de revistas especializadas en dichas disciplinas.

1. Objetivo principal

Mejorar la capacidad de las bibliotecas para rastrear, analizar y reportar el impacto de los datos de investigación utilizando citas automatizadas a gran escala, especialmente a través del Data Citation Corpus.

2. Instituciones involucradas

  • University Libraries, University of Colorado Boulder
  • Helmholtz Open Science Office, Alemania
  • Northwestern University Feinberg School of Medicine

3. Hallazgos clave (Key Data Citation Insights)

  • Los datos de Northwestern se citan más en revistas de ciencias de la vida y biomédicas.
  • Los datos de CU Boulder se usan más en revistas específicas de campos como ciencias ambientales.

Áreas de investigación intensiva en datos:

  • CU Boulder: Ciencias ambientales, biología molecular y genética, ciencias de las plantas.
  • Northwestern: Investigación médica, bioquímica, biología molecular, neurociencia.

Se concluye que las citas de datos ofrecen información valiosa para las estrategias institucionales, y se está ampliando el Data Citation Corpus con nuevas fuentes y mejoras en los metadatos. También se están desarrollando recursos para que las bibliotecas integren estas métricas en procesos de evaluación institucional junto con iniciativas como HELIOS Open.

Los «golden oldies» de la ciencia: los trabajos de investigación de hace décadas que siguen siendo muy citados hoy

Van Noorden, Richard. «Science’s Golden Oldies: The Decades-Old Research Papers Still Heavily Cited TodayNature, April 15, 2025. https://doi.org/10.1038/d41586-025-01126-8

Supplementary information.

Se analiza cómo ciertos trabajos clave han mantenido su relevancia a lo largo del tiempo, destacando especialmente los más citados en los artículos publicados en 2023.

El análisis revela que, aunque muchas publicaciones recientes sobre inteligencia artificial (IA), software científico y métodos para mejorar la calidad de la investigación dominan hoy las listas de referencias, algunos estudios más antiguos continúan siendo referenciados con frecuencia. Entre ellos, se incluyen trabajos de los años 90, como el que describe una arquitectura temprana de redes neuronales llamada long short-term memory (LSTM) de 1997, que sigue siendo citado con frecuencia debido a su eficiencia en el procesamiento de datos.

También se destacan investigaciones sobre materiales publicadas en 1996 que, gracias a su innovador enfoque para calcular interacciones electrónicas en materiales, siguen siendo citadas en una proporción significativa. Un cuarto de las citas de este trabajo se han dado en los últimos dos años, mostrando cómo el impacto de investigaciones antiguas puede continuar creciendo a medida que nuevas generaciones de científicos las descubren y aplican.

El estudio muestra cómo algunas publicaciones, incluso décadas después de su publicación, siguen siendo fundamentales para el avance de la ciencia, gracias a su base teórica sólida y la continua aplicabilidad de sus descubrimientos. Esto subraya la importancia de identificar y reconocer las «piedras angulares» del conocimiento científico, independientemente de su antigüedad.

RankTitleNumber of Citations (Range)
1Deep residual learning for image recognition (2016)19,826–33,339
2Global cancer statistics 2020: GLOBOCAN estimates of incidence and mortality worldwide (2021)10,952–24,830
3Attention is all you need (2017)9,395–19,348
4Generalized gradient approximation made simple (1996)14,338–17,540
5Using thematic analysis in psychology (2006)10,660–17,347
6The PRISMA 2020 statement: an updated guideline for reporting systematic reviews (2021)13,115–13,443
7Analysis of relative gene expression data using real-time quantitative PCR and the 2−ΔΔCT method (2001)11,851–13,082
8Random forests (2001)6,266–12,294
9Efficient iterative schemes for ab initio total-energy calculations using a plane-wave basis set (1996)10,063–10,789
10Long short-term memory (1997)2,394–12,355

Fuente: Nature (2025).

Los artículos científicos más citados de todos los tiempos

Van Noorden, Richard. 2025. “These Are the Most-Cited Research Papers of All Time.” Nature, April 17, 2025. https://www.nature.com/articles/d41586-025-01124-w.

Nature ha actualizado su análisis sobre los trabajos científicos más citados de la historia, revelando que algunos han sido referenciados cientos de miles de veces. Esta revisión evidencia no solo el impacto de ciertas investigaciones, sino también cómo han evolucionado las tendencias en la producción científica y la citación a lo largo del tiempo.

Sorprendentemente, el artículo más citado no es ampliamente conocido entre la comunidad científica actual. Se trata de un trabajo de 1951 publicado en el Journal of Biological Chemistry, que describe un método para determinar la cantidad de proteínas en una solución. Este artículo ha sido citado más de 350.000 veces según el índice Web of Science (WoS), una base de datos que recopila 98 millones de publicaciones desde 1900.

Muchos de los artículos más citados están relacionados con técnicas de laboratorio en biología, lo que sugiere que los métodos ampliamente aplicables generan un impacto duradero. También figuran trabajos clave en inteligencia artificial (IA), software de investigación y métodos estadísticos.

La nueva clasificación actualiza una lista publicada por Nature en 2014, cuando los trabajos más citados eran herramientas de biología celular y molecular, principalmente de las décadas de 1950 y 1970. Desde entonces, alrededor de la mitad de los artículos en el top 100 han cambiado, debido al auge en las citas de trabajos más recientes. En 2014, eran necesarios unos 12.000 citas para entrar en el top 100. Hoy, hacen falta más de 30.000, lo que indica una inflación en el número de citas y el creciente volumen de publicaciones científicas.

Para este análisis, Nature también consultó otras dos grandes bases de datos de investigación: Dimensions y OpenAlex, cuyas versiones públicas permiten el análisis desde 1900. Aunque los rankings y recuentos de citas varían ligeramente entre bases, los artículos destacados son generalmente los mismos. La lista completa de los 100 más citados, con detalles sobre las diferencias entre bases, está disponible en el material suplementario del artículo.

Uno de los datos más llamativos es que un artículo de 2015 de investigadores de Microsoft, presentado en una conferencia sobre IA, ya ocupa el quinto lugar si se consideran los rankings medianos entre las tres bases de datos, y el séptimo solo en WoS. Esto muestra la velocidad con la que algunos artículos contemporáneos pueden acumular citas.

Actualmente, 16 artículos del siglo XXI se encuentran ya entre los 50 más citados de todos los tiempos, a pesar de su relativa juventud. Muchos de ellos están vinculados a desarrollos en software y al uso de la inteligencia artificial para acelerar el descubrimiento científico. Este fenómeno puede explicarse, según Paul Wouters (experto en cienciometría retirado de la Universidad de Leiden), por el aumento anual del número de publicaciones, lo que incrementa el volumen de referencias, así como por la mayor visibilidad de los trabajos científicos a través de Internet y las redes sociales.

Los 25 artículos científicos más citados desde el año 2000 tienen que ver con métodos, revisiones o software

Pearson, Helen, Heidi Ledford, Matthew Hutson, y Richard Van Noorden. “Exclusive: The Most-Cited Papers of the Twenty-First Century.Nature, April 10, 2025. https://www.nature.com/articles/d41586-025-01125-9.​

Las citas en la literatura científica son una manera de reconocer el uso e influencia de investigaciones previas. Sin embargo, los artículos más citados no suelen ser los más conocidos por el público general, sino que tienden a ser herramientas metodológicas, revisiones sistemáticas o descripciones de software ampliamente utilizado. Según Misha Teplitskiy, sociólogo de la Universidad de Míchigan, aunque los científicos afirman valorar teorías y descubrimientos empíricos, lo que realmente citan con más frecuencia son los métodos.

La revista Nature ha realizado un análisis exhaustivo sobre los 25 artículos científicos más citados desde el año 2000, revelando qué estudios han tenido mayor impacto medido por el número de citas, y por qué han alcanzado tal relevancia. Sorprendentemente, muchos de los artículos más citados no están relacionados con los descubrimientos más espectaculares —como las vacunas de ARNm, CRISPR, el bosón de Higgs o las ondas gravitacionales—, sino con métodos, software, estadísticas y herramientas que sustentan el trabajo científico diario.

El artículo más citado, según la media de cinco bases de datos académicas (Web of Science, Scopus, OpenAlex, Dimensions y Google Scholar), es un trabajo de 2016 de investigadores de Microsoft sobre aprendizaje residual profundo (ResNet), una arquitectura de red neuronal con más de 150 capas. Esta innovación resolvió problemas de entrenamiento en redes muy profundas y allanó el camino para avances como AlphaGo, AlphaFold o ChatGPT. Dependiendo de la base de datos, sus citas oscilan entre 103.000 y más de 250.000.

Rank (median)CitationTimes Cited (range across databases)
1Deep residual learning for image recognition (2016, preprint 2015)103.756–254,074
2Analysis of relative gene expression data using real-time quantitative PCR and the 2–ΔΔCT method (2001)149.953–185,480
3Using thematic analysis in psychology (2006)100.327–230,391
4Diagnostic and Statistical Manual of Mental Disorders, DSM-5 (2013)98,312–367,800
5A short history of SHELX (2007)76.523–99,470
6Random forests (2001)31.809–146,508
7Attention is all you need (2017)56.201–150,832
8ImageNet classification with deep convolutional neural networks (2017)46.860–137,997
9Global cancer statistics 2020: GLOBOCAN estimates of incidence and mortality worldwide for 36 cancers in 185 countries (2020)75.634–99,390
10Global cancer statistics 2018: GLOBOCAN estimates of incidence and mortality worldwide for 36 cancers in 185 countries (2016)66.844–93,433

Supplementary information

Otros artículos destacados incluyen el DSM-5 (manual diagnóstico de psiquiatría), el algoritmo de Random Forests (utilizado en machine learning), y GLOBOCAN, un informe bianual de la OMS sobre estadísticas globales de cáncer.

Los artículos sobre IA dominan el ranking. El trabajo de Hinton en 2012 sobre AlexNet, que revolucionó el reconocimiento de imágenes, ocupa el puesto 8. El artículo de 2017 “Attention is all you need”, que introdujo la arquitectura transformer que impulsa modelos de lenguaje como ChatGPT, está en el puesto 7. El artículo sobre Random Forests, método estadístico muy utilizado y accesible, está en el puesto 6.

La comunidad de IA también se ha beneficiado de la cultura del código abierto y del uso extendido de preprints, aunque muchas bases de datos aún no integran adecuadamente las citas entre versiones preliminares y artículos revisados.

Muchos artículos populares describen software científico. Uno de ellos es el artículo sobre SHELX (puesto 5), un conjunto de programas para determinar estructuras moleculares mediante difracción de rayos X, escrito por George Sheldrick. Otro caso es DESeq2, software para analizar datos de secuenciación de ARN (puesto 18). Estos artículos se citan por su utilidad más que por su novedad teórica.

El caso del artículo en el puesto 2 es paradigmático: Thomas Schmittgen publicó el método 2–ΔΔCT porque un revisor le dijo que no podía citar un manual técnico. Hoy acumula más de 160.000 citas.

Los informes GLOBOCAN de 2018 y 2020 están entre los diez primeros. Son herramientas esenciales para investigadores y responsables de políticas públicas. Otro trabajo clave (puesto 19) es el artículo sobre las “marcas distintivas del cáncer” (hallmarks of cancer), que ayudó a estructurar la investigación oncológica contemporánea.

El análisis muestra que el impacto en la ciencia no depende solo de grandes descubrimientos, sino de herramientas que permiten a otros investigar con más precisión, fiabilidad y alcance. El auge de la inteligencia artificial, el desarrollo de software y los métodos estadísticos dominan las citas, destacando cómo la ciencia avanza no solo por lo que descubre, sino por cómo lo hace.

10 razones por las que la revista científica no se adapta a las nuevas formas de hacer y comunicar ciencia en el siglo XXI

Worlock, David. 2025. “10 Reasons Why the Science Research Journal Has Passed Its Sell-by Date.” David Worlock, April 2025. https://www.davidworlock.com/2025/04/10-reasons-why-the-science-research-journal-has-passed-its-sell-by-date/

El autor propone una revisión profunda y urgente del modelo actual, denunciando no solo su ineficacia y costes, sino también su incapacidad para adaptarse a las nuevas formas de hacer y comunicar ciencia en el siglo XXI.

Se recogen una reflexión crítica presentada durante una conferencia reciente del UKSG en Brighton. El autor, uno de los participantes en un debate junto con representantes de Elsevier y Coherent Digital, expone diez argumentos que justifican su afirmación de que el sistema de publicación científica, tal como lo conocemos, necesita una transformación profunda.

El sistema de publicación científica ha quedado anclado en estructuras del pasado, reproduciendo en digital las limitaciones del mundo impreso. La irrupción de la inteligencia artificial promete cambiar radicalmente este panorama, automatizando procesos, eliminando intermediarios innecesarios y creando un nuevo ecosistema de comunicación científica más ágil, accesible y confiable.

  1. El acceso abierto ya no cumple su promesa
    El modelo de acceso abierto (open access), que en su origen pretendía reducir barreras y costos para que el conocimiento científico fuera más accesible, ha comenzado no solo a estancarse, sino incluso a retroceder. Su funcionamiento basado en el volumen de publicaciones ha generado desconfianza, pues antepone la cantidad a la calidad. Irónicamente, lo que debía ser una alternativa más económica, ahora está siendo rechazado precisamente por sus elevados costes.
  2. La revisión por pares está en crisis
    El sistema de revisión por pares, que históricamente ha sido la piedra angular de la credibilidad científica, se encuentra quebrado. Cada vez más investigadores, entidades financiadoras y usuarios pierden la confianza en este mecanismo. Su lentitud, falta de transparencia y vulnerabilidad ante fraudes han generado una creciente deslegitimación del proceso.
  3. Falta un sistema centralizado de retracciones
    Existe una carencia grave de transparencia en lo que respecta a las retractaciones de artículos científicos. Los usuarios no disponen de un índice centralizado ni fiable para consultar qué artículos han sido retirados y por qué. Esto genera incertidumbre sobre la validez del conocimiento publicado y dificulta la depuración de errores científicos.
  4. Las publicaciones son demasiado lentas
    En áreas donde el conocimiento avanza a gran velocidad —como la biotecnología, la inteligencia artificial o la salud pública—, el sistema tradicional de publicación científica resulta excesivamente lento. Las revistas no logran adaptarse a los ritmos que exige la investigación actual, lo que entorpece el progreso científico y su aplicación práctica.
  5. Costes insostenibles para la comunidad investigadora
    Publicar en revistas científicas se ha convertido en una tarea costosa y poco rentable. Los beneficios no justifican el gasto y los financiadores se muestran cada vez más reacios a asumir los pagos asociados. El desequilibrio entre coste y retorno ha hecho que este sistema se perciba como económicamente insostenible.
  6. Falta de integridad estructural
    Muchos de los problemas actuales podrían resolverse si las revistas ofrecieran la integridad editorial plena que los usuarios esperan. Sin embargo, hoy en día proliferan contenidos generados por inteligencias artificiales sin control, artículos de papermills (fábricas de artículos) y fraudes sistemáticos que socavan la confianza en las publicaciones científicas.
  7. Estándares técnicos difíciles de aplicar en el sistema actual
    El desarrollo y aplicación de estándares técnicos como metadatos estructurados, identificadores persistentes (PIDs) y códigos de contenido (ISCC, C2PA, etc.) resulta más viable en entornos de autopublicación que dentro de los sistemas rígidos y obsoletos de las editoriales científicas. Esto limita el potencial de la ciencia abierta y dificulta la interoperabilidad entre plataformas.
  8. La validación científica debe independizarse de las revistas
    Los procesos de reconocimiento y evaluación científica —como la concesión de becas, ascensos o financiación— están demasiado ligados al prestigio de las revistas y a métricas como el factor de impacto, fácilmente manipulables. Sería preferible desarrollar sistemas independientes y más justos que reconozcan la calidad real de los investigadores sin depender de la marca editorial.
  9. El formato del artículo científico necesita evolucionar
    El formato tradicional de artículo ya no responde a las necesidades actuales. Es necesario introducir prácticas como la pre-registro de hipótesis y metodologías, y la integración de datos experimentales, código, vídeos, imágenes, audio, blogs y otros soportes que hoy en día las revistas no contemplan. La publicación científica debe volverse multimodal y más transparente.
  10. La lectura humana ya no es suficiente
    Dado el volumen de información disponible, muchos investigadores no tienen tiempo para leer artículos completos. Por ello, la comunicación entre máquinas se vuelve crucial. Sin embargo, las estructuras narrativas actuales no están diseñadas para su interpretación automática, lo que impide aprovechar el potencial de la inteligencia artificial y del análisis automatizado. Se necesita una transición hacia datos estructurados y enriquecidos con metadatos, comprensibles por máquinas.

German Natonal Academy of Sciences propone un cambio estructural de modelo de comunicación científica basado en una financiación directa de revistas científicas.

Tautz, D., Holzer, A., Schmidt, K. M., Buchner, J., Grötschel, M. & Jurburg, S. A New Concept for the Direct Funding and Evaluaton of Scientfc Journals.
Discussion No. 38, Halle (Saale): German Natonal Academy of Sciences
Leopoldina, 2025

Texto completo

La Academia Nacional de Ciencias de Alemania (Leopoldina) ha publicado el 15 de abril de 2025 un documento de debate que propone una profunda transformación en el modelo de publicación científica. El foco principal del texto es la necesidad de financiar directamente y evaluar públicamente las revistas científicas, con el objetivo de garantizar el acceso abierto al conocimiento, reducir costes y mejorar la calidad de las publicaciones académicas.

Actualmente, el acceso a los artículos científicos está restringido por barreras de pago impuestos por un pequeño grupo de editoriales con fines de lucro. Estas empresas obtienen ingresos bien sea a través de suscripciones de bibliotecas o mediante el cobro a los autores por publicar sus investigaciones (las llamadas article processing charges, APC). Dado que la financiación de la ciencia y las bibliotecas universitarias proviene del erario público, los beneficios de estas editoriales terminan repercutiendo en el presupuesto público, sin que exista una mejora proporcional en el valor científico ofrecido. Además, la escasa competencia ha derivado en una especie de monopolio editorial, que ha encarecido el sistema sin mejorar su eficiencia ni su calidad.

Frente a esta problemática, el documento propone que la financiación de las revistas científicas siga el mismo modelo que la investigación pública. En este sentido, serían las sociedades científicas, academias o instituciones públicas las encargadas de solicitar recursos para crear y mantener revistas científicas. Estas solicitudes se evaluarían mediante procedimientos competitivos y con criterios similares a los aplicados en la financiación de proyectos de investigación. De este modo, no solo se aseguraría la calidad y la pertinencia científica de las publicaciones, sino que también se garantizaría la transparencia en la gestión de los recursos.

El modelo propuesto se basa en el acceso abierto diamante (diamond open access), que se distingue por ser gratuito tanto para los autores como para los lectores. A diferencia del modelo de acceso abierto “oro”, donde el autor asume los costes de publicación, el modelo diamante plantea que la financiación provenga exclusivamente de fondos públicos adjudicados mediante convocatorias específicas. Así, el control editorial y financiero permanecería en manos de la comunidad científica, y los componentes del proceso editorial (como la revisión, maquetación o difusión) podrían contratarse a terceros mediante procedimientos abiertos y competitivos.

Para implementar este nuevo sistema, el informe recomienda involucrar activamente a las sociedades científicas que ya gestionan publicaciones, a fin de calcular el presupuesto necesario y diseñar adecuadamente el proceso de solicitud de fondos. También propone poner en marcha un proyecto piloto a nivel nacional que permita probar la viabilidad del modelo y ajustar sus mecanismos. Asimismo, se sugiere crear un grupo de trabajo internacional para explorar posibilidades de cofinanciación supranacional, lo cual permitiría extender el sistema a escala europea o global.

En definitiva, la propuesta de la Leopoldina busca asegurar que el conocimiento científico financiado con recursos públicos sea accesible libremente por toda la sociedad, esté gestionado desde la comunidad científica y se publique bajo principios de calidad, eficiencia y transparencia. Se trata de una iniciativa que, de implementarse, supondría una transformación radical del sistema editorial científico actual, desplazando el protagonismo de las grandes editoriales comerciales hacia las instituciones científicas públicas.

IA, integridad académica y evaluación: un camino ético para la educación.

«AI, Academic Integrity, and Authentic Assessment: An Ethical Path Forward for Education.» Anthology, accessed April 10, 2025.

Texto completo

Estudiantes de todo el mundo recurren a la IA para encontrar «La Respuesta» a preguntas comunes de exámenes y ensayos, mientras los instructores e instituciones observan con asombro cómo tareas de evaluación que antes eran difíciles se convierten instantáneamente en lanzamientos fáciles.

En primer lugar, se discute el creciente uso de herramientas generativas de IA, como ChatGPT, y cómo esto ha complicado el panorama académico. La detección de contenido generado por IA se ha convertido en un tema de debate, con herramientas de detección que, según investigaciones recientes, tienen una precisión limitada y pueden introducir sesgos, especialmente en el caso de estudiantes que hablan inglés como segunda lengua o tienen trastornos del espectro autista.

El artículo subraya que, a pesar de las preocupaciones sobre la detección de IA, la clave para evaluar de manera efectiva a los estudiantes es adoptar un enfoque de evaluación auténtica, que se enfoca más en la aplicación práctica de habilidades y en tareas complejas que en respuestas correctas o incorrectas. La evaluación auténtica exige un enfoque centrado en la reflexión personal y el pensamiento crítico, algo que resulta más difícil para las IA que para los humanos.

Además, se propone que la IA puede ser una herramienta útil para los docentes, ayudándoles a liberar tiempo de tareas administrativas y repetitivas para poder concentrarse más en la enseñanza y en el desarrollo de evaluaciones auténticas. Por último, se insta a los líderes académicos a abrazar la IA como una herramienta que puede complementar y mejorar los métodos de evaluación, en lugar de centrarse únicamente en la detección de plagio generado por IA.

Evaluación práctica de la alfabetización informativa para bibliotecarios.

Mellon, Constance A. Practical Information Literacy Assessment for Librarians. Westport: Libraries Unlimited, 2007.

Texto completo

La evaluación de la alfabetización informativa se aplica a diversos contextos en el ámbito de la educación superior: planes de estudio institucionales, programas de alfabetización informativa, cursos de alfabetización informativa, instrucción de alfabetización informativa integrada en cursos y talleres independientes de alfabetización informativa y tutoriales en línea. Esta guía práctica proporciona una descripción general del proceso de evaluación: planificación; selección y desarrollo de herramientas; y análisis y presentación de datos. Un cuadro de decisiones de evaluación ayuda a los lectores a combinar las herramientas y estrategias de evaluación adecuadas con los resultados de aprendizaje y los entornos de instrucción. Las herramientas de evaluación, organizadas por tipo, se acompañan de estudios de casos. Se hacen referencias a varios estándares de alfabetización informativa, con énfasis en los Estándares de competencia en alfabetización informativa para la educación superior de ACRL.

Sexenios de investigación 2024. Criterios para la evaluación de la actividad investigadora.

Resolución de 9 de diciembre de 2024, de la Comisión Nacional Evaluadora
de la Actividad Investigadora, por la que se publican los criterios para la
evaluación de la actividad investigadora
.

Texto completo

Baremo

La Comisión Nacional Evaluadora de la Actividad Investigadora (CNEAI) ha aprobado los criterios para la evaluación de la actividad investigadora correspondientes a la convocatoria de 2024. Estos criterios, que serán publicados en el Boletín Oficial del Estado (BOE), ya se han difundido para facilitar la preparación anticipada de las solicitudes. Finalmente, para garantizar transparencia y uniformidad, ANECA ha publicado un baremo único que será aplicado por los quince Comités Asesores.

Entre los cambios destacados, se elimina el apartado de «mínimos orientativos», permitiendo la obtención de una evaluación positiva mediante cinco aportaciones que cumplan con los criterios generales, sin depender de indicadores cuantitativos relacionados con medios de difusión. Esto refuerza el enfoque en la calidad intrínseca de las aportaciones.

El baremo para la evaluación de la actividad investigadora en la convocatoria de 2024 de los sexenios de investigación establece criterios clave para calificar las aportaciones de los solicitantes, otorgando mayor peso al impacto científico y contemplando elementos relacionados con la originalidad, la relevancia social y la promoción de la ciencia abierta. A continuación, se resumen los principales aspectos de cada criterio:

Contribución al progreso del conocimiento (10%)

Este apartado evalúa la originalidad, innovación y pertinencia de la investigación, destacando la capacidad del trabajo para abordar problemas relevantes en el área y proponer soluciones novedosas. Se valora también el enfoque metodológico, incluyendo el desarrollo de nuevos métodos o la mejora de los existentes. Se excluyen trabajos meramente descriptivos, recopilaciones bibliográficas sin análisis crítico o traducciones sin aportaciones significativas.

Impacto científico (60%)

Es el criterio más relevante, dividido en cuatro subcategorías principales:

  1. Uso de la aportación: Se mide por lecturas, descargas y visualizaciones en plataformas académicas.
  2. Citas recibidas: Considera el número y calidad de las citas recibidas, excluyendo autocitas.
  3. Calidad del medio de difusión: Se analiza la reputación del medio donde se publica, incluyendo revisiones por pares y estándares de calidad.
  4. Impacto del medio: Examina el reconocimiento científico del medio de publicación, con énfasis en premios, críticas y reseñas.

Se tienen en cuenta otros indicadores como vínculos con proyectos de investigación, tesis doctorales, premios y menciones en medios especializados.

Impacto social (10%)

Evalúa la repercusión de las investigaciones fuera del ámbito académico, como su influencia en políticas públicas, documentos normativos, guías clínicas o la industria. Además, se considera su difusión en medios de comunicación, plataformas digitales y eventos culturales, y la interacción con el público.

Contribución a la ciencia abierta (10%)

Se premian aportaciones accesibles públicamente, ya sea en versiones finales o preliminares, y el cumplimiento de principios FAIR en datasets y software. También se valora la publicación en revistas de acceso abierto (diamante) y el uso de licencias libres como Creative Commons.

Aportación preferente (10%)

Se analiza el ajuste de las aportaciones al tipo preferente definido en los criterios de evaluación, como artículos, libros, capítulos de libro, patentes o contribuciones a congresos.

Circunstancias reductoras

La puntuación puede reducirse en casos como:

  • Reiteración de publicaciones: Más de tres aportaciones en un mismo medio sin justificación suficiente.
  • Conflicto de interés editorial: Relaciones que comprometan la objetividad del proceso editorial.
  • Malas prácticas: Plagio, duplicación de contenido, alteración de datos o artículos retractados.
  • Procesos de revisión cuestionables: Medios con estándares poco fiables o periodos de aceptación injustificadamente cortos.
  • Autoría insuficientemente justificada: Participación no justificada adecuadamente en casos de coautoría múltiple.

Este baremo asegura una evaluación integral y motivada de las contribuciones, exigiendo evidencia clara de su relevancia científica, metodológica y social, y fomentando la transparencia en la producción académica.

Evaluación de la equidad y la inclusión en la concesión de subvenciones al patrimonio cultural

«Evaluating Equity and Inclusion in Cultural Heritage Grantmaking: CLIR’s Amplifying Unheard Voices Program • CLIR». s. f. CLIR. Accedido 2 de noviembre de 2024.

Descarga



El informe «Evaluating Equity and Inclusion in Cultural Heritage Grantmaking: CLIR’s Amplifying Unheard Voices Program» resume la evaluación de un año del programa «Amplifying Unheard Voices», que representa una revisión importante del programa de subvenciones «Digitizing Hidden Collections» de CLIR. Esta revisión buscó ampliar el alcance y la atractivo del programa a una gama más amplia de instituciones, incluyendo organizaciones independientes y comunitarias, y centrarse en la digitalización de materiales históricos que relatan las historias de grupos subrepresentados en el registro histórico digital. Se realizaron cambios significativos en la estructura de la aplicación, se crearon nuevos recursos de apoyo para solicitantes, se amplió la elegibilidad para incluir a Canadá y se añadieron nuevos énfasis temáticos y valores del programa. La evaluación se basó en una serie de actividades de recopilación de datos cualitativos que involucraron a grupos de interés y personal. A través de encuestas y entrevistas a solicitantes, consultores, revisores de propuestas y personal, los autores ofrecen una visión holística del programa, presentan recomendaciones y señalan áreas que requieren atención adicional.