Archivo de la etiqueta: Evaluación

Declaración de CLACSO “Una nueva evaluación académica y científica para una ciencia con relevancia social en América Latina y el Caribe»

Una nueva evaluación académica y científica para una ciencia con relevancia social en América Latina y el Caribe. Declaración aprobada en la XXVII Asamblea General de CLACSO, México, 6 de junio de 2022

Texto completo

Firmar Declaración

La presente declaración fue aprobada por la XXVII Asamblea General de CLACSO, en el marco de la  la 9° Conferencia Latinoamericana y Caribeña de Ciencias Sociales, en la Ciudad de México el mes de junio de 2022. A su vez, se enriqueció con los aportes de diversos especialistas regionales e internacionales y de representantes de los centros miembro de CLACSO, quienes participaron en el plenario “Balance, perspectivas y desafíos para una nueva agenda en turno a la evaluación académica en América Latina y el Caribe” en el Seminario Internacional del Foro Latinoamericano de Evaluación Científica (FOLEC)- CLACSO durante al 9va. Conferencia.

De esta manera, CLACSO-FOLEC, en conjunto con una multiplicidad de actoras y actores comprometidos en la temática, ha logrado consolidar una Declaración de Principios común y de alto consenso en materia de evaluación académica responsable desde y para América Latina y el Caribe. Siguiendo estos lineamientos, CLACSO-FOLEC busca promover la implementación de estos principios -convertidos en propuestas y herramientas para la acción- por parte de los Organismos Nacionales de Ciencia y Tecnología, de las instituciones científicas y de educación superior de la región. Asimismo, moviliza el estudio y relevamiento de buenas prácticas y distintas innovaciones en los procesos de evaluación, que mejoren la calidad de la investigación en estrecha vinculación con las necesidades de nuestras sociedades y la representación diversa y democrática de sus poblaciones, como así también que prioricen y amplíen la apertura, colaboración y participación en el plano de la producción y circulación del conocimiento.     

Nos gustaría mucho contar con su apoyo individual y/o institucional a la Declaración. Para eso, puede brindar su adhesión en el enlace

Anuncio de cambios en el Journal Citation Reports 2023 : Clarivate incluirá el Factor de impacto en todas las revistas indexadas en la Web of Science Core Collection

Quaderi, Nandita. Announcing changes to the 2023 Journal Citation Reports. Editor-in-Chief & Vice President Editorial, Web of Science, Clarivate

Ver original

A partir de la versión 2023 del JCR, los factores de impacto de las revistas se ampliarán a todas las revistas de la Web of Science Core Collection, incluidas las de arte y humanidades.

En la versión 2023 del Journal Citation Reports™, todas las revistas de la Web of Science Core Collection™ recibirán un Journal Impact Factor (JIF)™. Esto supone ampliar el JIF del Science Citation Index Expanded (SCIE)™ y del Social Science Citation Index (SSCI)™ para incluir revistas del Arts and Humanities Citation Index (AHCI)™ y del multidisciplinar Emerging Sources Citation Index (ESCI)™.

Journal Citation Reports anuales permiten a la comunidad investigadora, a los editores y a los bibliotecarios evaluar y comparar el impacto académico de las revistas de calidad del mundo mediante una serie de indicadores, datos descriptivos y visualizaciones.

Clarivate ha dedicido mostrar el JIF para todas las revistas indexadas en la Web of Science Core Collection como parte de su compromiso continuo con la integridad del registro académico. Para acelerar el ritmo de la innovación, los financiadores de la investigación, las instituciones y los investigadores necesitan poder tomar decisiones basadas en datos de calidad en los que puedan confiar. El riguroso proceso de selección permite mantener fuera de los índices a las revistas que no son de confianza, lo que, unido a cuidadosa curación de datos, significa que la comunidad investigadora puede confiar en los datos y métricas de los Journal Citation Reports.

El hecho de dotar a todas las revistas de calidad de un Factor de Impacto de la Revista (JIF) proporcionará total transparencia a los artículos y citas que han contribuido al impacto, y por tanto les ayudará a demostrar su valor a la comunidad investigadora.

Al ampliar el JIF a todas las revistas que han superado los rigurosos criterios de calidad de Web of Science, esta última mejora también ayuda a igualar las condiciones de todas las revistas de calidad, incluidas las de reciente creación, las de acceso abierto, las de ámbito especializado o regional y las del Sur Global

Esta decisión está en consonancia con la posición de que las publicaciones en todas las revistas de calidad, y no sólo en las muy citadas, que deberían poder incluirse en los ejercicios de evaluación de la investigación.

Esto significa que:

  • Casi 9.000 revistas -de más de 3.000 editores, muchos de los cuales son pequeños editores del mundo en desarrollo- tendrán un JIF por primera vez.
  • Habrá un aumento del 8% en las revistas de acceso abierto de la ruta dorada que tendrán un JIF.
  • Habrá un aumento mínimo del 5% en las revistas del Sur Global que tendrán un JIF.
  • Además, la versión 2023 del Journal Citation Reports mostrará el JIF con un decimal, en lugar de los tres actuales, para animar a los usuarios a tener en cuenta los demás indicadores y datos descriptivos de JCR al comparar las revistas.

Informe de investigación sobre el impacto de las bibliotecas universitarias

McReynolds, Stephanie JH, Peter Verheyen, Terriruth Carrier, and Scott Warren. Library Impact Research Report: Distinct Academic Learning Communities at Syracuse University Libraries. Washington, DC: Association of Research Libraries, July 18, 2022.

Texto completo

Como parte de la iniciativa del Marco de Impacto de las Bibliotecas de Investigación de la ARL, un equipo de las Bibliotecas de la Universidad de Syracuse llevó a cabo un estudio para explorar el impacto de la incorporación de tres «comunidades de aprendizaje académico distintas» en la Biblioteca Bird de la Universidad de Syracuse: el Blackstone LaunchPad; Center for Learning and Student Success; y la Syracuse Office of Undergraduate Research and Creative Engagement.

Tres objetivos guiaron al equipo:

(1) explorar cómo las bibliotecas impactan en las comunidades;

(2) determinar cómo las comunidades impactan en las bibliotecas; y

(3) identificar métodos/métricas que pudieran demostrar el impacto recíproco y ser útiles para ARL.

El impacto se exploró desde múltiples perspectivas, incluidos los directores de la comunidad, los participantes de la comunidad, el decano de las bibliotecas y el personal de las bibliotecas. Los resultados apuntan al valor de la biblioteca como espacio académico central e interdisciplinario para las comunidades, que ayuda a romper las fronteras disciplinarias al permitir que los participantes de la comunidad se reúnan y colaboren más fácilmente con estudiantes de otras escuelas y universidades.

Papel Mills: la fabricación de artículos para la venta de autorías

Paper Mills: research report drom COPE & STM. STM, 2022

Texto completo

En el ámbito de la investigación, una Paper Mills (fábrica de articulos) es una «organización no oficial, potencialmente ilegal y con ánimo de lucro, que produce y vende la autoría de manuscritos de investigación»

La fabricación de artículos es el proceso por el que se envían manuscritos terminados a una revista a cambio de una cuota en nombre de los investigadores con el fin de facilitarles la publicación, o para ofrecerles la autoría a cambio de dinero.

En unas ocasiones, los Paper Mills contienen operaciones sofisticadas que venden puestos de autoría en investigaciones legítimas, pero en muchos otros casos los trabajos contienen datos fraudulentos y pueden estar plagiados o ser poco profesionales. También puede incluir la fabricación de datos, lo que lleva a la ciencia basura y, a veces, a retractaciones en la literatura científica.

Los investigadores se ven presionados a publicar para avanzar en su carrera «Publish or perish», y por ello algunos recurren a estas prácticas inaceptables. Se trata de un problema de ética e integridad de la investigación que afecta a la publicación académica, una deshonestidad académica que implica el engaño y la autoría por contrato, más concretamente el ghostwriting académico, es decir la escritura fantasma, un término utilizado para describir la investigación académica escrita por alguien cuyo nombre no se reconoce.

En abril de 2022, el departamento de noticias de la revista Science publicó un post que identificaba cientos de artículos académicos publicados en los que se habían vendido puestos de autoría a través de un sitio web ruso que permitía a los investigadores pagar por el prestigio académico, sin exigir contribuciones legítimas en la investigación. Durante el periodo de tres años analizado, se identificaron 419 artículos que coincidían con manuscritos publicados posteriormente en muchas revistas académicas diferentes, con un sesgo significativo hacia las publicaciones en revistas depredadoras. Aunque los artículos fabricados aparecieron en varias revistas, sólo en International Journal of Emerging Technologies in Learning (Kassel University Press) se publicaron casi 100 artículos, aparentemente coordinados mediante la participación de editores de revistas que organizaban números especiales con espacio para coautores subastados por entre 180 y 5.000 dólares. En otra red coordinada, se descubrió que los editores invitados y los editores académicos asalariados de MDPI coordinaban la venta de autorías en cuatro revistas diferentes de MDPI, con un total de más de 20 artículos. Más allá de la colusión entre los editores y International Publisher Ltd., muchos trabajos de investigación legítimos también vendieron autorías desconocidas por parte de los editores de las revistas, y finalmente fueron aceptados en revistas publicadas por Elsevier, Oxford University Press, Springer Nature, Taylor & Francis, Wolters Kluwer y Wiley-Blackwell. Desde el 6 de abril de 2022, muchos de estos editores han abierto una investigación sobre el asunto.

En 2022 COPE y STM llevaron a cabo un estudio con Maverick Publishing Services, utilizando datos de las editoriales, para comprender la magnitud del problema de las Paper Mills. En el estudio también se entrevistó a las partes interesadas: investigadores, editores y a miembros de Retraction Watch.

Todos los implicados creen que el problema de las fábricas de artículos es una amenaza real para la integridad de los registros académicos, y que es necesario un esfuerzo colectivo porque los editores tienen claro que no pueden resolver este problema solos. Es necesario un esfuerzo conjunto de editores, financiadores e instituciones de investigación.

El documento recomienda una serie de acciones al respecto:

  • Es necesario un importante ejercicio de educación para garantizar que los editores sean conscientes del problema de las fabricación de artículos y que los editores/personal de redacción reciban formación para identificar los documentos falsos.
  • Inversión continua en herramientas y sistemas para detectar los artículos sospechosos a medida que se presentan.
  • Compromiso con las instituciones y los financiadores para revisar los incentivos para que los investigadores publiquen artículos válidos y no utilicen servicios que ofrezcan una publicación rápida pero falsa.
  • Investigar los protocolos que pueden establecerse para impedir que las Paper Mills logren sus objetivos.
  • Revisar el proceso de retractación para tener en cuenta las características únicas de los artículos fabricados.
  • Investigar cómo garantizar que los avisos de retractación se apliquen a todas las copias de un artículo, como los servidores de preprints y los repositorios de artículos.

Herramienta de evaluación para la prestación de servicios a los adolescentes de las bibliotecas públicas

Public Library Evaluation Tool. YALSA, 2011

Texto completo

En 2011, YALSA desarrolló una herramienta para evaluar el nivel general de éxito de una biblioteca pública en la prestación de servicios a los adolescentes, de entre 12 y 18 años, con áreas de evaluación derivadas de las Competencias para los bibliotecarios que atienden a los jóvenes de YALSA: Los jóvenes adultos merecen lo mejor.

Entre los usuarios potenciales de esta herramienta se encuentran los gestores de las bibliotecas, los bibliotecarios de servicios para adolescentes y los miembros de la comunidad y los solicitantes de empleo que esperan evaluar el compromiso de una biblioteca con los servicios para adolescentes. La herramienta no pretende ser una evaluación de un bibliotecario de servicios para adolescentes individual, sino del programa de una institución; sin embargo, por necesidad, algunas cosas se aplicarán específicamente al personal de servicios para adolescentes.

No todos los elementos de la rúbrica se aplicarán a cada situación de la biblioteca, pero la herramienta puede servir como punto de partida para la conversación sobre lo que constituye un excelente servicio de biblioteca pública para los adolescentes.

Public Library Evaluation Tool (PDF)

YALSA’s Competencies for Librarians Serving Youth: Young Adults Deserve the Best (PDF)

Evaluation Tool Fact Sheet for Library Administrators (PDF)

Evaluation Tool Fact Sheet for LIS Faculty (PDF)

Evaluation Tool Fact Sheet for Teen Services Librarians (PDF)

Evaluation Tool Fact Sheet for Library Users and Community Members (PDF)

Evaluation Tool Fact Sheet for Trustees (PDF) 

Standards and Guidelines for School Libraries

Other Library Standards and Guidelines

El impacto de las bibliotecas públicas en Dinamarca: un refugio para la comunidad

New study: The impact of public libraries in Denmark
Nyheder

Af Naja Bjørn Nielsen
06.05.21

Texto completo

A guide Impact Compass

Página web

En mayo de 2021, la Biblioteca Central de Roskilde, en Dinamarca, presentó un notable estudio ‘The impact of public libraries in Denmark: A haven in our community’.. El estudio va más allá de los enfoques y medidas tradicionales de evaluación de las bibliotecas, como las visitas a la biblioteca o los préstamos de libros, y se centra en el impacto de las bibliotecas públicas en los ciudadanos, en cuatro dimensiones diferentes:

  • Impacto emocional (Haven): La biblioteca pública es un refugio en la vida cotidiana, donde los ciudadanos encuentran espacio para la contemplación y se toman tiempo para sí mismos y para los demás.
  • Impacto intelectual (Perspectiva): La biblioteca pública es un comunicador creíble del conocimiento y proporciona a los ciudadanos una perspectiva ilustrada y crítica de la vida.
  • Impacto social (Comunidad): La biblioteca pública es un lugar donde los ciudadanos experimentan la unión -solos o con otros- y donde experimentan con los materiales y las instalaciones como propiedad común, sin barreras financieras para su uso.
  • Impacto creativo (Creatividad): La biblioteca pública es una fuente de inspiración y estimula la imaginación de los usuarios. La biblioteca pública también puede ayudar a motivar a los usuarios para que prueben algo nuevo y adquieran nuevas habilidades.

Además de compartir los resultados de las bibliotecas danesas, los autores del estudio publicaron la herramienta que utilizaron, su «Brújula de Impacto», junto con una invitación a otras bibliotecas para que la utilicen, y consejos para su uso. Las preguntas que me hice antes de leer el estudio fueron: ¿es este enfoque relevante para las bibliotecas públicas de fuera de Dinamarca y Europa? Si es así, para beneficiarse de este enfoque, ¿hasta qué punto tendrían que adaptarlo las bibliotecas a los contextos y públicos locales?

Las repercusiones de las bibliotecas que allí se demuestran son ciertas no sólo para Dinamarca y Europa. por ejemplo:

  • Proporcionar apoyo emocional para hacer frente al aislamiento y la soledad de las personas mayores leyéndoles por teléfono (impacto emocional).
  • Organizar y acoger programas de formación para apoyar los estudios escolares o universitarios, así como la formación profesional, incluso para los que abandonan el sistema educativo formal o las poblaciones analfabetas, (impacto intelectual).
  • Llegar a las personas marginadas y vulnerables mediante una combinación de asesoramiento, información sobre el empleo y formación en TIC (impacto social).
  • Despertar el interés de niños, jóvenes y adultos por descubrir su potencial creativo e incluso transformarlo en actividades generadoras de ingresos, que utiliza los espacios de la biblioteca y la tecnología para fomentar la creatividad entre los jóvenes (impacto creativo).
  • Apoyar a las personas con habilidades empresariales, proporcionándoles herramientas y espacio para sus actividades (impacto económico).

Teniendo en cuenta estos y otros muchos ejemplos, podríamos decir que el modelo de evaluación es aplicable, y podría servir como herramienta para captar los impactos más esenciales -pero también menos tangibles-, que apenas se reflejan en las estadísticas tradicionales de las bibliotecas.

Aplicaciones móviles y bibliotecas. 7. Evaluación de aplicaciones móviles.

Alonso-Arévalo. Aplicaciones móviles y bibliotecas. 7. Evaluación de aplicaciones móviles. Curso GALICIA CESGA 2020. Servizo do Sistema de Bibliotecas de Galicia. En Línea En línea del 31 de mayo y terminamos el 14 de junio 2020

Texto completo

El mercado de las aplicaciones móviles dedicadas a lectura e investigación dispone de miles herramientas para la lectura, la anotación, el subrayado, la exposición pública de contenidos, la compilación de noticias y bibliografías; y proporciona también la posibilidad de compartir contenidos a través de redes sociales (Concretamente hay 200.000 aplicaciones en la categoría educación en cada uno de los sistemas IOS y Android. Por ello es necesario evaluar algunas de las principales aplicaciones y las características de unas y otras para que el usuario o el bibliotecario pueda utilizarlas con criterios informados de cara a su aplicación o formación en alfabetización digital.

Marco FOREST para la comunicación académica basada en valores.

FOREST Framework for Values-Driven Scholarly Communication. Next Generation Library Publishing (NGLP), 2022

Texto completo

El equipo de Next Generation Library Publishing (NGLP) anuncia la publicación del marco FOREST Framework for Values-Driven Scholarly Communication. Este marco ha sido creado para ayudar a las organizaciones y comunidades de comunicación académica a demostrar, evaluar y mejorar su alineación con el tiempo con seis valores clave:

  • Sostenibilidad financiera y organizativa
  • Apertura
  • Gobernanza representativa
  • Equidad, accesibilidad y lucha contra la opresión
  • Compartir el conocimiento
  • Transparencia

Estos seis valores fundamentales han aparecido en docenas de manifiestos, cartas abiertas y otras declaraciones emitidas por un amplio abanico de partes interesadas del mundo académico, como profesores, estudiantes, editores, bibliotecarios y desarrolladores de herramientas de código abierto. Son representativos, si no emblemáticos, del movimiento de ciencia abierta y de las intenciones académicas en gran parte del mundo.

El marco FOREST ofrece mecanismos concretos que las comunidades pueden utilizar para evaluar cómo sus políticas y prácticas se alinean con estos valores y sus principios asociados. En lugar de adoptar un enfoque de «tarjeta de puntuación» que asume que hay un momento en el que un valor se ha realizado plenamente, el marco se centra en un enfoque de «espectro» que reconoce las mejoras incrementales en la alineación y llama la atención sobre el crecimiento y el progreso a lo largo del tiempo. Invita a reflexionar sobre las formas de manifestar y vivir los valores que adoptamos, dando cabida a organizaciones y comunidades de diferente tamaño, madurez y misión para demostrar su intención de practicar de forma ética y sostenible.

FOREST significa:


Financial and Organizational Sustainability

Openness and Interoperability

Representative Governance

Equity, Accessibility, and Anti-Oppression

Sharing of Knowledge

Transparency

¿Necesitamos todos los componentes del Marco de Excelencia en Investigación?

Do we need all the components of the Research Excellence Framework?

Mehmet Pinar
Tim Horne
May 11th, 2022

Ver original

El Marco de Excelencia en Investigación (REF) se basa en tres áreas de evaluación: resultados, impacto y entorno. Sin embargo, Mehmet Pinar y Tim Horne afirman que estos elementos se correlacionan hasta el punto de que la evaluación de todos ellos es en gran medida ineficaz. Si este es el caso, plantean la pregunta: ¿ha llegado el momento de eliminar uno de estos elementos en el próximo ciclo del Research Excellence Framework (REF)?

Pronto se publicarán los resultados del próximo marco de excelencia investigadora. El reciente REF es otra iteración de los sistemas de financiación de la investigación basados en el rendimiento empleados anteriormente en el Reino Unido, que evalúa el entorno de investigación de una institución de enseñanza superior, los resultados de la investigación y el impacto de su investigación. Este proceso de evaluación se lleva a cabo para rendir cuentas sobre el dinero público, proporcionar información de referencia y establecer criterios de reputación, además de informar sobre la asignación selectiva de la financiación de la investigación.

Desde su introducción en su forma actual en 2014, el REF ha recibido muchas críticas. Por ejemplo, la introducción del elemento de impacto en el REF causó cierta preocupación entre los académicos, ya que pensaban que se verían obligados a producir una investigación más «impactante», en lugar de llevar a cabo su propia agenda de investigación.

La investigación ha revelado que el proceso de evaluación estaba sesgado a favor de las universidades de investigación intensiva: Las universidades del Grupo Russell, o las que contaban con miembros del comité que participaban en la evaluación, tendían a obtener puntuaciones inesperadamente más altas. Incluso los miembros del comité que evaluaron los elementos de investigación tuvieron problemas para hacerlo. En resumen, la evaluación de todos los elementos -productos de la investigación, entorno de la investigación, impacto de la investigación- puede haber adolecido de parcialidad o subjetividad.

Además, el REF es caro, ya que el coste de la realización del ejercicio del REF en 2014 se estimó en 246 millones de libras.

Dada la doble preocupación por la objetividad y el coste, en un trabajo reciente, se utilizaron herramientas estadísticas para evaluar la utilidad de la REF como una evaluación que considera multitud de dimensiones. Si todas las dimensiones están positiva y altamente correlacionadas, se puede obtener una asignación de fondos y unos resultados de rendimiento similares utilizando menos dimensiones, lo que sugiere que algunos de los elementos adicionales son redundantes.

Nuestras conclusiones son las siguientes: los tres elementos de la evaluación -entorno, impacto y resultados- están muy correlacionados y son positivos. Por lo tanto, la eliminación de un componente de la evaluación conduce a cambios relativamente pequeños en la asignación de fondos y en las clasificaciones. En consecuencia, sostenemos que el REF podría simplificarse eliminando un elemento, lo que reduciría el coste de llevar a cabo el ejercicio del REF y daría lugar a asignaciones de fondos y clasificaciones más o menos similares.

Esto pone de manifiesto que el importe total de la financiación de la investigación relacionada con la calidad (QR) reasignada entre las distintas IES sería de sólo el 1,46%, 1,05% y 4,41%, respectivamente, del importe distribuido, cuando se elimina de la evaluación el elemento de entorno, impacto y producción. Evidentemente, estos porcentajes de reasignación son pequeños, por lo que un REF simplificado tendría poco efecto en la distribución de la financiación de la RQ, pero podría reducir el coste de la realización del ejercicio del REF y el estrés del personal académico y de los servicios profesionales.

Sobre la base de las conclusiones, es necesario responder a dos preguntas para el próximo ejercicio sobre REF: 1) Si los organismos de financiación tuvieran que excluir un elemento, ¿cuál de los tres elementos debería eliminarse? 2) Si los organismos de financiación tienen previsto incluir nuevos elementos en la evaluación, ¿qué tipo de criterios de evaluación podrían incluirse?

Para esta última pregunta, este documento ofrece algunas pistas. Basándose en análisis propios, se puede afirmar que si los futuros marcos incluyen nuevos elementos, estos nuevos elementos no deberían estar muy correlacionados con los otros elementos existentes, ya que de lo contrario su inclusión en la evaluación supondría un aumento de los costes de la misma, pero produciría una asignación de fondos y una clasificación más o menos similares.

Por otra parte, este documento no ofrece una respuesta específica a la primera pregunta. Sin embargo, se pueden articular las posibles consecuencias de la eliminación de diferentes elementos.

En otro trabajo reciente de Pinar y Unlu, se constata que la inclusión del elemento de impacto en la REF en 2014 y su mayor importancia en la REF2021, es probable que aumente la brecha de financiación relacionada con la calidad (algo más de 1.000 millones de libras esterlinas de financiación principal de RQ se distribuyen cada año sobre la base de los resultados de REF) entre las IES y en la mayoría de las áreas temáticas. Por tanto, si se excluye el elemento de impacto de la REF, es probable que se produzca una asignación de fondos relativamente más equitativa entre las IES. Ello se debe a que existe una gran diferencia entre las universidades que hacen un uso intensivo de la investigación y las demás en cuanto a los resultados del elemento de impacto.

Por otra parte, la diferencia de rendimiento entre las IES es relativamente menor en función de los resultados de la investigación y la eliminación de los resultados de la investigación probablemente aumentaría la diferencia entre las IES.

Al considerar el entorno de la investigación, varios trabajos indican que las medidas cuantitativas, por ejemplo, los ingresos de la investigación o la realización de doctorados, explican gran parte de la variación de las puntuaciones entre las presentaciones; y otros indican que la evaluación de las declaraciones narrativas del entorno de la investigación puede reflejar en gran medida la calidad de la redacción, más que los propios entornos de investigación subyacentes. Por lo tanto, podría considerarse un elemento de entorno simplificado, que incluya sólo métricas.

En general, como ocurre con cualquier decisión de inversión pública, la decisión se reduce a un compromiso de equidad y eficiencia. La teoría de la eficiencia sostiene que la financiación debería asignarse más a los productores más eficientes (es decir, los institutos con mejores resultados). Por otro lado, el argumento de la equidad sugiere que la financiación debería distribuirse de forma más justa entre los institutos.

Según la fórmula de financiación utilizada por los organismos de financiación, éstos favorecen claramente la eficiencia, ya que la financiación asignada a la investigación líder en el mundo es cuatro veces superior a la distribuida a la investigación excelente a nivel internacional, y no se proporciona ninguna financiación a la investigación reconocida internacionalmente. Sin embargo, también existen argumentos relevantes para asignar más fondos a las llamadas IES de bajo rendimiento: Hay que proteger a las IES que se esfuerzan por convertirse en una universidad más orientada a la investigación. Esto está estrechamente relacionado con la idea de proteger las industrias nacientes.

Los cuatro organismos de financiación de la investigación del Reino Unido (Research England, el Higher Education Funding Council for Wales, el Scottish Funding Council y el Department for the Economy of Northern Ireland) encargaron a RAND Europe una revisión en tiempo real del REF2021 y ofrecen la oportunidad de que las partes interesadas den su opinión sobre el próximo REF. Basándonos en estas conclusiones, sostenemos que la cuestión básica de la exclusión o inclusión de los criterios de evaluación debería volver a plantearse cuidadosamente como parte de esta revisión. Aunque los elementos REF han llegado a considerarse inherentes al proceso, quizás estaríamos mejor sin todos ellos.

Repensando la evaluación de la investigación Una rúbrica para analizar las condiciones y los indicadores de progreso institucional a fin de lograr buenos resultados

Hatch, A., & Schmidt, R. SPACE: La mejora de la evaluación académica. Una rúbrica para analizar las condiciones y los indicadores de progreso institucional a fin de lograr buenos resultados, DORA, 2022. Trad.: Universitat Oberta de Catalunya. 2022.

Texto completo

SPACE_DORA_ES_rubrica.pdf

SPACE_DORA_ES_plantilla.pdf

SPACE_DORA_ES_instrucciones.pdf

Rúbrica e información de soporte para analizar las condiciones institucionales y los indicadores de progreso para la reforma de la evaluación académica. La evaluación de la investigación y del personal investigador supone un reto: las instituciones que priorizan el desarrollo de infraestructuras institucionales pueden estar mejor preparadas que las que se centran solo en soluciones individuales.

Este documento forma parte de la guía práctica de recursos de la DORA para asistir a las instituciones académicas que estén en el proceso de mejora de sus políticas y sus prácticas. Pueden encontrar otros recursos en esa guía práctica.

Mejorar la evaluación de la investigación y la actividad académica exige la habilidad de analizar los resultados de acciones e intervenciones. Sin embargo, cuando solo se analizan las intervenciones individuales, dichas evaluaciones y observaciones no aprovechan la oportunidad de comprender cómo las propias condiciones institucionales condicionan el éxito de nuevas acciones o cómo el desarrollo del potencial institucional puede mejorar la efectividad y el impacto de estas nuevas prácticas a una escala mayor. La rúbrica SPACE se desarrolló para ayudar a las instituciones que se encuentran en cualquier fase de reforma de su evaluación académica a analizar su habilidad institucional de respaldar dichas intervenciones y asegurarse unos resultados satisfactorios.

Las organizaciones pueden usar la rúbrica SPACE como herramienta para la implementación de prácticas de evaluación de trayectorias académicas justas y responsables, de dos maneras. En primer lugar, puede servir para establecer como punto de partida el estado actual de las condiciones de la infraestructura, para así evaluar la capacidad de la institución para contribuir al desarrollo y la implementación de nuevas actividades y prácticas de evaluación académica. En segundo lugar, sirve para analizar con carácter retroactivo cómo las brechas y las fortalezas de dichas condiciones institucionales pueden haber tenido cierto impacto en los resultados de intervenciones concretas dirigidas a una tipología específica de actividades académicas de evaluación (como son la contratación, la promoción, la consolidación o incluso la evaluación de los estudiantes de doctorado), ya sea contribuyendo o dificultando el avance hacia esos objetivos.

La rúbrica SPACE es el resultado de la colaboración de la DORA con Ruth Schmidt, profesora del Institute of Design (Institute of Technology de Illinois), que dirigió el proceso iterativo del diseño de participación. La creación de la rúbrica se basó en la experiencia de 75 personas en 26 países de 6 continentes y se ha mejorado tras varias rondas de retroalimentación.

A medida que las instituciones adoptan progresivamente los nuevos principios y prácticas de evaluación, pueden tener dificultades para ahondar y expandir su potencial individual y desarrollar niveles más altos de integración en el sistema.

Sin embargo, debido a que de forma natural las instituciones se encuentran en distintos estadios de preparación y evolución, no hay una solución igual para todas, y los indicadores de progreso pueden no parecer los mismos.