Archivo de la etiqueta: Evaluación

Marcos de calidad y autoevaluación para repositorios institucionales: resultados de la encuesta a repositorios DSpace españoles

Bernal, Isabel, Amparo Cózar, Laura Frías, Eva María Navarro, María Suárez, y Ignacio Gárate. «Marcos de calidad y autoevaluación para repositorios institucionales: resultados de la encuesta a repositorios DSpace españoles». Thesis. REBIUN, mayo de 2023.

Texto completo

El acceso abierto, cuya definición es recogida en la Iniciativa de Budapest para el acceso abierto de 2002 y en la Declaración de Berlín sobre el Acceso Abierto de 2003, persigue proporcionar acceso libre y gratuito a la información científica, para que resultados y datos de investigaciones financiadas con fondos públicos estén disponibles para todos y tengan licencias que permitan su reutilización. En Europa la política sobre acceso abierto ha ido expandiendo sus ambiciones a lo largo del tiempo. Desde el Programa Marco H2020 la Comisión Europea incluyó en su política la gestión de datos de investigación, y un ulterior espaldarazo a la ciencia abierta ha tenido lugar en el Programa Horizonte Europa (en vigor desde 2021), en que se amplían obligaciones, especificaciones técnicas y recomendaciones para los proyectos beneficiarios.

En España, el artículo 37 de la Ley 14/2011, de 1 de junio, de la Ley de la Ciencia, la Tecnología y la Innovación, modificada por la Ley 17/2022, establece la obligación para los beneficiarios de proyectos de investigación financiados por el Plan Estatal de Investigación Científica y Técnica y de Innovación de depositar en repositorios de acceso abierto una copia digital de la versión final de las contribuciones aceptadas en publicaciones periódicas o seriadas, así como los conjuntos de datos asociados, habiendo además gobiernos autonómicos que han desarrollado sus propias regulaciones. En este sentido, los repositorios institucionales, al igual que el resto de repositorios, son necesarios para ejecutar los mandatos de acceso abierto e implementar las políticas de ciencia abierta. Se trata de infraestructuras ubicadas en las universidades, organismos y centros de investigación que recopilan, gestionan, difunden y preservan la producción científica digital mediante una colección organizada, de acceso abierto e interoperable.

Puesto que el objetivo es su interoperabilidad a través de la utilización de protocolos como el OAI-PMH y la unificación de criterios de calidad para conseguir el aprovechamiento de la información, la Guía para la evaluación de repositorios institucionales de investigación (dirigida a la colección de investigación del repositorio), elaborada por un grupo de trabajo en el marco de la colaboración FECYT-REBIUN, se presenta como una herramienta de autoevaluación para mejorar la calidad de los repositorios, asegurando su papel de infraestructuras tecnológicas en el proceso de implementación de las políticas de acceso abierto y ciencia abierta.

En su elaboración se han tenido en cuenta otras iniciativas que han establecido criterios de calidad comunes a la comunidad internacional de repositorios de acceso abierto, como las Recomendaciones de COAR, que pretenden ayudar a los repositorios a evaluar y mejorar sus procesos con buenas prácticas aplicables y asumibles, proporcionando un marco global y multidimensional para las buenas prácticas en los repositorios. Los repositorios institucionales de investigación de instituciones pertenecientes a REBIUN cuentan con la Guía editada por REBIUN/FECYT para su evaluación, habiendo seleccionado para ello un total de 25 criterios. La evaluación puede ser solicitada una vez al año por cualquier repositorio que almacene documentos textuales que recojan resultados de investigación.

Ponencia: ¿Cómo publicar un artículo científico y cómo hacerlo con impacto?

Ponencia: ¿Cómo publicar un artículo científico y cómo hacerlo con impacto? por Julio Alonso Arévalo

Universidad Dr. José Matías Delgado San Salvador (El Salvador) 23/05/2023

VIDEO

Quienes llevamos publicando durante años, a veces no somos conscientes de la importancia que tienen algunos conceptos básicos en torno a la publicación científica. Este video-tutorial tiene como finalidad servir de ayuda a aquellas personas e investigadores noveles que se enfrentan a como publicar.

Construir una comunidad de evaluación en bibliotecas universitarias: Marco de Impacto de las Bibliotecas de Investigación (RLIF)

Baughman, Sue, Ava Brillat, Gordon Daines, Greg Davis, Stephanie JH McReynolds, and Margaret Roller. Building a Community of Assessment: Final Report of the Research Library Impact Framework Pilot Initiative. With an executive summary by Kevin Borden. Washington, DC: Association of Research Libraries, March 10, 2023. 

Ver informe

La iniciativa piloto Research Library Impact Framework (RLIF) de la Association of Research Libraries (ARL), establecida en 2019, ha publicado su informe final, Building a Community of Assessment. El informe detalla los proyectos de investigación, los hallazgos y las lecciones aprendidas realizadas en la fase piloto de este marco. También incluye información sobre el propio marco como medio para explorar y aprender sobre los impactos de las bibliotecas de investigación. Por último, el informe identifica los próximos pasos y las consideraciones potenciales para cualquier implementación futura.

El RLIF proporciona una estructura para examinar los servicios bibliotecarios, las operaciones, el impacto y la alineación con la misión y los objetivos institucionales en cuatro áreas críticas: Investigación y ciclo de vida académico; Enseñanza, aprendizaje y éxito de los estudiantes; Colecciones; y Espacio físico. El marco completo incluye 185 preguntas de investigación potenciales en estas áreas críticas. Sin embargo, el marco también pretende ser flexible y modular, permitiendo modificaciones y ajustes basados en cuestiones destacadas a las que se enfrentan las bibliotecas de investigación. De este modo, el marco sirve como herramienta para organizar y priorizar los esfuerzos de investigación.

La iniciativa Research Library Impact Framework (LG-18-19-0092) ha sido posible en parte gracias al Institute of Museum and Library Services (IMLS). Las opiniones, resultados, conclusiones o recomendaciones expresadas en este proyecto no representan necesariamente las del IMLS.

Informe final de la iniciativa piloto sobre el marco de impacto de las bibliotecas universitarias y de investigación

Building a Community of Assessment: Final Report of the Research Library Impact Framework Pilot Initiative. Association of Research Libraries (ARL), 2023

Texto completo

La iniciativa piloto Research Library Impact Framework (RLIF) de la Association of Research Libraries (ARL), establecida en 2019, ha publicado su informe final, Building a Community of Assessment. El informe detalla los proyectos de investigación, los hallazgos y las lecciones aprendidas realizadas en la fase piloto de este marco. También incluye información sobre el propio marco como medio para explorar y aprender sobre los impactos de las bibliotecas de investigación. Por último, el informe identifica los próximos pasos y las consideraciones potenciales para cualquier implementación futura.

El RLIF proporciona una estructura para examinar los servicios bibliotecarios, las operaciones, el impacto y la alineación con la misión y los objetivos institucionales en cuatro áreas críticas: Investigación y ciclo de vida académico; Enseñanza, aprendizaje y éxito de los estudiantes; Colecciones; y Espacio físico. El marco completo incluye 185 preguntas de investigación potenciales en estas áreas críticas. Sin embargo, el marco también pretende ser flexible y modular, permitiendo modificaciones y ajustes basados en cuestiones destacadas a las que se enfrentan las bibliotecas de investigación. De este modo, el marco sirve como herramienta para organizar y priorizar los esfuerzos de investigación.

La iniciativa RLIF estableció cuatro objetivos para guiar su estrategia y aplicación

  • Objetivo 1: Crear y fomentar una cultura de evaluación mediante la participación en proyectos de investigación formales y metodológicamente sólidos.
  • Objetivo 2: Aumentar y mejorar los procesos de identificación de puntos de datos para la recopilación y distribución de información que corrobore el impacto de la biblioteca a los responsables institucionales y dentro del ecosistema de investigación y aprendizaje.
  • Objetivo 3: Ampliar las capacidades para colaborar y comparar datos y métodos con otros colegas sobre temas de gran relevancia para las bibliotecas individuales y poner en común la experiencia y los recursos de investigación en beneficio colectivo.
  • Objetivo 4: Mejorar el impacto de los servicios y programas para los usuarios

Futuros cambios en Journal Citation Reports para 2024

Editor-in-Chief, Nandita Quaderi, Vice President Editorial, y Web of Science Clarivate. «Mapping the Path to Future Changes in the Journal Citation Reports». Clarivate (blog), 7 de marzo de 2023. https://clarivate.com/blog/mapping-the-path-to-future-changes-in-the-journal-citation-reports/.

En julio de 2022, se cumplieron los planes para ampliar el Journal Impact Factor (JIF)™ a todas las revistas de la Web of Science Core Collection™ a partir de junio de 2023. Esto significa que este año, las revistas del Arts and Humanities Citation Index (AHCI)™ y del multidisciplinar Emerging Sources Citation Index (ESCI)™ en el Journal Citation Reports (JCR)™ recibirán un JIF por primera vez.

Recordamos que esta novedad obedece a dos motivos: Dar a todas las revistas de calidad un JIF proporcionará total transparencia a todos y cada uno de los artículos y citas que han contribuido al impacto académico de una revista, ayudando a demostrar su valor para la comunidad investigadora. También contribuirá a nivelar el terreno de juego para todas las revistas de calidad, incluidas las de acceso abierto, las de reciente creación o las especializadas, o las de ámbito regional y las del Sur Global.

Como resultado de este desarrollo, otras 9.000 revistas del JCR recibirán un JIF y se beneficiarán por primera vez de una página de perfil de revista mejorada. Además, se muestra el JIF con un decimal, en lugar de los tres decimales actuales, para animar a los usuarios a tener en cuenta otros indicadores y datos descriptivos del JCR a la hora de comparar revistas.

Clasificaciones por categorías en la versión 2023 del JCR

Este año se sugiere proporcionar clasificaciones por categorías y asignando cuartiles JIF solo para las revistas indexadas en el Science Citation Index Expanded (SCIE)™ y el Social Sciences Citation Index (SSCI)™.

También proporcionar clasificaciones separadas para las nueve categorías temáticas que están indexadas en múltiples ediciones. Por ejemplo, la Psiquiatría está incluida tanto en el SCIE como en el SSCI; este año, las revistas de Psiquiatría del SCIE seguirán clasificándose por separado de las revistas de Psiquiatría del SSCI.

El hecho de que el JIF se muestre con un decimal hará que las clasificaciones estén más igualadas. Esto afectará a la distribución de los cuartiles del JIF, ya que los cuartiles se calculan en función del número de posiciones en el ranking de una categoría determinada, y no simplemente del número de revistas de una categoría dividida equitativamente en cuatro (Figura 1).

Fig. 1

La distribución por cuartiles ha dado lugar normalmente a que aproximadamente el 25% de las revistas estén contenidas en cada cuartil, ya que los empates han sido poco frecuentes. Sin embargo, al aumentar el número de empates, la distribución cambia. Las revistas empatadas en el mismo rango no pueden dividirse entre dos cuartiles y con el aumento del número de empates veremos que algunos cuartiles contendrán un número mayor o menor de revistas que en años anteriores.

La fórmula para calcular los cuartiles puede encontrarse aquí

¿Cómo serán las clasificaciones por categorías en 2024?

En la versión del JCR del próximo año, se añadirán las revistas AHCI y ESCI a las clasificaciones por categorías del JCR y se asignarán a cuartiles JIF. Ya no habrá rankings de categorías específicos para cada edición y, en su lugar, se creará un único ranking para cada una de nuestras 254 categorías que incluirá revistas de las cuatro ediciones (SCIE, SSCI, AHCI y ESCI). Una vez más, tomando Psiquiatría como ejemplo, se mostrará un único ranking de Psiquiatría que incluye revistas indexadas en SCIE, SSCI y ESCI.

En el caso de AHCI, se introducirá por primera vez clasificaciones para las 25 categorías únicas específicas de artes y humanidades. No habrá categorías específicas de ESCI; todas las revistas indexadas en ESCI entran dentro de las 254 categorías temáticas existentes en SCIE, SSCI y AHCI.

La inclusión de 9.000 revistas adicionales de AHCI y ESCI en las clasificaciones por categorías del JIF también afectará a las clasificaciones generales y a la distribución por cuartiles el próximo año.

¿Por qué se está adoptando un enfoque gradual?

Se está ampliando el JIF a AHCI y ESCI y pasando a una visualización de un punto decimal del JIF este año y, a continuación, se incluirán las revistas AHCI y ESCI en las clasificaciones por categorías el próximo año, con el fin de proporcionar transparencia sobre cómo cada uno de estos cambios afecta por separado a las clasificaciones y cuartiles del JIF.

Esta es la primera de una serie de actualizaciones y análisis sobre cómo la ampliación del JIF a más revistas de calidad se traducirá en cambios en las clasificaciones y cuartiles en JCR y explicará cómo los usuarios pueden utilizar los filtros de JCR para ver clasificaciones que sólo incluyan revistas de ediciones de interés. Marque esta página y permanezca atento a nuevas actualizaciones.

¿Cuáles de los metadatos relevantes para bibliometría son iguales y cuáles diferentes al pasar de Microsoft Academic Graph a OpenAlex?

Scheidsteger, Thomas, y Robin Haunschild. «Which of the metadata with relevance for bibliometrics are the same and which are different when switching from Microsoft Academic Graph to OpenAlex?» Profesional de La Información 32, n.o 2 (4 de marzo de 2023). https://doi.org/10.3145/epi.2023.mar.09.

PDF Español

PDF Inglés

Con el anuncio de la retirada de Microsoft Academic Graph (MAG), la organización sin ánimo de lucro OurResearch anunció que proporcionaría un recurso similar bajo el nombre de OpenAlex. Así pues, se compararon los metadatos relevantes para los análisis bibliométricos de la última instantánea de MAG con una de las primeras de OpenAlex. Prácticamente todas las obras de MAG se transfirieron a OpenAlex conservando sus datos bibliográficos año de publicación, volumen, primera y última página, DOI, así como el número de referencias que son ingredientes importantes del análisis de citas. Más del 90% de los documentos MAG tienen tipos de documento equivalentes en OpenAlex. De los restantes, especialmente las reclasificaciones a los tipos documentales journal-article y book-chapter de OpenAlex parecen ser correctas y ascienden a más del 7%, por lo que las especificaciones de los tipos documentales han mejorado significativamente de MAG a OpenAlex. Como otro elemento de metadatos de relevancia bibliométrica, examinamos la clasificación temática de los documentos en MAG y en OpenAlex. Encontramos un número significativamente mayor de documentos con una asignación de clasificación temática en OpenAlex que en MAG. En el primer y segundo nivel, la estructura de clasificación es casi idéntica. Presentamos datos sobre las reclasificaciones de materias en ambos niveles en forma de tabla y gráfico. La evaluación de las consecuencias de las abundantes reclasificaciones de materias en las evaluaciones bibliométricas normalizadas por campos no entra dentro del ámbito del presente artículo. Aparte de esta cuestión abierta, OpenAlex parece ser en general al menos tan adecuado para los análisis bibliométricos como MAG para los años de publicación anteriores a 2021 o quizás incluso mejor debido a la cobertura más amplia de las asignaciones de tipos de documentos.

El 85% del profesorado de Georgia State University Library dice sentirse satisfecho con su biblioteca y el servicio que proporcional los bibliotecarios

«Report on the Library’s Survey of Faculty – University Library News». Georgia State University, 2023. Accedido 24 de febrero de 2023.

2022 GSU Library Faculty Survey

Texto completo

En general, los miembros del profesorado que respondieron a esta encuesta están muy satisfechos con los servicios de la biblioteca. El problema más común que tienen con la biblioteca es la financiación adecuada de las suscripciones y el acceso a bases de datos, revistas o películas.

En el semestre de otoño de 2022, la Biblioteca Universitaria realizó una encuesta entre los miembros del profesorado de la Georgia State University. El propósito de la encuesta era comprender mejor las necesidades del profesorado a medida que la biblioteca comienza un proceso de planificación estratégica. El sentimiento general, recogido en este informe resumido, fue positivo. En la pregunta sobre el nivel de satisfacción general con la Biblioteca Universitaria, la respuesta media, en una escala de 4 puntos, fue de 3,40 para el uso en persona y de 3,25 para el uso en línea. Las respuestas del profesorado a las preguntas detalladas sobre servicios y recursos servirán de orientación a la biblioteca a la hora de priorizar el uso de sus recursos.

La encuesta incluía varias preguntas abiertas. La biblioteca está profundizando en este rico conjunto de datos y planificando una serie de entradas para responder a los temas clave de esta información.

Nos sentimos humildes y complacidos por los muchos comentarios positivos que recibimos en respuesta a la pregunta final: «¿Tiene algún comentario adicional sobre la Biblioteca GSU?». He aquí algunos de mis ejemplos favoritos:

Reputación y Rankings Universitarios: análisis de sus debilidades y aplicaciones

Faraoni, Nina. Reputación y Rankings Universitarios: Análisis de Sus Debilidades y Aplicaciones. Universidad de Granada, 2022.

Texto completo

A continuación, se presentan los objetivos generales de los trabajos incluidos: • El primer capítulo consta de una revisión de literatura para abordar la temática objeto de esta tesis doctoral, la reputación universitaria. Se hace una revisión tanto de la reputación organizacional como universitaria, se analiza la relación o el parecido con otros conceptos como imagen, marca, satisfacción, calidad o comportamiento de rebaño, también se hace una revisión de las relaciones, antecedentes y consecuencias, de la reputación universitaria desde diferentes perspectivas, así como se analizan las implicaciones para la gestión de diferentes aspectos relacionados con las universidades. Además, se identifican las interconexiones existentes entre el desempeño académico y los rankings universitarios. Estos instrumentos, aunque presenten algunas desventajas, se pueden utilizar como herramienta de medición y de comparación entre universidades, manteniendo el rigor científico si se utilizan sabiendo cómo miden y qué es lo que están midiendo. • En el segundo capítulo, se lleva a cabo un análisis bibliométrico que sirve de precursor para los trabajos empíricos que vienen a continuación. El objetivo es conocer el estado actual de la cuestión, descubrir la evolución de la temática en los años y conocer los temas emergentes o los que, con el paso de los años, han ido perdiendo de interés.

Transformar la excelencia investigadora

Kraemer-Mbula, E., Tijssen, R., Wallace, M. L., & McClean, R. (Eds.). Transforming Research Excellence: New Ideas from the Global South. African Minds, 2019

Texto completo

La ciencia moderna está sometida a una gran presión. Una potente mezcla de expectativas crecientes, recursos limitados, tensiones entre competencia y cooperación y la necesidad de una financiación basada en pruebas está provocando cambios importantes en la forma de hacer y percibir la ciencia. En medio de esta «tormenta perfecta» se encuentra el atractivo de la «excelencia investigadora», un concepto que impulsa las decisiones de universidades y financiadores y define las estrategias de investigación y las trayectorias profesionales de los científicos. Pero, ¿qué es la ciencia «excelente»? ¿Y cómo reconocerla? Tras décadas de investigación y debate, aún no hay una respuesta satisfactoria. ¿Nos estamos equivocando de pregunta? ¿Es la realidad más compleja y la «excelencia científica» más difícil de alcanzar de lo que muchos están dispuestos a admitir? ¿Y cómo debe definirse la excelencia en las distintas partes del mundo, especialmente en los países de renta más baja del «Sur Global», donde se espera que la ciencia contribuya a acuciantes problemas de desarrollo, a pesar de contar a menudo con escasos recursos? Muchos se preguntan si el Sur Global está importando, con o sin consentimiento, las defectuosas herramientas de evaluación de la investigación de Norteamérica y Europa, que no son adecuadas para su propósito. Este libro adopta una visión crítica de estas cuestiones, abordando temas conceptuales y problemas prácticos que surgen inevitablemente cuando la «excelencia» está en el centro de los sistemas científicos.

Clarivate añade un índice de citas de preprints a Web of Science

Preprint Citation Index

Clarivate ha añadido «Preprint Citation Index»a la plataforma Web of Science, se trata una colección multidisciplinar de preprints procedentes de una amplia gama de los principales repositorios de preprints. La finalidad de este cambio es que los investigadores puedan localizar y enlazar a preprints junto a otros contenidos de confianza en la base de datos, para agilizar el proceso de investigación y ayudar a establecer conexiones significativas más rápidamente.

En la publicación académica, un preprint es una versión de un trabajo de investigación o resultado disponible públicamente en repositorios en línea antes de la revisión por pares. El acceso a los preprints en la Web of Science agiliza y facilita a los investigadores su inclusión en los flujos de trabajo de investigación existentes. Permite el acceso inmediato a preprints actualizados, agregados y con capacidad de búsqueda desde repositorios seleccionados vinculados a los perfiles de los autores.

En el momento de su lanzamiento, Preprint Citation Index ofrece casi dos millones de preprints de los repositorios arXiv, bioRxiv, chemRxiv, medRxiv y Preprints.org. A lo largo de 2023 se añadirán documentos de más de una docena de repositorios adicionales. Los registros de preprints se pueden encontrar junto con otros resultados académicos en Web of Science y están conectados a las versiones finales de los registros, si procede. Aparecen claramente marcados en los resultados de búsqueda y no se incluyen en ninguna métrica de citas, como Times Cited Counts o Journal Impact Factor™ (JIF) dentro de Web of Science Core Collection™ o Journal Citation Reports™.

El Preprint Citation Index permite a los usuarios:

  • Localizar versiones de registro (cuando proceda) de preprints: Encontrar y referenciar artículos revisados por pares con enlaces desde los preprints en Web of Science Core Collection.
  • Conectar preprints con artículos de revistas: Descubrir conexiones entre preprints de vanguardia indexados en el Preprint Citation Index y artículos de revistas indexados en Web of Science Core Collection mediante enlaces de citas.
  • Amplíar la visión de la experiencia de un investigador: Sitúa los preprints en el contexto de la carrera de un investigador con los preprints mostrados en el perfil de investigador de Web of Science de un autor.
  • Supervisar las nuevas investigaciones en varios repositorios: Un autor puede establecer una alerta por palabras clave o por un investigador de su interés para recibir una notificación cuando estén disponibles preprints relevantes.

Cada registro del producto contiene metadatos bibliográficos estándar como autor, resumen, palabras clave, términos descriptores, etc. Los metadatos mejorados incluyen las direcciones completas de los autores, la financiación de las subvenciones y las referencias citadas. No se incluyen metadatos completos de versiones.

FUENTE: Clarivate. «Clarivate Adds Preprint Citation Index to the Web of Science», 9 de febrero de 2023. https://clarivate.com/news/clarivate-adds-preprint-citation-index-to-the-web-of-science/.