Archivo de la etiqueta: Evaluación

Construir una comunidad de evaluación en bibliotecas universitarias: Marco de Impacto de las Bibliotecas de Investigación (RLIF)

Baughman, Sue, Ava Brillat, Gordon Daines, Greg Davis, Stephanie JH McReynolds, and Margaret Roller. Building a Community of Assessment: Final Report of the Research Library Impact Framework Pilot Initiative. With an executive summary by Kevin Borden. Washington, DC: Association of Research Libraries, March 10, 2023. 

Ver informe

La iniciativa piloto Research Library Impact Framework (RLIF) de la Association of Research Libraries (ARL), establecida en 2019, ha publicado su informe final, Building a Community of Assessment. El informe detalla los proyectos de investigación, los hallazgos y las lecciones aprendidas realizadas en la fase piloto de este marco. También incluye información sobre el propio marco como medio para explorar y aprender sobre los impactos de las bibliotecas de investigación. Por último, el informe identifica los próximos pasos y las consideraciones potenciales para cualquier implementación futura.

El RLIF proporciona una estructura para examinar los servicios bibliotecarios, las operaciones, el impacto y la alineación con la misión y los objetivos institucionales en cuatro áreas críticas: Investigación y ciclo de vida académico; Enseñanza, aprendizaje y éxito de los estudiantes; Colecciones; y Espacio físico. El marco completo incluye 185 preguntas de investigación potenciales en estas áreas críticas. Sin embargo, el marco también pretende ser flexible y modular, permitiendo modificaciones y ajustes basados en cuestiones destacadas a las que se enfrentan las bibliotecas de investigación. De este modo, el marco sirve como herramienta para organizar y priorizar los esfuerzos de investigación.

La iniciativa Research Library Impact Framework (LG-18-19-0092) ha sido posible en parte gracias al Institute of Museum and Library Services (IMLS). Las opiniones, resultados, conclusiones o recomendaciones expresadas en este proyecto no representan necesariamente las del IMLS.

Informe final de la iniciativa piloto sobre el marco de impacto de las bibliotecas universitarias y de investigación

Building a Community of Assessment: Final Report of the Research Library Impact Framework Pilot Initiative. Association of Research Libraries (ARL), 2023

Texto completo

La iniciativa piloto Research Library Impact Framework (RLIF) de la Association of Research Libraries (ARL), establecida en 2019, ha publicado su informe final, Building a Community of Assessment. El informe detalla los proyectos de investigación, los hallazgos y las lecciones aprendidas realizadas en la fase piloto de este marco. También incluye información sobre el propio marco como medio para explorar y aprender sobre los impactos de las bibliotecas de investigación. Por último, el informe identifica los próximos pasos y las consideraciones potenciales para cualquier implementación futura.

El RLIF proporciona una estructura para examinar los servicios bibliotecarios, las operaciones, el impacto y la alineación con la misión y los objetivos institucionales en cuatro áreas críticas: Investigación y ciclo de vida académico; Enseñanza, aprendizaje y éxito de los estudiantes; Colecciones; y Espacio físico. El marco completo incluye 185 preguntas de investigación potenciales en estas áreas críticas. Sin embargo, el marco también pretende ser flexible y modular, permitiendo modificaciones y ajustes basados en cuestiones destacadas a las que se enfrentan las bibliotecas de investigación. De este modo, el marco sirve como herramienta para organizar y priorizar los esfuerzos de investigación.

La iniciativa RLIF estableció cuatro objetivos para guiar su estrategia y aplicación

  • Objetivo 1: Crear y fomentar una cultura de evaluación mediante la participación en proyectos de investigación formales y metodológicamente sólidos.
  • Objetivo 2: Aumentar y mejorar los procesos de identificación de puntos de datos para la recopilación y distribución de información que corrobore el impacto de la biblioteca a los responsables institucionales y dentro del ecosistema de investigación y aprendizaje.
  • Objetivo 3: Ampliar las capacidades para colaborar y comparar datos y métodos con otros colegas sobre temas de gran relevancia para las bibliotecas individuales y poner en común la experiencia y los recursos de investigación en beneficio colectivo.
  • Objetivo 4: Mejorar el impacto de los servicios y programas para los usuarios

Futuros cambios en Journal Citation Reports para 2024

Editor-in-Chief, Nandita Quaderi, Vice President Editorial, y Web of Science Clarivate. «Mapping the Path to Future Changes in the Journal Citation Reports». Clarivate (blog), 7 de marzo de 2023. https://clarivate.com/blog/mapping-the-path-to-future-changes-in-the-journal-citation-reports/.

En julio de 2022, se cumplieron los planes para ampliar el Journal Impact Factor (JIF)™ a todas las revistas de la Web of Science Core Collection™ a partir de junio de 2023. Esto significa que este año, las revistas del Arts and Humanities Citation Index (AHCI)™ y del multidisciplinar Emerging Sources Citation Index (ESCI)™ en el Journal Citation Reports (JCR)™ recibirán un JIF por primera vez.

Recordamos que esta novedad obedece a dos motivos: Dar a todas las revistas de calidad un JIF proporcionará total transparencia a todos y cada uno de los artículos y citas que han contribuido al impacto académico de una revista, ayudando a demostrar su valor para la comunidad investigadora. También contribuirá a nivelar el terreno de juego para todas las revistas de calidad, incluidas las de acceso abierto, las de reciente creación o las especializadas, o las de ámbito regional y las del Sur Global.

Como resultado de este desarrollo, otras 9.000 revistas del JCR recibirán un JIF y se beneficiarán por primera vez de una página de perfil de revista mejorada. Además, se muestra el JIF con un decimal, en lugar de los tres decimales actuales, para animar a los usuarios a tener en cuenta otros indicadores y datos descriptivos del JCR a la hora de comparar revistas.

Clasificaciones por categorías en la versión 2023 del JCR

Este año se sugiere proporcionar clasificaciones por categorías y asignando cuartiles JIF solo para las revistas indexadas en el Science Citation Index Expanded (SCIE)™ y el Social Sciences Citation Index (SSCI)™.

También proporcionar clasificaciones separadas para las nueve categorías temáticas que están indexadas en múltiples ediciones. Por ejemplo, la Psiquiatría está incluida tanto en el SCIE como en el SSCI; este año, las revistas de Psiquiatría del SCIE seguirán clasificándose por separado de las revistas de Psiquiatría del SSCI.

El hecho de que el JIF se muestre con un decimal hará que las clasificaciones estén más igualadas. Esto afectará a la distribución de los cuartiles del JIF, ya que los cuartiles se calculan en función del número de posiciones en el ranking de una categoría determinada, y no simplemente del número de revistas de una categoría dividida equitativamente en cuatro (Figura 1).

Fig. 1

La distribución por cuartiles ha dado lugar normalmente a que aproximadamente el 25% de las revistas estén contenidas en cada cuartil, ya que los empates han sido poco frecuentes. Sin embargo, al aumentar el número de empates, la distribución cambia. Las revistas empatadas en el mismo rango no pueden dividirse entre dos cuartiles y con el aumento del número de empates veremos que algunos cuartiles contendrán un número mayor o menor de revistas que en años anteriores.

La fórmula para calcular los cuartiles puede encontrarse aquí

¿Cómo serán las clasificaciones por categorías en 2024?

En la versión del JCR del próximo año, se añadirán las revistas AHCI y ESCI a las clasificaciones por categorías del JCR y se asignarán a cuartiles JIF. Ya no habrá rankings de categorías específicos para cada edición y, en su lugar, se creará un único ranking para cada una de nuestras 254 categorías que incluirá revistas de las cuatro ediciones (SCIE, SSCI, AHCI y ESCI). Una vez más, tomando Psiquiatría como ejemplo, se mostrará un único ranking de Psiquiatría que incluye revistas indexadas en SCIE, SSCI y ESCI.

En el caso de AHCI, se introducirá por primera vez clasificaciones para las 25 categorías únicas específicas de artes y humanidades. No habrá categorías específicas de ESCI; todas las revistas indexadas en ESCI entran dentro de las 254 categorías temáticas existentes en SCIE, SSCI y AHCI.

La inclusión de 9.000 revistas adicionales de AHCI y ESCI en las clasificaciones por categorías del JIF también afectará a las clasificaciones generales y a la distribución por cuartiles el próximo año.

¿Por qué se está adoptando un enfoque gradual?

Se está ampliando el JIF a AHCI y ESCI y pasando a una visualización de un punto decimal del JIF este año y, a continuación, se incluirán las revistas AHCI y ESCI en las clasificaciones por categorías el próximo año, con el fin de proporcionar transparencia sobre cómo cada uno de estos cambios afecta por separado a las clasificaciones y cuartiles del JIF.

Esta es la primera de una serie de actualizaciones y análisis sobre cómo la ampliación del JIF a más revistas de calidad se traducirá en cambios en las clasificaciones y cuartiles en JCR y explicará cómo los usuarios pueden utilizar los filtros de JCR para ver clasificaciones que sólo incluyan revistas de ediciones de interés. Marque esta página y permanezca atento a nuevas actualizaciones.

¿Cuáles de los metadatos relevantes para bibliometría son iguales y cuáles diferentes al pasar de Microsoft Academic Graph a OpenAlex?

Scheidsteger, Thomas, y Robin Haunschild. «Which of the metadata with relevance for bibliometrics are the same and which are different when switching from Microsoft Academic Graph to OpenAlex?» Profesional de La Información 32, n.o 2 (4 de marzo de 2023). https://doi.org/10.3145/epi.2023.mar.09.

PDF Español

PDF Inglés

Con el anuncio de la retirada de Microsoft Academic Graph (MAG), la organización sin ánimo de lucro OurResearch anunció que proporcionaría un recurso similar bajo el nombre de OpenAlex. Así pues, se compararon los metadatos relevantes para los análisis bibliométricos de la última instantánea de MAG con una de las primeras de OpenAlex. Prácticamente todas las obras de MAG se transfirieron a OpenAlex conservando sus datos bibliográficos año de publicación, volumen, primera y última página, DOI, así como el número de referencias que son ingredientes importantes del análisis de citas. Más del 90% de los documentos MAG tienen tipos de documento equivalentes en OpenAlex. De los restantes, especialmente las reclasificaciones a los tipos documentales journal-article y book-chapter de OpenAlex parecen ser correctas y ascienden a más del 7%, por lo que las especificaciones de los tipos documentales han mejorado significativamente de MAG a OpenAlex. Como otro elemento de metadatos de relevancia bibliométrica, examinamos la clasificación temática de los documentos en MAG y en OpenAlex. Encontramos un número significativamente mayor de documentos con una asignación de clasificación temática en OpenAlex que en MAG. En el primer y segundo nivel, la estructura de clasificación es casi idéntica. Presentamos datos sobre las reclasificaciones de materias en ambos niveles en forma de tabla y gráfico. La evaluación de las consecuencias de las abundantes reclasificaciones de materias en las evaluaciones bibliométricas normalizadas por campos no entra dentro del ámbito del presente artículo. Aparte de esta cuestión abierta, OpenAlex parece ser en general al menos tan adecuado para los análisis bibliométricos como MAG para los años de publicación anteriores a 2021 o quizás incluso mejor debido a la cobertura más amplia de las asignaciones de tipos de documentos.

El 85% del profesorado de Georgia State University Library dice sentirse satisfecho con su biblioteca y el servicio que proporcional los bibliotecarios

«Report on the Library’s Survey of Faculty – University Library News». Georgia State University, 2023. Accedido 24 de febrero de 2023.

2022 GSU Library Faculty Survey

Texto completo

En general, los miembros del profesorado que respondieron a esta encuesta están muy satisfechos con los servicios de la biblioteca. El problema más común que tienen con la biblioteca es la financiación adecuada de las suscripciones y el acceso a bases de datos, revistas o películas.

En el semestre de otoño de 2022, la Biblioteca Universitaria realizó una encuesta entre los miembros del profesorado de la Georgia State University. El propósito de la encuesta era comprender mejor las necesidades del profesorado a medida que la biblioteca comienza un proceso de planificación estratégica. El sentimiento general, recogido en este informe resumido, fue positivo. En la pregunta sobre el nivel de satisfacción general con la Biblioteca Universitaria, la respuesta media, en una escala de 4 puntos, fue de 3,40 para el uso en persona y de 3,25 para el uso en línea. Las respuestas del profesorado a las preguntas detalladas sobre servicios y recursos servirán de orientación a la biblioteca a la hora de priorizar el uso de sus recursos.

La encuesta incluía varias preguntas abiertas. La biblioteca está profundizando en este rico conjunto de datos y planificando una serie de entradas para responder a los temas clave de esta información.

Nos sentimos humildes y complacidos por los muchos comentarios positivos que recibimos en respuesta a la pregunta final: «¿Tiene algún comentario adicional sobre la Biblioteca GSU?». He aquí algunos de mis ejemplos favoritos:

Reputación y Rankings Universitarios: análisis de sus debilidades y aplicaciones

Faraoni, Nina. Reputación y Rankings Universitarios: Análisis de Sus Debilidades y Aplicaciones. Universidad de Granada, 2022.

Texto completo

A continuación, se presentan los objetivos generales de los trabajos incluidos: • El primer capítulo consta de una revisión de literatura para abordar la temática objeto de esta tesis doctoral, la reputación universitaria. Se hace una revisión tanto de la reputación organizacional como universitaria, se analiza la relación o el parecido con otros conceptos como imagen, marca, satisfacción, calidad o comportamiento de rebaño, también se hace una revisión de las relaciones, antecedentes y consecuencias, de la reputación universitaria desde diferentes perspectivas, así como se analizan las implicaciones para la gestión de diferentes aspectos relacionados con las universidades. Además, se identifican las interconexiones existentes entre el desempeño académico y los rankings universitarios. Estos instrumentos, aunque presenten algunas desventajas, se pueden utilizar como herramienta de medición y de comparación entre universidades, manteniendo el rigor científico si se utilizan sabiendo cómo miden y qué es lo que están midiendo. • En el segundo capítulo, se lleva a cabo un análisis bibliométrico que sirve de precursor para los trabajos empíricos que vienen a continuación. El objetivo es conocer el estado actual de la cuestión, descubrir la evolución de la temática en los años y conocer los temas emergentes o los que, con el paso de los años, han ido perdiendo de interés.

Transformar la excelencia investigadora

Kraemer-Mbula, E., Tijssen, R., Wallace, M. L., & McClean, R. (Eds.). Transforming Research Excellence: New Ideas from the Global South. African Minds, 2019

Texto completo

La ciencia moderna está sometida a una gran presión. Una potente mezcla de expectativas crecientes, recursos limitados, tensiones entre competencia y cooperación y la necesidad de una financiación basada en pruebas está provocando cambios importantes en la forma de hacer y percibir la ciencia. En medio de esta «tormenta perfecta» se encuentra el atractivo de la «excelencia investigadora», un concepto que impulsa las decisiones de universidades y financiadores y define las estrategias de investigación y las trayectorias profesionales de los científicos. Pero, ¿qué es la ciencia «excelente»? ¿Y cómo reconocerla? Tras décadas de investigación y debate, aún no hay una respuesta satisfactoria. ¿Nos estamos equivocando de pregunta? ¿Es la realidad más compleja y la «excelencia científica» más difícil de alcanzar de lo que muchos están dispuestos a admitir? ¿Y cómo debe definirse la excelencia en las distintas partes del mundo, especialmente en los países de renta más baja del «Sur Global», donde se espera que la ciencia contribuya a acuciantes problemas de desarrollo, a pesar de contar a menudo con escasos recursos? Muchos se preguntan si el Sur Global está importando, con o sin consentimiento, las defectuosas herramientas de evaluación de la investigación de Norteamérica y Europa, que no son adecuadas para su propósito. Este libro adopta una visión crítica de estas cuestiones, abordando temas conceptuales y problemas prácticos que surgen inevitablemente cuando la «excelencia» está en el centro de los sistemas científicos.

Clarivate añade un índice de citas de preprints a Web of Science

Preprint Citation Index

Clarivate ha añadido «Preprint Citation Index»a la plataforma Web of Science, se trata una colección multidisciplinar de preprints procedentes de una amplia gama de los principales repositorios de preprints. La finalidad de este cambio es que los investigadores puedan localizar y enlazar a preprints junto a otros contenidos de confianza en la base de datos, para agilizar el proceso de investigación y ayudar a establecer conexiones significativas más rápidamente.

En la publicación académica, un preprint es una versión de un trabajo de investigación o resultado disponible públicamente en repositorios en línea antes de la revisión por pares. El acceso a los preprints en la Web of Science agiliza y facilita a los investigadores su inclusión en los flujos de trabajo de investigación existentes. Permite el acceso inmediato a preprints actualizados, agregados y con capacidad de búsqueda desde repositorios seleccionados vinculados a los perfiles de los autores.

En el momento de su lanzamiento, Preprint Citation Index ofrece casi dos millones de preprints de los repositorios arXiv, bioRxiv, chemRxiv, medRxiv y Preprints.org. A lo largo de 2023 se añadirán documentos de más de una docena de repositorios adicionales. Los registros de preprints se pueden encontrar junto con otros resultados académicos en Web of Science y están conectados a las versiones finales de los registros, si procede. Aparecen claramente marcados en los resultados de búsqueda y no se incluyen en ninguna métrica de citas, como Times Cited Counts o Journal Impact Factor™ (JIF) dentro de Web of Science Core Collection™ o Journal Citation Reports™.

El Preprint Citation Index permite a los usuarios:

  • Localizar versiones de registro (cuando proceda) de preprints: Encontrar y referenciar artículos revisados por pares con enlaces desde los preprints en Web of Science Core Collection.
  • Conectar preprints con artículos de revistas: Descubrir conexiones entre preprints de vanguardia indexados en el Preprint Citation Index y artículos de revistas indexados en Web of Science Core Collection mediante enlaces de citas.
  • Amplíar la visión de la experiencia de un investigador: Sitúa los preprints en el contexto de la carrera de un investigador con los preprints mostrados en el perfil de investigador de Web of Science de un autor.
  • Supervisar las nuevas investigaciones en varios repositorios: Un autor puede establecer una alerta por palabras clave o por un investigador de su interés para recibir una notificación cuando estén disponibles preprints relevantes.

Cada registro del producto contiene metadatos bibliográficos estándar como autor, resumen, palabras clave, términos descriptores, etc. Los metadatos mejorados incluyen las direcciones completas de los autores, la financiación de las subvenciones y las referencias citadas. No se incluyen metadatos completos de versiones.

FUENTE: Clarivate. «Clarivate Adds Preprint Citation Index to the Web of Science», 9 de febrero de 2023. https://clarivate.com/news/clarivate-adds-preprint-citation-index-to-the-web-of-science/.

Los rankings universitarios y sus críticos: ¿una relación simbiótica?

Impact of Social Sciences. «University Rankings and Their Critics – a Symbiotic Relationship?», 6 de febrero de 2023. https://blogs.lse.ac.uk/impactofsocialsciences/2023/02/06/university-rankings-and-their-critics-a-symbiotic-relationship/.

A pesar de ser objeto de críticas constantes, los rankings universitarios han demostrado ser una característica resistente de la vida académica. Julian Hamann y Leopold Ringel analizan esta relación y sugieren que los que elaboran las clasificaciones y sus críticos se refuerzan mutuamente.

Recientemente, las prestigiosas facultades de Derecho y Medicina de Estados Unidos anunciaron su retirada de los rankings de U.S. News & World Report. Esto se convirtió inmediatamente en noticia, porque los rankings y las instituciones de enseñanza superior (IES) de élite han desarrollado una dependencia mutua: los rankings dependen de la participación de las IES de élite y de su prestigio para mejorar su propia reputación. Las IES de élite dependen de las clasificaciones porque los antiguos alumnos, los solicitantes y los responsables políticos las juzgan en función de su clasificación.

Sin embargo, algunas IES de élite estaban dispuestas a poner fin a esta relación. En noviembre de 2022, el decano de la Facultad de Derecho de Yale declaró que «las clasificaciones sólo son útiles cuando siguen una metodología sólida y limitan sus parámetros a lo que los datos pueden captar razonablemente». En un tono similar, el decano de la Facultad de Derecho de Harvard expresó su «preocupación por algunos aspectos de la metodología de clasificación de U.S. News». Otras facultades de Derecho y Medicina siguieron su ejemplo.

¿cómo prevalecen las rankings universitarias a pesar de enfrentarse a críticas generalizadas (y a veces hostiles)? Este estudio podría ofrecer algunas pistas al respecto.

Una idea importante de nuestro estudio es que las críticas sonoras no son nada nuevo. Si los rankings son un modelo de negocio de éxito, también lo es la investigación crítica sobre los rankings (recibir una invitación para escribir en este blog es un ejemplo de ello). Identificamos dos modos de crítica de las clasificaciones que dominan tanto el discurso académico como los debates en el dominio público.

El primer modo llama la atención sobre los efectos negativos. Los rankings supuestamente producen y consolidan desigualdades, inculcan un comportamiento oportunista por parte de quienes intentan anticiparse a los criterios de clasificación y atentan contra la independencia de la educación superior y la ciencia. La segunda modalidad se refiere a las deficiencias metodológicas. Los críticos sostienen que las medidas utilizadas son demasiado burdas y simplistas, que la metodología y los datos no son suficientemente transparentes y que ni la validez ni la fiabilidad son suficientes. Sorprendentemente, las últimas críticas de las facultades de Derecho y Medicina de Estados Unidos reflejan exactamente este sentimiento, ya que invocan cuestiones metodológicas.

¿Cómo sortean los rankings estos retos? Los creadores de los rankings han desarrollado dos modos de respuesta. La primera podría caracterizarse como defensiva: Los responsables de los rankings o bien restan importancia a su propia influencia y afirman que existen muchos enfoques para medir el rendimiento de las universidades, o bien hacen hincapié en que los rankings son inevitables y «están aquí para quedarse». El segundo modo (respuestas seguras) reivindica una amplia demanda de evaluaciones del rendimiento universitario, demuestra competencia científica o temporaliza los rankings enmarcándolas como siempre necesitadas de mejora. Al hablar de cuestiones de mejora, los responsables de los rankings aluden a menudo a la importancia de obtener ayuda de los investigadores. Por ejemplo, en un folleto sobre la metodología de los Impact Rankings, Times Higher Education invita a la crítica afirmando: «¡podemos mejorar el enfoque!». En la misma línea, los representantes de los rankings de U.S. News & World Report esbozan esta postura ostentosamente constructiva: «Aunque la metodología es el resultado de años de investigación, perfeccionamos continuamente nuestro enfoque basándonos en los comentarios de los usuarios, las conversaciones con escuelas y expertos en educación superior, las revisiones bibliográficas, las tendencias de nuestros propios datos, la disponibilidad de nuevos datos y la participación de decanos e investigadores institucionales en conferencias sobre educación superior».

El punto general aquí es que los clasificadores intentan dispersar la responsabilidad mediante la asunción de sus críticos. Cabe señalar que, para que esta estrategia tenga éxito, los críticos tienen que aceptar la oferta y participar realmente en conversaciones públicas. La crítica metodológica, al parecer, es la palanca clave para iniciar y mantener este compromiso mutuo: incluso cuando se acaloran, este tipo de debates siguen siendo constructivos en el sentido de que, según su lógica subyacente, los rankings deberían ser más rigurosas, fiables y válidas.

Creemos que nuestro estudio supone una importante contribución a la investigación sobre educación superior, que sólo ha prestado una atención menor al «trabajo discursivo» que hace que los rankings universitarios sean resistentes. Para una comprensión exhaustiva del tema, es necesario seguir explorando los rankings universitarios como fenómenos discursivos, lo que implica tratar en igualdad de condiciones tanto los elogios como las críticas que reciben. Esto también implica que debemos ser más conscientes de nuestra propia agencia: nos guste o no, como investigadores críticos podemos contribuir involuntariamente a la institucionalización de los rankings universitarios.

¿Cómo debemos interpretar, entonces, las recientes abandonos de las clasificaciones universitarias en la enseñanza superior estadounidense? Teniendo en cuenta nuestras conclusiones, y la última promesa de U.S. News & World Report de escuchar a los críticos y mejorar la metodología, nos inclinamos a proyectar que la empresa volverá con una clasificación totalmente nueva el año que viene. Lo más probable es que este episodio no sea el final del régimen de clasificación, sino que resulte ser una oportunidad más para crear resiliencia discursiva.

Publons: cómo acreditar y registrar tu actividad de revisión por pares

Rewarding your peer review and editorial contributions: Publons
By Chantal Hukkelhoven, 2019

Texto completo

Los investigadores dedican mucho tiempo y esfuerzo a revisar los manuscritos de otros investigadores, pero generalmente no son recompensados ​​por esta actividad ya que las revisiones suelen ser anónimas.

Publons es una plataforma integrada en Web of Science que crea y muestra perfiles verificados de las contribuciones editoriales y de revisión por pares previas a la publicación de un investigador para revistas académicas. Estos perfiles pueden incluirse, entre otros, en el currículum vitae, las solicitudes de financiación y las evaluaciones de promoción y rendimiento.

Estos perfiles pueden incluirse, entre otros, en el currículum vitae, las solicitudes de financiación y las evaluaciones de promoción y rendimiento. Publons también crea una visión general de la calidad de tus revisiones en comparación con sus pares. También es posible importar y mostrar tus propias publicaciones en Publons.

Formas de agregar revisiones de pares a tu perfil en Publons:

  1. Agregar revisiones realizadas para revistas asociadas a Web of Sciece
  2. Envíar certificados de revisión a reviews@publons.com
  3. Habilitar actualizaciones automáticas
  4. Agregar reseñas a través de los formularios en el sitio

En Publons puedes mantener el perfil privado o puedes mostrar varios niveles de detalles sobre cada revisión individual, como el año, el nombre del editor, el nombre de la revista o incluso el texto completo de la revisión, aunque las revistas pueden optar por anular este último. El contenido de la reseña se comparte mediante una licencia Creative Commons CC BY 4.0. También se muestra la duración media de la revisión en comparación con otras en su campo o institución, lo que sirve como indicador de la calidad de su trabajo.

También existen alternativas a Publons para registrar tus actividades editoriales y de revisión previas a la publicación. Hace unos seis meses, ORCID lanzó una función que agrega esta información tu perfil de ORCID. También existen otras plataformas menos conocidas, como Peerage of Science, como alternativa a Publons. Además, existen plataformas que registran tus reseñas después de la publicación, por ejemplo, F1000Research.