Archivo de la etiqueta: Evaluación

Factores de impacto en la evaluación educativa en América Latina

Escalona Ríos, Lina. Factores de impacto en la evaluación educativa en América Latina. Universidad Nacional Autónoma de México. Instituto de Investigaciones Bibliotecológicas y de la Información, 2022.

Texto completo

PDF

ePub

¿Cuáles son los factores de calidad que contribuyen al mejoramiento de la educación bibliotecológica en México? ¿En qué medida existe congruencia entre los planes y programas de estudios y cómo contribuyen a mejorar esta disciplina? ¿Cómo influye la formación docente en este proceso? Con la finalidad de determinar y analizar estas preguntas, se llevó a cabo una investigación para puntualizar los factores de calidad y la manera en que pueden favorecer al mejoramiento de la educación bibliotecológica en México; el nivel de congruencia entre los planes de estudios y sus programas para considerar cómo contribuyen al avance de la educación bibliotecológica y, así como establecen el nivel de formación docente con el fin de estudiar el adelanto de la educación bibliotecológica en nuestro país. Este libro reúne todo ese esfuerzo, realizado por un grupo de investigación proveniente de distintos países.

Book Publishers Library Metrics, un índice bibliométrico para medir la difusión y visibilidad de las editoriales de libros científicos de las Humanidades y Ciencias Sociales

Book Publishers Library Metrics

El índice bibliométrico Book Publishers Library Metrics es una herramienta que pretende medir la difusión y visibilidad de las editoriales de libros científicos en el ámbito de las Humanidades y Ciencias Sociales. Se basa en el recuento de los libros incluidos en los catálogos de bibliotecas universitarias y académicas españolas que forman parte del catálogo colectivo REBIUN.

Este índice reconoce la importancia de los libros como medio de comunicación científica en las disciplinas de Humanidades y Ciencias Sociales. Los investigadores de estos campos tienden a publicar en monografías, especialmente aquellas publicadas en su idioma y por editoriales nacionales. Asimismo, tienden a citar predominantemente este tipo de documentos en sus investigaciones.

Para evaluar el rendimiento de las editoriales y los libros publicados, se consideran diversos criterios, como la pervivencia y antigüedad, calidad editorial, producción/especialización, visibilidad, reputación e impacto científico. En España, las agencias de evaluación científica han destacado criterios como el número y calidad de citas recibidas, el prestigio de la editorial, los editores, la colección en la que se publica la obra, las reseñas en revistas especializadas y la inclusión en bibliografías.

Book Publishers Library Metrics complementa otro producto llamado Publishers Scholar Metrics, que medía el impacto de las editoriales de monografías científicas a partir del recuento de citas en los libros publicados por profesores e investigadores de universidades públicas españolas, indizados en Google Scholar hasta 2012, en el ámbito de las Humanidades y Ciencias Sociales.

En resumen, Book Publishers Library Metrics proporciona una herramienta para evaluar la difusión y visibilidad de las editoriales y los libros científicos en el ámbito de las Humanidades y Ciencias Sociales, utilizando los catálogos de bibliotecas universitarias y académicas españolas como fuente de datos.

Cómo publicar un artículo científico y como obtener un alto impacto


VER VIDEO Ponencia: ¿Cómo publicar un artículo científico y cómo hacerlo con impacto? por Julio Alonso Arévalo Universidad Dr. José Matías Delgado San Salvador (El Salvador) 23/05/2023

Publicar un manuscrito científico en una revista de alto impacto puede ser un objetivo deseado para muchos investigadores. El proceso requiere un enfoque estratégico y una comprensión sólida de los principios de investigación científica y publicación. A continuación, se detallan los pasos clave para aumentar las posibilidades de lograrlo:

  1. Selección de la revista adecuada: Investiga y selecciona una revista de alto impacto que sea relevante para tu campo de estudio. Considera el alcance, el prestigio y la audiencia objetivo de la revista. Lee detenidamente las guías para autores y los requisitos de publicación de la revista para asegurarte de que tu manuscrito cumpla con sus criterios.
  2. Elaboración de un manuscrito de calidad: Realiza una investigación sólida y rigurosa, y presenta tus hallazgos de manera clara y concisa. Sigue las pautas de la revista en cuanto a la estructura y el formato del manuscrito. Asegúrate de que tu trabajo aporte nuevos conocimientos y sea relevante para la comunidad científica.
  3. Escritura y revisión minuciosas: Dedica tiempo a redactar tu manuscrito de manera clara y coherente. Evita errores gramaticales y ortográficos, y utiliza un lenguaje preciso. Solicita la revisión por parte de colegas o expertos en el campo para obtener comentarios y sugerencias constructivas antes de enviarlo.
  4. Presentación del manuscrito: Sigue las instrucciones proporcionadas por la revista para la presentación del manuscrito. Asegúrate de incluir todos los elementos requeridos, como el resumen, las palabras clave, las secciones apropiadas (introducción, métodos, resultados, discusión, conclusiones, referencias, etc.) y cualquier material adicional solicitado.
  5. Revisión por pares y respuesta a los comentarios: Una vez que envíes tu manuscrito, será sometido a un proceso de revisión por pares. Los revisores evaluarán la calidad y la originalidad de tu trabajo. Si recibes comentarios o sugerencias, respóndelos de manera exhaustiva y constructiva, abordando cada uno de los puntos planteados.
  6. Realización de ajustes y mejoras: Si se solicitan revisiones o modificaciones, trabaja en ellas de manera cuidadosa y rigurosa. Asegúrate de abordar todos los comentarios de los revisores y de proporcionar justificaciones claras para los cambios realizados en tu manuscrito.
  7. Envío final y espera de la decisión: Una vez que hayas realizado todas las modificaciones solicitadas, envía la versión final del manuscrito. Luego, debes esperar la decisión final de la revista, que puede ser aceptación, rechazo o requerir revisiones adicionales.

Recuerda que el proceso de publicación puede llevar tiempo y que recibirás retroalimentación tanto positiva como negativa. No te desalientes por los rechazos, ya que forman parte del proceso. Utiliza los comentarios y las sugerencias para mejorar tu trabajo y aumentar tus posibilidades de publicar en una revista de alto impacto en el futuro.

Tener un importante impacto en una publicación científica implica lograr que nuestro trabajo sea reconocido y valorado por la comunidad científica. El impacto de una publicación científica se refiere a la influencia y la relevancia que tiene en el campo de la investigación. Indica cómo el trabajo publicado ha contribuido al conocimiento existente, ha generado avances en la disciplina y ha influido en la comunidad científica.

El impacto de una publicación científica puede evaluarse de diferentes maneras:

  • Citaciones: Uno de los indicadores más comunes del impacto de una publicación es el número de veces que ha sido citada por otros investigadores. Cuantas más citas reciba un artículo, mayor es su impacto, ya que indica que ha sido reconocido y utilizado por la comunidad científica.
  • Índice de impacto de la revista: Algunas revistas científicas tienen un índice de impacto asignado, que se calcula en función del número de citas que reciben los artículos publicados en esa revista durante un período determinado. Un índice de impacto alto indica que los artículos publicados en esa revista son ampliamente reconocidos y citados en el campo.
  • Altmetrics: Las altmetrics (métricas alternativas) son indicadores que miden el impacto de un artículo más allá de las citas tradicionales. Estos incluyen el número de descargas, menciones en redes sociales, vistas en línea y discusiones en blogs o medios de comunicación. Los altmetrics proporcionan una visión más amplia del alcance y la influencia de un artículo.
  • Reconocimiento y premios: El reconocimiento recibido por un artículo, como premios, becas o invitaciones a presentar en conferencias, también puede indicar su impacto. Estos reconocimientos demuestran que el trabajo ha sido considerado significativo y ha generado interés en la comunidad científica.

Existen varios índices de citas ampliamente utilizados para evaluar el impacto de las publicaciones científicas. Scopus, Web of Science y Google Scholar son tres de las principales bases de datos utilizadas por la comunidad académica y científica para medir el impacto de la literatura científica. Cada una de estas bases de datos tiene características distintas:

  • Web of Science: desarrollada por Clarivate Analytics, es una base de datos multidisciplinaria que incluye una amplia gama de revistas científicas revisadas por pares, conferencias y otros tipos de literatura académica. Web of Science es conocida por su índice de citas, que permite rastrear y analizar las citas recibidas por los artículos publicados.
  • Scopus: es una base de datos bibliográfica desarrollada por Elsevier. Contiene una amplia cobertura de literatura científica, incluyendo revistas científicas revisadas por pares, libros y actas de conferencias. Scopus ofrece funciones avanzadas de búsqueda y filtrado, así como métricas de citas y análisis de rendimiento para autores, instituciones y revistas.
  • Google Scholar: Google Scholar es un motor de búsqueda académico que indexa una amplia gama de fuentes académicas, como artículos científicos, tesis, libros y preprints. Aunque no es una base de datos especializada como Scopus o Web of Science, Google Scholar ofrece una amplia cobertura y es conocido por su accesibilidad y facilidad de uso. También proporciona información sobre citas y perfiles de autores.

Los indicadores bibliométricos son medidas cuantitativas utilizadas para evaluar la producción científica y el impacto de las publicaciones académicas. Estos indicadores se basan en datos bibliográficos, como el número de citas recibidas por un artículo o el número de artículos publicados por un autor en particular. Algunos de los indicadores bibliométricos más comunes son:

  • Factor de impacto (Impact Factor, IF): El factor de impacto se aplica a las revistas científicas y es una medida del número promedio de citas recibidas por los artículos publicados en esa revista durante un período determinado. Es calculado por empresas como Clarivate Analytics y se utiliza ampliamente para evaluar la calidad y la influencia de las revistas.
  • Índice h (H-index): El índice h es una medida desarrollada por el físico Jorge E. Hirsch que evalúa tanto la productividad como el impacto de un investigador. Indica el número de artículos (h) que han sido citados al menos h veces. Por ejemplo, un investigador con un índice h de 20 tiene al menos 20 artículos que han sido citados al menos 20 veces cada uno.
  • El CiteScore es un indicador bibliométrico que se utiliza en la base de datos Scopus para evaluar el impacto de las revistas científicas. Es calculado anualmente por Elsevier y representa el promedio de citas recibidas por los artículos publicados en una revista en los últimos tres años.

Aquí tienes algunos consejos sobre cómo aumentar el impacto de tu publicación científica:

  1. Selección del tema adecuado: Elije un tema de investigación relevante y de actualidad en tu campo. Identifica brechas en el conocimiento existente y enfoques novedosos para abordar esas brechas. Esto aumentará las posibilidades de que tu trabajo sea considerado importante y valioso.
  2. Calidad de la investigación: Realiza una investigación rigurosa y de alta calidad. Asegúrate de tener un diseño experimental sólido, una muestra adecuada, métodos precisos y análisis estadísticos adecuados. Cuanto más sólida sea tu investigación, mayor será su impacto potencial.
  3. Contribución original: Asegúrate de que tu trabajo aporte algo nuevo al campo científico. Esto podría ser la identificación de nuevos hallazgos, la aplicación de métodos innovadores o la resolución de un problema relevante. Demuestra la originalidad de tu trabajo y su contribución al conocimiento existente.
  4. Escritura clara y concisa: Comunica tus ideas de manera clara y accesible. Utiliza un lenguaje técnico apropiado pero evita la jerga excesiva. Organiza tu artículo de forma lógica y asegúrate de que sea fácil de leer y comprender. Utiliza gráficos, tablas y figuras para ilustrar tus resultados de manera efectiva.
  5. Contextualización y relevancia: Sitúa tu investigación en el contexto más amplio de tu campo. Explica cómo tus hallazgos se relacionan con el conocimiento existente y cómo podrían tener implicaciones prácticas o teóricas. Destaca la relevancia de tu trabajo y su impacto potencial en la comunidad científica y en la sociedad en general.
  6. Publica en revistas de alto impacto: Elige revistas de renombre y alto factor de impacto en tu campo. Estas revistas tienen una amplia audiencia y un riguroso proceso de revisión por pares. Publicar en revistas de alto impacto aumentará la visibilidad y credibilidad de tu trabajo.
  7. Promoción activa: No te quedes solo en la publicación de tu trabajo. Promuévelo activamente a través de redes sociales, conferencias y colaboraciones con otros investigadores. Comparte tus resultados y discute tus hallazgos con la comunidad científica. Cuanto más se difunda y se debata tu trabajo, mayor será su impacto potencial.
  8. Mantén la pasión por tu trabajo, busca retroalimentación y colabora con otros investigadores para aumentar la visibilidad y la influencia de tu investigación en el campo científico.

Es importante tener en cuenta que el impacto de una publicación científica se desarrolla con el tiempo. Puede llevar años antes de que los efectos de un estudio se perciban completamente y se reflejen en citas y reconocimientos. Sin embargo, un artículo que tiene un impacto significativo es aquel que influye en el campo, contribuye al avance del conocimiento y genera un cambio en la forma en que se comprende o aborda un tema determinado.

Hacia una metodología de evaluación y segmentación de la demanda de datos abiertos

Verhulst, Stefaan G., y Andrew Young. «Toward an Open Data Demand Assessment and Segmentation Methodology» GovLab, 2018.

Texto completo

Plantillas

Metodología

En todo el mundo se invierte mucho tiempo y recursos en poner los datos públicos al alcance de todos con el objetivo general de mejorar la vida de las personas. Cada vez hay más pruebas del impacto de los datos abiertos en la mejora de la gobernanza, la capacitación de los ciudadanos, la creación de oportunidades económicas y la resolución de problemas públicos.

Sin embargo, gran parte del valor potencial de los datos abiertos sigue sin aprovecharse, en parte porque a menudo no sabemos quién los utiliza o, lo que es más importante, quién no los utiliza pero podría beneficiarse de la información que generan. Al identificar, priorizar, segmentar y comprometerse con la demanda actual y futura de datos abiertos de forma sistémica y sistemática, los profesionales pueden garantizar que los datos abiertos estén mejor orientados.

Sabemos que no podemos centrarnos simplemente en publicar datos abiertos, ni construir un portal sin comprender sus posibles usos y demanda. Sin embargo, a menudo hacemos precisamente eso. Comprender y satisfacer la demanda de datos abiertos puede aumentar el impacto global y el rendimiento de la inversión de los fondos públicos.

El GovLab, en colaboración con el Banco Interamericano de Desarrollo, y con el apoyo de la Agencia Francesa de Desarrollo, ha desarrollado la Metodología de Evaluación y Demanda de Datos Abiertos (Beta) para proporcionar a los responsables políticos y a los profesionales de los datos abiertos un enfoque para identificar, segmentar y comprometerse con la demanda. Este proceso busca específicamente empoderar a los defensores de los datos dentro de los organismos públicos que desean mejorar la capacidad de sus datos para mejorar la vida de las personas.

Marcos de calidad y autoevaluación para repositorios institucionales: resultados de la encuesta a repositorios DSpace españoles

Bernal, Isabel, Amparo Cózar, Laura Frías, Eva María Navarro, María Suárez, y Ignacio Gárate. «Marcos de calidad y autoevaluación para repositorios institucionales: resultados de la encuesta a repositorios DSpace españoles». Thesis. REBIUN, mayo de 2023.

Texto completo

El acceso abierto, cuya definición es recogida en la Iniciativa de Budapest para el acceso abierto de 2002 y en la Declaración de Berlín sobre el Acceso Abierto de 2003, persigue proporcionar acceso libre y gratuito a la información científica, para que resultados y datos de investigaciones financiadas con fondos públicos estén disponibles para todos y tengan licencias que permitan su reutilización. En Europa la política sobre acceso abierto ha ido expandiendo sus ambiciones a lo largo del tiempo. Desde el Programa Marco H2020 la Comisión Europea incluyó en su política la gestión de datos de investigación, y un ulterior espaldarazo a la ciencia abierta ha tenido lugar en el Programa Horizonte Europa (en vigor desde 2021), en que se amplían obligaciones, especificaciones técnicas y recomendaciones para los proyectos beneficiarios.

En España, el artículo 37 de la Ley 14/2011, de 1 de junio, de la Ley de la Ciencia, la Tecnología y la Innovación, modificada por la Ley 17/2022, establece la obligación para los beneficiarios de proyectos de investigación financiados por el Plan Estatal de Investigación Científica y Técnica y de Innovación de depositar en repositorios de acceso abierto una copia digital de la versión final de las contribuciones aceptadas en publicaciones periódicas o seriadas, así como los conjuntos de datos asociados, habiendo además gobiernos autonómicos que han desarrollado sus propias regulaciones. En este sentido, los repositorios institucionales, al igual que el resto de repositorios, son necesarios para ejecutar los mandatos de acceso abierto e implementar las políticas de ciencia abierta. Se trata de infraestructuras ubicadas en las universidades, organismos y centros de investigación que recopilan, gestionan, difunden y preservan la producción científica digital mediante una colección organizada, de acceso abierto e interoperable.

Puesto que el objetivo es su interoperabilidad a través de la utilización de protocolos como el OAI-PMH y la unificación de criterios de calidad para conseguir el aprovechamiento de la información, la Guía para la evaluación de repositorios institucionales de investigación (dirigida a la colección de investigación del repositorio), elaborada por un grupo de trabajo en el marco de la colaboración FECYT-REBIUN, se presenta como una herramienta de autoevaluación para mejorar la calidad de los repositorios, asegurando su papel de infraestructuras tecnológicas en el proceso de implementación de las políticas de acceso abierto y ciencia abierta.

En su elaboración se han tenido en cuenta otras iniciativas que han establecido criterios de calidad comunes a la comunidad internacional de repositorios de acceso abierto, como las Recomendaciones de COAR, que pretenden ayudar a los repositorios a evaluar y mejorar sus procesos con buenas prácticas aplicables y asumibles, proporcionando un marco global y multidimensional para las buenas prácticas en los repositorios. Los repositorios institucionales de investigación de instituciones pertenecientes a REBIUN cuentan con la Guía editada por REBIUN/FECYT para su evaluación, habiendo seleccionado para ello un total de 25 criterios. La evaluación puede ser solicitada una vez al año por cualquier repositorio que almacene documentos textuales que recojan resultados de investigación.

Ponencia: ¿Cómo publicar un artículo científico y cómo hacerlo con impacto?

Ponencia: ¿Cómo publicar un artículo científico y cómo hacerlo con impacto? por Julio Alonso Arévalo

Universidad Dr. José Matías Delgado San Salvador (El Salvador) 23/05/2023

VIDEO

Quienes llevamos publicando durante años, a veces no somos conscientes de la importancia que tienen algunos conceptos básicos en torno a la publicación científica. Este video-tutorial tiene como finalidad servir de ayuda a aquellas personas e investigadores noveles que se enfrentan a como publicar.

Construir una comunidad de evaluación en bibliotecas universitarias: Marco de Impacto de las Bibliotecas de Investigación (RLIF)

Baughman, Sue, Ava Brillat, Gordon Daines, Greg Davis, Stephanie JH McReynolds, and Margaret Roller. Building a Community of Assessment: Final Report of the Research Library Impact Framework Pilot Initiative. With an executive summary by Kevin Borden. Washington, DC: Association of Research Libraries, March 10, 2023. 

Ver informe

La iniciativa piloto Research Library Impact Framework (RLIF) de la Association of Research Libraries (ARL), establecida en 2019, ha publicado su informe final, Building a Community of Assessment. El informe detalla los proyectos de investigación, los hallazgos y las lecciones aprendidas realizadas en la fase piloto de este marco. También incluye información sobre el propio marco como medio para explorar y aprender sobre los impactos de las bibliotecas de investigación. Por último, el informe identifica los próximos pasos y las consideraciones potenciales para cualquier implementación futura.

El RLIF proporciona una estructura para examinar los servicios bibliotecarios, las operaciones, el impacto y la alineación con la misión y los objetivos institucionales en cuatro áreas críticas: Investigación y ciclo de vida académico; Enseñanza, aprendizaje y éxito de los estudiantes; Colecciones; y Espacio físico. El marco completo incluye 185 preguntas de investigación potenciales en estas áreas críticas. Sin embargo, el marco también pretende ser flexible y modular, permitiendo modificaciones y ajustes basados en cuestiones destacadas a las que se enfrentan las bibliotecas de investigación. De este modo, el marco sirve como herramienta para organizar y priorizar los esfuerzos de investigación.

La iniciativa Research Library Impact Framework (LG-18-19-0092) ha sido posible en parte gracias al Institute of Museum and Library Services (IMLS). Las opiniones, resultados, conclusiones o recomendaciones expresadas en este proyecto no representan necesariamente las del IMLS.

Informe final de la iniciativa piloto sobre el marco de impacto de las bibliotecas universitarias y de investigación

Building a Community of Assessment: Final Report of the Research Library Impact Framework Pilot Initiative. Association of Research Libraries (ARL), 2023

Texto completo

La iniciativa piloto Research Library Impact Framework (RLIF) de la Association of Research Libraries (ARL), establecida en 2019, ha publicado su informe final, Building a Community of Assessment. El informe detalla los proyectos de investigación, los hallazgos y las lecciones aprendidas realizadas en la fase piloto de este marco. También incluye información sobre el propio marco como medio para explorar y aprender sobre los impactos de las bibliotecas de investigación. Por último, el informe identifica los próximos pasos y las consideraciones potenciales para cualquier implementación futura.

El RLIF proporciona una estructura para examinar los servicios bibliotecarios, las operaciones, el impacto y la alineación con la misión y los objetivos institucionales en cuatro áreas críticas: Investigación y ciclo de vida académico; Enseñanza, aprendizaje y éxito de los estudiantes; Colecciones; y Espacio físico. El marco completo incluye 185 preguntas de investigación potenciales en estas áreas críticas. Sin embargo, el marco también pretende ser flexible y modular, permitiendo modificaciones y ajustes basados en cuestiones destacadas a las que se enfrentan las bibliotecas de investigación. De este modo, el marco sirve como herramienta para organizar y priorizar los esfuerzos de investigación.

La iniciativa RLIF estableció cuatro objetivos para guiar su estrategia y aplicación

  • Objetivo 1: Crear y fomentar una cultura de evaluación mediante la participación en proyectos de investigación formales y metodológicamente sólidos.
  • Objetivo 2: Aumentar y mejorar los procesos de identificación de puntos de datos para la recopilación y distribución de información que corrobore el impacto de la biblioteca a los responsables institucionales y dentro del ecosistema de investigación y aprendizaje.
  • Objetivo 3: Ampliar las capacidades para colaborar y comparar datos y métodos con otros colegas sobre temas de gran relevancia para las bibliotecas individuales y poner en común la experiencia y los recursos de investigación en beneficio colectivo.
  • Objetivo 4: Mejorar el impacto de los servicios y programas para los usuarios

Futuros cambios en Journal Citation Reports para 2024

Editor-in-Chief, Nandita Quaderi, Vice President Editorial, y Web of Science Clarivate. «Mapping the Path to Future Changes in the Journal Citation Reports». Clarivate (blog), 7 de marzo de 2023. https://clarivate.com/blog/mapping-the-path-to-future-changes-in-the-journal-citation-reports/.

En julio de 2022, se cumplieron los planes para ampliar el Journal Impact Factor (JIF)™ a todas las revistas de la Web of Science Core Collection™ a partir de junio de 2023. Esto significa que este año, las revistas del Arts and Humanities Citation Index (AHCI)™ y del multidisciplinar Emerging Sources Citation Index (ESCI)™ en el Journal Citation Reports (JCR)™ recibirán un JIF por primera vez.

Recordamos que esta novedad obedece a dos motivos: Dar a todas las revistas de calidad un JIF proporcionará total transparencia a todos y cada uno de los artículos y citas que han contribuido al impacto académico de una revista, ayudando a demostrar su valor para la comunidad investigadora. También contribuirá a nivelar el terreno de juego para todas las revistas de calidad, incluidas las de acceso abierto, las de reciente creación o las especializadas, o las de ámbito regional y las del Sur Global.

Como resultado de este desarrollo, otras 9.000 revistas del JCR recibirán un JIF y se beneficiarán por primera vez de una página de perfil de revista mejorada. Además, se muestra el JIF con un decimal, en lugar de los tres decimales actuales, para animar a los usuarios a tener en cuenta otros indicadores y datos descriptivos del JCR a la hora de comparar revistas.

Clasificaciones por categorías en la versión 2023 del JCR

Este año se sugiere proporcionar clasificaciones por categorías y asignando cuartiles JIF solo para las revistas indexadas en el Science Citation Index Expanded (SCIE)™ y el Social Sciences Citation Index (SSCI)™.

También proporcionar clasificaciones separadas para las nueve categorías temáticas que están indexadas en múltiples ediciones. Por ejemplo, la Psiquiatría está incluida tanto en el SCIE como en el SSCI; este año, las revistas de Psiquiatría del SCIE seguirán clasificándose por separado de las revistas de Psiquiatría del SSCI.

El hecho de que el JIF se muestre con un decimal hará que las clasificaciones estén más igualadas. Esto afectará a la distribución de los cuartiles del JIF, ya que los cuartiles se calculan en función del número de posiciones en el ranking de una categoría determinada, y no simplemente del número de revistas de una categoría dividida equitativamente en cuatro (Figura 1).

Fig. 1

La distribución por cuartiles ha dado lugar normalmente a que aproximadamente el 25% de las revistas estén contenidas en cada cuartil, ya que los empates han sido poco frecuentes. Sin embargo, al aumentar el número de empates, la distribución cambia. Las revistas empatadas en el mismo rango no pueden dividirse entre dos cuartiles y con el aumento del número de empates veremos que algunos cuartiles contendrán un número mayor o menor de revistas que en años anteriores.

La fórmula para calcular los cuartiles puede encontrarse aquí

¿Cómo serán las clasificaciones por categorías en 2024?

En la versión del JCR del próximo año, se añadirán las revistas AHCI y ESCI a las clasificaciones por categorías del JCR y se asignarán a cuartiles JIF. Ya no habrá rankings de categorías específicos para cada edición y, en su lugar, se creará un único ranking para cada una de nuestras 254 categorías que incluirá revistas de las cuatro ediciones (SCIE, SSCI, AHCI y ESCI). Una vez más, tomando Psiquiatría como ejemplo, se mostrará un único ranking de Psiquiatría que incluye revistas indexadas en SCIE, SSCI y ESCI.

En el caso de AHCI, se introducirá por primera vez clasificaciones para las 25 categorías únicas específicas de artes y humanidades. No habrá categorías específicas de ESCI; todas las revistas indexadas en ESCI entran dentro de las 254 categorías temáticas existentes en SCIE, SSCI y AHCI.

La inclusión de 9.000 revistas adicionales de AHCI y ESCI en las clasificaciones por categorías del JIF también afectará a las clasificaciones generales y a la distribución por cuartiles el próximo año.

¿Por qué se está adoptando un enfoque gradual?

Se está ampliando el JIF a AHCI y ESCI y pasando a una visualización de un punto decimal del JIF este año y, a continuación, se incluirán las revistas AHCI y ESCI en las clasificaciones por categorías el próximo año, con el fin de proporcionar transparencia sobre cómo cada uno de estos cambios afecta por separado a las clasificaciones y cuartiles del JIF.

Esta es la primera de una serie de actualizaciones y análisis sobre cómo la ampliación del JIF a más revistas de calidad se traducirá en cambios en las clasificaciones y cuartiles en JCR y explicará cómo los usuarios pueden utilizar los filtros de JCR para ver clasificaciones que sólo incluyan revistas de ediciones de interés. Marque esta página y permanezca atento a nuevas actualizaciones.

¿Cuáles de los metadatos relevantes para bibliometría son iguales y cuáles diferentes al pasar de Microsoft Academic Graph a OpenAlex?

Scheidsteger, Thomas, y Robin Haunschild. «Which of the metadata with relevance for bibliometrics are the same and which are different when switching from Microsoft Academic Graph to OpenAlex?» Profesional de La Información 32, n.o 2 (4 de marzo de 2023). https://doi.org/10.3145/epi.2023.mar.09.

PDF Español

PDF Inglés

Con el anuncio de la retirada de Microsoft Academic Graph (MAG), la organización sin ánimo de lucro OurResearch anunció que proporcionaría un recurso similar bajo el nombre de OpenAlex. Así pues, se compararon los metadatos relevantes para los análisis bibliométricos de la última instantánea de MAG con una de las primeras de OpenAlex. Prácticamente todas las obras de MAG se transfirieron a OpenAlex conservando sus datos bibliográficos año de publicación, volumen, primera y última página, DOI, así como el número de referencias que son ingredientes importantes del análisis de citas. Más del 90% de los documentos MAG tienen tipos de documento equivalentes en OpenAlex. De los restantes, especialmente las reclasificaciones a los tipos documentales journal-article y book-chapter de OpenAlex parecen ser correctas y ascienden a más del 7%, por lo que las especificaciones de los tipos documentales han mejorado significativamente de MAG a OpenAlex. Como otro elemento de metadatos de relevancia bibliométrica, examinamos la clasificación temática de los documentos en MAG y en OpenAlex. Encontramos un número significativamente mayor de documentos con una asignación de clasificación temática en OpenAlex que en MAG. En el primer y segundo nivel, la estructura de clasificación es casi idéntica. Presentamos datos sobre las reclasificaciones de materias en ambos niveles en forma de tabla y gráfico. La evaluación de las consecuencias de las abundantes reclasificaciones de materias en las evaluaciones bibliométricas normalizadas por campos no entra dentro del ámbito del presente artículo. Aparte de esta cuestión abierta, OpenAlex parece ser en general al menos tan adecuado para los análisis bibliométricos como MAG para los años de publicación anteriores a 2021 o quizás incluso mejor debido a la cobertura más amplia de las asignaciones de tipos de documentos.