Archivo de la etiqueta: Web of Knowledge

Clarivate publica la nueva edición de indicadores de Journal Citation Reports (JCR) 2022

Cada año, la publicación Journal Citation Reports™ (JCR) ofrece un resumen de la red de citas académicas del año anterior de la cobertura de Web of Science™. Se trata de una instantánea del panorama de la investigación en continua evolución.

La publicación anual del JCR permite a la comunidad investigadora evaluar las revistas académicas de alta calidad del mundo mediante una serie de indicadores, datos descriptivos y visualizaciones. Los editores académicos de todo el mundo utilizan ampliamente los informes para comprender el impacto académico de sus revistas en relación con su campo y promoverlas entre la comunidad investigadora.

Los datos de este año resumen las citas de Web of Science™ de 2021, incluyendo 35.000 publicaciones (revistas, libros y actas de congresos), 2,7 millones de artículos citables y 145 millones de referencias citadas indexadas en la Web of Science Core Collection™.

El análisis de los factores que crearon estos sorprendentes cambios pone de relieve que el contenido de Early Access contribuyó aproximadamente al 10% de las citas del JIF. El resto del efecto se debió a un aumento generalizado del volumen de contenidos publicados en 2020. El JCR de 2021 contenía más de un 25% más de artículos y citas que el año anterior.

A partir de la edición de 2022, el JCR incluye ahora también las principales revistas del mundo en artes y humanidades.

12.828 revistas de Ciencia
6.691 revistas de Ciencias sociales
3.092 revistas de Artes y Humanidades
5.300 revistas de acceso abierto

Las revistas cumplen 28 criterios de evaluación de las revistas

Se suprimen 5 revistas que muestran evidencias de acumulación de citas excesivas.

Total de revistas (2021 Journal Citation Reports) 21. 430
Títulos con un Factor de impacto de la revista 192
Países del mundo 114
Categorías de investigación 254

Fuente: Clarivate

La nueva herramienta de perfiles de autor de Clarivate Analytics incluye la actividad de revisión por pares

Clarivate Analytics’s new author profiles tool to include peer review activity. Nature Index, 2022

Texto original

Clarivate Analytics, la empresa británica propietaria de la base de datos académica Web of Science (WoS), ha comenzado a generar automáticamente perfiles de autores, incluyendo información sobre la actividad de revisión por pares de los investigadores cuyos trabajos están indexados en la base de datos.

La información sobre la revisión por pares se integrará a partir de principios de 2022. Provendrá principalmente de Publons, un sitio web de uso gratuito que permite a los investigadores reclamar el crédito de la revisión por pares, que fue adquirido por Clarivate en 2017 y ahora tiene más de tres millones de usuarios.

La adición de la nueva función Publons convierte a la herramienta WoS en la primera que reúne detalles sobre los registros de publicación de los investigadores, sus colaboradores, los consejos de redacción de las revistas a las que pertenecen y otras actividades profesionales de investigación, como los manuscritos que han arbitrado para las revistas y las revisiones de subvenciones que han realizado. La herramienta también puede ser útil para los investigadores que realizan estudios de minería de textos.

Para encontrar artículos anteriormente, los usuarios de WoS realizaban una búsqueda de documentos en la base de datos de WoS, aunque desde 2019 también es posible una búsqueda de autores para encontrar autores individuales y sus actividades académicas. La herramienta es actualmente de uso gratuito, pero la empresa ofrecerá una versión con características adicionales de pago.

Los investigadores que utilicen la herramienta también podrán vincular sus perfiles a su identificador digital único, ORCID ID. De este modo, cuando un investigador añada un artículo a su perfil ORCID, se añadirá automáticamente a su perfil de autor de WoS, y viceversa

Según sus creadores, la herramienta de WoS está especialmente destinada a la evaluación de las solicitudes de financiación de los investigadores, así como a la evaluación de los académicos para su contratación y promoción. Ayudará a los evaluadores a detectar cualquier conflicto de intereses y les dará una visión más completa de las actividades académicas de un académico, señalan.

Dar visibilidad a la revisión por pares es un paso importante para solucionar su falta de reconocimiento como componente del rendimiento de la investigación, afirma Waltman. Reconoce que los informes de los árbitros son «importantes productos académicos que deben ser tratados de forma similar a otros tipos de publicaciones».

Proceso de evaluación y criterios de selección de la revista Web of Science

Web of Science Core Collection journal evaluation criteria

PDF Inglés

Ver completo

Según Clarivate los principios básicos del proceso de selección siguen siendo los mismos: objetividad, selectividad y dinámica de cobranza. Se usa un conjunto de 28 criterios para evaluar revistas; estos se dividen en 24 criterios de calidad diseñados para seleccionar el rigor editorial y las mejores prácticas a nivel de revista, y cuatro criterios de impacto diseñados para seleccionar las revistas más influyentes en sus respectivos campos utilizando la actividad de citas como el principal indicador de impacto.

Las revistas que cumplen con los criterios de calidad ingresan al Emerging Sources Citation Index ™ (ESCI). Las revistas que cumplen con los criterios de impacto adicionales ingresan al Science Citation Index Expanded ™ (SCIE), Social Sciences Citation Index ™ (SSCI) o Arts & Humanities Citation Index (AHCI) según su área temática.

En este proceso, las revistas se reevalúan primero para determinar su calidad y la evaluación de impacto está sujeta a que se cumpla con la calidad. Si se cumplen los criterios de calidad e impacto, las revistas se trasladan a una colección emblemática. El equipo editorial de Web of Science se centra en las nuevas evaluaciones durante la primera mitad del año, la segunda mitad está dedicada a las reevaluaciones. Las revistas cubiertas se evalúan continuamente para determinar su calidad.

Cuando se completa la evaluación, se informará al editor del resultado y la revista:

  • ser eliminado de la cobertura si ya no cumple con los criterios de calidad
  • o permanecer si continúa cumpliendo con los criterios de calidad.

Si la revista cumple con los criterios de calidad, se indexará cualquier contenido que falte. Si la revista se elimina de la cobertura, el contenido no se completará. En los casos más graves de incumplimiento de los estándares editoriales de la revista, según lo determinen nuestros criterios de selección, el contenido publicado puede eliminarse de Web of Science ™. Los plazos para completar una reevaluación dependerán de las circunstancias particulares de cada caso.

Triaje inicial

El propósito principal de este paso de clasificación es garantizar una identificación inequívoca de la revista enviada para evaluación y saber a quién contactar si tenemos alguna duda o inquietud. No hay un período de embargo para volver a enviarlo si una revista no pasa la clasificación inicial.

  • Contiene ISSN,
  • Título, editor,
  • URL,
  • Acceso al contenido,
  • Presencia de la política de revisión por pares,
  • Detalles de contacto.

Triaje editorial

En este paso, los editores de Web of Science revisan la revista para determinar si se merece una evaluación editorial completa. No existe un período de embargo para reenvío si una revista no pasa la clasificación editorial. Exigencias:

  • Contenido académico
  • Títulos de artículos y resúmenes de artículos en inglés
  • Información bibliográfica en escritura romana
  • Claridad del lenguaje,
  • Puntualidad y / o volumen de publicación
  • Funcionalidad del sitio web / formato de revista
  • Presencia en declaraciones éticas
  • Detalles de afiliación editorial
  • Detalles de afiliación del autor

Evaluación editorial (calidad)

En este paso, los editores de Web of Science están verificando la alineación entre el título de la revista, el alcance declarado, la composición de su comité editorial y autoría, y su contenido publicado. También buscan pruebas de rigor editorial y adherencia a los estándares de la comunidad. Si una revista no pasa este paso, el reenvío está sujeto a un período de embargo de al menos dos años.

  • Composición de la Junta Editorial
  • Validez de las declaraciones
  • Revisión por pares
  • Relevancia del contenido
  • Detalles de la subvención
  • Adherencia a los estándares comunitarios
  • Distribución de autor
  • Citas apropiadas a la literatura

Evaluación editorial (impacto)

Los criterios en este paso están diseñados para seleccionar las revistas más influyentes en un campo de investigación determinado, utilizando la actividad de citas como un indicador principal de impacto. Si una revista no pasa este paso, la reevaluación está sujeta a un período de embargo de al menos dos años.

  • Análisis comparativo de citas
  • Análisis de citas del autor
  • Análisis de citas de la junta editorial
  • Importancia del contenido

Los cambios en la fecha de publicación afectarán al factor de impacto de la revista en Web of Knowledge

Changing Journal Impact Factor Rules Creates Unfair Playing Field For Some By PHIL DAVIS. Scholarly Kitchen FEB 1, 2021

Ver completo

La transición a un modelo que tiene cuenta la publicación en función de la fecha de publicación en línea, en lugar de la publicación impresa, aumentará la siguiente ronda de puntajes de Journal Impact Factor (JIF).

El cambio a un modelo de recuento basado en la fecha de publicación electrónica se esperaba desde hace mucho tiempo. Sin embargo, el nuevo modelo puede dar lugar a cambios inesperados en los puntajes del JIF y en la clasificación de las revistas porque Clarivate carece de datos de publicación en línea para aproximadamente la mitad de las revistas que indexa.

Esto no es un problema cuando un artículo se publicó electrónicamente, digamos, en marzo de 2020, pero se asignó a la edición de agosto de 2020 de la revista. Sin embargo, plantea un problema cuando el documento se publicó electrónicamente en un año (por ejemplo, el 16 de noviembre de 2019) pero se asignó a otro año (por ejemplo, enero de 2020). El modelo anterior la considera una publicación de 2020, mientras que el nuevo modelo la considera una publicación de 2019. Las revistas que emplean un modelo de publicación continua en línea sin designación de número no se ven afectadas.

Los autores del informe , Marie McVeigh, Jefa de Integridad Editorial, y la Dra. Nandita Quaderi, Editora en Jefe de Web of Science, consideran los efectos de adoptar dos nuevos modelos de conteo: un modelo Retroactivo, en el que el próximo JIF se basa en datos anteriores; y un modelo Prospectivo, en el que comienzan a contar a partir de 2020. 

En esencia, las revistas con altos niveles de autocitas y largos períodos de retraso entre la publicación electrónica y la designación impresa son particularmente sensibles a cambios masivos en su próxima puntuación JIF. Sin embargo, incluso las revistas con tasas de autocitas relativamente bajas y retrasos de publicación cortos se ven lo suficientemente afectadas como para cambiar su clasificación por encima de los competidores que no tienen datos de publicación electrónica en la Web of Science. Y, dado que la indexación de la fecha de publicación electrónica depende del editor, es probable que veamos grandes ganadores y grandes perdedores si Clarivate continúa con su nuevo modelo de conteo.

Revistas españolas de Documentación en Web of Science: análisis bibliométrico y evolución temática de 2015 a 2019.

Guallar, Javier and López-Robles, José-Ricardo and Abadal, Ernest and Gamboa-Rosales, Nadia-Karina and Cobo, Manuel-Jesús Revistas españolas de Documentación en Web of Science: análisis bibliométrico y evolución temática de 2015 a 2019. Profesional de la información, 2020, vol. 29, n. 6.

Texto completo

Las revistas científicas son el instrumento fundamental para la difusión de los resultados de la investigación. Las revistas españolas de Documentación han conseguido una presencia destacada en bases de datos internacionales. A partir del estudio de los artículos publicados en ellas se puede conocer cuál es la evolución temática de la investigación en Documentación, un asunto sobre el que existen pocos estudios. En este artículo se presenta un análisis bibliométrico y temático de las revistas españolas incluidas en el área de conocimiento de Information Science & Library Science de Web of Science entre 2015 y 2019. Por una parte, se identifica y analiza la producción de las revistas de manera individual y conjunta según los datos disponibles en la Web of Science Core Collection, atendiendo a la productividad de los autores, número de citas, organizaciones, países y principales publicaciones. Por otra, se analiza la producción del conjunto de revistas utilizando SciMAT, software bibliométrico de código abierto para la creación de mapas científicos, identificando los temas que han sido objeto de investigación durante el período de análisis, su composición, relación y evolución. Entre los resultados, se aprecia la especialización de las revistas españolas de Documentación en una serie de temáticas que se han agrupado en cinco grandes áreas, por orden de importancia: Redes sociales y medios digitales; Bibliometría y comunicación académica; Open access, open data y big data; Bibliotecas; y Gestión de la información y el conocimiento. Asimismo, estas revistas han ido abriendo el foco temático hacia otras disciplinas, entre las cuales la Comunicación destaca de manera prominente, como queda reflejado en las categorías temáticas establecidas. El estudio permite establecer un marco de referencia para investigadores del área de Información y Documentación, posibilitando la comprensión de nuevas relaciones y oportunidades de investigación, dentro y fuera del área de conocimiento original.

Se anuncian cambios en el factor de impacto de la revista para 2021

Changes to Journal Impact Factor Announced for 2021 Scholary Kitchen, por PHIL DAVIS 7 DE DICIEMBRE DE 2020

Texto completo

A principios de este otoño, Clarivate Analytics  anunció que estaba pensando en un futuro en el que calculará el factor de impacto de la revista (JIF) en función de la fecha de publicación electrónica y no de la fecha de publicación impresa.

El tiempo de espera entre la publicación en línea y la designación impresa es corto para algunos títulos, puede ser de meses (o incluso años) para otros. Para la mayoría de las revistas en línea, solo hay una fecha de publicación.

Esta discrepancia entre la forma en que Clarivate trataba las revistas impresas tradicionales frente a las revistas solo en línea despertó el escepticismo entre los científicos, algunos de los cuales argumentaron que las largas demoras entre la publicación impresa y en línea beneficiaban a las puntuaciones JIF de las revistas tradicionales sobre los títulos de acceso abierto más nuevos, y sugirieron cínicamente que los editores pueden extender a propósito su retraso en un intento de elevar artificialmente sus puntajes.

Independientemente de si este argumento tiene validez o no (los métodos para contar las citas válidas son problemáticos), los retrasos crean problemas en el registro de citas, especialmente cuando un artículo se ha publicado en línea en un año e impreso en otro, por ejemplo, publicado en línea en Diciembre de 2019 pero que aparece en la edición impresa de enero de 2020.

Esta es solo una de las razones por las que es tan difícil calcular puntuaciones precisas del Factor de impacto de WoS. Al adoptar un nuevo estándar de publicación electrónica, Clarivate ayudará a reducir la ambigüedad en el registro de citas. También hará que sea más fácil y transparente calcular las métricas de citas. 

Web of Science  comenzó a incluir fechas de publicación electrónica («Early Access») en sus registros desde 2017 y ahora incluye esta información para más de 6.000 revistas, aproximadamente la mitad de las más de 12.000 revistas que indexan actualmente.

La próxima publicación de 2021 (utilizando datos de 2020) será un año de transición, en el que las citas de los registros de Early Access se agregarán al numerador del cálculo de JIF, pero se excluirán de los recuentos de publicaciones en el denominador.

El cambio completo al uso de la publicación en línea para el cálculo de los factores de impacto de las revistas (JIF) comenzará en 2022 con los datos de publicación de 2021.

Clarivate identifica a los pioneros científicos mundiales en la lista anual de investigadores altamente citados

Highly Cited Researchers ™ 2020.

La lista anual identifica a los investigadores que demostraron una influencia significativa en su campo o campos elegidos a través de la publicación de múltiples artículos muy citados durante la última década. Sus nombres provienen de las publicaciones que se ubican en el 1% superior por citas por campo y año de publicación en el índice de citas de Web of Science ™.

La metodología que determina el «quién es quién» de los investigadores más influyentes se basa en los datos y análisis realizados por expertos bibliométricos y científicos de datos del Institute for Scientific Information ™ de Clarivate. También utiliza los recuentos para identificar los países y las instituciones de investigación donde se encuentran estas élites científicas.

Estados Unidos domina la lista de investigadores reconocidos por sus pares, pero el panorama global cambia a medida que los investigadores chinos captan una participación del 12%.

Los hallazgos clave para 2020 muestran:

  • Este año han sido reconocidos 6.167 investigadores de más de 60 países y regiones.
  • Si bien Estados Unidos continúa dominando la lista como el país del mayor número de investigadores altamente citados, con 2.650 autores, que representan el 41.5% de los investigadores en la lista, su participación relativa en la lista continúa disminuyendo (44% en 2019). .
  • La Universidad de Harvard, con 188 investigadores, es una vez más la institución con la mayor concentración de investigadores altamente citados en el mundo. Sus vecinos, el Broad Institute y el Massachusetts Institute of Technology, se unen a ellos para encabezar la lista de instituciones líderes a nivel mundial, hogar de 61 y 53 investigadores altamente citados, respectivamente.
  • El lugar de China continental en la lista continúa aumentando; ahora tiene 770 (12,1% o 1: 8) investigadores en la lista, en comparación con 636 o 10,2% en 2019. Su clasificación se ha visto impulsada por la notable entrada en el los diez primeros de la Universidad de Tsinghua, Beijing, subiendo 10 lugares del 19 al 9 en la lista junto con la entrada en 2020 de las universidades de Pekín y Zhejiang a los escalones superiores de la lista.
  • Singapur se muestra con fuerza, representada por la Universidad Tecnológica de Nanyang y la Universidad Nacional de Singapur.
  • Europa también tiene una buena cantidad de buenas noticias. El número de investigadores altamente citados con sede en Alemania y los Países Bajos ha aumentado este año; ambos mostraron una caída el año pasado. La Sociedad Max Planck en Alemania permanece en el número 5 en la lista de instituciones, mientras que la Universidad de Utrecht (27 investigadores) y la Universidad e Investigación de Wageningen (24 investigadores) en los Países Bajos subieron al nivel superior de las universidades enumeradas. El Instituto Suizo de Bioinformática subió 20 puestos en la clasificación institucional con la incorporación de una docena de investigadores altamente citados este año.
  • La lista de este año incluye 26 premios Nobel, incluidos tres anunciados este año

Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science y COCI de OpenCitations: una comparación multidisciplinaria de cobertura a través de citas.

.

Martín-Martín, A., Thelwall, M., Orduna-Malea, E. et al. Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science y COCI de OpenCitations: una comparación multidisciplinaria de cobertura a través de citas. Cienciometría (2020). https://doi.org/10.1007/s11192-020-03690-4

.

Recientemente, han estado disponibles nuevas fuentes de datos de citas, como Microsoft Academic, Dimensions y OpenCitations Index of CrossRef open DOI-to-DOI citations (COCI). Aunque se han comparado con Web of Science Core Collection (WoS), Scopus o Google Scholar, no hay evidencia sistemática de sus diferencias entre las categorías de materias. En respuesta, este artículo investiga 3.073.351 citas encontradas por estas seis fuentes de datos en 2.515 documentos en inglés altamente citados publicados en 2006 de 252 categorías de temas, ampliando y actualizando el estudio anterior más grande. 

Google Scholar encontró el 88% de todas las citas, muchas de las cuales no fueron encontradas por las otras fuentes, y casi todas las citas encontradas por las fuentes restantes (89-94%). Un patrón similar se mantuvo en la mayoría de las categorías temáticas. Microsoft Academic es el segundo más grande en general (60% de todas las citas), incluido el 82% de las citas de Scopus y el 86% de las citas de WoS. 

En la mayoría de las categorías, Microsoft Academic encontró más citas que Scopus y WoS (182 y 223 categorías de materias, respectivamente), pero tuvo brechas de cobertura en algunas áreas, como Física y algunas categorías de Humanidades. 

Después de Scopus, Dimensions ocupa el cuarto lugar más grande (54% de todas las citas), incluido el 84% de las citas de Scopus y el 88% de las citas de WoS. Encontró más citas que Scopus en 36 categorías, más que WoS en 185, y muestra algunas brechas de cobertura, especialmente en Humanidades. 

Después de WoS, COCI es el más pequeño, con el 28% de todas las citas. Google Scholar sigue siendo la fuente más completa. En muchas categorías de materias, Microsoft Academic y Dimensions son buenas alternativas a Scopus y WoS en términos de cobertura.

ResearchGate versus Google Scholar: ¿Cuál encuentra más citas tempranas?

Thelwall, M., & Kousha, K. (2017). ResearchGate versus Google Scholar: Which finds more early citations? Scientometrics112(2), 1125–1131. https://doi.org/10.1007/s11192-017-2400-4

Texto completo

ResearchGate ha lanzado su propio índice de citas extrayendo citas de los documentos cargados en el sitio y reportando los recuentos de citas en las páginas de perfil de los artículos. Dado que los autores pueden cargar preprints en ResearchGate, puede usarlas para proporcionar evidencia de impacto temprana para nuevos artículos. 

Este artículo evalúa si el número de citas encontradas para artículos recientes es comparable a otros índices de citas utilizando 2675 artículos de bibliotecas y ciencias de la información publicados recientemente. 

Los resultados muestran que en marzo de 2017, ResearchGate encontró menos citas que Google Scholar, pero más que Web of Science y Scopus. Esto fue válido para el conjunto de datos en general y para las seis revistas más importantes que contiene. ResearchGate se correlacionó más fuertemente con las citas de Google Scholar, lo que sugiere que ResearchGate no está aprovechando predominantemente una fuente de datos fundamentalmente diferente a la de Google Scholar. No obstante, el intercambio de preimpresiones en ResearchGate es lo suficientemente importante como para que los autores lo tomen en serio.

Clarivate suprime 33 revistas de los grandes editores científicos por exceso de autocitas a sí mismas

 

clarivate-logo

 

ClarivateMajor indexing service sounds alarm on self-citations by nearly 50 journals. Retraction Watch,

Texto completo

 

Más de 33 revistas  han sido suprimidas de Journal impact factor, ya que más del 70% de las citas en una revista se hicieron a otros artículos de esa misma revista. Otra publicó un solo artículo que citaba casi otros 200 artículos en la revista.

 

 

Clarivate, la compañía que gestiona el Factor de Impacto, está tomando medidas para combatir ese comportamiento, suprimiendo 33 revistas de su servicio de indexación y sometiendo a 15 más a observacion, todas por una aparente excesiva auto-citación que impulsó a estas revistas en el ranking de las revistas.

La lista incluye algunas de las grandes compañías del mundo de la edición científica: nueve eran revistas publicadas por Elsevier, siete por Springer Nature, seis por Taylor & Francis y cinco por Wiley.

Dada la dependencia de muchas universidades en los rankings de revistas para juzgar el trabajo de sus investigadores como parte de las decisiones de tenencia y promoción, la supresión de una revista de Clarivate significa negarle un Factor de Impacto, que puede tener efectos a largo plazo. Los factores de impacto se basan en citas promedio de artículos en una revista durante un período de tiempo concreto. Muchos organizaciones,  incluidos Retraction Wacht, han argumentado que el Impact Factor no es la mejor manera de juzgar la investigación, por razones que incluyen la relativa facilidad de manipular tales métricas.

Web of Science de Clarivate indexa 21.000 revistas, pero solo 12.000 están incluidas en el Journal Citation Report (JCR) anual y reciben Factores de Impacto. Actualmente hay dos razones para la supresión de la JCR:

La auticitación de la revista y el «apilamiento de citas», comportamiento que a veces se conoce como participar en «colegios invisibles de citas» o «anillos de citas«. Ninguna de las supresiones de este año fueron por el apilamiento de citas. Cuando la empresa retira una revista del JCR, continúa contando sus citas, pero no le asigna un Factor de Impacto.

La compañía ha cambiado la forma en que considera la autocita y revisó su metodología, dijo la editora en jefe de Web of Science, Nandita Quaderi, en respuesta las pautas que se han observado en los últimos años.

Este año, Clarivate también sometió a 15 revistas a exámenes editoriales de preocupación. Tales revistas tenían un pequeño número de artículos con niveles muy altos de citas a artículos en la misma revista que pueden tener un efecto significativo en el Factor de Impacto y en el ránking. Quaderi dijo que juzgar solo los niveles generales de autocitación de las revistas pasaría por alto tales patrones, porque no tomaría en cuenta directamente cómo estas citas se «concentran» en artículos o períodos de tiempo particulares.

Nada cambia para las revistas JCR sujetas a tales indicadores, pero se monitorean de cerca para su reevaluación y pueden perder sus Factores de Impacto en los años siguientes o ser eliminados de la indexación por completo.

Este movimiento marca solo la segunda vez que Clarivate ha emitido análisis de revisión. En 2018, lo hicieron con cinco revistas en el campo óseo, cuatro de las cuales fueron suprimidas al año siguiente. Las cinco actualmente están de nuevo reintegradas en JCR.

Al menos el 25% de las referencias en todas las revistas suprimidas eran autocitas, con el 71% de las citas en una revista. Un artículo en el Journal of Allergy and Clinical Immunology-In Practice citó otros artículos en la misma revista 191 veces.

Cinco de las revistas suprimidas o marcadas eran en cardiología, incluyendo JACC: Cardiovascular Imaging, que tiene un Factor de Impacto por encima de 10, clasificándo la revista entre las 10 mejores revistas en el campo. Otras tres revistas de cardiología de las que Clarivate ha expresado su preocupación tienen factores de impacto superiores a 5.