Archivo de la etiqueta: Web of Science

Los tres grandes de la información científica: una revisión bibliométrica comparativa de Web of Science, Scopus y OpenAlex

Torres-Salinas, Daniel & Arroyo-Machado, Wenceslao (2026). The ‘Big Three’ of Scientific Information: A Comparative Bibliometric Review of Web of Science, Scopus, and OpenAlex (preprint). arXiv:2601.21908. doi:10.48550/arXiv.2601.21908. https://arxiv.org/abs/2601.21908

Se ofrece un análisis comparativo exhaustivo de las tres principales bases de datos bibliográficas multidisciplinares utilizadas globalmente para la evaluación de la investigación científica: Web of Science Core Collection (WoS), Scopus y OpenAlex.

El estudio está motivado por la necesidad de evidencia actualizada que permita a bibliotecarios, gestores de investigación, evaluadores académicos y responsables de políticas comprender las fortalezas y limitaciones de cada fuente en cuanto a cobertura documental, calidad y riqueza de metadatos, diversidad lingüística y funcionalidades disponibles para análisis evaluativos.

La investigación se estructura en dos grandes secciones metodológicas. La primera consiste en una revisión sistemática de la literatura reciente, donde se sintetizan estudios previos sobre volumen de registros, cobertura de acceso abierto, diversidad lingüística, cobertura de referencias y calidad de metadatos en cada uno de los tres sistemas. Se detallan características clave: WoS y Scopus funcionan como bases de datos comerciales con criterios editoriales rigurosos y herramientas analíticas integradas, mientras que OpenAlex, de acceso completamente abierto, destaca por su enorme volumen de registros y su mayor inclusión de fuentes de países del Sur global, aunque también presenta mayores tasas de errores o inconsistencias en metadatos.

La segunda parte del trabajo es un análisis bibliométrico original basado en datos empíricos del período 2015-2024. Este análisis abarca la distribución longitudinal de publicaciones, los tipos documentales, perfiles temáticos, diferencias por idioma y el grado de solapamiento entre bases de datos usando DOI como llave de correspondencia. Este contraste evidencia que WoS y Scopus tienen un alto grado de superposición entre sí, ofreciendo consistencia en sus coberturas, mientras que OpenAlex amplía significativamente la representatividad total, especialmente en idiomas distintos del inglés y en revistas de acceso abierto, aunque con menor precisión en ciertos metadatos básicos (por ejemplo, afiliaciones institucionales, clasificaciones temáticas y años de publicación).

la tabla muestra que OpenAlex contiene un volumen de publicaciones considerablemente mayor en total (36,150,302) que Web of Science (23,508,100) y Scopus (26,645,058), aunque el porcentaje total de cobertura (clasificación completa) es menor —67 % frente a ~98 % en las otras dos bases— lo que indica que en OpenAlex no todas las publicaciones tienen asignada un área temática.

En detalle por áreas temáticas:

  • Ciencias sociales y humanidades:
    Web of Science muestra 2,121,562 publicaciones (9 % del total de su contenido clasificado), Scopus 3,229,265 (12.1 %) y OpenAlex 7,390,532 (20.4 %). Esto indica que OpenAlex tiene una mayor proporción de publicaciones en ciencias sociales y humanidades que las bases comerciales, sugiriendo una cobertura más amplia de este campo.
  • Ciencias biomédicas y de la salud:
    Las tres bases reflejan que esta es el área con más publicaciones. Web of Science tiene 10,178,006 (43.3 %), Scopus 9,932,031 (37.3 %) y OpenAlex 12,473,349 (34.5 %). Aunque OpenAlex tiene más publicaciones absolutas, su porcentaje es menor, lo que puede deberse a su mayor diversidad temática.
  • Ciencias físicas e ingeniería:
    En este campo Web of Science registra 5,429,077 (23.1 %), Scopus 5,984,787 (22.5 %) y OpenAlex 6,435,849 (17.8 %). Aquí también se observa que OpenAlex tiene la menor proporción relativa, probablemente porque su enorme volumen de registros incluye muchos trabajos de otras áreas.
  • Ciencias de la vida y de la tierra:
    Las cifras son: Web of Science con 3,480,765 (14.8 %), Scopus con 4,714,799 (17.7 %) y OpenAlex con 5,556,612 (15.4 %). La proporción de OpenAlex es similar a la de WoS, mientras que Scopus muestra un porcentaje relativamente mayor en esta área.
  • Matemáticas y ciencias de la computación:
    Web of Science tiene 2,298,690 (9.8 %), Scopus 2,784,176 (10.4 %) y OpenAlex 4,293,960 (11.9 %). Aquí también OpenAlex muestra una participación proporcional ligeramente mayor que las otras bases, aunque las cifras absolutas reflejan la amplitud de su cobertura general.

Los resultados globales ponen de manifiesto que ninguna base de datos por sí sola ofrece un panorama completo de la actividad científica mundial: WoS y Scopus destacan por su fiabilidad y calidad editorial, pero son más limitadas en cobertura no anglófona y en contenidos abiertos; OpenAlex, por su parte, proporciona una biodiversidad documental más amplia, aunque requiere ajustes metodológicos adicionales para asegurar la calidad de los datos a nivel evaluativo. El estudio concluye con un resumen de diez puntos principales y propone cinco recomendaciones prácticas, destacando la necesidad de combinar fuentes en evaluaciones estratégicas, adaptar protocolos según objetivos (por ejemplo, evaluación formal vs. estudios exploratorios) e integrar enfoques críticos que mitiguen sesgos geográficos y lingüísticos en el análisis de la literatura científica global.

Clarivate presenta la edición 2025 del Journal Citation Reports con mejoras en la integridad científica y una cobertura sin precedentes

STM Publishing News. 2025. «Clarivate Unveils the 2025 Journal Citation Reports.» STM Publishing News, 18 de junio de 2025. https://www.stm-publishing.com/clarivate-unveils-the-2025-journal-citation-reports/

Clarivate Plc presentó la edición 2025 del Journal Citation Reports (JCR), una herramienta fundamental en la evaluación académica que celebra este año su 50.º aniversario. El informe se ha consolidado como referencia internacional para investigadores, instituciones y editores, proporcionando datos e indicadores que permiten valorar la relevancia e impacto de las revistas científicas en múltiples disciplinas.

Desde su creación hace 50 años por Eugene Garfield, Journal Citation Reports (JCR). ha evolucionado para adaptarse a las necesidades cambiantes de la comunicación científica y este año incorpora mejoras relevantes en favor de la integridad editorial.

La edición 2025 ofrece datos sobre 22 249 revistas académicas procedentes de 111 países y clasificadas en 254 disciplinas. De este total, 14 591 revistas pertenecen al ámbito de las ciencias, 7 559 a las ciencias sociales y 3 368 a las artes y humanidades. Además, más de 6 200 revistas son de acceso abierto de la ruta dorada (gold open access), lo que refleja la creciente importancia de este modelo de publicación. Este año también se incorporan por primera vez 618 revistas con Journal Impact Factor (JIF), lo que demuestra el compromiso de Clarivate con la actualización y ampliación constante de su base de datos.

Una de las novedades más destacadas de esta edición es el cambio metodológico en el cálculo del Journal Impact Factor: a partir de ahora, las citas de o hacia artículos retractados no se contabilizan en el numerador del JIF, aunque dichos artículos siguen formando parte del denominador. Esta decisión busca reforzar la integridad científica, asegurando que las métricas reflejen de manera más precisa la calidad real del contenido publicado. Esta medida afecta aproximadamente al 1 % de las revistas indexadas, y marca un paso relevante en la lucha contra prácticas editoriales poco éticas.

Según Clarivate Journal Citation Reports se presenta como una herramienta editorialmente independiente, sin favorecer a ningún editor en particular. A través de métricas como el JIF o el Journal Citation Indicator, así como estadísticas descriptivas, visualizaciones y datos sobre acceso abierto y procedencia geográfica de los autores, el informe permite una evaluación más completa y matizada del rendimiento de las revistas científicas. Estas herramientas ayudan a investigadores a seleccionar publicaciones adecuadas, a bibliotecas a construir colecciones estratégicas y a editores a posicionar sus revistas en el ecosistema académico global.

Los directivos de Clarivate han subrayado el valor del JCR como instrumento de confianza. La doctora Nandita Quaderi, editora jefe de Web of Science, ha destacado la importancia de preservar el legado de Garfield a través de un sistema más justo y transparente. Por su parte, Emmanuel Thiveaud ha señalado que este informe continúa siendo esencial para fomentar el conocimiento y apoyar la investigación científica en todo el mundo.

Por último, Clarivate pone a disposición de los usuarios numerosos recursos de apoyo, como el acceso a Master Journal List, materiales formativos, documentación técnica y un portal de aprendizaje. Además, el informe ofrece herramientas visuales para facilitar el análisis comparativo entre revistas, disciplinas y regiones geográficas. Con todo ello, la edición 2025 del JCR refuerza su papel como guía imprescindible para evaluar el impacto de la producción científica global.

OpenAlex y Crossref como fuentes de datos bibliográficas alternativas a Web of Science y Scopus en ciencias de la salud.

Cebrián, Guillem, Ángel Borrego y Ernest Abadal. 2025. «OpenAlex y Crossref como fuentes de datos bibliográficas alternativas a Web of Science y Scopus en ciencias de la salud.» Revista Española de Documentación Científica 48 (1). https://doi.org/10.3989/redc.2025.1.1649.

El artículo analiza el valor de OpenAlex y Crossref como fuentes alternativas a las reconocidas bases de datos Web of Science (WoS) y Scopus, particularmente en el campo de las ciencias de la salud. La motivación surge del creciente uso de WoS y Scopus en procesos de evaluación científica, lo que ha derivado en críticas por su falta de transparencia, sesgos comerciales y limitada cobertura temática y geográfica. En este contexto, los autores exploran si OpenAlex y Crossref pueden ofrecer una cobertura más amplia, representativa y abierta.

Para abordar el primer objetivo, los autores partieron de un listado de revistas categorizadas como «Health Sciences» por Scopus. A partir de este conjunto, analizaron cuántas de estas publicaciones estaban indexadas en Crossref, WoS y Scopus. También compararon el país y la editorial de cada revista.

Para el segundo objetivo, se seleccionaron al azar 300 artículos (100 de cada año entre 2017 y 2019) publicados en revistas científicas españolas de ciencias de la salud. Se consultaron las tres bases de datos (OpenAlex, WoS y Scopus) para verificar la presencia de estos artículos, el número de citas que habían recibido, y la completitud de los metadatos (autores, título, año, DOI, etc.). Para acceder a la información de Crossref y OpenAlex, se emplearon consultas mediante sus respectivas APIs.

1. Cobertura de revistas y editoriales

  • Crossref indexa un mayor número de títulos que WoS y Scopus. En concreto, supera en un 18 % a WoS y en un 14 % a Scopus.
  • La cobertura por países y editoriales también es más amplia en Crossref, que muestra una mayor representatividad de editoriales pequeñas o periféricas.
  • Mientras que WoS y Scopus tienden a concentrarse en publicaciones de grandes editoriales y países centrales (EE.UU., Reino Unido, Países Bajos), Crossref incluye una variedad más diversa.

2. Cobertura de artículos y citas en OpenAlex

  • De los 300 artículos muestreados, OpenAlex recuperó el 93 %, mientras que Scopus y WoS recuperaron el 88 % y 82 % respectivamente.
  • El cómputo de citas fue mayor en OpenAlex que en las otras dos bases. En promedio, OpenAlex ofrecía un 23 % más de citas que WoS y un 17 % más que Scopus.
  • En cuanto a la calidad de los metadatos, no hubo grandes diferencias. Las tres bases presentaban niveles similares de completitud, especialmente en campos como título, autores y año. OpenAlex destaca por su apertura y facilidad de acceso a los datos mediante API.

Los resultados confirman que Crossref y OpenAlex ofrecen una cobertura más amplia y representativa, lo que las convierte en herramientas útiles para investigaciones y procesos de evaluación más inclusivos. Su carácter abierto y gratuito constituye una ventaja clara frente a WoS y Scopus, que son plataformas comerciales con acceso limitado.

Sin embargo, los autores también advierten de ciertas limitaciones. Por ejemplo, aunque Crossref ofrece una amplia cobertura de revistas, no todas están actualizadas o bien mantenidas por sus editores. Por otro lado, OpenAlex, al ser un recurso relativamente reciente, aún está en desarrollo y puede presentar inconsistencias ocasionales.

Conclusiones

  1. Crossref presenta una cobertura de revistas superior a WoS y Scopus, tanto en cantidad como en diversidad editorial y geográfica.
  2. OpenAlex muestra mayor cobertura de artículos y citas, así como una calidad de metadatos comparable a la de las otras dos bases.
  3. Ambas plataformas representan una alternativa viable y sólida para estudios bibliométricos, especialmente en un entorno que promueve la ciencia abierta.
  4. Los resultados del estudio pueden servir de base para repensar los criterios de evaluación científica, diversificando las fuentes y apoyando modelos más equitativos y abiertos.

Enfoque innovador para evaluar la calidad de las revistas académicas utilizando inteligencia artificial

Thelwall, Mike, y Kayvan Kousha. 2024. «Journal Quality Factors from ChatGPT: More meaningful than Impact Factors?» arXiv. https://doi.org/10.48550/arXiv.2411.09984.

Este estudio representa el primer intento de utilizar un modelo de lenguaje avanzado como ChatGPT para evaluar la calidad de las revistas académicas. Aunque no busca reemplazar las métricas tradicionales, aporta una dimensión adicional que podría transformar la manera en que se mide la calidad en el ámbito académico, destacando el potencial de la inteligencia artificial en la investigación.

Un reciente artículo publicado en arXiv propone un enfoque innovador para evaluar la calidad de las revistas académicas utilizando inteligencia artificial, específicamente a través de ChatGPT. El estudio, titulado «Journal Quality Factors From ChatGPT: More Meaningful Than Impact Factors?», fue realizado por Mike Thelwall (Universidad de Sheffield) y Kayvan Kousha (Universidad de Wolverhampton). Este trabajo plantea una alternativa a las métricas tradicionales como el Journal Impact Factor (JIF), centrándose en aspectos más amplios de la calidad académica.

Journal Impact Factor, ampliamente utilizado para medir el impacto académico, se basa principalmente en la cantidad de citas recibidas. Sin embargo, esta métrica no evalúa otros aspectos clave, como el impacto social, la originalidad de los artículos o el rigor metodológico. Para abordar esta limitación, los investigadores definieron el Journal Quality Factors (JQFs), como puntuaciones promedio asignadas por ChatGPT para valorar los artículos de una revista considerando una perspectiva más holística.

El análisis incluyó 1.300 revistas que publicaron 130.000 artículos en 2021, cubriendo 25 de los 27 campos principales de investigación definidos por Scopus. El JQF fue comparados con clasificaciones nacionales de revistas de Polonia, Noruega y Finlandia, así como con las tasas de citación de las publicaciones. Además, se examinaron casos atípicos en los que Factor de Impacto no coincidían con las clasificaciones tradicionales, para explorar posibles sesgos o influencias externas.

Principales hallazgos

Correlación con clasificaciones existentes: El JQFs mostraron una correlación positiva y sólida (mediana de 0.641) con los rankings nacionales de revistas en 24 de los 25 campos analizados. Esto sugiere que ChatGPT puede estimar la calidad de las revistas de manera consistente en la mayoría de las disciplinas.

Comparación con las tasas de citación: Las tasas de citación también mostraron correlaciones altas con los rankings nacionales, lo que indica que los JQFs no son necesariamente superiores, pero ofrecen una alternativa igualmente válida.

Influencia del estilo de los resúmenes: Los investigadores encontraron que ciertos estilos de redacción, como la mención de contextos sociales en los resúmenes, pueden influir en las puntuaciones del JQF, destacando la sensibilidad del modelo a los matices de presentación.

El artículo reconoce que los resultados podrían variar si se usaran diferentes sistemas de clasificación, ya que no existe un consenso universal sobre qué define la calidad de una revista. Además, los JQFs, aunque prometedores, no deben reemplazar a las métricas tradicionales en todos los contextos, ya que su utilidad depende del propósito específico de la evaluación.