Archivo de la etiqueta: Índices de citas

Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science y COCI de OpenCitations: una comparación multidisciplinaria de cobertura a través de citas.

.

Martín-Martín, A., Thelwall, M., Orduna-Malea, E. et al. Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science y COCI de OpenCitations: una comparación multidisciplinaria de cobertura a través de citas. Cienciometría (2020). https://doi.org/10.1007/s11192-020-03690-4

.

Recientemente, han estado disponibles nuevas fuentes de datos de citas, como Microsoft Academic, Dimensions y OpenCitations Index of CrossRef open DOI-to-DOI citations (COCI). Aunque se han comparado con Web of Science Core Collection (WoS), Scopus o Google Scholar, no hay evidencia sistemática de sus diferencias entre las categorías de materias. En respuesta, este artículo investiga 3.073.351 citas encontradas por estas seis fuentes de datos en 2.515 documentos en inglés altamente citados publicados en 2006 de 252 categorías de temas, ampliando y actualizando el estudio anterior más grande. 

Google Scholar encontró el 88% de todas las citas, muchas de las cuales no fueron encontradas por las otras fuentes, y casi todas las citas encontradas por las fuentes restantes (89-94%). Un patrón similar se mantuvo en la mayoría de las categorías temáticas. Microsoft Academic es el segundo más grande en general (60% de todas las citas), incluido el 82% de las citas de Scopus y el 86% de las citas de WoS. 

En la mayoría de las categorías, Microsoft Academic encontró más citas que Scopus y WoS (182 y 223 categorías de materias, respectivamente), pero tuvo brechas de cobertura en algunas áreas, como Física y algunas categorías de Humanidades. 

Después de Scopus, Dimensions ocupa el cuarto lugar más grande (54% de todas las citas), incluido el 84% de las citas de Scopus y el 88% de las citas de WoS. Encontró más citas que Scopus en 36 categorías, más que WoS en 185, y muestra algunas brechas de cobertura, especialmente en Humanidades. 

Después de WoS, COCI es el más pequeño, con el 28% de todas las citas. Google Scholar sigue siendo la fuente más completa. En muchas categorías de materias, Microsoft Academic y Dimensions son buenas alternativas a Scopus y WoS en términos de cobertura.

Scite: más que un índice de citas

 

scite-classification-screenshot-edited-2-e1591642365317

 

Josh Nicholson. scite: more than just a citation index. LIS bibliometrics, 2020

Ver completo

Scite

 

Josh Nicholson escribe sobre cómo usar Scite, una plataforma para descubrir y evaluar artículos científicos a través de Smart Citations. Smart Citations permite a los usuarios ver cómo se ha citado un artículo científico proporcionando el contexto de la cita y una clasificación que describe si proporciona pruebas que apoyen o contradigan la afirmación citada.

 

 

En diciembre de 2018, publiqué un artículo de opinión titulado “Resolviendo el problema de las noticias falsas en la ciencia”. No me refería a COVID-19, obviamente, sino a la ciencia en general y a cómo podemos saber qué es una investigación fiable. Esa pregunta es especialmente pronunciada hoy en día con una avalancha de investigaciones sobre COVID-19 que se están publicando, la mayoría de ellas sin revisión por pares, y la mayoría de ellas ampliándose directamente al público.

Este problema ha existido durante años, pero siempre se ha sentido como abstracto o como un problema académico. ¿No se puede reproducir un hallazgo en la investigación del cáncer? Eso es malo, pero no me afecta directamente. Ahora, cualquier informe científico sobre COVID-19 puede influir en lo que hace el mundo entero. Cada día tenemos conversaciones con nuestras familias y amigos sobre nuevos hallazgos científicos, discutiendo los méritos y defectos de los estudios como si fuéramos profesores titulares discutiendo la propuesta de un estudiante de doctorado. De la noche a la mañana todos nos hemos convertido en científicos de sillón.

Es sorprendente que la ciencia esté ahora en la vanguardia de la mente de todos, pero también puede tener consecuencias peligrosas. El Presidente de los Estados Unidos dijo recientemente, “HIDROXICLOROQUINA Y AZITROMICINA, en conjunto, tienen una oportunidad real de ser uno de los mayores cambios en la historia de la medicina”. Poco después, una pareja ingirió limpiador de peceras en un intento de evitar el COVID-19, porque contenía una forma de cloroquina; uno de ellos murió y el otro fue hospitalizado.

Ivan Oransky y Adam Marcus, fundadores de Retraction Watch, un sitio web de vigilancia del fraude científico, han escrito que “gran parte de las investigaciones que surjan en las próximas semanas resultarán ser poco fiables, incluso erróneas”. Estaremos bien si recordamos eso”.

¿Pero lo recordaremos? ¿Seremos capaces de identificar lo que resultó correcto y lo que resultó incorrecto? ¿Podemos hacer eso ahora?

Esto es algo con lo que trato diariamente como co-fundador y CEO de scite. scite probablemente se describe mejor a los no científicos y no bibliometristas como Rotten Tomatoes pero para artículos científicos. Usamos la inteligencia artificial para que cualquiera pueda ver si la afirmación hecha en un artículo científico ha sido apoyada o contradicha por una investigación posterior. Para un bibliómetra, somos un índice de citas, y aunque compartimos muchas similitudes con otros índices de citas, como Web of Science, Scopus o Dimensions, hacemos las cosas de forma bastante diferente. Específicamente, mostramos el contexto de la citación o “citación” que rodea a las citaciones recibidas por un resultado de investigación individual; utilizamos el aprendizaje profundo para clasificar las declaraciones de citación por la función retórica. Por ejemplo, ¿la citación del artículo original apoya o contradice la conclusión o recomendación del artículo original? En otras palabras, ¿la investigación anterior es confirmada o refutada por la nueva investigación? Nuestro objetivo es ayudar a avanzar en los indicadores de citación más allá de los datos y métricas cuantitativos, para proporcionar más datos cualitativos y contextuales a la comunidad de bibliométricos, y ofrecer específicamente una orientación útil a los no científicos.

scite no es una solución perfecta y no hay una solución perfecta, pero la innovación de nuevas herramientas, como scite, PubPeer y Get The Research, ofrecen a los científicos y a los no científicos la posibilidad de consumir, digerir y evaluar los resultados de la investigación por su cuenta; sostenemos que puede ser sumamente útil para determinar la veracidad de los artículos de investigación, incluidos los artículos recientes sobre COVID-19. Por ejemplo, este artículo, publicado el 22 de febrero concluye: “Tanto los niveles de IL-6 como de IL-10 mostraron aumentos sostenidos en el grupo grave en comparación con el grupo leve”, lo que sugiere que dos moléculas de señalización específicas son más prevalentes en la enfermedad COVID-19 grave que en la leve. ¿Podemos confiar en ese hallazgo? ¿Lo han probado otros? Mirándolo no se puede saber. Con scite, puedes ver que sólo cinco días después, aparece otra preimpresión con pruebas de apoyo para esta afirmación. Los autores afirman: “De acuerdo con el estudio de Wan S [7] y Liu J [8], este estudio también encontró que los niveles de IL-6 e IL-10 estaban asociados con la severidad de la neumonía COVID-19”.

Hasta la fecha, hemos analizado más de 16 millones de artículos científicos, 60k relacionados con el coronavirus, produciendo más de 600 millones de declaraciones de citas clasificadas como las frases citadas anteriormente, y actualmente añadiendo ~10M por día. Sin embargo, para identificar realmente qué investigación es confiable o no, necesitamos acceder a cada artículo científico que se haya escrito. Esto ha sido un reto dado que la mayoría de las investigaciones están encerradas detrás de los muros de pago. Afortunadamente, los principales editores académicos como Wiley, The British Medical Journal, Karger, Rockefeller University Press, y otros han comenzado a compartir estos con scite. Algunos incluso han empezado a mostrar información de scite directamente en sus artículos.

Estamos entusiasmados con las posibilidades que ofrece la bibliometría para ayudar a los científicos y a los no científicos a comprender mejor la ciencia y nos gustaría invitar a los investigadores a utilizar nuestros datos (de forma gratuita) para realizar sus propios estudios.

 

El índice de citas abiertas COCI supera los 700 millones de citas

opencitations-logo-50-with-words-greybg

 

Crossref Open Citation Index (COCI)

Noticia

 

COCI, el Índice de OpenCitations de Crossref, citas abiertas de DOI a DOI, se amplió el 12 de mayo de 2020 con más de 47 millones de citas adicionales, y ha alcanzado un número total de más de 702 millones de DOI-to- DOI cita enlaces entre más de 58 millones de entidades bibliográficas.

Las citas agregadas en esta quinta versión de COCI provienen del volcado Crossref más reciente descargado el 22 de abril de 2020, que incluye las referencias de los artículos depositados en Crossref entre el 4 de octubre de 2019 y el 4 de abril de 2020. Dichas actualizaciones de COCI ahora ocurrirán regularmente a intervalos bimensuales.

Como consecuencia, COCI ahora contiene 702.772.530 citas, y también incluye publicaciones sobre la pandemia de COVID-19. El índice utilizará esta nueva versión de COCI para actualizar el  conjunto de datos de citas abiertas de Coronavirus , la segunda versión incluirá detalles sobre estas referencias y publicaciones adicionales.

Impacto, calidad de la investigación y revisión científica en el contexto de la ciencia abierta

 

A partir del minuto aproximadamente, se explica de una manera bastante clara y amigable cómo funciona el sistema de comunicación científica, calidad impacto y revisión.

 

Herramienta para ver el solapamiento de citas entre Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science y COCI

 

495c1f3ca34d155c0008f9d316ea7337

 

Citation overlap in Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and COCI

https://cutt.ly/Jyksa9M

Se ha diseñado una aplicación que os permite comparar entre sí las bases de datos que deseéis y, sobre todo, como rinde cada una de ellas en 252 categorías temáticas. De esta manera podéis conocer con precisión las fortalezas y debilidades de cada base de datos en disciplinas y especialidades de todos los ámbitos de conocimiento. Permite elegir para comparar el solapamiento de tres índices  entre Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and COCI. Primero seleccionamos el área de conocimiento y después la disciplina.

Ver documento asociado

Martín-Martín, A., Thelwall, M., Orduna-Malea, E., & Delgado López-Cózar, E. (2020). Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and OpenCitations’ COCI: a multidisciplinary comparison of coverage via citations. https://arxiv.org/abs/2004.14329

Comparando la cobertura de Google Scholar, Microsoft Academic, Dimensions, COCI de CrossRef, Web of Science y Scopus

 

1b3b556695916ac503a49761571d4a3c

 

Alberto Martín-Martín, Mike Thelwall, Enrique Orduna-Malea, Emilio Delgado López-Cózar. Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and OpenCitations’ COCI: a multidisciplinary comparison of coverage via citations. ArXiv, 2020. https://arxiv.org/abs/2004.14329

Descargar artículo

 

El estudio que compara la cobertura en citas de Google Scholar, Microsoft Academic, Dimensions, COCI de CrossRef, Web of Science y Scopus. Se analiza no solo la extensión sino el grado de solapamiento entre ellas, con lo cual os puede orientar a los bibliotecarios y, en general, a los científicos sobre qué fuente es las más adecuada para encontrar información científica exhaustiva y relevante. Es la primera vez que se comparan simultáneamente estas seis fuentes de datos, entre ellas por primera vez Microsoft Academic, Dimensions y Crossref y se hace a gran escala (3.073.353 citas)

 Se ha diseñado una aplicación que os permite comparar entre sí las bases de datos que deseéis y, sobre todo, como rinde cada una de ellas en 252 categorías temáticas. De esta manera podéis conocer con precisión las fortalezas y debilidades de cada base de datos en disciplinas y especialidades de todos los ámbitos de conocimiento. La aplicación se encuentra en: https://cutt.ly/Jyksa9M

 

Introducción de nuevos datos de acceso abierto en Journal Citation Reports

 

oa-analysis-bjp-002

 

Introducing new open access data in Journal Citation Reports Dr Nandita Quaderi DR NANDITA QUADERI Editor-in-Chief of the Web of Science Clarivate. 23/04/2020

Ver completo

PDF

Ver video

 

Los nuevos datos muestran los artículos de cada revista por modelo de acceso. Esto proporciona a la comunidad investigadora información transparente y neutral para el editor sobre la contribución relativa de los artículos publicados de forma gratuita para leer y reutilizar bajo licencias Creative Commons (acceso abierto de la ruta dorada) respecto al volumen general de contenido y citas de una revista. 

 

 

El panorama editorial de la investigación está experimentando un cambio rápido, interrumpiendo el modelo tradicional de suscripción y reemplazándolo por modelos de acceso abierto. Los financiadores, los bibliotecarios y los editores buscan mejorar la transparencia del acceso abierto, sometiendo a los editores a una presión cada vez mayor para eliminar o acortar los embargos, mejorar las opciones de acceso abierto y ‘cambiar’ los modelos de suscripción tradicional o las revistas híbridas para que todos los artículos de investigación sean de libre acceso y reutilizables tras la publicación a través de una licencia Creative Commons, generalmente conocida como OA de la ruta dorada.

Para ello la nueva herramienta incorporada a Journal Citation Reports (JCR) – en beta hasta el lanzamiento de en junio de 2020- permitirá que los usuarios puedan comparar rápida y fácilmente en las aproximadamente 5.200 revistas híbridas en Journal Citation Report los siguientes datos:

  • la cantidad de artículos publicados a través del modelo de suscripción tradicional, y
  • los publicados a través de licencias Creative Commons.

La introducción de estos datos adicionales en JCR nos ayudará a todos a comprender el impacto del contenido académico publicado a través de OA de oro.

 

China prohíbe los incentivos en efectivo por publicar artículos

1020nba-superjumbo

 

Smriti Mallapaty. China bans cash rewards for publishing papers. Nature feb 2020

Ver completo

 

La nueva política aborda los incentivos perversos que impulsan la cultura de ‘publicar o perecer’ y podrían alentar prácticas de investigación cuestionables.

 

En una orden emitida la semana pasada, los ministerios de ciencia y educación de China dicen que las instituciones no deben promover ni reclutar investigadores únicamente en función del número de artículos que publican o de sus citas. Los investigadores dan la bienvenida a la política, pero dicen que podría reducir la competitividad científica del país.

En China, uno de los principales indicadores utilizados actualmente para evaluar a los investigadores, asignar fondos y clasificar a las instituciones es la métrica recopilada por Science Citation Index (SCI), una base de datos de artículos y registros de citas de más de 9,000 revistas. Desde 2009, los artículos en estas revistas escritos por autores de instituciones chinas aumentaron de unos 120.000 al año a 450.000 en 2019. Algunas instituciones incluso pagan bonos a los investigadores por publicar en ellos.

Estas prácticas han incentivado a los investigadores a publicar muchos artículos a expensas de la calidad, dice Jin Xuan, ingeniero químico de la Universidad de Loughborough, Reino Unido. La evidencia sugiere que el enfoque en las métricas también ha impulsado un aumento en las prácticas inapropiadas, como los investigadores que presentan documentos plagiados o fraudulentos, o que citan de manera inapropiada el trabajo propio o de un colega para aumentar las citas.

El objetivo de la nueva política no es disuadir a los investigadores chinos de publicar artículos en revistas que figuran en el SCI, sino detener las prácticas inapropiadas de publicación y citas.

Como parte de la nueva política, las evaluaciones de los investigadores ahora necesitarán usar indicadores de la calidad de la investigación, como cuán innovador es el trabajo, si representa un avance científico significativo o su contribución a la resolución de problemas sociales importantes. Estas evaluaciones también deberían basarse más en las opiniones profesionales de pares expertos, y considerar la investigación en revistas publicadas en China, muchas de las cuales no figuran en el SCI.

 

Ciencia a través de Wikipedia: una representación novedosa del conocimiento abierto a través de redes de co-citas

 

20130504_blp510

 

Arroyo-Machado, Wenceslao ; Torres-Salinas, Daniel; Herrera-Viedma, Enrique ; Romero-Frías, Esteban. Science Through Wikipedia: A Novel Representation of Open Knowledge Through Co-Citation Networks. PLoS ONE. DOI: https://doi.org/10.1371/journal.pone.0228713

Texto completo

 

Este estudio proporciona una visión general de la ciencia desde la perspectiva de Wikipedia. Se estableció una metodología para el análisis de cómo los editores de Wikipedia consideran la ciencia a través de sus referencias a artículos científicos.

El método de co-citación se ha adaptado a este contexto para generar redes Pathfinder (PFNET) que resalten las revistas y categorías científicas más relevantes, y sus interacciones para descubrir cómo se consume la literatura científica a través de esta enciclopedia abierta. Además de esto, su obsolescencia ha sido estudiada a través del índice de precios.

Inicialmente se ha tenido en cuenta un total de 1 433 457 referencias disponibles en  Altmetric.com . Después de preprocesarlos y vincularlos a los datos de CiteScore Metrics de Elsevier, la muestra se redujo a 847 512 referencias hechas por 193.802 artículos de Wikipedia a 598.746 artículos científicos pertenecientes a 14 149 revistas indexadas en Scopus.

Como resultados resaltados, se encontró una presencia significativa de artículos de “Medicina” y “Bioquímica, Genética y Biología Molecular” y que las revistas más importantes son de naturaleza multidisciplinaria, lo que sugiere también que las revistas de factores de alto impacto tenían más probabilidades de ser citadas. Además, solo el 13.44% de las citas de Wikipedia corresponden a revistas de acceso abierto.

Adopción del modelo de negocio de acceso abierto en la publicación de revistas científicas – Un estudio transversal

01a780b32e879fd8ce098bf25d5cf998

Björk, B-C., & Korkeamäki, T.. Adoption of the open access business model in scientific journal publishing – A cross-disciplinary study. College & Research Libraries, 2019

Texto completo

En los últimos veinticinco años, las editoriales de revistas científicas se han convertido rápidamente a la difusión predominantemente electrónica, pero el modelo de negocio de “el lector paga” sigue dominando el mercado. La publicación de Acceso Abierto (OA), donde los artículos se pueden leer libremente en la red ha aumentado lentamente su cuota de mercado hasta cerca del 20%, pero no ha logrado cumplir las visiones de rápida proliferación que predijeron muchos de los pioneros del OA. El crecimiento del acceso abierto también ha sido muy desigual en los distintos campos de la ciencia. Se recogen las cuotas de mercado de acceso abierto en dieciocho disciplinas indexadas por Scopus que van desde el 27% (agricultura) hasta el 7% (negocios). Las diferencias son mucho más pronunciadas en las revistas publicadas en los cuatro países, que dominan el ámbito académico comercial. de publicación (EE.UU., Reino Unido, Alemania y los Países Bajos). Se presentan desarrollos contrastados dentro de seis disciplinas académicas. Disponibilidad de fondos para pagar los gastos de publicación, presión de las agencias de investigación en torno a la financiamiento, y la diversidad de culturas de comunicación de la investigación.

Número de revistas y de revistas OA en los principales servicios de indización

Index – No of journals – No of OA journals – OA journal share
WoS 16,257 2,786 17.1 %
Scopus 24,385 4,485 18.4 %
Ullrich’s 82,559 16,224 19.7 %
DOAJ 12,135 100 %
ROAD 16,224 100 %
Cabell’s 10,352 100 %

.

0613a06238e6bef33a8cdc4d779cc78a