Archivo de la etiqueta: Web of Knowledge

Clarivate suprime 33 revistas de los grandes editores científicos por exceso de autocitas a sí mismas

 

clarivate-logo

 

ClarivateMajor indexing service sounds alarm on self-citations by nearly 50 journals. Retraction Watch,

Texto completo

 

Más de 33 revistas  han sido suprimidas de Journal impact factor, ya que más del 70% de las citas en una revista se hicieron a otros artículos de esa misma revista. Otra publicó un solo artículo que citaba casi otros 200 artículos en la revista.

 

 

Clarivate, la compañía que gestiona el Factor de Impacto, está tomando medidas para combatir ese comportamiento, suprimiendo 33 revistas de su servicio de indexación y sometiendo a 15 más a observacion, todas por una aparente excesiva auto-citación que impulsó a estas revistas en el ranking de las revistas.

La lista incluye algunas de las grandes compañías del mundo de la edición científica: nueve eran revistas publicadas por Elsevier, siete por Springer Nature, seis por Taylor & Francis y cinco por Wiley.

Dada la dependencia de muchas universidades en los rankings de revistas para juzgar el trabajo de sus investigadores como parte de las decisiones de tenencia y promoción, la supresión de una revista de Clarivate significa negarle un Factor de Impacto, que puede tener efectos a largo plazo. Los factores de impacto se basan en citas promedio de artículos en una revista durante un período de tiempo concreto. Muchos organizaciones,  incluidos Retraction Wacht, han argumentado que el Impact Factor no es la mejor manera de juzgar la investigación, por razones que incluyen la relativa facilidad de manipular tales métricas.

Web of Science de Clarivate indexa 21.000 revistas, pero solo 12.000 están incluidas en el Journal Citation Report (JCR) anual y reciben Factores de Impacto. Actualmente hay dos razones para la supresión de la JCR:

La auticitación de la revista y el “apilamiento de citas”, comportamiento que a veces se conoce como participar en “colegios invisibles de citas” o “anillos de citas“. Ninguna de las supresiones de este año fueron por el apilamiento de citas. Cuando la empresa retira una revista del JCR, continúa contando sus citas, pero no le asigna un Factor de Impacto.

La compañía ha cambiado la forma en que considera la autocita y revisó su metodología, dijo la editora en jefe de Web of Science, Nandita Quaderi, en respuesta las pautas que se han observado en los últimos años.

Este año, Clarivate también sometió a 15 revistas a exámenes editoriales de preocupación. Tales revistas tenían un pequeño número de artículos con niveles muy altos de citas a artículos en la misma revista que pueden tener un efecto significativo en el Factor de Impacto y en el ránking. Quaderi dijo que juzgar solo los niveles generales de autocitación de las revistas pasaría por alto tales patrones, porque no tomaría en cuenta directamente cómo estas citas se “concentran” en artículos o períodos de tiempo particulares.

Nada cambia para las revistas JCR sujetas a tales indicadores, pero se monitorean de cerca para su reevaluación y pueden perder sus Factores de Impacto en los años siguientes o ser eliminados de la indexación por completo.

Este movimiento marca solo la segunda vez que Clarivate ha emitido análisis de revisión. En 2018, lo hicieron con cinco revistas en el campo óseo, cuatro de las cuales fueron suprimidas al año siguiente. Las cinco actualmente están de nuevo reintegradas en JCR.

Al menos el 25% de las referencias en todas las revistas suprimidas eran autocitas, con el 71% de las citas en una revista. Un artículo en el Journal of Allergy and Clinical Immunology-In Practice citó otros artículos en la misma revista 191 veces.

Cinco de las revistas suprimidas o marcadas eran en cardiología, incluyendo JACC: Cardiovascular Imaging, que tiene un Factor de Impacto por encima de 10, clasificándo la revista entre las 10 mejores revistas en el campo. Otras tres revistas de cardiología de las que Clarivate ha expresado su preocupación tienen factores de impacto superiores a 5.

Análisis de la presencia de datos altmétricos en publicaciones de Web of Science en campos temáticos y temas de investigación

 

screen-shot-2018-03-29-at-17.27.43

 

Zhichao Fang, Rodrigo Costas, Wencan Tian, Xianwen Wang, Paul Wouters. An extensive analysis of the presence of altmetric data for Web of Science publications across subject fields and research topics. arXiv:2020

Texto completo 

 

 

La presencia suficiente de datos es una de las condiciones previas clave para aplicar métricas en la práctica. Basado tanto en Altmetric.com y con datos de Mendeley recopilados hasta 2019, este documento se presenta un análisis de vanguardia de la presencia de 12 tipos de datos alternativos para casi 12.3 millones de publicaciones de Web of Science publicadas entre 2012 y 2018.

Los resultados muestran que, aunque La tendencia al alza de la presencia de datos se puede observar con el tiempo, a excepción de los lectores de Mendeley y las menciones de Twitter, la presencia general de la mayoría de los datos de métricas alternativas sigue siendo baja. La mayoría de las menciones alternativas van a publicaciones en los campos de las Ciencias Biomédicas y de la Salud, las Ciencias Sociales y Humanidades, y las Ciencias de la vida y la tierra.

En cuanto a los temas de investigación, el nivel de atención recibido por los temas de investigación varía según los datos altmétricos, y los datos específicos muestran diferentes preferencias para los temas de investigación, sobre la base de la cual se propone y aplica un marco para identificar temas de investigación candentes para detectar temas de investigación con mayores niveles de atención en ciertas fuentes de datos alternativos. Las menciones de Twitter y las citas de documentos de política se seleccionaron como dos ejemplos para identificar temas de interés de investigación de interés de los usuarios de Twitter y los responsables políticos, respectivamente, arrojando luz sobre el potencial de los datos alternativos para monitorear las tendencias de investigación de atención social específica

Herramienta para ver el solapamiento de citas entre Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science y COCI

 

495c1f3ca34d155c0008f9d316ea7337

 

Citation overlap in Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and COCI

https://cutt.ly/Jyksa9M

Se ha diseñado una aplicación que os permite comparar entre sí las bases de datos que deseéis y, sobre todo, como rinde cada una de ellas en 252 categorías temáticas. De esta manera podéis conocer con precisión las fortalezas y debilidades de cada base de datos en disciplinas y especialidades de todos los ámbitos de conocimiento. Permite elegir para comparar el solapamiento de tres índices  entre Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and COCI. Primero seleccionamos el área de conocimiento y después la disciplina.

Ver documento asociado

Martín-Martín, A., Thelwall, M., Orduna-Malea, E., & Delgado López-Cózar, E. (2020). Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and OpenCitations’ COCI: a multidisciplinary comparison of coverage via citations. https://arxiv.org/abs/2004.14329

Comparando la cobertura de Google Scholar, Microsoft Academic, Dimensions, COCI de CrossRef, Web of Science y Scopus

 

1b3b556695916ac503a49761571d4a3c

 

Alberto Martín-Martín, Mike Thelwall, Enrique Orduna-Malea, Emilio Delgado López-Cózar. Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and OpenCitations’ COCI: a multidisciplinary comparison of coverage via citations. ArXiv, 2020. https://arxiv.org/abs/2004.14329

Descargar artículo

 

El estudio que compara la cobertura en citas de Google Scholar, Microsoft Academic, Dimensions, COCI de CrossRef, Web of Science y Scopus. Se analiza no solo la extensión sino el grado de solapamiento entre ellas, con lo cual os puede orientar a los bibliotecarios y, en general, a los científicos sobre qué fuente es las más adecuada para encontrar información científica exhaustiva y relevante. Es la primera vez que se comparan simultáneamente estas seis fuentes de datos, entre ellas por primera vez Microsoft Academic, Dimensions y Crossref y se hace a gran escala (3.073.353 citas)

 Se ha diseñado una aplicación que os permite comparar entre sí las bases de datos que deseéis y, sobre todo, como rinde cada una de ellas en 252 categorías temáticas. De esta manera podéis conocer con precisión las fortalezas y debilidades de cada base de datos en disciplinas y especialidades de todos los ámbitos de conocimiento. La aplicación se encuentra en: https://cutt.ly/Jyksa9M

 

China prohíbe los incentivos en efectivo por publicar artículos

1020nba-superjumbo

 

Smriti Mallapaty. China bans cash rewards for publishing papers. Nature feb 2020

Ver completo

 

La nueva política aborda los incentivos perversos que impulsan la cultura de ‘publicar o perecer’ y podrían alentar prácticas de investigación cuestionables.

 

En una orden emitida la semana pasada, los ministerios de ciencia y educación de China dicen que las instituciones no deben promover ni reclutar investigadores únicamente en función del número de artículos que publican o de sus citas. Los investigadores dan la bienvenida a la política, pero dicen que podría reducir la competitividad científica del país.

En China, uno de los principales indicadores utilizados actualmente para evaluar a los investigadores, asignar fondos y clasificar a las instituciones es la métrica recopilada por Science Citation Index (SCI), una base de datos de artículos y registros de citas de más de 9,000 revistas. Desde 2009, los artículos en estas revistas escritos por autores de instituciones chinas aumentaron de unos 120.000 al año a 450.000 en 2019. Algunas instituciones incluso pagan bonos a los investigadores por publicar en ellos.

Estas prácticas han incentivado a los investigadores a publicar muchos artículos a expensas de la calidad, dice Jin Xuan, ingeniero químico de la Universidad de Loughborough, Reino Unido. La evidencia sugiere que el enfoque en las métricas también ha impulsado un aumento en las prácticas inapropiadas, como los investigadores que presentan documentos plagiados o fraudulentos, o que citan de manera inapropiada el trabajo propio o de un colega para aumentar las citas.

El objetivo de la nueva política no es disuadir a los investigadores chinos de publicar artículos en revistas que figuran en el SCI, sino detener las prácticas inapropiadas de publicación y citas.

Como parte de la nueva política, las evaluaciones de los investigadores ahora necesitarán usar indicadores de la calidad de la investigación, como cuán innovador es el trabajo, si representa un avance científico significativo o su contribución a la resolución de problemas sociales importantes. Estas evaluaciones también deberían basarse más en las opiniones profesionales de pares expertos, y considerar la investigación en revistas publicadas en China, muchas de las cuales no figuran en el SCI.

 

Dimensiones & VOSViewer Bibliometría y redes de citaciones

 

vosviewer-clustering-visualization-ppwm

Williams, Brett. Dimensions & VOSViewer Bibliometrics in the Reference Interview. Code4Lib, Issue 47, 2020-02-17

Texto completo

 

El software VOSviewer proporciona un fácil acceso a la cartografía bibliométrica utilizando datos de Dimensions, Scopus y Web of Science. Los datos de citaciones debidamente formateados y estructurados y la facilidad con que pueden exportarse abren nuevas vías de utilización durante las búsquedas de citaciones y las entrevistas de referencia. En este documento se detallan técnicas específicas para utilizar búsquedas avanzadas en Dimensiones, exportar los datos de las citas y obtener información de los mapas producidos en VOS Viewer. Estas técnicas de búsqueda y prácticas de exportación de datos son lo suficientemente rápidas y precisas como para incorporarse a las entrevistas de referencia para estudiantes de postgrado, profesores e investigadores post-PhD. Los resultados de búsqueda que se derivan de ellas son precisos y permiten una visión más completa de las redes de citaciones incorporadas en las complejas búsquedas booleanas ordinarias.

VOSviewer es una herramienta gratuita de software para construir y visualizar redes bibliométricas.

 

f8c91372ecf0176183cc1f2591ccd889_large

 

VOSviewer

Manual

VOSviewer Una herramienta de software para analizar y visualizar la literatura científica desarrollado por Nees Jan van Eck y Ludo Waltman del Centro de Estudios de Ciencia y Tecnología (CWTS), de la Universidad de Leiden. No es de código abierto, pero es de uso libre. Se permite, de forma gratuita, utilizar y/o distribuir este software, siempre que se conserve el aviso de copyright anterior. No está permitido modificar este software”

 

VOSviewer es una herramienta de software para construir y visualizar redes bibliométricas. Estas redes pueden incluir, por ejemplo, revistas, investigadores o publicaciones individuales, y pueden construirse sobre la base de la citación, el acoplamiento bibliográfico, la cocitación o las relaciones de coautoría. VOSviewer también ofrece una funcionalidad de minería de textos que puede utilizarse para construir y visualizar redes de coocurrencia de términos importantes extraídos de un cuerpo de literatura científica.

La funcionalidad del VOSviewer puede ser resumidas de la siguiente manera:

  • Creación de mapas basados en datos de la red. Se puede crear un mapa basado en una red que ya está disponible, pero también es posible construir uno de la red. El VOSviewer puede utilizarse para construir redes de publicaciones científicas, revistas científicas, investigadores, organizaciones de investigación, países, palabras clave, o condiciones. Los elementos de estas redes pueden estar conectados por enlaces de co-autoría, co-ocurrencia, citación, acoplamiento bibliográfico o co-citación. Para construir una datos de Web of Science, Scopus, Dimensions, PubMed, RIS, o Crossref JSON se pueden utilizar los archivos.
  • Visualizar y explorar mapas. VOSviewer proporciona tres visualizaciones de un mapa: La visualización de la red, la visualización de la superposición, y la densidad visualización. La función de zoom y desplazamiento que permite explorar un mapa con detalles completos, lo cual es esencial cuando se trabaja con mapas grandes que contienen miles de artículos.

Aunque está destinado principalmente a analizar las redes bibliométricas, de hecho puede utilizarse para crear, visualizar y explorar mapas basados en cualquier tipo de datos de redes.

VOSviewer ha sido desarrollado en el lenguaje de programación Java. Debido a que Java es independiente de la plataforma, La herramienta funciona en la mayoría de las plataformas de hardware y sistemas operativos. Puede descargarse de http://www.vosviewer.com y ser usado libremente para cualquier propósito.

 

 

Adopción del modelo de negocio de acceso abierto en la publicación de revistas científicas – Un estudio transversal

01a780b32e879fd8ce098bf25d5cf998

Björk, B-C., & Korkeamäki, T.. Adoption of the open access business model in scientific journal publishing – A cross-disciplinary study. College & Research Libraries, 2019

Texto completo

En los últimos veinticinco años, las editoriales de revistas científicas se han convertido rápidamente a la difusión predominantemente electrónica, pero el modelo de negocio de “el lector paga” sigue dominando el mercado. La publicación de Acceso Abierto (OA), donde los artículos se pueden leer libremente en la red ha aumentado lentamente su cuota de mercado hasta cerca del 20%, pero no ha logrado cumplir las visiones de rápida proliferación que predijeron muchos de los pioneros del OA. El crecimiento del acceso abierto también ha sido muy desigual en los distintos campos de la ciencia. Se recogen las cuotas de mercado de acceso abierto en dieciocho disciplinas indexadas por Scopus que van desde el 27% (agricultura) hasta el 7% (negocios). Las diferencias son mucho más pronunciadas en las revistas publicadas en los cuatro países, que dominan el ámbito académico comercial. de publicación (EE.UU., Reino Unido, Alemania y los Países Bajos). Se presentan desarrollos contrastados dentro de seis disciplinas académicas. Disponibilidad de fondos para pagar los gastos de publicación, presión de las agencias de investigación en torno a la financiamiento, y la diversidad de culturas de comunicación de la investigación.

Número de revistas y de revistas OA en los principales servicios de indización

Index – No of journals – No of OA journals – OA journal share
WoS 16,257 2,786 17.1 %
Scopus 24,385 4,485 18.4 %
Ullrich’s 82,559 16,224 19.7 %
DOAJ 12,135 100 %
ROAD 16,224 100 %
Cabell’s 10,352 100 %

.

0613a06238e6bef33a8cdc4d779cc78a

Lista de investigadores altamente citados en Web of Science durante 2019

 

hcr-report-2019_cover_page_01

 

Highly Cited Researchers 2019. Clarivate Analytics, 2019

Texto completo

Reconocer a los investigadores más influyentes del mundo de la última década, demostrado por la producción de múltiples trabajos muy citados que se encuentran entre el 1% más alto por citas de campo y año en la Web of Science.

La lista de Investigadores Altamente Citados 2019 del Web of Science Group identifica a científicos y científicos sociales que han demostrado una influencia amplia y significativa, reflejada a través de la publicación de múltiples artículos frecuentemente citados por sus pares durante la última década. Los investigadores son seleccionados por su influencia y rendimiento excepcionales en uno o más de los 21 campos (los utilizados en los Indicadores Esenciales de Ciencia, o ESI) o a través de varios campos.

Estados Unidos es la sede institucional de 2.737 de los investigadores altamente citados 2019, lo que supone el 44,0% del grupo. Por el contrario, de todos los artículos indexados en Web of Science para el periodo 2008-2018, el porcentaje con un autor o coautor estadounidense fue del 25,8%.  China continental ocupa el segundo lugar este año, con 636 Investigadores altamente citados, es decir, el 10,2%. El Reino Unido, con 516 investigadores, es decir, el 8,3%, cae al tercer lugar desde el segundo lugar de la última encuesta, y comercia con la China continental. A continuación, todos con 100 o más Investigadores Altamente Citados, enumeramos Alemania (327), Australia (271), Canadá (183), los Países Bajos (164), Francia (156), Suiza (155) y España (116).

 

Ranking por relevancia y conteos de citas, un estudio comparativo: Google Scholar, Microsoft Academic, WoS y Scopus

 

86606f57ddaaf2c6b1128803ed00c34b

Rovira C, Codina L, ​Guerrero-Solé F, Lopezosa C. Ranking by relevance and citation counts, a comparative study: Google Scholar, Microsoft Academic, WoS and Scopus. Future internet. 2019;11(2):[22 p.]. DOI: 10.3390/fi11090202

Texto completo

 

Search engine optimization (SEO) es el conjunto de métodos diseñados para aumentar la visibilidad y el número de visitas a una página web mediante su posicionamiento en las páginas de resultados de los buscadores. Recientemente, el SEO también se ha aplicado a bases de datos académicas y motores de búsqueda, en una tendencia que está en constante crecimiento. Este nuevo enfoque, conocido como SEO académico (ASEO), ha generado un campo de estudio con un considerable potencial de crecimiento futuro debido al impacto de la ciencia abierta. El estudio que aquí se presenta forma parte de este nuevo campo de análisis. El ranking de resultados es un aspecto clave en cualquier sistema de información, ya que determina la forma en que estos resultados se presentan al usuario. El objetivo de este estudio es analizar y comparar los algoritmos de ranking de relevancia empleados por diversas plataformas académicas para identificar la importancia de las citas recibidas en sus algoritmos. Específicamente, se analizan dos motores de búsqueda y dos bases de datos bibliográficas: Google Scholar y Microsoft Academic, por un lado, y Web of Science y Scopus, por otro. Se emplea una metodología de ingeniería inversa basada en el análisis estadístico de los coeficientes de correlación de Spearman. Los resultados indican que los algoritmos de clasificación utilizados por Google Scholar y Microsoft son los dos más influenciados por las citas recibidas. De hecho, los recuentos de citas son claramente el principal factor de SEO en estos motores de búsqueda académicos. Un hallazgo inesperado es que, en ciertos momentos, Web of Science (WoS) utilizó citas recibidas como un factor clave de clasificación, a pesar del hecho de que los documentos de apoyo de WoS afirman que este factor no interviene.