Archivo de la etiqueta: Web of Knowledge

Comparando la cobertura de Google Scholar, Microsoft Academic, Dimensions, COCI de CrossRef, Web of Science y Scopus

 

1b3b556695916ac503a49761571d4a3c

 

Alberto Martín-Martín, Mike Thelwall, Enrique Orduna-Malea, Emilio Delgado López-Cózar. Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and OpenCitations’ COCI: a multidisciplinary comparison of coverage via citations. ArXiv, 2020. https://arxiv.org/abs/2004.14329

Descargar artículo

 

El estudio que compara la cobertura en citas de Google Scholar, Microsoft Academic, Dimensions, COCI de CrossRef, Web of Science y Scopus. Se analiza no solo la extensión sino el grado de solapamiento entre ellas, con lo cual os puede orientar a los bibliotecarios y, en general, a los científicos sobre qué fuente es las más adecuada para encontrar información científica exhaustiva y relevante. Es la primera vez que se comparan simultáneamente estas seis fuentes de datos, entre ellas por primera vez Microsoft Academic, Dimensions y Crossref y se hace a gran escala (3.073.353 citas)

 Se ha diseñado una aplicación que os permite comparar entre sí las bases de datos que deseéis y, sobre todo, como rinde cada una de ellas en 252 categorías temáticas. De esta manera podéis conocer con precisión las fortalezas y debilidades de cada base de datos en disciplinas y especialidades de todos los ámbitos de conocimiento. La aplicación se encuentra en: https://cutt.ly/Jyksa9M

 

China prohíbe los incentivos en efectivo por publicar artículos

1020nba-superjumbo

 

Smriti Mallapaty. China bans cash rewards for publishing papers. Nature feb 2020

Ver completo

 

La nueva política aborda los incentivos perversos que impulsan la cultura de ‘publicar o perecer’ y podrían alentar prácticas de investigación cuestionables.

 

En una orden emitida la semana pasada, los ministerios de ciencia y educación de China dicen que las instituciones no deben promover ni reclutar investigadores únicamente en función del número de artículos que publican o de sus citas. Los investigadores dan la bienvenida a la política, pero dicen que podría reducir la competitividad científica del país.

En China, uno de los principales indicadores utilizados actualmente para evaluar a los investigadores, asignar fondos y clasificar a las instituciones es la métrica recopilada por Science Citation Index (SCI), una base de datos de artículos y registros de citas de más de 9,000 revistas. Desde 2009, los artículos en estas revistas escritos por autores de instituciones chinas aumentaron de unos 120.000 al año a 450.000 en 2019. Algunas instituciones incluso pagan bonos a los investigadores por publicar en ellos.

Estas prácticas han incentivado a los investigadores a publicar muchos artículos a expensas de la calidad, dice Jin Xuan, ingeniero químico de la Universidad de Loughborough, Reino Unido. La evidencia sugiere que el enfoque en las métricas también ha impulsado un aumento en las prácticas inapropiadas, como los investigadores que presentan documentos plagiados o fraudulentos, o que citan de manera inapropiada el trabajo propio o de un colega para aumentar las citas.

El objetivo de la nueva política no es disuadir a los investigadores chinos de publicar artículos en revistas que figuran en el SCI, sino detener las prácticas inapropiadas de publicación y citas.

Como parte de la nueva política, las evaluaciones de los investigadores ahora necesitarán usar indicadores de la calidad de la investigación, como cuán innovador es el trabajo, si representa un avance científico significativo o su contribución a la resolución de problemas sociales importantes. Estas evaluaciones también deberían basarse más en las opiniones profesionales de pares expertos, y considerar la investigación en revistas publicadas en China, muchas de las cuales no figuran en el SCI.

 

Dimensiones & VOSViewer Bibliometría y redes de citaciones

 

vosviewer-clustering-visualization-ppwm

Williams, Brett. Dimensions & VOSViewer Bibliometrics in the Reference Interview. Code4Lib, Issue 47, 2020-02-17

Texto completo

 

El software VOSviewer proporciona un fácil acceso a la cartografía bibliométrica utilizando datos de Dimensions, Scopus y Web of Science. Los datos de citaciones debidamente formateados y estructurados y la facilidad con que pueden exportarse abren nuevas vías de utilización durante las búsquedas de citaciones y las entrevistas de referencia. En este documento se detallan técnicas específicas para utilizar búsquedas avanzadas en Dimensiones, exportar los datos de las citas y obtener información de los mapas producidos en VOS Viewer. Estas técnicas de búsqueda y prácticas de exportación de datos son lo suficientemente rápidas y precisas como para incorporarse a las entrevistas de referencia para estudiantes de postgrado, profesores e investigadores post-PhD. Los resultados de búsqueda que se derivan de ellas son precisos y permiten una visión más completa de las redes de citaciones incorporadas en las complejas búsquedas booleanas ordinarias.

VOSviewer es una herramienta gratuita de software para construir y visualizar redes bibliométricas.

 

f8c91372ecf0176183cc1f2591ccd889_large

 

VOSviewer

Manual

VOSviewer Una herramienta de software para analizar y visualizar la literatura científica desarrollado por Nees Jan van Eck y Ludo Waltman del Centro de Estudios de Ciencia y Tecnología (CWTS), de la Universidad de Leiden. No es de código abierto, pero es de uso libre. Se permite, de forma gratuita, utilizar y/o distribuir este software, siempre que se conserve el aviso de copyright anterior. No está permitido modificar este software”

 

VOSviewer es una herramienta de software para construir y visualizar redes bibliométricas. Estas redes pueden incluir, por ejemplo, revistas, investigadores o publicaciones individuales, y pueden construirse sobre la base de la citación, el acoplamiento bibliográfico, la cocitación o las relaciones de coautoría. VOSviewer también ofrece una funcionalidad de minería de textos que puede utilizarse para construir y visualizar redes de coocurrencia de términos importantes extraídos de un cuerpo de literatura científica.

La funcionalidad del VOSviewer puede ser resumidas de la siguiente manera:

  • Creación de mapas basados en datos de la red. Se puede crear un mapa basado en una red que ya está disponible, pero también es posible construir uno de la red. El VOSviewer puede utilizarse para construir redes de publicaciones científicas, revistas científicas, investigadores, organizaciones de investigación, países, palabras clave, o condiciones. Los elementos de estas redes pueden estar conectados por enlaces de co-autoría, co-ocurrencia, citación, acoplamiento bibliográfico o co-citación. Para construir una datos de Web of Science, Scopus, Dimensions, PubMed, RIS, o Crossref JSON se pueden utilizar los archivos.
  • Visualizar y explorar mapas. VOSviewer proporciona tres visualizaciones de un mapa: La visualización de la red, la visualización de la superposición, y la densidad visualización. La función de zoom y desplazamiento que permite explorar un mapa con detalles completos, lo cual es esencial cuando se trabaja con mapas grandes que contienen miles de artículos.

Aunque está destinado principalmente a analizar las redes bibliométricas, de hecho puede utilizarse para crear, visualizar y explorar mapas basados en cualquier tipo de datos de redes.

VOSviewer ha sido desarrollado en el lenguaje de programación Java. Debido a que Java es independiente de la plataforma, La herramienta funciona en la mayoría de las plataformas de hardware y sistemas operativos. Puede descargarse de http://www.vosviewer.com y ser usado libremente para cualquier propósito.

 

 

Adopción del modelo de negocio de acceso abierto en la publicación de revistas científicas – Un estudio transversal

01a780b32e879fd8ce098bf25d5cf998

Björk, B-C., & Korkeamäki, T.. Adoption of the open access business model in scientific journal publishing – A cross-disciplinary study. College & Research Libraries, 2019

Texto completo

En los últimos veinticinco años, las editoriales de revistas científicas se han convertido rápidamente a la difusión predominantemente electrónica, pero el modelo de negocio de “el lector paga” sigue dominando el mercado. La publicación de Acceso Abierto (OA), donde los artículos se pueden leer libremente en la red ha aumentado lentamente su cuota de mercado hasta cerca del 20%, pero no ha logrado cumplir las visiones de rápida proliferación que predijeron muchos de los pioneros del OA. El crecimiento del acceso abierto también ha sido muy desigual en los distintos campos de la ciencia. Se recogen las cuotas de mercado de acceso abierto en dieciocho disciplinas indexadas por Scopus que van desde el 27% (agricultura) hasta el 7% (negocios). Las diferencias son mucho más pronunciadas en las revistas publicadas en los cuatro países, que dominan el ámbito académico comercial. de publicación (EE.UU., Reino Unido, Alemania y los Países Bajos). Se presentan desarrollos contrastados dentro de seis disciplinas académicas. Disponibilidad de fondos para pagar los gastos de publicación, presión de las agencias de investigación en torno a la financiamiento, y la diversidad de culturas de comunicación de la investigación.

Número de revistas y de revistas OA en los principales servicios de indización

Index – No of journals – No of OA journals – OA journal share
WoS 16,257 2,786 17.1 %
Scopus 24,385 4,485 18.4 %
Ullrich’s 82,559 16,224 19.7 %
DOAJ 12,135 100 %
ROAD 16,224 100 %
Cabell’s 10,352 100 %

.

0613a06238e6bef33a8cdc4d779cc78a

Lista de investigadores altamente citados en Web of Science durante 2019

 

hcr-report-2019_cover_page_01

 

Highly Cited Researchers 2019. Clarivate Analytics, 2019

Texto completo

Reconocer a los investigadores más influyentes del mundo de la última década, demostrado por la producción de múltiples trabajos muy citados que se encuentran entre el 1% más alto por citas de campo y año en la Web of Science.

La lista de Investigadores Altamente Citados 2019 del Web of Science Group identifica a científicos y científicos sociales que han demostrado una influencia amplia y significativa, reflejada a través de la publicación de múltiples artículos frecuentemente citados por sus pares durante la última década. Los investigadores son seleccionados por su influencia y rendimiento excepcionales en uno o más de los 21 campos (los utilizados en los Indicadores Esenciales de Ciencia, o ESI) o a través de varios campos.

Estados Unidos es la sede institucional de 2.737 de los investigadores altamente citados 2019, lo que supone el 44,0% del grupo. Por el contrario, de todos los artículos indexados en Web of Science para el periodo 2008-2018, el porcentaje con un autor o coautor estadounidense fue del 25,8%.  China continental ocupa el segundo lugar este año, con 636 Investigadores altamente citados, es decir, el 10,2%. El Reino Unido, con 516 investigadores, es decir, el 8,3%, cae al tercer lugar desde el segundo lugar de la última encuesta, y comercia con la China continental. A continuación, todos con 100 o más Investigadores Altamente Citados, enumeramos Alemania (327), Australia (271), Canadá (183), los Países Bajos (164), Francia (156), Suiza (155) y España (116).

 

Ranking por relevancia y conteos de citas, un estudio comparativo: Google Scholar, Microsoft Academic, WoS y Scopus

 

86606f57ddaaf2c6b1128803ed00c34b

Rovira C, Codina L, ​Guerrero-Solé F, Lopezosa C. Ranking by relevance and citation counts, a comparative study: Google Scholar, Microsoft Academic, WoS and Scopus. Future internet. 2019;11(2):[22 p.]. DOI: 10.3390/fi11090202

Texto completo

 

Search engine optimization (SEO) es el conjunto de métodos diseñados para aumentar la visibilidad y el número de visitas a una página web mediante su posicionamiento en las páginas de resultados de los buscadores. Recientemente, el SEO también se ha aplicado a bases de datos académicas y motores de búsqueda, en una tendencia que está en constante crecimiento. Este nuevo enfoque, conocido como SEO académico (ASEO), ha generado un campo de estudio con un considerable potencial de crecimiento futuro debido al impacto de la ciencia abierta. El estudio que aquí se presenta forma parte de este nuevo campo de análisis. El ranking de resultados es un aspecto clave en cualquier sistema de información, ya que determina la forma en que estos resultados se presentan al usuario. El objetivo de este estudio es analizar y comparar los algoritmos de ranking de relevancia empleados por diversas plataformas académicas para identificar la importancia de las citas recibidas en sus algoritmos. Específicamente, se analizan dos motores de búsqueda y dos bases de datos bibliográficas: Google Scholar y Microsoft Academic, por un lado, y Web of Science y Scopus, por otro. Se emplea una metodología de ingeniería inversa basada en el análisis estadístico de los coeficientes de correlación de Spearman. Los resultados indican que los algoritmos de clasificación utilizados por Google Scholar y Microsoft son los dos más influenciados por las citas recibidas. De hecho, los recuentos de citas son claramente el principal factor de SEO en estos motores de búsqueda académicos. Un hallazgo inesperado es que, en ciertos momentos, Web of Science (WoS) utilizó citas recibidas como un factor clave de clasificación, a pesar del hecho de que los documentos de apoyo de WoS afirman que este factor no interviene.

Comparación del rango topológico de las revistas en Web of Science y Mendeley

 

web-importer-inpage

Katchanov, Y. L., Y. V. Markova, et al. “Comparing the topological rank of journals in Web of Science and Mendeley.” Heliyon vol. 5, n. 7 (2019).

Texto completo

Recientemente, ha habido un aumento del interés por los nuevos datos que han surgido debido al rápido desarrollo de las tecnologías de la información en la comunicación académica. Desde la década de 2010, las altmetrías se ha convertido en una tendencia común en la investigación cienciométrica. Sin embargo, los investigadores no han tratado con mucho detalle la cuestión de las distribuciones de probabilidad subyacentes a estos nuevos datos. El objetivo principal de este estudio fue investigar uno de los problemas clásicos de la cienciometría: el problema de la citación y la distribución de los lectores. El estudio se basa en los datos obtenidos de dos sistemas de información: Web of Science y Mendeley para explorar las diferencias y similitudes entre las citas y el número de lectores de las revistas biológicas indexadas en Web of Science y Mendeley. La idea básica era determinar, para cualquier revista, un “tamaño” (se dice que es el rango topológico) de las distribuciones acumulativas empíricas de citas y lectores, y luego comparar las distribuciones de los rangos topológicos de Web of Science y Mendeley. Para verificar el modelo, se aplicó a la investigación bibliométrica y altimétrica de 305 revistas biológicas indexadas en Journal Citation Reports 2015. Los resultados muestran que ambas distribuciones del rango topológico de las revistas biológicas están estadísticamente próximas a la distribución de Wakeby. Los hallazgos presentados en este estudio contribuyen a nuestra comprensión de los procesos de información de la comunicación académica en el nuevo entorno digital.

Comparación de fuentes de datos bibliográficos: implicaciones para la solidez de las los rankings universitarios

ranking-1024x1024

 

Chun-Kai (Karl) Huang, Cameron Neylon, Chloe Brookes-Kenworthy, Richard Hosking, Lucy Montgomery, Katie Wilson, Alkim Ozaygen. “Comparison of Bibliographic Data Sources: Implications for the Robustness of University Rankings”. bioRxiv, 2019

Texto completo

 

Las universidades se evalúan cada vez más, tanto interna como externamente en función de sus resultados. A menudo, estos se convierten en rankings simples, y con frecuencia disputados, basadas en el análisis cuantitativo de esos resultados. Estos rankings pueden tener implicaciones sustanciales para el reclutamiento de estudiantes y personal, ingresos por investigación y el prestigio percibido de una universidad. Los análisis internos y externos generalmente se basan en una única fuente de datos para definir el conjunto de resultados asignados a una universidad específica. Aunque se documentan algunas diferencias entre tales bases de datos, pocos estudios las exploraron a escala institucional y examinaron las implicaciones de estas diferencias para las métricas y rankings que se derivan de ellas.

Se aborda esta brecha realizando comparaciones bibliográficas detalladas entre tres bases de datos clave: Web of Science (WoS), Scopus y, el recientemente relanzado Microsoft Academic (MSA). Se analizan las diferencias entre los resultados con DOI identificados de cada fuente para una muestra de 155 universidades y complementamos esto con un análisis manual detallado de las diferencias para quince universidades. Se dan diferencias significativas entre las fuentes a nivel universitario. Las fuentes difieren en el año de publicación de objetos específicos, la integridad de los metadatos, así como en su cobertura de disciplinas, puntos de venta y tipo de publicación.

Se construyeron  dos clasificaciones simples basadas en el recuento de citas y el estado de acceso abierto de los resultados para estas universidades y se aprecian cambios dramáticos en la posición según la elección de las fuentes de datos bibliográficos. Las universidades que experimentan los mayores cambios son con frecuencia las de países que no hablan inglés y las que están fuera de los primeros puestos en el ranking internacional de universidades. En general, MSA tiene una mayor cobertura que Scopus o WoS, pero tiene metadatos de afiliación menos completos. 

Se sugiere que las medidas de evaluación sólidas deben considerar el efecto de la elección de las fuentes de datos y recomendar un enfoque en el que los datos de múltiples fuentes se integren para proporcionar un conjunto de datos más robusto

 

El atractivo del factor de impacto de la revista se mantiene intacto, a pesar de sus defectos

 

1f3da530c88bb69a792d947db7bdb391

 

Jon Brock. The allure of the journal impact factor holds firm, despite its flaws. Nature Index. 29 August 2019

Ver compelto

 

Muchos investigadores todavía ven el factor de impacto de la revista (JIF, por sus siglas en inglés) como una medida clave para el progreso en su carrera académica, a pesar de la preocupación de que se trata de una medida errónea del valor de la investigación.

 

El factor de impacto de una revista indexa el número promedio de citas que reciben los artículos recientemente publicados. Como han señalado los críticos, a menudo se basa en un pequeño número de artículos muy citados, es vulnerable a los avatares de la política editorial y no se calcula de forma transparente. No obstante, sigue siendo parte integrante del proceso de revisión, promoción y permanencia en el cargo (RPT) en muchas instituciones académicas.

Una estudio reciente publicado en BioArxiv dirigido por Meredith Niles, profesora asistente del Departamento de Nutrición y Ciencias de los Alimentos de la Universidad de Vermont encuestó a 338 investigadores de 55 universidades de Estados Unidos y Canadá, poniendo de manifiesto que más de un tercio (36%) considera que el facto de impacto es “muy importante”, y un 27% dijo que era “muy importante” a la hora de decidir dónde enviar artículos.

Se encontró que la edad o condición del encuestado no tenía ninguna relación con como percibían el valor del Factor de Impacto de la revista. Si bien, los investigadores jóvenes y no titulares, para quienes consolidar su carrera académica es más importante, le dan más importancia al JIF a la hora de decidir dónde publicar.

Los encuestados también indicaron que creían que sus colegas le daban más importancia al Factor de Impacto que ellos. Niles describe esto como una forma de “superioridad ilusoria”, en la que la gente tiende a verse a sí misma bajo una luz más favorable que a los demás.

Estos resultado indica la necesidad de “conversaciones honestas” sobre lo que realmente importa a la hora de comunicar la investigación académica,

La encuesta es el resultado de un estudio del mismo proyecto, publicado en eLife el mes pasado, que analizó 864 documentos sobre promoción y permanencia en el cargo de 129 universidades norteamericanas. En total, 30 de las instituciones (23%) se refirieron a factores de impacto o frases relacionadas como “revista de alto impacto” en al menos uno de sus documentos. Esta cifra se elevó al 40% para las instituciones más intensivas en investigación.

De las 30 universidades que mencionaron el factor de impacto, la mayoría (87%) apoyaron su uso. Sólo cuatro (13%) expresaron cautela contra su uso., la continua deferencia al factor de impacto da una idea de cómo los científicos pueden ser altamente críticos en su propio campo temático, pero “crédulos y resistentes a la evidencia” al evaluar su productividad.