Archivo de la etiqueta: Web of Knowledge

Proceso de evaluación y criterios de selección de la revista Web of Science

Web of Science Core Collection journal evaluation criteria

PDF Inglés

Ver completo

Según Clarivate los principios básicos del proceso de selección siguen siendo los mismos: objetividad, selectividad y dinámica de cobranza. Se usa un conjunto de 28 criterios para evaluar revistas; estos se dividen en 24 criterios de calidad diseñados para seleccionar el rigor editorial y las mejores prácticas a nivel de revista, y cuatro criterios de impacto diseñados para seleccionar las revistas más influyentes en sus respectivos campos utilizando la actividad de citas como el principal indicador de impacto.

Las revistas que cumplen con los criterios de calidad ingresan al Emerging Sources Citation Index ™ (ESCI). Las revistas que cumplen con los criterios de impacto adicionales ingresan al Science Citation Index Expanded ™ (SCIE), Social Sciences Citation Index ™ (SSCI) o Arts & Humanities Citation Index (AHCI) según su área temática.

En este proceso, las revistas se reevalúan primero para determinar su calidad y la evaluación de impacto está sujeta a que se cumpla con la calidad. Si se cumplen los criterios de calidad e impacto, las revistas se trasladan a una colección emblemática. El equipo editorial de Web of Science se centra en las nuevas evaluaciones durante la primera mitad del año, la segunda mitad está dedicada a las reevaluaciones. Las revistas cubiertas se evalúan continuamente para determinar su calidad.

Cuando se completa la evaluación, se informará al editor del resultado y la revista:

  • ser eliminado de la cobertura si ya no cumple con los criterios de calidad
  • o permanecer si continúa cumpliendo con los criterios de calidad.

Si la revista cumple con los criterios de calidad, se indexará cualquier contenido que falte. Si la revista se elimina de la cobertura, el contenido no se completará. En los casos más graves de incumplimiento de los estándares editoriales de la revista, según lo determinen nuestros criterios de selección, el contenido publicado puede eliminarse de Web of Science ™. Los plazos para completar una reevaluación dependerán de las circunstancias particulares de cada caso.

Triaje inicial

El propósito principal de este paso de clasificación es garantizar una identificación inequívoca de la revista enviada para evaluación y saber a quién contactar si tenemos alguna duda o inquietud. No hay un período de embargo para volver a enviarlo si una revista no pasa la clasificación inicial.

  • Contiene ISSN,
  • Título, editor,
  • URL,
  • Acceso al contenido,
  • Presencia de la política de revisión por pares,
  • Detalles de contacto.

Triaje editorial

En este paso, los editores de Web of Science revisan la revista para determinar si se merece una evaluación editorial completa. No existe un período de embargo para reenvío si una revista no pasa la clasificación editorial. Exigencias:

  • Contenido académico
  • Títulos de artículos y resúmenes de artículos en inglés
  • Información bibliográfica en escritura romana
  • Claridad del lenguaje,
  • Puntualidad y / o volumen de publicación
  • Funcionalidad del sitio web / formato de revista
  • Presencia en declaraciones éticas
  • Detalles de afiliación editorial
  • Detalles de afiliación del autor

Evaluación editorial (calidad)

En este paso, los editores de Web of Science están verificando la alineación entre el título de la revista, el alcance declarado, la composición de su comité editorial y autoría, y su contenido publicado. También buscan pruebas de rigor editorial y adherencia a los estándares de la comunidad. Si una revista no pasa este paso, el reenvío está sujeto a un período de embargo de al menos dos años.

  • Composición de la Junta Editorial
  • Validez de las declaraciones
  • Revisión por pares
  • Relevancia del contenido
  • Detalles de la subvención
  • Adherencia a los estándares comunitarios
  • Distribución de autor
  • Citas apropiadas a la literatura

Evaluación editorial (impacto)

Los criterios en este paso están diseñados para seleccionar las revistas más influyentes en un campo de investigación determinado, utilizando la actividad de citas como un indicador principal de impacto. Si una revista no pasa este paso, la reevaluación está sujeta a un período de embargo de al menos dos años.

  • Análisis comparativo de citas
  • Análisis de citas del autor
  • Análisis de citas de la junta editorial
  • Importancia del contenido

Los cambios en la fecha de publicación afectarán al factor de impacto de la revista en Web of Knowledge

Changing Journal Impact Factor Rules Creates Unfair Playing Field For Some By PHIL DAVIS. Scholarly Kitchen FEB 1, 2021

Ver completo

La transición a un modelo que tiene cuenta la publicación en función de la fecha de publicación en línea, en lugar de la publicación impresa, aumentará la siguiente ronda de puntajes de Journal Impact Factor (JIF).

El cambio a un modelo de recuento basado en la fecha de publicación electrónica se esperaba desde hace mucho tiempo. Sin embargo, el nuevo modelo puede dar lugar a cambios inesperados en los puntajes del JIF y en la clasificación de las revistas porque Clarivate carece de datos de publicación en línea para aproximadamente la mitad de las revistas que indexa.

Esto no es un problema cuando un artículo se publicó electrónicamente, digamos, en marzo de 2020, pero se asignó a la edición de agosto de 2020 de la revista. Sin embargo, plantea un problema cuando el documento se publicó electrónicamente en un año (por ejemplo, el 16 de noviembre de 2019) pero se asignó a otro año (por ejemplo, enero de 2020). El modelo anterior la considera una publicación de 2020, mientras que el nuevo modelo la considera una publicación de 2019. Las revistas que emplean un modelo de publicación continua en línea sin designación de número no se ven afectadas.

Los autores del informe , Marie McVeigh, Jefa de Integridad Editorial, y la Dra. Nandita Quaderi, Editora en Jefe de Web of Science, consideran los efectos de adoptar dos nuevos modelos de conteo: un modelo Retroactivo, en el que el próximo JIF se basa en datos anteriores; y un modelo Prospectivo, en el que comienzan a contar a partir de 2020. 

En esencia, las revistas con altos niveles de autocitas y largos períodos de retraso entre la publicación electrónica y la designación impresa son particularmente sensibles a cambios masivos en su próxima puntuación JIF. Sin embargo, incluso las revistas con tasas de autocitas relativamente bajas y retrasos de publicación cortos se ven lo suficientemente afectadas como para cambiar su clasificación por encima de los competidores que no tienen datos de publicación electrónica en la Web of Science. Y, dado que la indexación de la fecha de publicación electrónica depende del editor, es probable que veamos grandes ganadores y grandes perdedores si Clarivate continúa con su nuevo modelo de conteo.

Revistas españolas de Documentación en Web of Science: análisis bibliométrico y evolución temática de 2015 a 2019.

Guallar, Javier and López-Robles, José-Ricardo and Abadal, Ernest and Gamboa-Rosales, Nadia-Karina and Cobo, Manuel-Jesús Revistas españolas de Documentación en Web of Science: análisis bibliométrico y evolución temática de 2015 a 2019. Profesional de la información, 2020, vol. 29, n. 6.

Texto completo

Las revistas científicas son el instrumento fundamental para la difusión de los resultados de la investigación. Las revistas españolas de Documentación han conseguido una presencia destacada en bases de datos internacionales. A partir del estudio de los artículos publicados en ellas se puede conocer cuál es la evolución temática de la investigación en Documentación, un asunto sobre el que existen pocos estudios. En este artículo se presenta un análisis bibliométrico y temático de las revistas españolas incluidas en el área de conocimiento de Information Science & Library Science de Web of Science entre 2015 y 2019. Por una parte, se identifica y analiza la producción de las revistas de manera individual y conjunta según los datos disponibles en la Web of Science Core Collection, atendiendo a la productividad de los autores, número de citas, organizaciones, países y principales publicaciones. Por otra, se analiza la producción del conjunto de revistas utilizando SciMAT, software bibliométrico de código abierto para la creación de mapas científicos, identificando los temas que han sido objeto de investigación durante el período de análisis, su composición, relación y evolución. Entre los resultados, se aprecia la especialización de las revistas españolas de Documentación en una serie de temáticas que se han agrupado en cinco grandes áreas, por orden de importancia: Redes sociales y medios digitales; Bibliometría y comunicación académica; Open access, open data y big data; Bibliotecas; y Gestión de la información y el conocimiento. Asimismo, estas revistas han ido abriendo el foco temático hacia otras disciplinas, entre las cuales la Comunicación destaca de manera prominente, como queda reflejado en las categorías temáticas establecidas. El estudio permite establecer un marco de referencia para investigadores del área de Información y Documentación, posibilitando la comprensión de nuevas relaciones y oportunidades de investigación, dentro y fuera del área de conocimiento original.

Se anuncian cambios en el factor de impacto de la revista para 2021

Changes to Journal Impact Factor Announced for 2021 Scholary Kitchen, por PHIL DAVIS 7 DE DICIEMBRE DE 2020

Texto completo

A principios de este otoño, Clarivate Analytics  anunció que estaba pensando en un futuro en el que calculará el factor de impacto de la revista (JIF) en función de la fecha de publicación electrónica y no de la fecha de publicación impresa.

El tiempo de espera entre la publicación en línea y la designación impresa es corto para algunos títulos, puede ser de meses (o incluso años) para otros. Para la mayoría de las revistas en línea, solo hay una fecha de publicación.

Esta discrepancia entre la forma en que Clarivate trataba las revistas impresas tradicionales frente a las revistas solo en línea despertó el escepticismo entre los científicos, algunos de los cuales argumentaron que las largas demoras entre la publicación impresa y en línea beneficiaban a las puntuaciones JIF de las revistas tradicionales sobre los títulos de acceso abierto más nuevos, y sugirieron cínicamente que los editores pueden extender a propósito su retraso en un intento de elevar artificialmente sus puntajes.

Independientemente de si este argumento tiene validez o no (los métodos para contar las citas válidas son problemáticos), los retrasos crean problemas en el registro de citas, especialmente cuando un artículo se ha publicado en línea en un año e impreso en otro, por ejemplo, publicado en línea en Diciembre de 2019 pero que aparece en la edición impresa de enero de 2020.

Esta es solo una de las razones por las que es tan difícil calcular puntuaciones precisas del Factor de impacto de WoS. Al adoptar un nuevo estándar de publicación electrónica, Clarivate ayudará a reducir la ambigüedad en el registro de citas. También hará que sea más fácil y transparente calcular las métricas de citas. 

Web of Science  comenzó a incluir fechas de publicación electrónica (“Early Access”) en sus registros desde 2017 y ahora incluye esta información para más de 6.000 revistas, aproximadamente la mitad de las más de 12.000 revistas que indexan actualmente.

La próxima publicación de 2021 (utilizando datos de 2020) será un año de transición, en el que las citas de los registros de Early Access se agregarán al numerador del cálculo de JIF, pero se excluirán de los recuentos de publicaciones en el denominador.

El cambio completo al uso de la publicación en línea para el cálculo de los factores de impacto de las revistas (JIF) comenzará en 2022 con los datos de publicación de 2021.

Clarivate identifica a los pioneros científicos mundiales en la lista anual de investigadores altamente citados

Highly Cited Researchers ™ 2020.

La lista anual identifica a los investigadores que demostraron una influencia significativa en su campo o campos elegidos a través de la publicación de múltiples artículos muy citados durante la última década. Sus nombres provienen de las publicaciones que se ubican en el 1% superior por citas por campo y año de publicación en el índice de citas de Web of Science ™.

La metodología que determina el “quién es quién” de los investigadores más influyentes se basa en los datos y análisis realizados por expertos bibliométricos y científicos de datos del Institute for Scientific Information ™ de Clarivate. También utiliza los recuentos para identificar los países y las instituciones de investigación donde se encuentran estas élites científicas.

Estados Unidos domina la lista de investigadores reconocidos por sus pares, pero el panorama global cambia a medida que los investigadores chinos captan una participación del 12%.

Los hallazgos clave para 2020 muestran:

  • Este año han sido reconocidos 6.167 investigadores de más de 60 países y regiones.
  • Si bien Estados Unidos continúa dominando la lista como el país del mayor número de investigadores altamente citados, con 2.650 autores, que representan el 41.5% de los investigadores en la lista, su participación relativa en la lista continúa disminuyendo (44% en 2019). .
  • La Universidad de Harvard, con 188 investigadores, es una vez más la institución con la mayor concentración de investigadores altamente citados en el mundo. Sus vecinos, el Broad Institute y el Massachusetts Institute of Technology, se unen a ellos para encabezar la lista de instituciones líderes a nivel mundial, hogar de 61 y 53 investigadores altamente citados, respectivamente.
  • El lugar de China continental en la lista continúa aumentando; ahora tiene 770 (12,1% o 1: 8) investigadores en la lista, en comparación con 636 o 10,2% en 2019. Su clasificación se ha visto impulsada por la notable entrada en el los diez primeros de la Universidad de Tsinghua, Beijing, subiendo 10 lugares del 19 al 9 en la lista junto con la entrada en 2020 de las universidades de Pekín y Zhejiang a los escalones superiores de la lista.
  • Singapur se muestra con fuerza, representada por la Universidad Tecnológica de Nanyang y la Universidad Nacional de Singapur.
  • Europa también tiene una buena cantidad de buenas noticias. El número de investigadores altamente citados con sede en Alemania y los Países Bajos ha aumentado este año; ambos mostraron una caída el año pasado. La Sociedad Max Planck en Alemania permanece en el número 5 en la lista de instituciones, mientras que la Universidad de Utrecht (27 investigadores) y la Universidad e Investigación de Wageningen (24 investigadores) en los Países Bajos subieron al nivel superior de las universidades enumeradas. El Instituto Suizo de Bioinformática subió 20 puestos en la clasificación institucional con la incorporación de una docena de investigadores altamente citados este año.
  • La lista de este año incluye 26 premios Nobel, incluidos tres anunciados este año

Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science y COCI de OpenCitations: una comparación multidisciplinaria de cobertura a través de citas.

.

Martín-Martín, A., Thelwall, M., Orduna-Malea, E. et al. Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science y COCI de OpenCitations: una comparación multidisciplinaria de cobertura a través de citas. Cienciometría (2020). https://doi.org/10.1007/s11192-020-03690-4

.

Recientemente, han estado disponibles nuevas fuentes de datos de citas, como Microsoft Academic, Dimensions y OpenCitations Index of CrossRef open DOI-to-DOI citations (COCI). Aunque se han comparado con Web of Science Core Collection (WoS), Scopus o Google Scholar, no hay evidencia sistemática de sus diferencias entre las categorías de materias. En respuesta, este artículo investiga 3.073.351 citas encontradas por estas seis fuentes de datos en 2.515 documentos en inglés altamente citados publicados en 2006 de 252 categorías de temas, ampliando y actualizando el estudio anterior más grande. 

Google Scholar encontró el 88% de todas las citas, muchas de las cuales no fueron encontradas por las otras fuentes, y casi todas las citas encontradas por las fuentes restantes (89-94%). Un patrón similar se mantuvo en la mayoría de las categorías temáticas. Microsoft Academic es el segundo más grande en general (60% de todas las citas), incluido el 82% de las citas de Scopus y el 86% de las citas de WoS. 

En la mayoría de las categorías, Microsoft Academic encontró más citas que Scopus y WoS (182 y 223 categorías de materias, respectivamente), pero tuvo brechas de cobertura en algunas áreas, como Física y algunas categorías de Humanidades. 

Después de Scopus, Dimensions ocupa el cuarto lugar más grande (54% de todas las citas), incluido el 84% de las citas de Scopus y el 88% de las citas de WoS. Encontró más citas que Scopus en 36 categorías, más que WoS en 185, y muestra algunas brechas de cobertura, especialmente en Humanidades. 

Después de WoS, COCI es el más pequeño, con el 28% de todas las citas. Google Scholar sigue siendo la fuente más completa. En muchas categorías de materias, Microsoft Academic y Dimensions son buenas alternativas a Scopus y WoS en términos de cobertura.

ResearchGate versus Google Scholar: ¿Cuál encuentra más citas tempranas?

Thelwall, M., & Kousha, K. (2017). ResearchGate versus Google Scholar: Which finds more early citations? Scientometrics112(2), 1125–1131. https://doi.org/10.1007/s11192-017-2400-4

Texto completo

ResearchGate ha lanzado su propio índice de citas extrayendo citas de los documentos cargados en el sitio y reportando los recuentos de citas en las páginas de perfil de los artículos. Dado que los autores pueden cargar preprints en ResearchGate, puede usarlas para proporcionar evidencia de impacto temprana para nuevos artículos. 

Este artículo evalúa si el número de citas encontradas para artículos recientes es comparable a otros índices de citas utilizando 2675 artículos de bibliotecas y ciencias de la información publicados recientemente. 

Los resultados muestran que en marzo de 2017, ResearchGate encontró menos citas que Google Scholar, pero más que Web of Science y Scopus. Esto fue válido para el conjunto de datos en general y para las seis revistas más importantes que contiene. ResearchGate se correlacionó más fuertemente con las citas de Google Scholar, lo que sugiere que ResearchGate no está aprovechando predominantemente una fuente de datos fundamentalmente diferente a la de Google Scholar. No obstante, el intercambio de preimpresiones en ResearchGate es lo suficientemente importante como para que los autores lo tomen en serio.

Clarivate suprime 33 revistas de los grandes editores científicos por exceso de autocitas a sí mismas

 

clarivate-logo

 

ClarivateMajor indexing service sounds alarm on self-citations by nearly 50 journals. Retraction Watch,

Texto completo

 

Más de 33 revistas  han sido suprimidas de Journal impact factor, ya que más del 70% de las citas en una revista se hicieron a otros artículos de esa misma revista. Otra publicó un solo artículo que citaba casi otros 200 artículos en la revista.

 

 

Clarivate, la compañía que gestiona el Factor de Impacto, está tomando medidas para combatir ese comportamiento, suprimiendo 33 revistas de su servicio de indexación y sometiendo a 15 más a observacion, todas por una aparente excesiva auto-citación que impulsó a estas revistas en el ranking de las revistas.

La lista incluye algunas de las grandes compañías del mundo de la edición científica: nueve eran revistas publicadas por Elsevier, siete por Springer Nature, seis por Taylor & Francis y cinco por Wiley.

Dada la dependencia de muchas universidades en los rankings de revistas para juzgar el trabajo de sus investigadores como parte de las decisiones de tenencia y promoción, la supresión de una revista de Clarivate significa negarle un Factor de Impacto, que puede tener efectos a largo plazo. Los factores de impacto se basan en citas promedio de artículos en una revista durante un período de tiempo concreto. Muchos organizaciones,  incluidos Retraction Wacht, han argumentado que el Impact Factor no es la mejor manera de juzgar la investigación, por razones que incluyen la relativa facilidad de manipular tales métricas.

Web of Science de Clarivate indexa 21.000 revistas, pero solo 12.000 están incluidas en el Journal Citation Report (JCR) anual y reciben Factores de Impacto. Actualmente hay dos razones para la supresión de la JCR:

La auticitación de la revista y el “apilamiento de citas”, comportamiento que a veces se conoce como participar en “colegios invisibles de citas” o “anillos de citas“. Ninguna de las supresiones de este año fueron por el apilamiento de citas. Cuando la empresa retira una revista del JCR, continúa contando sus citas, pero no le asigna un Factor de Impacto.

La compañía ha cambiado la forma en que considera la autocita y revisó su metodología, dijo la editora en jefe de Web of Science, Nandita Quaderi, en respuesta las pautas que se han observado en los últimos años.

Este año, Clarivate también sometió a 15 revistas a exámenes editoriales de preocupación. Tales revistas tenían un pequeño número de artículos con niveles muy altos de citas a artículos en la misma revista que pueden tener un efecto significativo en el Factor de Impacto y en el ránking. Quaderi dijo que juzgar solo los niveles generales de autocitación de las revistas pasaría por alto tales patrones, porque no tomaría en cuenta directamente cómo estas citas se “concentran” en artículos o períodos de tiempo particulares.

Nada cambia para las revistas JCR sujetas a tales indicadores, pero se monitorean de cerca para su reevaluación y pueden perder sus Factores de Impacto en los años siguientes o ser eliminados de la indexación por completo.

Este movimiento marca solo la segunda vez que Clarivate ha emitido análisis de revisión. En 2018, lo hicieron con cinco revistas en el campo óseo, cuatro de las cuales fueron suprimidas al año siguiente. Las cinco actualmente están de nuevo reintegradas en JCR.

Al menos el 25% de las referencias en todas las revistas suprimidas eran autocitas, con el 71% de las citas en una revista. Un artículo en el Journal of Allergy and Clinical Immunology-In Practice citó otros artículos en la misma revista 191 veces.

Cinco de las revistas suprimidas o marcadas eran en cardiología, incluyendo JACC: Cardiovascular Imaging, que tiene un Factor de Impacto por encima de 10, clasificándo la revista entre las 10 mejores revistas en el campo. Otras tres revistas de cardiología de las que Clarivate ha expresado su preocupación tienen factores de impacto superiores a 5.

Análisis de la presencia de datos altmétricos en publicaciones de Web of Science en campos temáticos y temas de investigación

 

screen-shot-2018-03-29-at-17.27.43

 

Zhichao Fang, Rodrigo Costas, Wencan Tian, Xianwen Wang, Paul Wouters. An extensive analysis of the presence of altmetric data for Web of Science publications across subject fields and research topics. arXiv:2020

Texto completo 

 

 

La presencia suficiente de datos es una de las condiciones previas clave para aplicar métricas en la práctica. Basado tanto en Altmetric.com y con datos de Mendeley recopilados hasta 2019, este documento se presenta un análisis de vanguardia de la presencia de 12 tipos de datos alternativos para casi 12.3 millones de publicaciones de Web of Science publicadas entre 2012 y 2018.

Los resultados muestran que, aunque La tendencia al alza de la presencia de datos se puede observar con el tiempo, a excepción de los lectores de Mendeley y las menciones de Twitter, la presencia general de la mayoría de los datos de métricas alternativas sigue siendo baja. La mayoría de las menciones alternativas van a publicaciones en los campos de las Ciencias Biomédicas y de la Salud, las Ciencias Sociales y Humanidades, y las Ciencias de la vida y la tierra.

En cuanto a los temas de investigación, el nivel de atención recibido por los temas de investigación varía según los datos altmétricos, y los datos específicos muestran diferentes preferencias para los temas de investigación, sobre la base de la cual se propone y aplica un marco para identificar temas de investigación candentes para detectar temas de investigación con mayores niveles de atención en ciertas fuentes de datos alternativos. Las menciones de Twitter y las citas de documentos de política se seleccionaron como dos ejemplos para identificar temas de interés de investigación de interés de los usuarios de Twitter y los responsables políticos, respectivamente, arrojando luz sobre el potencial de los datos alternativos para monitorear las tendencias de investigación de atención social específica

Herramienta para ver el solapamiento de citas entre Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science y COCI

 

495c1f3ca34d155c0008f9d316ea7337

 

Citation overlap in Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and COCI

https://cutt.ly/Jyksa9M

Se ha diseñado una aplicación que os permite comparar entre sí las bases de datos que deseéis y, sobre todo, como rinde cada una de ellas en 252 categorías temáticas. De esta manera podéis conocer con precisión las fortalezas y debilidades de cada base de datos en disciplinas y especialidades de todos los ámbitos de conocimiento. Permite elegir para comparar el solapamiento de tres índices  entre Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and COCI. Primero seleccionamos el área de conocimiento y después la disciplina.

Ver documento asociado

Martín-Martín, A., Thelwall, M., Orduna-Malea, E., & Delgado López-Cózar, E. (2020). Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and OpenCitations’ COCI: a multidisciplinary comparison of coverage via citations. https://arxiv.org/abs/2004.14329