Archivo de la etiqueta: Scopus

Publicación de revistas depredadoras en Scopus: pruebas de las diferencias entre países

Macháček, V., Srholec, M. Predatory publishing in Scopus: evidence on cross-country differencesScientometrics (2021). https://doi.org/10.1007/s11192-020-03852-4

Texto completo

La publicación depredadora representa un gran desafío para la comunicación académica. En este trabajo se traza un mapa de la infiltración de revistas sospechosas de prácticas predatorias en la base de datos de citas Scopus y se examinan las diferencias entre países en cuanto a la propensión de los académicos a publicar en dichas revistas. Utilizando los nombres de las revistas y editoriales depredadoras “potenciales, posibles o probables” de las listas de Beall, se obtuvieron los ISSN de 3.293 revistas de Ulrichsweb y se buscaron en Scopus. Se identificaron 324 de revistas que aparecen tanto en las listas de Beall como en Scopus con 164 mil artículos publicados durante 2015-2017. El análisis de los datos de 172 países en 4 campos de investigación indica que existe una notable heterogeneidad. En los países más afectados, como Kazajistán e Indonesia, alrededor del 17% de los artículos entran en la categoría de depredadores, mientras que en otros países no hay ningún artículo depredador. Los países con grandes sectores de investigación en un nivel medio de desarrollo económico, especialmente en Asia y el norte de África, tienden a ser los más susceptibles a la publicación predatoria. Los países árabes, ricos en petróleo y/o orientales también parecen ser especialmente vulnerables. Los responsables políticos y las partes interesadas de estos y otros países en desarrollo deben prestar más atención a la calidad de la evaluación de la investigación.

Elsevier decide abrir sus citas en 14OC y firma la Declaración de San Francisco

Ludo Waltman. Q&A about Elsevier’s decision to open its citations December 22, 2020 

Ver completo

La semana pasada, Elsevier anunció que firmó la Declaración de San Francisco sobre Evaluación de la Investigación (DORA) y que hará que las listas de referencias de los artículos estén disponibles abiertamente en Crossref.

Tanto DORA como la Initiative for Open Citations (I4OC) han pedido a los editores que pongan a disposición del público las listas de referencias de sus artículos. En respuesta a esto, casi todas las editoriales grandes y medianas han hecho que sus citas estén disponibles abiertamente en Crossref.

Con la decisión de Elsevier de abrir sus citas, cientos de millones de citas estarán disponibles abiertamente, cerrando una gran brecha en los datos de citas disponibles abiertamente en Crossref.

Los indicadores basados ​​en citas juegan un papel destacado en las evaluaciones de investigación. El uso responsable de estos indicadores requiere la apertura de los datos de citas subyacentes, para que los indicadores sean completamente transparentes y para que cualquiera pueda cuestionar los indicadores e incluso construir otros alternativos. Por lo tanto, la decisión de Elsevier de abrir sus citas representa un paso significativo hacia un uso más responsable de los indicadores basados ​​en citas en las evaluaciones de investigación.

Los datos de citas también son muy valiosos para respaldar el descubrimiento de literatura científica. Se puede esperar que la decisión de Elsevier de abrir sus citas estimule el desarrollo de nuevas herramientas de descubrimiento innovadoras. El mismo Elsevier también se beneficiará de esto, ya que los artículos que publica serán más fáciles de encontrar y, como resultado, atraerán a más lectores.

Si bien la apertura de citas puede generar una mayor competencia para Scopus, también puede ayudar a Elsevier a cambiar su enfoque de monetizar los datos a proporcionar servicios de valor agregado, que a largo plazo se espera que sean comercialmente más atractivos.

En enero de 2021, cuando se abrirán las citas de Elsevier, el porcentaje de citas en Crossref que están abiertas aumentará del 60% a probablemente más del 90%. Con Elsevier abriendo sus citas, casi todas las editoriales grandes y medianas que trabajan con Crossref habrán abierto sus citas.

Sin embargo, al abrir sus citas, Elsevier apoya la Iniciativa de Citas Abiertas (I4OC) . Todavía no respalda la Iniciativa de Resúmenes Abiertos (I4OA) , que se lanzó a principios de este año y que pide a los editores que pongan los resúmenes a disposición abierta en Crossref.

ResearchGate versus Google Scholar: ¿Cuál encuentra más citas tempranas?

Thelwall, M., & Kousha, K. (2017). ResearchGate versus Google Scholar: Which finds more early citations? Scientometrics112(2), 1125–1131. https://doi.org/10.1007/s11192-017-2400-4

Texto completo

ResearchGate ha lanzado su propio índice de citas extrayendo citas de los documentos cargados en el sitio y reportando los recuentos de citas en las páginas de perfil de los artículos. Dado que los autores pueden cargar preprints en ResearchGate, puede usarlas para proporcionar evidencia de impacto temprana para nuevos artículos. 

Este artículo evalúa si el número de citas encontradas para artículos recientes es comparable a otros índices de citas utilizando 2675 artículos de bibliotecas y ciencias de la información publicados recientemente. 

Los resultados muestran que en marzo de 2017, ResearchGate encontró menos citas que Google Scholar, pero más que Web of Science y Scopus. Esto fue válido para el conjunto de datos en general y para las seis revistas más importantes que contiene. ResearchGate se correlacionó más fuertemente con las citas de Google Scholar, lo que sugiere que ResearchGate no está aprovechando predominantemente una fuente de datos fundamentalmente diferente a la de Google Scholar. No obstante, el intercambio de preimpresiones en ResearchGate es lo suficientemente importante como para que los autores lo tomen en serio.

Difusión investigativa y posición en el ranking SCImago de las universidades españolas

 

sir

Miriam Rodríguez Pallares, Juan Martín Quevedo, Juan José Prieto-Gutiérrez. Difusión investigativa y posición en el ranking SCImago de las universidades españolas. Investigación Bibliotecológica, Vol. 34, Núm. 84 (2020)

Texto completo

La medición y control de la actividad universitaria es cada vez más relevante y condiciona la imagen institucional. La proliferación de rankings internacionales así lo evidencia. El objetivo de esta investigación es analizar las acciones de apoyo que las universidades en España ofrecen a la comunidad científica para alcanzar la excelencia investigadora, categorizarlas y comparar, después, si existe una correlación entre estos servicios internos y la posición de las universidades españolas en el ranking SIR, con base en resultados externos. La metodología se fundamenta en el análisis de contenido. Los resultados obtenidos evidencian cierta similitud, aunque hay casos discordantes que permiten inferir que la actividad investigadora responde a iniciativas individuales y encuentra sinergias a partir del trabajo colaborativo entre diferentes instituciones. Además, se perciben niveles más elevados de fomento de la investigación en el caso de las universidades públicas.

 

Herramienta para ver el solapamiento de citas entre Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science y COCI

 

495c1f3ca34d155c0008f9d316ea7337

 

Citation overlap in Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and COCI

https://cutt.ly/Jyksa9M

Se ha diseñado una aplicación que os permite comparar entre sí las bases de datos que deseéis y, sobre todo, como rinde cada una de ellas en 252 categorías temáticas. De esta manera podéis conocer con precisión las fortalezas y debilidades de cada base de datos en disciplinas y especialidades de todos los ámbitos de conocimiento. Permite elegir para comparar el solapamiento de tres índices  entre Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and COCI. Primero seleccionamos el área de conocimiento y después la disciplina.

Ver documento asociado

Martín-Martín, A., Thelwall, M., Orduna-Malea, E., & Delgado López-Cózar, E. (2020). Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and OpenCitations’ COCI: a multidisciplinary comparison of coverage via citations. https://arxiv.org/abs/2004.14329

Comparando la cobertura de Google Scholar, Microsoft Academic, Dimensions, COCI de CrossRef, Web of Science y Scopus

 

1b3b556695916ac503a49761571d4a3c

 

Alberto Martín-Martín, Mike Thelwall, Enrique Orduna-Malea, Emilio Delgado López-Cózar. Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and OpenCitations’ COCI: a multidisciplinary comparison of coverage via citations. ArXiv, 2020. https://arxiv.org/abs/2004.14329

Descargar artículo

 

El estudio que compara la cobertura en citas de Google Scholar, Microsoft Academic, Dimensions, COCI de CrossRef, Web of Science y Scopus. Se analiza no solo la extensión sino el grado de solapamiento entre ellas, con lo cual os puede orientar a los bibliotecarios y, en general, a los científicos sobre qué fuente es las más adecuada para encontrar información científica exhaustiva y relevante. Es la primera vez que se comparan simultáneamente estas seis fuentes de datos, entre ellas por primera vez Microsoft Academic, Dimensions y Crossref y se hace a gran escala (3.073.353 citas)

 Se ha diseñado una aplicación que os permite comparar entre sí las bases de datos que deseéis y, sobre todo, como rinde cada una de ellas en 252 categorías temáticas. De esta manera podéis conocer con precisión las fortalezas y debilidades de cada base de datos en disciplinas y especialidades de todos los ámbitos de conocimiento. La aplicación se encuentra en: https://cutt.ly/Jyksa9M

 

¿Qué documentos citaron qué tweets? Un análisis empírico basado en datos de Scopus

practical-applications-of-altmetrics-7-638

 

Haunschild, R. ;  Bornmann, R. Which papers cited which tweets? An empirical analysis based on Scopus data. ArXiv, 2020

Texto completo

Muchos estudios altmetria analizan qué documentos se mencionaron con qué frecuencia en fuentes específicas de altmetrics. Para estudiar la potencial relevancia política de los tweets desde otra perspectiva, se investigó qué tweets fueron citados en los documentos. Si se citan muchos tweets en publicaciones, esto podría demostrar que los tweets tienen contenido sustancial y útil. En general, un número bastante bajo de tweets (n = 5506) fueron citados por menos de 3000 artículos. La mayoría de los tweets no parecen ser citados debido a la influencia cognitiva que podrían haber tenido en los estudios; más bien eran objetos de estudio. La mayoría de los documentos que citan tweets son de las áreas temáticas de Ciencias Sociales, Artes y Humanidades e Informática. La mayoría de los artículos citaban solo un tweet. Se encontraron hasta 55 tweets citados en un solo artículo. Esta investigación en curso no admite una alta relevancia de los tweets. Sin embargo, un análisis de contenido de los tweets y / o documentos podría llevar a una conclusión más detallada.

The SCImago Institutions Rankings (SIR) 2020

 

82b97e05d803da9f73326348da78162d

 

SCImago Institutions Rankings (SIR)

https://www.scimagoir.com/

Ver Rankig de España

 

SCImago Institutions Rankings (SIR) es una clasificación de instituciones académicas y relacionadas con la investigación clasificada por un indicador compuesto que combina tres conjuntos diferentes de indicadores basados en el rendimiento de la investigación, los resultados de la innovación y el impacto social medido por su visibilidad en la web. Es posible visualizar la información por sectores (Gobierno, Salud, educación… ) y ver el ranking por regiones y países.

A efectos del ranking, el cálculo se genera cada año a partir de los resultados obtenidos durante un período de cinco años que finaliza dos años antes de la edición del ranking. Por ejemplo, si el año seleccionado para la publicación es 2020, los resultados utilizados son los del quinquenio 2014-2018. La única excepción es el caso de la web en

El desarrollo de una herramienta de evaluación para el análisis bibliométrico destinado a caracterizar las instituciones de investigación implica una enorme tarea de procesamiento de datos relacionada con la identificación y desambiguación de las instituciones a través de la afiliación institucional de los documentos incluidos en Scopus.

 

Dimensiones & VOSViewer Bibliometría y redes de citaciones

 

vosviewer-clustering-visualization-ppwm

Williams, Brett. Dimensions & VOSViewer Bibliometrics in the Reference Interview. Code4Lib, Issue 47, 2020-02-17

Texto completo

 

El software VOSviewer proporciona un fácil acceso a la cartografía bibliométrica utilizando datos de Dimensions, Scopus y Web of Science. Los datos de citaciones debidamente formateados y estructurados y la facilidad con que pueden exportarse abren nuevas vías de utilización durante las búsquedas de citaciones y las entrevistas de referencia. En este documento se detallan técnicas específicas para utilizar búsquedas avanzadas en Dimensiones, exportar los datos de las citas y obtener información de los mapas producidos en VOS Viewer. Estas técnicas de búsqueda y prácticas de exportación de datos son lo suficientemente rápidas y precisas como para incorporarse a las entrevistas de referencia para estudiantes de postgrado, profesores e investigadores post-PhD. Los resultados de búsqueda que se derivan de ellas son precisos y permiten una visión más completa de las redes de citaciones incorporadas en las complejas búsquedas booleanas ordinarias.

VOSviewer es una herramienta gratuita de software para construir y visualizar redes bibliométricas.

 

f8c91372ecf0176183cc1f2591ccd889_large

 

VOSviewer

Manual

VOSviewer Una herramienta de software para analizar y visualizar la literatura científica desarrollado por Nees Jan van Eck y Ludo Waltman del Centro de Estudios de Ciencia y Tecnología (CWTS), de la Universidad de Leiden. No es de código abierto, pero es de uso libre. Se permite, de forma gratuita, utilizar y/o distribuir este software, siempre que se conserve el aviso de copyright anterior. No está permitido modificar este software”

 

VOSviewer es una herramienta de software para construir y visualizar redes bibliométricas. Estas redes pueden incluir, por ejemplo, revistas, investigadores o publicaciones individuales, y pueden construirse sobre la base de la citación, el acoplamiento bibliográfico, la cocitación o las relaciones de coautoría. VOSviewer también ofrece una funcionalidad de minería de textos que puede utilizarse para construir y visualizar redes de coocurrencia de términos importantes extraídos de un cuerpo de literatura científica.

La funcionalidad del VOSviewer puede ser resumidas de la siguiente manera:

  • Creación de mapas basados en datos de la red. Se puede crear un mapa basado en una red que ya está disponible, pero también es posible construir uno de la red. El VOSviewer puede utilizarse para construir redes de publicaciones científicas, revistas científicas, investigadores, organizaciones de investigación, países, palabras clave, o condiciones. Los elementos de estas redes pueden estar conectados por enlaces de co-autoría, co-ocurrencia, citación, acoplamiento bibliográfico o co-citación. Para construir una datos de Web of Science, Scopus, Dimensions, PubMed, RIS, o Crossref JSON se pueden utilizar los archivos.
  • Visualizar y explorar mapas. VOSviewer proporciona tres visualizaciones de un mapa: La visualización de la red, la visualización de la superposición, y la densidad visualización. La función de zoom y desplazamiento que permite explorar un mapa con detalles completos, lo cual es esencial cuando se trabaja con mapas grandes que contienen miles de artículos.

Aunque está destinado principalmente a analizar las redes bibliométricas, de hecho puede utilizarse para crear, visualizar y explorar mapas basados en cualquier tipo de datos de redes.

VOSviewer ha sido desarrollado en el lenguaje de programación Java. Debido a que Java es independiente de la plataforma, La herramienta funciona en la mayoría de las plataformas de hardware y sistemas operativos. Puede descargarse de http://www.vosviewer.com y ser usado libremente para cualquier propósito.