Archivo de la etiqueta: Bibliometría

ResearchGate versus Google Scholar: ¿Cuál encuentra más citas tempranas?

Thelwall, M., & Kousha, K. (2017). ResearchGate versus Google Scholar: Which finds more early citations? Scientometrics112(2), 1125–1131. https://doi.org/10.1007/s11192-017-2400-4

Texto completo

ResearchGate ha lanzado su propio índice de citas extrayendo citas de los documentos cargados en el sitio y reportando los recuentos de citas en las páginas de perfil de los artículos. Dado que los autores pueden cargar preprints en ResearchGate, puede usarlas para proporcionar evidencia de impacto temprana para nuevos artículos. 

Este artículo evalúa si el número de citas encontradas para artículos recientes es comparable a otros índices de citas utilizando 2675 artículos de bibliotecas y ciencias de la información publicados recientemente. 

Los resultados muestran que en marzo de 2017, ResearchGate encontró menos citas que Google Scholar, pero más que Web of Science y Scopus. Esto fue válido para el conjunto de datos en general y para las seis revistas más importantes que contiene. ResearchGate se correlacionó más fuertemente con las citas de Google Scholar, lo que sugiere que ResearchGate no está aprovechando predominantemente una fuente de datos fundamentalmente diferente a la de Google Scholar. No obstante, el intercambio de preimpresiones en ResearchGate es lo suficientemente importante como para que los autores lo tomen en serio.

¿Los nuevos temas de investigación atraen más citas? Una comparación entre 25 categorías temáticas de Scopus

E

Mike Thelwall, Pardeep Sud. Do New Research Issues Attract More Citations? A Comparison Between 25 Scopus Subject Categories. Journal of the Association for Information Science and Technology
DOI: 10.1002/asi.24401

Texto completo

Encontrar nuevas formas de ayudar a los investigadores y gestores a comprender los campos académicos es una tarea importante para los científicos de la información. Dada la importancia de la investigación interdisciplinaria, es esencial ser consciente de las diferencias disciplinarias en aspectos de la erudición, como la importancia de los cambios recientes en un campo del conocimiento. 

Este documento identifica cambios potenciales en 25 categorías de temas mediante una comparación de términos de palabras en títulos de artículos, palabras clave y resúmenes en 1 año en comparación con los 4 años anteriores. 

La influencia académica de los nuevos temas de investigación se evalúa indirectamente con un análisis de citas de artículos que coinciden con cada término de tendencia. Si bien las palabras relacionadas con el tema dominan los términos principales, el estilo, el enfoque y los cambios de idioma también son evidentes. 

Así, como se refleja en Scopus, los campos evolucionan a lo largo de múltiples dimensiones. Además, mientras que los artículos que explotan nuevos temas suelen ser más citados en algunos campos, como la Química Orgánica, normalmente se citan menos en otros, incluida la Historia. Las posibles causas de los nuevos problemas que se citan menos incluyen factores temporales impulsados ​​desde el exterior, como brotes de enfermedades, y decisiones temporales impulsadas internamente, como un énfasis deliberado en un solo tema (por ejemplo, a través de un número especial de una revista)

El porcentaje de artículos sobre coronavirus en acceso abierto se incrementó un 90%

 

redes-de-produccion-cientifica-por-paises

 

Belli, S., Mugnaini, R., Baltà, J. et al. “Coronavirus mapping in scientific publications: When science advances rapidly and collectively, is access to this knowledge open to society?” Scientometrics (2020). DOI: 10.1007/s11192-020-03590-7.

Texto completo

 

La pandemia de COVID-19 está creando una emergencia sanitaria mundial. El mapeo de esta emergencia de salud en publicaciones científicas exige múltiples enfoques para obtener una imagen lo más completa posible. Para avanzar en el conocimiento de esta pandemia y controlar sus efectos, las colaboraciones internacionales entre investigadores son esenciales, así como tener acceso abierto e inmediato a publicaciones científicas, lo que llamamos “cooperación”. 

Los objetivos principales fueron identificar los países más productivos en publicaciones de coronavirus, analizar la colaboración científica internacional sobre este tema y estudiar la proporción y tipología de accesibilidad abierta a estas publicaciones. Para ello,  se analizaro  18.875 artículos indexados en Web of Science. Se llevó a cabo un análisis estadístico descriptivo para explorar el desempeño de los países y organizaciones más prolíficas, presentando atención a los últimos 2 años. Los registros se analizaron por separado a través del software VOSviewer, dibujando una red de enlaces entre países y organizaciones para identificar los países y organizaciones destacados, y los enlaces más fuertes de la red.

Se exploró la capacidad de los investigadores para generar conocimiento científico sobre una emergencia de crisis de salud, y su capacidad global para colaborar entre ellos en una emergencia global. Considerando que la ciencia se está moviendo rápidamente para encontrar soluciones a los problemas internacionales de salud, pero el acceso a este conocimiento por parte de la sociedad no es tan rápido debido a varias limitaciones (políticas de acceso abierto, intereses corporativos, etc.).

Se observó que los documentos de China en los últimos 3 meses (de enero de 2020 a marzo de 2020) tienen un fuerte impacto en comparación con los artículos publicados en años anteriores. Estados Unidos y China son los principales productores de los documentos de la muestra, seguidos por todos los países europeos, especialmente el Reino Unido, Alemania, los Países Bajos y Francia. Al mismo tiempo, debe destacarse el papel de liderazgo de Arabia Saudita, Canadá o Corea del Sur, con un número significativo de documentos presentados pero dinámicas muy diferentes de colaboración internacional. La proporción de colaboración internacional está creciendo en todos los países en 2019-2020, lo que contrasta con la situación de las últimas dos décadas. Las organizaciones que proporcionan la mayor cantidad de documentos a la muestra son en su mayoría chinas.

El porcentaje de artículos de acceso abierto sobre coronavirus para el período 2001–2020 es del 59,2%, pero si nos centramos en 2020, las cifras aumentarán hasta el 91,4%, debido al compromiso de los editores comerciales con la emergencia (han proporcionado acceso gratuito a sus contenido).  Por otro lado, es necesario señalar que el fenómeno pandémico ha dado paso al tipo de acceso basado en la ruta Bronce, es decir, sin acceso abierto perenne garantizado, y dependiendo de la buena voluntad de los editores comerciales. Estas son cifras muy relevantes, nunca antes logradas. Los editores comerciales suponen implícitamente que el acceso abierto garantiza mejores resultados y efectividad. Es importante que esta práctica continúe después de la pandemia de COVID-19 y que se pueda extender a todos los temas. El Plan S puede ser una buena estrategia y puede ser seguida por un mayor número de agencias de financiación.

¿Hasta qué punto algunas revistas negocian el factor de impacto?

 

d20190620-jcr-2018-incites-multidisciplinary-sciences-clarivate-analytics-684x500-1

 

Björn Brembs. Just How Widespread Are Impact Factor Negotiations?. Björn Brembs, 2016

Ver original

 

Durante la última década o dos, ha habido múltiples informes sobre sospechas de cómo determinados editores negociaban los factores de impacto de sus publicaciones con el “Instituto de Información Científica” (ISI), tanto antes como después de que Thomson Reuters lo comprara. Esto es se hace  a través de  negociar que cantidad de artículos son citables en el denominador para de ese modo incrementar el factor de impacto de la revista.

Los primeros en señalar que esto puede estar sucediendo en al menos cientos de revistas fueron Moed y van Leeuven ya en 1995 (y con más datos nuevamente en 1996 ). Uno de lamos primeros en mostrar cómo una sola revista logró esta hazaña fue Baylis et al.. en 1999 con su ejemplo de la revista FASEB logrando convencer al ISI de que elimine sus resúmenes de conferencia del denominador, lo que llevó a un salto en su factor de impacto de 0.24 en 1988 al 18.3 en 1989. Otro caso bien documentado es el de Current Biology cuyo el factor de impacto aumentó en un 40% después de la adquisición por parte de Elsevier en 2001. El primer caso hasta ahora revelado abiertamente sobre tales negociaciones fue el editorial de PLoS Medicinesobre sobre sus negociaciones con Thomson Reuters en 2006, donde el rango de negociación abarcó 2-11 (se conformaron con 8.4). Obviamente, tal evidencia directa de negociaciones es extremadamente rara y, por lo general, los editores se apresuran a señalar que nunca estarían ‘negociando’ con Thomson Reuters, simplemente les pedirían que ‘corrijan’ o ‘ajusten’ los factores de impacto de sus revistas para hacerlos más precisos. Dado que Moed y van Leeuwen ya descubrieron que la mayoría de esas correcciones parecían aumentar el factor de impacto, parece que estas correcciones solo tienen lugar si un editor considera que su FI es demasiado bajo y solo muy raramente si el FI puede parecer demasiado alto (y quién los culparía?) Además de los datos antiguos de Moed y van Leeuwen, tenemos muy pocos datos sobre cuán extendida está realmente esta práctica.

Un análisis recientede 22 revistas de biología celular ahora proporciona datos adicionales en línea con la sospecha inicial de Moed y van Leeuwen de que los editores pueden aprovechar la posibilidad de tales ‘correcciones’ de manera bastante generalizada. Si ocurrió algún error al azar y se corrigió de manera imparcial, entonces un análisis independiente de los datos de citas disponibles debería mostrar que dichos factores de impacto calculados independientemente se correlacionan con el factor de impacto publicado con errores positivos y negativos. Sin embargo, si las correcciones solo ocurren en la dirección que aumenta el factor de impacto de la revista corregida, entonces los factores de impacto publicados deberían ser más altos que los calculados independientemente. La razón de tal sesgo se debe encontrar en la falta del total de números de artículos en el denominador del factor de impacto publicado. Sin embargo, estos artículos “faltantes” se pueden encontrar, ya que se han publicado, simplemente no se cuentan en el denominador. Curiosamente, esto es exactamente lo que Steve Royle encontró en su análisis.

 

if_negotiations-1024x463-1

 

A la izquierda, se ve que cualquier desviación de la correlación perfecta siempre es hacia el factor de impacto mayor y a la derecha se puede apreciar que algunas revistas muestran una gran cantidad de artículos que no se contabilizan para así incrementar el factor de impacto.

Claramente, nada de esto equivale a evidencia inequívoca de que los editores están aumentando sus ‘temas principales’  tanto para citar sus propios artículos, como para recibir citas del exterior, solo para luego decirle a Thomson Reuters que corrija sus registros. Nada de esto es prueba de que los editores negocian habitualmente con el ISI para inflar sus factores de impacto, y mucho menos que los editores intentan habitualmente hacer que la clasificación de sus artículos sea citable o no intencionalmente difícil. Existen numerosas explicaciones alternativas. Sin embargo, personalmente, encuentro que los dos documentos antiguos de Moed y Van Leeuwen y este nuevo análisis, junto con el tema comúnmente reconocido de clasificación de documentos por el ISI, son lo suficientemente sugerentes, pero probablemente soy parcial.

 

¿Por qué fluctúan las métricas? Directrices para hablar con los gestotres

 

screen-shot-2020-06-20-at-20.42.48

 

Why Do Measures Fluctuate? Metrics Report – Guidelines for Talking to Management. LIBER, 2020

Texto completo

 

Este informe es para quienes desde las bibliotecas están tratando de abordar los desafíos de las métricas en relación con la investigación. Asume una familiaridad con las métricas y sus fluctuaciones, y su objetivo es facilitar las discusiones con la administración.

El informe destaca las dificultades comunes cuando se discuten las métricas, así como los nuevos enfoques: DORA, el Manifiesto de Leiden, la marea métrica, que están siendo adoptados por ciertas instituciones. Con esta base establecida, se presentan pautas para participar y aumentar la comprensión entre la gerencia cuando se discuten indicadores de investigación responsables, junto con recursos adicionales.

Sobre la base de las experiencias del grupo de trabajo y las instituciones al abordar la cuestión de las métricas responsables con la administración, las recomendaciones en este informe están destinadas a ayudar a los bibliotecarios a explicar a la administración por qué fluctúan las medidas, un tema que los asistentes al taller en las conferencias LIBER destacaron como importante para abordar .

Bibliominería, datos y el proceso de toma de decisiones

 

2019-10-31-news-image-nicolas-kourtellis700x400

Fernandez Morales, Mynor and Bonilla Carrión, Roger Bibliominería, datos y el proceso de toma de decisiones. Revista Interamericana de Bibliotecología, 2020, vol. 43, n. 2, pp. 1-12

Texto completo

 

Este artículo trata sobre bibliominería de datos, que es minería de datos aplicada a grandes volúmenes de datos disponibles en las bibliotecas, como resultado de la ope-ración de los principales sistemas transaccionales, tales como préstamos, referencia, adquisiciones, entre otros. Así, la bibliominería de datos es el proceso que tiene como propósito descubrir, extraer y almacenar información relevante de grandes bases de datos existentes en las bibliotecas, mediante la utilización de programas de búsqueda e identificación de patrones y relaciones globales, tendencias, desviaciones y otros indicadores que pueden extraerse mediante distintas técnicas de minería de datos. Es importante señalar que para el análisis bibliométrico se requiere de la participación de equipos interdisciplinarios formados por ingenieros de sistemas, estadísticos y bibliotecólogos.

Scite: más que un índice de citas

 

scite-classification-screenshot-edited-2-e1591642365317

 

Josh Nicholson. scite: more than just a citation index. LIS bibliometrics, 2020

Ver completo

Scite

 

Josh Nicholson escribe sobre cómo usar Scite, una plataforma para descubrir y evaluar artículos científicos a través de Smart Citations. Smart Citations permite a los usuarios ver cómo se ha citado un artículo científico proporcionando el contexto de la cita y una clasificación que describe si proporciona pruebas que apoyen o contradigan la afirmación citada.

 

 

En diciembre de 2018, publiqué un artículo de opinión titulado “Resolviendo el problema de las noticias falsas en la ciencia”. No me refería a COVID-19, obviamente, sino a la ciencia en general y a cómo podemos saber qué es una investigación fiable. Esa pregunta es especialmente pronunciada hoy en día con una avalancha de investigaciones sobre COVID-19 que se están publicando, la mayoría de ellas sin revisión por pares, y la mayoría de ellas ampliándose directamente al público.

Este problema ha existido durante años, pero siempre se ha sentido como abstracto o como un problema académico. ¿No se puede reproducir un hallazgo en la investigación del cáncer? Eso es malo, pero no me afecta directamente. Ahora, cualquier informe científico sobre COVID-19 puede influir en lo que hace el mundo entero. Cada día tenemos conversaciones con nuestras familias y amigos sobre nuevos hallazgos científicos, discutiendo los méritos y defectos de los estudios como si fuéramos profesores titulares discutiendo la propuesta de un estudiante de doctorado. De la noche a la mañana todos nos hemos convertido en científicos de sillón.

Es sorprendente que la ciencia esté ahora en la vanguardia de la mente de todos, pero también puede tener consecuencias peligrosas. El Presidente de los Estados Unidos dijo recientemente, “HIDROXICLOROQUINA Y AZITROMICINA, en conjunto, tienen una oportunidad real de ser uno de los mayores cambios en la historia de la medicina”. Poco después, una pareja ingirió limpiador de peceras en un intento de evitar el COVID-19, porque contenía una forma de cloroquina; uno de ellos murió y el otro fue hospitalizado.

Ivan Oransky y Adam Marcus, fundadores de Retraction Watch, un sitio web de vigilancia del fraude científico, han escrito que “gran parte de las investigaciones que surjan en las próximas semanas resultarán ser poco fiables, incluso erróneas”. Estaremos bien si recordamos eso”.

¿Pero lo recordaremos? ¿Seremos capaces de identificar lo que resultó correcto y lo que resultó incorrecto? ¿Podemos hacer eso ahora?

Esto es algo con lo que trato diariamente como co-fundador y CEO de scite. scite probablemente se describe mejor a los no científicos y no bibliometristas como Rotten Tomatoes pero para artículos científicos. Usamos la inteligencia artificial para que cualquiera pueda ver si la afirmación hecha en un artículo científico ha sido apoyada o contradicha por una investigación posterior. Para un bibliómetra, somos un índice de citas, y aunque compartimos muchas similitudes con otros índices de citas, como Web of Science, Scopus o Dimensions, hacemos las cosas de forma bastante diferente. Específicamente, mostramos el contexto de la citación o “citación” que rodea a las citaciones recibidas por un resultado de investigación individual; utilizamos el aprendizaje profundo para clasificar las declaraciones de citación por la función retórica. Por ejemplo, ¿la citación del artículo original apoya o contradice la conclusión o recomendación del artículo original? En otras palabras, ¿la investigación anterior es confirmada o refutada por la nueva investigación? Nuestro objetivo es ayudar a avanzar en los indicadores de citación más allá de los datos y métricas cuantitativos, para proporcionar más datos cualitativos y contextuales a la comunidad de bibliométricos, y ofrecer específicamente una orientación útil a los no científicos.

scite no es una solución perfecta y no hay una solución perfecta, pero la innovación de nuevas herramientas, como scite, PubPeer y Get The Research, ofrecen a los científicos y a los no científicos la posibilidad de consumir, digerir y evaluar los resultados de la investigación por su cuenta; sostenemos que puede ser sumamente útil para determinar la veracidad de los artículos de investigación, incluidos los artículos recientes sobre COVID-19. Por ejemplo, este artículo, publicado el 22 de febrero concluye: “Tanto los niveles de IL-6 como de IL-10 mostraron aumentos sostenidos en el grupo grave en comparación con el grupo leve”, lo que sugiere que dos moléculas de señalización específicas son más prevalentes en la enfermedad COVID-19 grave que en la leve. ¿Podemos confiar en ese hallazgo? ¿Lo han probado otros? Mirándolo no se puede saber. Con scite, puedes ver que sólo cinco días después, aparece otra preimpresión con pruebas de apoyo para esta afirmación. Los autores afirman: “De acuerdo con el estudio de Wan S [7] y Liu J [8], este estudio también encontró que los niveles de IL-6 e IL-10 estaban asociados con la severidad de la neumonía COVID-19”.

Hasta la fecha, hemos analizado más de 16 millones de artículos científicos, 60k relacionados con el coronavirus, produciendo más de 600 millones de declaraciones de citas clasificadas como las frases citadas anteriormente, y actualmente añadiendo ~10M por día. Sin embargo, para identificar realmente qué investigación es confiable o no, necesitamos acceder a cada artículo científico que se haya escrito. Esto ha sido un reto dado que la mayoría de las investigaciones están encerradas detrás de los muros de pago. Afortunadamente, los principales editores académicos como Wiley, The British Medical Journal, Karger, Rockefeller University Press, y otros han comenzado a compartir estos con scite. Algunos incluso han empezado a mostrar información de scite directamente en sus artículos.

Estamos entusiasmados con las posibilidades que ofrece la bibliometría para ayudar a los científicos y a los no científicos a comprender mejor la ciencia y nos gustaría invitar a los investigadores a utilizar nuestros datos (de forma gratuita) para realizar sus propios estudios.

 

 La cascada de citas y la evolución de la relevancia del tema

 

an-example-of-cascade-and-ph-values-in-a-citation-network

 

Min, CChen, QYan, EBu, YSun, J. Citation cascade and the evolution of topic relevanceJ Assoc Inf Sci Technol20201– 18https://doi.org/10.1002/asi.24370

Preprint ArXiv

 

El análisis de citas, como instrumento para los estudios cuantitativos de la ciencia, ha hecho hincapié durante mucho tiempo en las relaciones directas de citas, dejando de lado las citas indirectas o de alto orden. Sin embargo, una serie de estudios tempranos y recientes demuestran la existencia de un impacto indirecto y continuo de las citaciones a lo largo de generaciones. Añadiendo a la literatura sobre las citas de alto orden, Se introduce el concepto de cascada de citas: la constitución de una serie de eventos de citas posteriores iniciados por una determinada publicación. Se investigó esta estructura de citas analizando más de 450.000 artículos y más de 6 millones de relaciones de citas. Se muestra que el impacto de las citas existe no sólo en las tres generaciones documentadas en la investigación anterior, sino también en muchas generaciones posteriores. Aún así, estos resultados experimentales indican que de dos a cuatro generaciones son generalmente adecuadas para rastrear el impacto científico de un trabajo. También se analizan las propiedades estructurales específicas, como la profundidad, anchura, viralidad estructural y tamaño, que explican las diferencias entre las cascadas de citaciones individuales. Por último, se encontraron pruebas de que es más importante para una obra científica inspirar obras de dominio transitorio (o de dominio indirectamente relacionado) que recibir sólo reconocimiento intradominio para lograr un alto impacto. Nuestros métodos y hallazgos pueden servir como una nueva herramienta para la evaluación científica y la modelización de la historia científica.

 

El índice de citas abiertas COCI supera los 700 millones de citas

opencitations-logo-50-with-words-greybg

 

Crossref Open Citation Index (COCI)

Noticia

 

COCI, el Índice de OpenCitations de Crossref, citas abiertas de DOI a DOI, se amplió el 12 de mayo de 2020 con más de 47 millones de citas adicionales, y ha alcanzado un número total de más de 702 millones de DOI-to- DOI cita enlaces entre más de 58 millones de entidades bibliográficas.

Las citas agregadas en esta quinta versión de COCI provienen del volcado Crossref más reciente descargado el 22 de abril de 2020, que incluye las referencias de los artículos depositados en Crossref entre el 4 de octubre de 2019 y el 4 de abril de 2020. Dichas actualizaciones de COCI ahora ocurrirán regularmente a intervalos bimensuales.

Como consecuencia, COCI ahora contiene 702.772.530 citas, y también incluye publicaciones sobre la pandemia de COVID-19. El índice utilizará esta nueva versión de COCI para actualizar el  conjunto de datos de citas abiertas de Coronavirus , la segunda versión incluirá detalles sobre estas referencias y publicaciones adicionales.

Comparando la cobertura de Google Scholar, Microsoft Academic, Dimensions, COCI de CrossRef, Web of Science y Scopus

 

1b3b556695916ac503a49761571d4a3c

 

Alberto Martín-Martín, Mike Thelwall, Enrique Orduna-Malea, Emilio Delgado López-Cózar. Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and OpenCitations’ COCI: a multidisciplinary comparison of coverage via citations. ArXiv, 2020. https://arxiv.org/abs/2004.14329

Descargar artículo

 

El estudio que compara la cobertura en citas de Google Scholar, Microsoft Academic, Dimensions, COCI de CrossRef, Web of Science y Scopus. Se analiza no solo la extensión sino el grado de solapamiento entre ellas, con lo cual os puede orientar a los bibliotecarios y, en general, a los científicos sobre qué fuente es las más adecuada para encontrar información científica exhaustiva y relevante. Es la primera vez que se comparan simultáneamente estas seis fuentes de datos, entre ellas por primera vez Microsoft Academic, Dimensions y Crossref y se hace a gran escala (3.073.353 citas)

 Se ha diseñado una aplicación que os permite comparar entre sí las bases de datos que deseéis y, sobre todo, como rinde cada una de ellas en 252 categorías temáticas. De esta manera podéis conocer con precisión las fortalezas y debilidades de cada base de datos en disciplinas y especialidades de todos los ámbitos de conocimiento. La aplicación se encuentra en: https://cutt.ly/Jyksa9M