Archivo de la etiqueta: Índices de citas

Scite: más que un índice de citas

 

scite-classification-screenshot-edited-2-e1591642365317

 

Josh Nicholson. scite: more than just a citation index. LIS bibliometrics, 2020

Ver completo

Scite

 

Josh Nicholson escribe sobre cómo usar Scite, una plataforma para descubrir y evaluar artículos científicos a través de Smart Citations. Smart Citations permite a los usuarios ver cómo se ha citado un artículo científico proporcionando el contexto de la cita y una clasificación que describe si proporciona pruebas que apoyen o contradigan la afirmación citada.

 

 

En diciembre de 2018, publiqué un artículo de opinión titulado “Resolviendo el problema de las noticias falsas en la ciencia”. No me refería a COVID-19, obviamente, sino a la ciencia en general y a cómo podemos saber qué es una investigación fiable. Esa pregunta es especialmente pronunciada hoy en día con una avalancha de investigaciones sobre COVID-19 que se están publicando, la mayoría de ellas sin revisión por pares, y la mayoría de ellas ampliándose directamente al público.

Este problema ha existido durante años, pero siempre se ha sentido como abstracto o como un problema académico. ¿No se puede reproducir un hallazgo en la investigación del cáncer? Eso es malo, pero no me afecta directamente. Ahora, cualquier informe científico sobre COVID-19 puede influir en lo que hace el mundo entero. Cada día tenemos conversaciones con nuestras familias y amigos sobre nuevos hallazgos científicos, discutiendo los méritos y defectos de los estudios como si fuéramos profesores titulares discutiendo la propuesta de un estudiante de doctorado. De la noche a la mañana todos nos hemos convertido en científicos de sillón.

Es sorprendente que la ciencia esté ahora en la vanguardia de la mente de todos, pero también puede tener consecuencias peligrosas. El Presidente de los Estados Unidos dijo recientemente, “HIDROXICLOROQUINA Y AZITROMICINA, en conjunto, tienen una oportunidad real de ser uno de los mayores cambios en la historia de la medicina”. Poco después, una pareja ingirió limpiador de peceras en un intento de evitar el COVID-19, porque contenía una forma de cloroquina; uno de ellos murió y el otro fue hospitalizado.

Ivan Oransky y Adam Marcus, fundadores de Retraction Watch, un sitio web de vigilancia del fraude científico, han escrito que “gran parte de las investigaciones que surjan en las próximas semanas resultarán ser poco fiables, incluso erróneas”. Estaremos bien si recordamos eso”.

¿Pero lo recordaremos? ¿Seremos capaces de identificar lo que resultó correcto y lo que resultó incorrecto? ¿Podemos hacer eso ahora?

Esto es algo con lo que trato diariamente como co-fundador y CEO de scite. scite probablemente se describe mejor a los no científicos y no bibliometristas como Rotten Tomatoes pero para artículos científicos. Usamos la inteligencia artificial para que cualquiera pueda ver si la afirmación hecha en un artículo científico ha sido apoyada o contradicha por una investigación posterior. Para un bibliómetra, somos un índice de citas, y aunque compartimos muchas similitudes con otros índices de citas, como Web of Science, Scopus o Dimensions, hacemos las cosas de forma bastante diferente. Específicamente, mostramos el contexto de la citación o “citación” que rodea a las citaciones recibidas por un resultado de investigación individual; utilizamos el aprendizaje profundo para clasificar las declaraciones de citación por la función retórica. Por ejemplo, ¿la citación del artículo original apoya o contradice la conclusión o recomendación del artículo original? En otras palabras, ¿la investigación anterior es confirmada o refutada por la nueva investigación? Nuestro objetivo es ayudar a avanzar en los indicadores de citación más allá de los datos y métricas cuantitativos, para proporcionar más datos cualitativos y contextuales a la comunidad de bibliométricos, y ofrecer específicamente una orientación útil a los no científicos.

scite no es una solución perfecta y no hay una solución perfecta, pero la innovación de nuevas herramientas, como scite, PubPeer y Get The Research, ofrecen a los científicos y a los no científicos la posibilidad de consumir, digerir y evaluar los resultados de la investigación por su cuenta; sostenemos que puede ser sumamente útil para determinar la veracidad de los artículos de investigación, incluidos los artículos recientes sobre COVID-19. Por ejemplo, este artículo, publicado el 22 de febrero concluye: “Tanto los niveles de IL-6 como de IL-10 mostraron aumentos sostenidos en el grupo grave en comparación con el grupo leve”, lo que sugiere que dos moléculas de señalización específicas son más prevalentes en la enfermedad COVID-19 grave que en la leve. ¿Podemos confiar en ese hallazgo? ¿Lo han probado otros? Mirándolo no se puede saber. Con scite, puedes ver que sólo cinco días después, aparece otra preimpresión con pruebas de apoyo para esta afirmación. Los autores afirman: “De acuerdo con el estudio de Wan S [7] y Liu J [8], este estudio también encontró que los niveles de IL-6 e IL-10 estaban asociados con la severidad de la neumonía COVID-19”.

Hasta la fecha, hemos analizado más de 16 millones de artículos científicos, 60k relacionados con el coronavirus, produciendo más de 600 millones de declaraciones de citas clasificadas como las frases citadas anteriormente, y actualmente añadiendo ~10M por día. Sin embargo, para identificar realmente qué investigación es confiable o no, necesitamos acceder a cada artículo científico que se haya escrito. Esto ha sido un reto dado que la mayoría de las investigaciones están encerradas detrás de los muros de pago. Afortunadamente, los principales editores académicos como Wiley, The British Medical Journal, Karger, Rockefeller University Press, y otros han comenzado a compartir estos con scite. Algunos incluso han empezado a mostrar información de scite directamente en sus artículos.

Estamos entusiasmados con las posibilidades que ofrece la bibliometría para ayudar a los científicos y a los no científicos a comprender mejor la ciencia y nos gustaría invitar a los investigadores a utilizar nuestros datos (de forma gratuita) para realizar sus propios estudios.

 

El índice de citas abiertas COCI supera los 700 millones de citas

opencitations-logo-50-with-words-greybg

 

Crossref Open Citation Index (COCI)

Noticia

 

COCI, el Índice de OpenCitations de Crossref, citas abiertas de DOI a DOI, se amplió el 12 de mayo de 2020 con más de 47 millones de citas adicionales, y ha alcanzado un número total de más de 702 millones de DOI-to- DOI cita enlaces entre más de 58 millones de entidades bibliográficas.

Las citas agregadas en esta quinta versión de COCI provienen del volcado Crossref más reciente descargado el 22 de abril de 2020, que incluye las referencias de los artículos depositados en Crossref entre el 4 de octubre de 2019 y el 4 de abril de 2020. Dichas actualizaciones de COCI ahora ocurrirán regularmente a intervalos bimensuales.

Como consecuencia, COCI ahora contiene 702.772.530 citas, y también incluye publicaciones sobre la pandemia de COVID-19. El índice utilizará esta nueva versión de COCI para actualizar el  conjunto de datos de citas abiertas de Coronavirus , la segunda versión incluirá detalles sobre estas referencias y publicaciones adicionales.

Impacto, calidad de la investigación y revisión científica en el contexto de la ciencia abierta

 

A partir del minuto aproximadamente, se explica de una manera bastante clara y amigable cómo funciona el sistema de comunicación científica, calidad impacto y revisión.

 

Herramienta para ver el solapamiento de citas entre Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science y COCI

 

495c1f3ca34d155c0008f9d316ea7337

 

Citation overlap in Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and COCI

https://cutt.ly/Jyksa9M

Se ha diseñado una aplicación que os permite comparar entre sí las bases de datos que deseéis y, sobre todo, como rinde cada una de ellas en 252 categorías temáticas. De esta manera podéis conocer con precisión las fortalezas y debilidades de cada base de datos en disciplinas y especialidades de todos los ámbitos de conocimiento. Permite elegir para comparar el solapamiento de tres índices  entre Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and COCI. Primero seleccionamos el área de conocimiento y después la disciplina.

Ver documento asociado

Martín-Martín, A., Thelwall, M., Orduna-Malea, E., & Delgado López-Cózar, E. (2020). Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and OpenCitations’ COCI: a multidisciplinary comparison of coverage via citations. https://arxiv.org/abs/2004.14329

Comparando la cobertura de Google Scholar, Microsoft Academic, Dimensions, COCI de CrossRef, Web of Science y Scopus

 

1b3b556695916ac503a49761571d4a3c

 

Alberto Martín-Martín, Mike Thelwall, Enrique Orduna-Malea, Emilio Delgado López-Cózar. Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and OpenCitations’ COCI: a multidisciplinary comparison of coverage via citations. ArXiv, 2020. https://arxiv.org/abs/2004.14329

Descargar artículo

 

El estudio que compara la cobertura en citas de Google Scholar, Microsoft Academic, Dimensions, COCI de CrossRef, Web of Science y Scopus. Se analiza no solo la extensión sino el grado de solapamiento entre ellas, con lo cual os puede orientar a los bibliotecarios y, en general, a los científicos sobre qué fuente es las más adecuada para encontrar información científica exhaustiva y relevante. Es la primera vez que se comparan simultáneamente estas seis fuentes de datos, entre ellas por primera vez Microsoft Academic, Dimensions y Crossref y se hace a gran escala (3.073.353 citas)

 Se ha diseñado una aplicación que os permite comparar entre sí las bases de datos que deseéis y, sobre todo, como rinde cada una de ellas en 252 categorías temáticas. De esta manera podéis conocer con precisión las fortalezas y debilidades de cada base de datos en disciplinas y especialidades de todos los ámbitos de conocimiento. La aplicación se encuentra en: https://cutt.ly/Jyksa9M

 

Introducción de nuevos datos de acceso abierto en Journal Citation Reports

 

oa-analysis-bjp-002

 

Introducing new open access data in Journal Citation Reports Dr Nandita Quaderi DR NANDITA QUADERI Editor-in-Chief of the Web of Science Clarivate. 23/04/2020

Ver completo

PDF

Ver video

 

Los nuevos datos muestran los artículos de cada revista por modelo de acceso. Esto proporciona a la comunidad investigadora información transparente y neutral para el editor sobre la contribución relativa de los artículos publicados de forma gratuita para leer y reutilizar bajo licencias Creative Commons (acceso abierto de la ruta dorada) respecto al volumen general de contenido y citas de una revista. 

 

 

El panorama editorial de la investigación está experimentando un cambio rápido, interrumpiendo el modelo tradicional de suscripción y reemplazándolo por modelos de acceso abierto. Los financiadores, los bibliotecarios y los editores buscan mejorar la transparencia del acceso abierto, sometiendo a los editores a una presión cada vez mayor para eliminar o acortar los embargos, mejorar las opciones de acceso abierto y ‘cambiar’ los modelos de suscripción tradicional o las revistas híbridas para que todos los artículos de investigación sean de libre acceso y reutilizables tras la publicación a través de una licencia Creative Commons, generalmente conocida como OA de la ruta dorada.

Para ello la nueva herramienta incorporada a Journal Citation Reports (JCR) – en beta hasta el lanzamiento de en junio de 2020- permitirá que los usuarios puedan comparar rápida y fácilmente en las aproximadamente 5.200 revistas híbridas en Journal Citation Report los siguientes datos:

  • la cantidad de artículos publicados a través del modelo de suscripción tradicional, y
  • los publicados a través de licencias Creative Commons.

La introducción de estos datos adicionales en JCR nos ayudará a todos a comprender el impacto del contenido académico publicado a través de OA de oro.

 

China prohíbe los incentivos en efectivo por publicar artículos

1020nba-superjumbo

 

Smriti Mallapaty. China bans cash rewards for publishing papers. Nature feb 2020

Ver completo

 

La nueva política aborda los incentivos perversos que impulsan la cultura de ‘publicar o perecer’ y podrían alentar prácticas de investigación cuestionables.

 

En una orden emitida la semana pasada, los ministerios de ciencia y educación de China dicen que las instituciones no deben promover ni reclutar investigadores únicamente en función del número de artículos que publican o de sus citas. Los investigadores dan la bienvenida a la política, pero dicen que podría reducir la competitividad científica del país.

En China, uno de los principales indicadores utilizados actualmente para evaluar a los investigadores, asignar fondos y clasificar a las instituciones es la métrica recopilada por Science Citation Index (SCI), una base de datos de artículos y registros de citas de más de 9,000 revistas. Desde 2009, los artículos en estas revistas escritos por autores de instituciones chinas aumentaron de unos 120.000 al año a 450.000 en 2019. Algunas instituciones incluso pagan bonos a los investigadores por publicar en ellos.

Estas prácticas han incentivado a los investigadores a publicar muchos artículos a expensas de la calidad, dice Jin Xuan, ingeniero químico de la Universidad de Loughborough, Reino Unido. La evidencia sugiere que el enfoque en las métricas también ha impulsado un aumento en las prácticas inapropiadas, como los investigadores que presentan documentos plagiados o fraudulentos, o que citan de manera inapropiada el trabajo propio o de un colega para aumentar las citas.

El objetivo de la nueva política no es disuadir a los investigadores chinos de publicar artículos en revistas que figuran en el SCI, sino detener las prácticas inapropiadas de publicación y citas.

Como parte de la nueva política, las evaluaciones de los investigadores ahora necesitarán usar indicadores de la calidad de la investigación, como cuán innovador es el trabajo, si representa un avance científico significativo o su contribución a la resolución de problemas sociales importantes. Estas evaluaciones también deberían basarse más en las opiniones profesionales de pares expertos, y considerar la investigación en revistas publicadas en China, muchas de las cuales no figuran en el SCI.

 

Ciencia a través de Wikipedia: una representación novedosa del conocimiento abierto a través de redes de co-citas

 

20130504_blp510

 

Arroyo-Machado, Wenceslao ; Torres-Salinas, Daniel; Herrera-Viedma, Enrique ; Romero-Frías, Esteban. Science Through Wikipedia: A Novel Representation of Open Knowledge Through Co-Citation Networks. PLoS ONE. DOI: https://doi.org/10.1371/journal.pone.0228713

Texto completo

 

Este estudio proporciona una visión general de la ciencia desde la perspectiva de Wikipedia. Se estableció una metodología para el análisis de cómo los editores de Wikipedia consideran la ciencia a través de sus referencias a artículos científicos.

El método de co-citación se ha adaptado a este contexto para generar redes Pathfinder (PFNET) que resalten las revistas y categorías científicas más relevantes, y sus interacciones para descubrir cómo se consume la literatura científica a través de esta enciclopedia abierta. Además de esto, su obsolescencia ha sido estudiada a través del índice de precios.

Inicialmente se ha tenido en cuenta un total de 1 433 457 referencias disponibles en  Altmetric.com . Después de preprocesarlos y vincularlos a los datos de CiteScore Metrics de Elsevier, la muestra se redujo a 847 512 referencias hechas por 193.802 artículos de Wikipedia a 598.746 artículos científicos pertenecientes a 14 149 revistas indexadas en Scopus.

Como resultados resaltados, se encontró una presencia significativa de artículos de “Medicina” y “Bioquímica, Genética y Biología Molecular” y que las revistas más importantes son de naturaleza multidisciplinaria, lo que sugiere también que las revistas de factores de alto impacto tenían más probabilidades de ser citadas. Además, solo el 13.44% de las citas de Wikipedia corresponden a revistas de acceso abierto.

Adopción del modelo de negocio de acceso abierto en la publicación de revistas científicas – Un estudio transversal

01a780b32e879fd8ce098bf25d5cf998

Björk, B-C., & Korkeamäki, T.. Adoption of the open access business model in scientific journal publishing – A cross-disciplinary study. College & Research Libraries, 2019

Texto completo

En los últimos veinticinco años, las editoriales de revistas científicas se han convertido rápidamente a la difusión predominantemente electrónica, pero el modelo de negocio de “el lector paga” sigue dominando el mercado. La publicación de Acceso Abierto (OA), donde los artículos se pueden leer libremente en la red ha aumentado lentamente su cuota de mercado hasta cerca del 20%, pero no ha logrado cumplir las visiones de rápida proliferación que predijeron muchos de los pioneros del OA. El crecimiento del acceso abierto también ha sido muy desigual en los distintos campos de la ciencia. Se recogen las cuotas de mercado de acceso abierto en dieciocho disciplinas indexadas por Scopus que van desde el 27% (agricultura) hasta el 7% (negocios). Las diferencias son mucho más pronunciadas en las revistas publicadas en los cuatro países, que dominan el ámbito académico comercial. de publicación (EE.UU., Reino Unido, Alemania y los Países Bajos). Se presentan desarrollos contrastados dentro de seis disciplinas académicas. Disponibilidad de fondos para pagar los gastos de publicación, presión de las agencias de investigación en torno a la financiamiento, y la diversidad de culturas de comunicación de la investigación.

Número de revistas y de revistas OA en los principales servicios de indización

Index – No of journals – No of OA journals – OA journal share
WoS 16,257 2,786 17.1 %
Scopus 24,385 4,485 18.4 %
Ullrich’s 82,559 16,224 19.7 %
DOAJ 12,135 100 %
ROAD 16,224 100 %
Cabell’s 10,352 100 %

.

0613a06238e6bef33a8cdc4d779cc78a

¿Los artículos publicados en revistas depredadoras están siendo citados en la literatura científica legítima?

Group of Research Scientists show dislike or unlike thumbs down hand

Predatory Journals in the Legitimate Scientific Literature By Rick Andersonoct Scholary Kitchen 28/10/2019

Ver completo

Para comprobar de que modo se están citando los artículos de revistas depredadoras en la literatura científica, se analizaron siete revistas que habían revelado su naturaleza depredadora cuando, cada una de las cuales había demostrado claramente que la revista en cuestión (a pesar de sus afirmaciones públicas de rigor revisado por pares) publicará a cambio del pago de los cargos de procesamiento de artículos, o asumirá como editor a alguien sin cualificación.

Posteriormente se buscaron las citas de artículos publicados en estas revistas en tres grandes agregadores de artículos científicos:

  • The Web of Science, que afirma indexar más de 90 millones de documentos.
  • La base de datos ScienceDirect de revistas y libros publicados por Elsevier, que afirma incluir más de 15 millones de publicaciones.
  • PLOS ONE, un megaproyecto de acceso abierto que ha publicado unos 200.000 artículos en su historia.

Las búsquedas se realizaron en agosto de 2018 y luego se repitieron en octubre de 2018 como control. En todos los casos, los resultados de octubre fueron iguales o ligeramente superiores.

screen-shot-2019-10-25-at-10.24.44-am

Cuando se buscó  en Web of Science, Science Direct y PLOS ONE citas de artículos publicados en estas siete revistas, dos de las siete revistas depredadoras nunca habían sido citadas por artículos de esas plataformas. De estas plataformas, la que contenía la menor cantidad de citas a revistas depredadoras fue PLOS ONE (en la que no hubo citas a revistas depredadoras excepto a la Revista E, que fue citada en 17 artículos PLOS ONE, aunque ninguno de estos artículos citados fue publicado en la Revista E después de su venta en 2014).

Elsevier ScienceDirect contenía 61 citas a la Revista E en total, 31 de ellas desde la venta. Sin embargo, de esos 31 artículos en las revistas de Elsevier, 26 citaron artículos de pre-venta en la Revista E; en dos casos sólo los resúmenes estaban disponibles en línea, lo que hacía imposible determinar las fechas de publicación de los artículos citados; en tres casos, las citas eran de artículos de post-venta. En otras palabras, sólo 5 artículos en las revistas de Elsevier, como mucho, fueron encontrados citando artículos de la Revista E que fueron publicados después de su venta. El resultado más preocupante fue que Web of Science contenía 40 citas de artículos de postventa publicados en el Journal E.

En cualquier caso, la tabla de arriba representa una buena noticia: las revistas depredadoras bajo examen rara vez han sido citadas en publicaciones legítimas indexadas por estos grandes compendios de literatura académica y científica.

Otro contexto en el que deben considerarse estos datos es el de la propia producción de las revistas depredadoras: por ejemplo, una de ellas tuvo el 36% de sus artículos publicados citados en una literatura académica general; otra tuvo el 25% de sus artículos citados. La Revista E ha tenido sólo el 6% de sus artículos de post-venta citados en la literatura legítima – sin embargo, como muestra la Figura 2, dada la prodigiosa producción de esta revista durante los dos años bajo examen, ese pequeño porcentaje representa el mayor número de artículos citados.

Y es importante tener en cuenta que este estudio examinó sólo siete de las revistas depredadoras de las más de 12,000 publicaciones de este tipo en el mercado.

En conclusión: los datos de este estudio de siete de las revistas más claramente depredadoras demuestran la capacidad de dichas revistas para contaminar el discurso científico y académico. Esto es claramente un problema.

Sin embargo, quedan otras cuestiones importantes por resolver. Estos incluyen

  • ¿Cuál es la magnitud real del problema? ¿Qué porcentaje de los artículos publicados por las aproximadamente 12.000 revistas depredadoras que operan actualmente representan una investigación tan profundamente defectuosa que habría sido rechazada por los editores y revisores competentes?
  • De esos artículos fundamentalmente defectuosos, ¿cuántos se citan en publicaciones legítimas? ¿Cuál es el impacto del problema en el mundo real? ¿Hasta qué punto la mala ciencia, disfrazada de buena ciencia, socava la calidad del discurso científico, la formación de políticas y la atención médica?

Se trata de cuestiones urgentes que requieren una mayor investigación.