Archivo de la etiqueta: Índices de citas

Clarivate introduce un nuevo indicador de impacto como alternativa al Factor de Impacto, que tiene en cuenta las citas promedio durante 3 años

Journal impact factor gets a sibling that adjusts for scientific field By Cathleen O’GradyJun. Nature, 30, 2021

Texto completo

Los investigadores frecuentemente aluden al factor de impacto de las revistas de Clarivate Analytics, diciendo que la métrica, que informa el promedio de citas por artículo, tiene fallas metodológicas que respaldan comparaciones engañosas de revistas e investigadores. Hoy, la compañía dio a conocer una métrica alternativa que mejora algunos de estos defectos al permitir comparaciones más precisas entre revistas en diferentes disciplinas.

El anuncio se produce como parte del lanzamiento de la compañía en 2021 de su base de datos Journal Citation Reports que Incluye los últimos factores de impacto de revistas y otros análisis de revistas. Entre estos se encuentra el nuevo indicador JCI, que promedia las citas recopiladas por una revista durante 3 años de publicación, en comparación con los solo 2 años del factor de impacto. Es más, Clarivate dice que la JCI recoge revistas no cubiertas por el factor de impacto, incluidas algunas de Artes y Humanidades, así como revistas regionales o de campos científicos “emergentes”. 

JCI es “un paso adelante” y “más vale tarde que nunca”, dice Henk Moed, bibliométra y editor en jefe de la revista Scholarly Assessment Reports. Su principal avance, explica, no es nuevo en absoluto: durante décadas, los investigadores en bibliometría han estado desarrollando métodos para comparar el impacto de las citas entre disciplinas. Por ejemplo, los artículos de matemáticas citan generalmente solo un puñado de fuentes, los artículos de bioquímica suelen tener listas de citas con docenas o incluso cientos de entradas. Entonces, “no es un signo de calidad que los artículos de bioquímica se citen más”, dice Moed. Los factores de impacto, que simplemente suman las citas sin tener en cuenta la norma en un campo, pasan por alto este hecho.

Por esa razón, en 2010, Moed desarrolló la metodología para una métrica diferente, -Source Normalized Impact by Paper (SNIP)- que fue adoptada por el gran competidor de Clarivate, el gigante editorial Elsevier, en su índice de citas Scopus.

JCI de Clarivate, que utiliza una metodología diferente, proporciona una métrica similar a SNIP para las revistas en su base de datos Journal Citation Reports. Eso fortalecerá la posición de Clarivate en el mercado, dice Moed.

Pero el anuncio de Clarivate deja mucho que desear, incluida la transparencia, dice Marianne Gauffriau, bibliotecaria de investigación de la Biblioteca de la Universidad de Copenhague. El informe técnico de la compañía que describe la nueva métrica no cita ninguna de la literatura sustancial publicada por bibliometras a lo largo de los años.

También existe el riesgo de que, al igual que el factor de impacto, el JCI se utilice de forma inapropiada, dice Gauffriau. Con frecuencia, los evaluadores de premios y otras decisiones utilizan esas métricas para juzgar la producción académica de investigadores, instituciones y publicaciones individuales, una práctica que a menudo es criticada por los bibliometras como una forma defectuosa de juzgar la calidad.

Clarivate ha tratado de evitar el uso indebido de JCI desde el principio, dice Martin Szomszor, director del Instituto de Información Científica de la compañía. Ha dejado claro al describir el JCI que no está diseñado para evaluar investigadores individuales.

Es poco probable que JCI sustituya al factor de impacto de las revistas a corto plazo, dice Szomszor. Clarivate esperará para ver su aceptación, dándole la oportunidad de desarrollarse como una opción paralela.

La Universidad de Utrecht dejará de tener en cuenta el factor de impacto para medir la calidad de sus investigadores

Woolston, Chris. Impact factor abandoned by Dutch university in hiring and promotion decisions. Nature, 25 June 2021

Ver completo

Los investigadores y el personal de la Universidad de Utrecht serán evaluados por su compromiso con la ciencia abierta y el trabajo en equipo.

Una universidad holandesa de Utrecht dice que está dejando formalmente de tener en cuenta el factor de impacto, una medida estándar del éxito científico, en todas las decisiones de contratación y promoción. Para principios de 2022, todos los departamentos de la Universidad de Utrecht en los Países Bajos juzgarán a sus académicos según otros estándares, incluido su compromiso con el trabajo en equipo y sus esfuerzos para promover la ciencia abierta, dice Paul Boselie, investigador de gobernanza y líder del proyecto para el nuevo programa de acreditación Recognition and rewards. “Los factores de impacto no reflejan realmente la calidad de un investigador o académico individual”, dice. “Creemos firmemente que algo tiene que cambiar y abandonar el factor de impacto es uno de esos cambios”.

El factor de impacto de un científico es una puntuación que tiene en cuenta el número de publicaciones y la tasa de citas de las revistas donde se publican esos artículos. En este sistema, los artículos de revistas muy citadas como ScienceNature o Cell cuentan más que los artículos de revistas cuyo contenido se cita con menos frecuencia. Boselie dice que los factores de impacto, así como una medida relacionada llamada índice h, contribuyen a una “producción” de la ciencia que valora la producción pura sobre la buena investigación. “Se ha convertido en un modelo muy dañino que va más allá de lo que es realmente relevante para la ciencia y de promover la ciencia”, dice.

El nuevo esquema es parte del programa Open Science de Utrecht, un esfuerzo de múltiples vías para hacer que la investigación sea más transparente y cooperativa. Los gestores de los programas de ciencia abierta integrados en cada departamento evaluarán el progreso hacia la publicación de acceso abierto, la participación pública y el intercambio de datos.

La decisión de renovar la contratación y la promoción se ha inspirado en parte en la Declaración sobre Evaluación de la Investigación (DORA), un documento creado en 2012 en la reunión anual de la Sociedad Estadounidense de Biología Celular.

La declaración tiene como objetivo “mejorar las formas en que se evalúan los investigadores y los resultados de la investigación académica” y pide específicamente eliminar los factores de impacto como una forma de juzgar el mérito de los académicos. Hasta el momento, ha sido firmado por casi 20.000 personas e instituciones. La Universidad de Utrecht firmó el documento en 2019.

Entre los investigadores académicos, la insatisfacción con el uso y mal uso del factor de impacto en las evaluaciones y decisiones de permanencia, promoción y contratación ha aumentado en los últimos años. Un informe de 2018 calificó el factor de impacto como “una medida inadecuada para evaluar el impacto de los científicos” y concluyó que si no se modifica el sistema de evaluación actual es probable que se produzca un “comportamiento continuo que no siempre ha concluido en un comportamiento social positivo”.

Todas las universidades de los Países Bajos, incluida Utrecht, se han adherido a Room for Everyone’s Talent’, un documento de posicionamiento de 2019 dirigido por VSNU, la asociación de empleados de las universidades holandesas. Ese documento pide un sistema de reconocimiento y recompensas que “permita la diversificación y vitalización de las trayectorias profesionales”.

Aún así, eliminar las métricas estándar podría ser un movimiento arriesgado para la universidad y sus profesores y miembros del personal. Mientras otras universidades sigan dependiendo de los factores de impacto y otras métricas de productividad para la contratación y la promoción, los investigadores que surgen a través del sistema de Utrecht podrían estar en desventaja competitiva.

Proceso de evaluación y criterios de selección de la revista Web of Science

Web of Science Core Collection journal evaluation criteria

PDF Inglés

Ver completo

Según Clarivate los principios básicos del proceso de selección siguen siendo los mismos: objetividad, selectividad y dinámica de cobranza. Se usa un conjunto de 28 criterios para evaluar revistas; estos se dividen en 24 criterios de calidad diseñados para seleccionar el rigor editorial y las mejores prácticas a nivel de revista, y cuatro criterios de impacto diseñados para seleccionar las revistas más influyentes en sus respectivos campos utilizando la actividad de citas como el principal indicador de impacto.

Las revistas que cumplen con los criterios de calidad ingresan al Emerging Sources Citation Index ™ (ESCI). Las revistas que cumplen con los criterios de impacto adicionales ingresan al Science Citation Index Expanded ™ (SCIE), Social Sciences Citation Index ™ (SSCI) o Arts & Humanities Citation Index (AHCI) según su área temática.

En este proceso, las revistas se reevalúan primero para determinar su calidad y la evaluación de impacto está sujeta a que se cumpla con la calidad. Si se cumplen los criterios de calidad e impacto, las revistas se trasladan a una colección emblemática. El equipo editorial de Web of Science se centra en las nuevas evaluaciones durante la primera mitad del año, la segunda mitad está dedicada a las reevaluaciones. Las revistas cubiertas se evalúan continuamente para determinar su calidad.

Cuando se completa la evaluación, se informará al editor del resultado y la revista:

  • ser eliminado de la cobertura si ya no cumple con los criterios de calidad
  • o permanecer si continúa cumpliendo con los criterios de calidad.

Si la revista cumple con los criterios de calidad, se indexará cualquier contenido que falte. Si la revista se elimina de la cobertura, el contenido no se completará. En los casos más graves de incumplimiento de los estándares editoriales de la revista, según lo determinen nuestros criterios de selección, el contenido publicado puede eliminarse de Web of Science ™. Los plazos para completar una reevaluación dependerán de las circunstancias particulares de cada caso.

Triaje inicial

El propósito principal de este paso de clasificación es garantizar una identificación inequívoca de la revista enviada para evaluación y saber a quién contactar si tenemos alguna duda o inquietud. No hay un período de embargo para volver a enviarlo si una revista no pasa la clasificación inicial.

  • Contiene ISSN,
  • Título, editor,
  • URL,
  • Acceso al contenido,
  • Presencia de la política de revisión por pares,
  • Detalles de contacto.

Triaje editorial

En este paso, los editores de Web of Science revisan la revista para determinar si se merece una evaluación editorial completa. No existe un período de embargo para reenvío si una revista no pasa la clasificación editorial. Exigencias:

  • Contenido académico
  • Títulos de artículos y resúmenes de artículos en inglés
  • Información bibliográfica en escritura romana
  • Claridad del lenguaje,
  • Puntualidad y / o volumen de publicación
  • Funcionalidad del sitio web / formato de revista
  • Presencia en declaraciones éticas
  • Detalles de afiliación editorial
  • Detalles de afiliación del autor

Evaluación editorial (calidad)

En este paso, los editores de Web of Science están verificando la alineación entre el título de la revista, el alcance declarado, la composición de su comité editorial y autoría, y su contenido publicado. También buscan pruebas de rigor editorial y adherencia a los estándares de la comunidad. Si una revista no pasa este paso, el reenvío está sujeto a un período de embargo de al menos dos años.

  • Composición de la Junta Editorial
  • Validez de las declaraciones
  • Revisión por pares
  • Relevancia del contenido
  • Detalles de la subvención
  • Adherencia a los estándares comunitarios
  • Distribución de autor
  • Citas apropiadas a la literatura

Evaluación editorial (impacto)

Los criterios en este paso están diseñados para seleccionar las revistas más influyentes en un campo de investigación determinado, utilizando la actividad de citas como un indicador principal de impacto. Si una revista no pasa este paso, la reevaluación está sujeta a un período de embargo de al menos dos años.

  • Análisis comparativo de citas
  • Análisis de citas del autor
  • Análisis de citas de la junta editorial
  • Importancia del contenido

Resultados de la encuesta sobre el estado de las métricas responsables de 2020

Figura 2. Las 12 fuentes de datos más utilizadas por los encuestados

Nicolas Robinson-Garcia. Results from the 2020 Responsible Metrics State of the Art Survey, april 2021

Texto completo

Resultados de la encuesta sobre el estado de las métricas responsables de 2020. Siendo 2020 un año difícil para todos, observamos un descenso en la participación con respecto a los resultados de 2019, pasando de 218 encuestados a un total de 139. Aun así, la diversidad de países de los que proceden los encuestados, ya observada el año pasado, sigue siendo evidente (Figura 1). En este sentido, es destacable la diligencia e importancia que muchos profesionales dan a la encuesta y el tiempo que dedican a ello. De hecho, nos alegramos de ver comentarios en las redes sociales y de recibir correos electrónicos que reflejan los debates internos que se producen entre los colegas mientras preparan sus respuestas.

La encuesta de este año incluye algunos cambios notables con respecto a otras ediciones. Junto con las preguntas periódicas relacionadas con la integración de prácticas de métrica de investigación responsable en su institución, ampliamos el número de preguntas en dos direcciones. En primer lugar, queríamos conocer la organización y el departamento del encuestado para contextualizar mejor sus respuestas. En segundo lugar, formulamos preguntas específicas sobre las herramientas que utilizaban al producir métricas de investigación para sus instituciones.

El 76,3% de los encuestados trabajan en universidades, seguidos por el 14,4% que trabajan en institutos públicos de investigación. El resto se encuentra disperso en otras organizaciones, como empresas privadas (N=4), editoriales (N=3) u hospitales (N=1), entre otras. De los que trabajan en el ámbito académico, casi la mitad (45,3%) lo hace en la Biblioteca Universitaria, mientras que el 34,9% lo hace en la Oficina de Investigación. El número de personas que trabajan en la evaluación de la investigación varía mucho de unas instituciones a otras, con una mediana de 4 personas en las bibliotecas a 10 en las Oficinas de Planificación o 5 en las Oficinas de Investigación y con grandes diferencias dentro de los tipos de departamentos.

En cuanto a las fuentes y herramientas que utilizan en su trabajo diario, incluimos las suites bibliométricas y las bases de datos más conocidas, así como una opción de “otros” en la que los encuestados podían añadir otras herramientas que utilizaban para producir métricas de investigación. Web of Science y Scopus son las fuentes de datos más comunes, seguidas de los repositorios institucionales, Google Scholar y los sistemas institucionales CRIS. Sin embargo, es raro que se utilice una sola fuente de datos, y los encuestados indican que utilizan una media de más de tres fuentes de datos diferentes.

La variedad de herramientas y niveles de sofisticación muestra también una gran diversidad. Las respuestas van desde la indicación de la falta de uso de herramientas bibliométricas (N=11), pasando por el uso de herramientas comerciales (Scival, InCites), hasta la combinación de herramientas ad hoc con lenguajes de programación, herramientas de visualización y herramientas bibliométricas como Bibibliometrix o BibExcel.

Figura 4. Las 12 herramientas más utilizadas por los encuestados

Una vez más, las respuestas reflejan una gran versatilidad, ya que las herramientas rara vez se utilizan de forma aislada, sino que siempre se combinan para proporcionar análisis bibliométricos más precisos. Esto refleja el nivel de profesionalidad presente en el campo.

Firmantes del DORA

En comparación con los resultados del año pasado, el porcentaje de encuestados que han firmado la Declaración de San Francisco DORA es mayor que el de los que no lo han hecho. Esto puede ser el resultado de una mayor atención al DORA por parte del  Plan S, y de un requisito del financiador de la COAlición S, el Wellcome Trust, de que los beneficiarios demuestren un compromiso público con los principios del DORA. Entre otros comentarios, encontramos un encuestado que afirmó que su institución había considerado esta decisión como algo que los individuos, departamentos y facultades eran libres de hacer, pero que no harían en conjunto. También encontramos que el DORA todavía no ha llegado a todo el mundo, y 11 encuestados indicaron que nunca habían oído hablar de él. 10 encuestados indicaron que su institución había decidido no firmarlo, mientras que 4 afirmaron respaldarlo pero habían decidido no firmarlo. En este sentido, está por ver si acciones públicas como la emprendida recientemente contra la Universidad de Liverpool por los autores del Manifiesto de Leiden y los principios de Hong Kong, que es firmante del DORA pero no reflejó prácticas de métrica de investigación responsables, podrían tener una consecuencia en estas decisiones.

Desarrollo de principios institucionales

Casi el 70% de los encuestados ha considerado al menos el desarrollo de un conjunto de principios sobre el uso responsable de las métricas de investigación, un aumento en comparación con el 52% informado en la encuesta de 2019. De ellos, solo un encuestado indicó que su institución había decidido no hacerlo. Los encuestados dieron algunas nociones sobre cómo se están diseñando estos principios. En algunos casos, utilizarían o adaptarían los principios establecidos en el Manifiesto de Leiden a su contexto institucional; en otros casos, participarían activamente en el desarrollo de los principios nacionales. En un caso, un encuestado indicó que estaba trabajando con el INORMS para aplicar SCOPE a su marco de publicación responsable.

Las instituciones en las que los indicadores basados en la publicación pueden no aplicarse, no están exentas del uso de prácticas de métrica responsable. Una institución de Arte y Diseño informó de que “no utiliza la bibliometría, pero está considerando otras métricas que se relacionan más con el rendimiento de la investigación departamental que con el rendimiento individual”. Otros indicaron que, a pesar de no tener un conjunto oficial de principios, “consideran activamente la ética de lo que hacemos”.

Conclusiones

Siguiendo la tendencia del año pasado, observamos cómo parece que hemos superado la fase de reconocimiento y concienciación de la necesidad de un uso responsable de las métricas. Las respuestas son cada vez más críticas con la forma en que se implementa dicho uso e incluso las opiniones negativas están motivadas y bien argumentadas, y no se limitan a reconocer la ignorancia. La adopción del DORA sigue aumentando, pero los profesionales indican una respuesta ambivalente de las comunidades académicas a estas políticas. Muchas de las malas prácticas que rodean el uso de las métricas parecen estar bastante arraigadas en la cultura académica.

En cuanto a la introducción de nuevas preguntas, observamos que el desarrollo de las métricas requiere una serie de herramientas cada vez más complejas, tanto de propósito general como las diseñadas específicamente para producir métricas de investigación. Es interesante observar que se ha generalizado el uso de fuentes de datos, incluidas muchas de las nuevas bases de datos que han surgido en los últimos años (por ejemplo, Lens, Dimensions), lo que demuestra que los días en que la comunidad profesional estaba vinculadas únicamente a la Web of Science han quedado atrás.

En opinión del autor, el mensaje más relevante es el hecho de que estamos pasando a un debate más complejo sobre cómo se aplican en la práctica las métricas responsables (o cualquier otro tipo de enfoque de seguimiento o evaluación) y qué entendemos realmente por un uso responsable. En este sentido, temas como la personalización y la contextualización de los informes, la difusión y la visibilidad, así como la alfabetización en materia de métricas, parecen adquirir una gran importancia, haciendo que la conversación vaya más allá de la producción real de métricas y se centre en cómo se comunican, a quién y con qué propósito.

Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science y COCI de OpenCitations: una comparación multidisciplinaria de cobertura a través de citas.

.

Martín-Martín, A., Thelwall, M., Orduna-Malea, E. et al. Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science y COCI de OpenCitations: una comparación multidisciplinaria de cobertura a través de citas. Cienciometría (2020). https://doi.org/10.1007/s11192-020-03690-4

.

Recientemente, han estado disponibles nuevas fuentes de datos de citas, como Microsoft Academic, Dimensions y OpenCitations Index of CrossRef open DOI-to-DOI citations (COCI). Aunque se han comparado con Web of Science Core Collection (WoS), Scopus o Google Scholar, no hay evidencia sistemática de sus diferencias entre las categorías de materias. En respuesta, este artículo investiga 3.073.351 citas encontradas por estas seis fuentes de datos en 2.515 documentos en inglés altamente citados publicados en 2006 de 252 categorías de temas, ampliando y actualizando el estudio anterior más grande. 

Google Scholar encontró el 88% de todas las citas, muchas de las cuales no fueron encontradas por las otras fuentes, y casi todas las citas encontradas por las fuentes restantes (89-94%). Un patrón similar se mantuvo en la mayoría de las categorías temáticas. Microsoft Academic es el segundo más grande en general (60% de todas las citas), incluido el 82% de las citas de Scopus y el 86% de las citas de WoS. 

En la mayoría de las categorías, Microsoft Academic encontró más citas que Scopus y WoS (182 y 223 categorías de materias, respectivamente), pero tuvo brechas de cobertura en algunas áreas, como Física y algunas categorías de Humanidades. 

Después de Scopus, Dimensions ocupa el cuarto lugar más grande (54% de todas las citas), incluido el 84% de las citas de Scopus y el 88% de las citas de WoS. Encontró más citas que Scopus en 36 categorías, más que WoS en 185, y muestra algunas brechas de cobertura, especialmente en Humanidades. 

Después de WoS, COCI es el más pequeño, con el 28% de todas las citas. Google Scholar sigue siendo la fuente más completa. En muchas categorías de materias, Microsoft Academic y Dimensions son buenas alternativas a Scopus y WoS en términos de cobertura.

Scite: más que un índice de citas

 

scite-classification-screenshot-edited-2-e1591642365317

 

Josh Nicholson. scite: more than just a citation index. LIS bibliometrics, 2020

Ver completo

Scite

 

Josh Nicholson escribe sobre cómo usar Scite, una plataforma para descubrir y evaluar artículos científicos a través de Smart Citations. Smart Citations permite a los usuarios ver cómo se ha citado un artículo científico proporcionando el contexto de la cita y una clasificación que describe si proporciona pruebas que apoyen o contradigan la afirmación citada.

 

 

En diciembre de 2018, publiqué un artículo de opinión titulado “Resolviendo el problema de las noticias falsas en la ciencia”. No me refería a COVID-19, obviamente, sino a la ciencia en general y a cómo podemos saber qué es una investigación fiable. Esa pregunta es especialmente pronunciada hoy en día con una avalancha de investigaciones sobre COVID-19 que se están publicando, la mayoría de ellas sin revisión por pares, y la mayoría de ellas ampliándose directamente al público.

Este problema ha existido durante años, pero siempre se ha sentido como abstracto o como un problema académico. ¿No se puede reproducir un hallazgo en la investigación del cáncer? Eso es malo, pero no me afecta directamente. Ahora, cualquier informe científico sobre COVID-19 puede influir en lo que hace el mundo entero. Cada día tenemos conversaciones con nuestras familias y amigos sobre nuevos hallazgos científicos, discutiendo los méritos y defectos de los estudios como si fuéramos profesores titulares discutiendo la propuesta de un estudiante de doctorado. De la noche a la mañana todos nos hemos convertido en científicos de sillón.

Es sorprendente que la ciencia esté ahora en la vanguardia de la mente de todos, pero también puede tener consecuencias peligrosas. El Presidente de los Estados Unidos dijo recientemente, “HIDROXICLOROQUINA Y AZITROMICINA, en conjunto, tienen una oportunidad real de ser uno de los mayores cambios en la historia de la medicina”. Poco después, una pareja ingirió limpiador de peceras en un intento de evitar el COVID-19, porque contenía una forma de cloroquina; uno de ellos murió y el otro fue hospitalizado.

Ivan Oransky y Adam Marcus, fundadores de Retraction Watch, un sitio web de vigilancia del fraude científico, han escrito que “gran parte de las investigaciones que surjan en las próximas semanas resultarán ser poco fiables, incluso erróneas”. Estaremos bien si recordamos eso”.

¿Pero lo recordaremos? ¿Seremos capaces de identificar lo que resultó correcto y lo que resultó incorrecto? ¿Podemos hacer eso ahora?

Esto es algo con lo que trato diariamente como co-fundador y CEO de scite. scite probablemente se describe mejor a los no científicos y no bibliometristas como Rotten Tomatoes pero para artículos científicos. Usamos la inteligencia artificial para que cualquiera pueda ver si la afirmación hecha en un artículo científico ha sido apoyada o contradicha por una investigación posterior. Para un bibliómetra, somos un índice de citas, y aunque compartimos muchas similitudes con otros índices de citas, como Web of Science, Scopus o Dimensions, hacemos las cosas de forma bastante diferente. Específicamente, mostramos el contexto de la citación o “citación” que rodea a las citaciones recibidas por un resultado de investigación individual; utilizamos el aprendizaje profundo para clasificar las declaraciones de citación por la función retórica. Por ejemplo, ¿la citación del artículo original apoya o contradice la conclusión o recomendación del artículo original? En otras palabras, ¿la investigación anterior es confirmada o refutada por la nueva investigación? Nuestro objetivo es ayudar a avanzar en los indicadores de citación más allá de los datos y métricas cuantitativos, para proporcionar más datos cualitativos y contextuales a la comunidad de bibliométricos, y ofrecer específicamente una orientación útil a los no científicos.

scite no es una solución perfecta y no hay una solución perfecta, pero la innovación de nuevas herramientas, como scite, PubPeer y Get The Research, ofrecen a los científicos y a los no científicos la posibilidad de consumir, digerir y evaluar los resultados de la investigación por su cuenta; sostenemos que puede ser sumamente útil para determinar la veracidad de los artículos de investigación, incluidos los artículos recientes sobre COVID-19. Por ejemplo, este artículo, publicado el 22 de febrero concluye: “Tanto los niveles de IL-6 como de IL-10 mostraron aumentos sostenidos en el grupo grave en comparación con el grupo leve”, lo que sugiere que dos moléculas de señalización específicas son más prevalentes en la enfermedad COVID-19 grave que en la leve. ¿Podemos confiar en ese hallazgo? ¿Lo han probado otros? Mirándolo no se puede saber. Con scite, puedes ver que sólo cinco días después, aparece otra preimpresión con pruebas de apoyo para esta afirmación. Los autores afirman: “De acuerdo con el estudio de Wan S [7] y Liu J [8], este estudio también encontró que los niveles de IL-6 e IL-10 estaban asociados con la severidad de la neumonía COVID-19”.

Hasta la fecha, hemos analizado más de 16 millones de artículos científicos, 60k relacionados con el coronavirus, produciendo más de 600 millones de declaraciones de citas clasificadas como las frases citadas anteriormente, y actualmente añadiendo ~10M por día. Sin embargo, para identificar realmente qué investigación es confiable o no, necesitamos acceder a cada artículo científico que se haya escrito. Esto ha sido un reto dado que la mayoría de las investigaciones están encerradas detrás de los muros de pago. Afortunadamente, los principales editores académicos como Wiley, The British Medical Journal, Karger, Rockefeller University Press, y otros han comenzado a compartir estos con scite. Algunos incluso han empezado a mostrar información de scite directamente en sus artículos.

Estamos entusiasmados con las posibilidades que ofrece la bibliometría para ayudar a los científicos y a los no científicos a comprender mejor la ciencia y nos gustaría invitar a los investigadores a utilizar nuestros datos (de forma gratuita) para realizar sus propios estudios.

 

El índice de citas abiertas COCI supera los 700 millones de citas

opencitations-logo-50-with-words-greybg

 

Crossref Open Citation Index (COCI)

Noticia

 

COCI, el Índice de OpenCitations de Crossref, citas abiertas de DOI a DOI, se amplió el 12 de mayo de 2020 con más de 47 millones de citas adicionales, y ha alcanzado un número total de más de 702 millones de DOI-to- DOI cita enlaces entre más de 58 millones de entidades bibliográficas.

Las citas agregadas en esta quinta versión de COCI provienen del volcado Crossref más reciente descargado el 22 de abril de 2020, que incluye las referencias de los artículos depositados en Crossref entre el 4 de octubre de 2019 y el 4 de abril de 2020. Dichas actualizaciones de COCI ahora ocurrirán regularmente a intervalos bimensuales.

Como consecuencia, COCI ahora contiene 702.772.530 citas, y también incluye publicaciones sobre la pandemia de COVID-19. El índice utilizará esta nueva versión de COCI para actualizar el  conjunto de datos de citas abiertas de Coronavirus , la segunda versión incluirá detalles sobre estas referencias y publicaciones adicionales.

Impacto, calidad de la investigación y revisión científica en el contexto de la ciencia abierta

 

A partir del minuto aproximadamente, se explica de una manera bastante clara y amigable cómo funciona el sistema de comunicación científica, calidad impacto y revisión.

 

Herramienta para ver el solapamiento de citas entre Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science y COCI

 

495c1f3ca34d155c0008f9d316ea7337

 

Citation overlap in Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and COCI

https://cutt.ly/Jyksa9M

Se ha diseñado una aplicación que os permite comparar entre sí las bases de datos que deseéis y, sobre todo, como rinde cada una de ellas en 252 categorías temáticas. De esta manera podéis conocer con precisión las fortalezas y debilidades de cada base de datos en disciplinas y especialidades de todos los ámbitos de conocimiento. Permite elegir para comparar el solapamiento de tres índices  entre Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and COCI. Primero seleccionamos el área de conocimiento y después la disciplina.

Ver documento asociado

Martín-Martín, A., Thelwall, M., Orduna-Malea, E., & Delgado López-Cózar, E. (2020). Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and OpenCitations’ COCI: a multidisciplinary comparison of coverage via citations. https://arxiv.org/abs/2004.14329

Comparando la cobertura de Google Scholar, Microsoft Academic, Dimensions, COCI de CrossRef, Web of Science y Scopus

 

1b3b556695916ac503a49761571d4a3c

 

Alberto Martín-Martín, Mike Thelwall, Enrique Orduna-Malea, Emilio Delgado López-Cózar. Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and OpenCitations’ COCI: a multidisciplinary comparison of coverage via citations. ArXiv, 2020. https://arxiv.org/abs/2004.14329

Descargar artículo

 

El estudio que compara la cobertura en citas de Google Scholar, Microsoft Academic, Dimensions, COCI de CrossRef, Web of Science y Scopus. Se analiza no solo la extensión sino el grado de solapamiento entre ellas, con lo cual os puede orientar a los bibliotecarios y, en general, a los científicos sobre qué fuente es las más adecuada para encontrar información científica exhaustiva y relevante. Es la primera vez que se comparan simultáneamente estas seis fuentes de datos, entre ellas por primera vez Microsoft Academic, Dimensions y Crossref y se hace a gran escala (3.073.353 citas)

 Se ha diseñado una aplicación que os permite comparar entre sí las bases de datos que deseéis y, sobre todo, como rinde cada una de ellas en 252 categorías temáticas. De esta manera podéis conocer con precisión las fortalezas y debilidades de cada base de datos en disciplinas y especialidades de todos los ámbitos de conocimiento. La aplicación se encuentra en: https://cutt.ly/Jyksa9M