Archivo de la etiqueta: Impacto

Un marco de impacto científico para medir el impacto más allá de la métrica de la revista

Ari MD, Iskander J, Araujo J, Casey C, Kools J, et al. (2020) A science impact framework to measure impact beyond journal metrics. PLOS ONE 15(12): e0244407. https://doi.org/10.1371/journal.pone.0244407

Medir el impacto de la ciencia o la investigación en salud pública es importante, especialmente cuando se trata de resultados de salud. Lograr los resultados de salud deseados lleva tiempo y puede verse influenciado por varios contribuyentes, lo que hace que la atribución de crédito a cualquier entidad o esfuerzo sea problemática. Aquí se ofrece un marco de impacto científico (SIF) para rastrear y vincular la ciencia sobre la salud pública con eventos y / o acciones con un impacto reconocido más allá de las métricas de las revistas. 

El SIF se inspiró en el Degrees of Impact Thermometer del Institute of Medicine (IOM), pero se diferencia en que el SIF no es incremental, no es cronológico y tiene un alcance ampliado. El SIF reconoce cinco dominios de influencia: difundir la ciencia, crear conciencia, catalizar la acción, efectuar cambios y dar forma al futuro (el alcance difiere del de la OIM). 

Para la salud pública, el objetivo es lograr uno o más resultados de salud específicos. Lo que es único en este marco es que el enfoque no está solo en el impacto o resultado proyectado, sino más bien en los efectos que están ocurriendo en tiempo real con el reconocimiento de que el campo de medición es complejo y que lleva tiempo para que ocurra el resultado final. 

El SIF es flexible y se puede adaptar para medir el impacto de cualquier esfuerzo científico: desde iniciativas complejas hasta publicaciones individuales. El SIF se puede utilizar para medir el impacto prospectivamente de un cuerpo de trabajo nuevo o en curso (por ejemplo, investigación, directrices y recomendaciones, o tecnología) y retrospectivamente del trabajo terminado y difundido, mediante la vinculación de eventos utilizando indicadores que son conocidos y han sido utilizados. para medir el impacto. Adicionalmente, vincular eventos ofrece un enfoque tanto para contar nuestra historia como para reconocer a otros elementos en la cadena de eventos. El valor añadido de la ciencia se puede transmitir fácilmente a la comunidad científica, los responsables políticos y el público.

Las citas son la moneda de la ciencia, luego están los falsificadores.

Citations Are the Currency of Science

Citations Are the Currency of Science
Then there are the counterfeiters.

Sibrandes Poppema
THE SCIENTIST.  Dec 1, 2020

Texto completo

Los documentos científicos son los que registran los avances en la investigación. Cada año los investigadores publican millones de artículos en más de 30.000 revistas. La comunidad científica mide la calidad de esos trabajos de diversas maneras, entre ellas la calidad percibida de la revista (reflejada por el factor de impacto de la revista) y el número de citas que acumula un trabajo específico. Las carreras de los científicos y la reputación de sus instituciones dependen del número y el prestigio de los trabajos que producen, pero aún más de las citas que atraen esos trabajos.

En los últimos años se han producido varios episodios de fraude científico, entre los que cabe citar datos completamente inventados, figuras manipuladas o adulteradas, múltiples publicaciones con los mismos datos, robo de artículos completos, plagio de textos y autoplagio. Algunos científicos han encontrado otra forma de aumentar artificialmente el número de citas de su trabajo.

Los cárteles de citas, donde revistas, autores e instituciones conspiran para inflar los números de citas, han existido desde hace mucho tiempo. En 2016, los investigadores desarrollaron un algoritmo para reconocer patrones de citación sospechosos, incluyendo grupos de autores que se citan desproporcionadamente entre sí y grupos de revistas que se citan frecuentemente para aumentar los factores de impacto de sus publicaciones. Recientemente, me encontré con otra expresión de este comportamiento depredador: el llamado servicio de apoyo.

Las consultoras que prestan apoyo lingüístico y editorial de otro tipo a los autores individuales y a las revistas aconsejan a veces a los colaboradores que añadan varias citas a sus artículos y a los artículos de sus colegas. Algunas de estas consultorías también se dedican a organizar conferencias y pueden aconsejar que se añadan citas a las actas de las conferencias. De esta manera, un solo editor puede impulsar cientos de citas en dirección a sus propios artículos o a los de colegas que puedan estar en su círculo.

La llegada de la publicación electrónica y la necesidad de los autores de encontrar salidas para sus artículos dio lugar a miles de nuevas revistas, a menudo con el sello de “internacional” y promesas de acceso abierto y amplia circulación. El nacimiento de revistas depredadoras no se quedó atrás. Recientemente un grupo de autores publicó una definición consensuada de esas publicaciones: “Las revistas y editoriales predatorias son entidades que dan prioridad al interés propio a expensas de la erudición y se caracterizan por la información falsa o engañosa, la desviación de las mejores prácticas editoriales y de publicación, la falta de transparencia y/o el uso de prácticas de solicitación agresivas e indiscriminadas”.

Estas revistas pueden actuar como vacas lecheras en las que cada artículo de un número puede citar un artículo específico o una serie de artículos. A veces las citas son más o menos sobre el tema, pero en otros casos no hay absolutamente ninguna relación entre el contenido del artículo y las citas. Lo peculiar es que la revista para la que supuestamente trabaja el editor no se beneficia en absoluto, sino que sólo proporciona citas a otras revistas. Es bastante fácil de detectar si alguien en la revista prestara atención. Tales prácticas pueden llevar a que un artículo acumule más de 150 citas en el mismo año en que fue publicado.

¿Hasta qué punto es pernicioso este tipo de manipulación de citas? Por ejemplo, una persona -que actúa como autor, editor y consultor- pudo utilizar al menos 15 revistas como proveedores de citas de artículos publicados por cinco científicos en tres universidades. El problema es generalizado en Scopus, que incluye un elevado número de las nuevas revistas “internacionales”. De hecho, la inclusión en Scopus parece ser un criterio al que hay que dirigirse en este tipo de manipulación de citas.

Los números son asombrosos. Para una universidad, encontré que de los casi 700 artículos de la lista de Scopus que sus investigadores publicaron en 2019, los números de citaciones de al menos 20 parecen haber sido impulsados de esta manera. Casi el 60 por ciento de las citas de los estudios publicados por esta universidad procedían de 15 revistas manipuladas, y esto aumentó significativamente los números de citas de los 20 artículos. Estas citas sospechosas elevaron el promedio de citaciones por artículo (C/P) de esta universidad a 2,50 para el año, mientras que sin ellas, el C/P habría sido de 1,08. Dado que las citaciones por artículo y/o las citaciones por facultad son criterios en la clasificación de Quacquarelli Symonds y en la Clasificación Mundial de Universidades de Educación Superior del Times, esto también infla artificialmente la posición cuantitativa de la universidad.

¿Qué se puede hacer con los carteles de citaciones? Primero, los editores y los consejos editoriales de las revistas legítimas deberían prestar atención y corregir a sus colegas. Tienen una responsabilidad. Cuando cada artículo de una revista está citando un artículo específico o un grupo de artículos, es probable que algo esté mal. Cuando los temas de los artículos citados y los que se citan no están relacionados, es un claro indicio. Esto debería analizarse antes de la publicación de un número de revista. De hecho, la comprobación de la idoneidad de las citas es una tarea importante para los revisores y editores. Las revistas también deberían reconsiderar la práctica de utilizar consultores de servicios de apoyo externos como editores de artículos o números especiales resultantes de conferencias.

Scopus dispone de todos los datos necesarios para detectar esta mala práctica. Las banderas rojas incluyen un gran número de citas a un artículo dentro del primer año. Y para los autores que deseen evitar las actividades de los cárteles de citas: cuando un editor, un revisor o un servicio de apoyo le pida que añada referencias inapropiadas, no lo obligue e informe de la petición a la revista.

Se anuncian cambios en el factor de impacto de la revista para 2021

Changes to Journal Impact Factor Announced for 2021 Scholary Kitchen, por PHIL DAVIS 7 DE DICIEMBRE DE 2020

Texto completo

A principios de este otoño, Clarivate Analytics  anunció que estaba pensando en un futuro en el que calculará el factor de impacto de la revista (JIF) en función de la fecha de publicación electrónica y no de la fecha de publicación impresa.

El tiempo de espera entre la publicación en línea y la designación impresa es corto para algunos títulos, puede ser de meses (o incluso años) para otros. Para la mayoría de las revistas en línea, solo hay una fecha de publicación.

Esta discrepancia entre la forma en que Clarivate trataba las revistas impresas tradicionales frente a las revistas solo en línea despertó el escepticismo entre los científicos, algunos de los cuales argumentaron que las largas demoras entre la publicación impresa y en línea beneficiaban a las puntuaciones JIF de las revistas tradicionales sobre los títulos de acceso abierto más nuevos, y sugirieron cínicamente que los editores pueden extender a propósito su retraso en un intento de elevar artificialmente sus puntajes.

Independientemente de si este argumento tiene validez o no (los métodos para contar las citas válidas son problemáticos), los retrasos crean problemas en el registro de citas, especialmente cuando un artículo se ha publicado en línea en un año e impreso en otro, por ejemplo, publicado en línea en Diciembre de 2019 pero que aparece en la edición impresa de enero de 2020.

Esta es solo una de las razones por las que es tan difícil calcular puntuaciones precisas del Factor de impacto de WoS. Al adoptar un nuevo estándar de publicación electrónica, Clarivate ayudará a reducir la ambigüedad en el registro de citas. También hará que sea más fácil y transparente calcular las métricas de citas. 

Web of Science  comenzó a incluir fechas de publicación electrónica (“Early Access”) en sus registros desde 2017 y ahora incluye esta información para más de 6.000 revistas, aproximadamente la mitad de las más de 12.000 revistas que indexan actualmente.

La próxima publicación de 2021 (utilizando datos de 2020) será un año de transición, en el que las citas de los registros de Early Access se agregarán al numerador del cálculo de JIF, pero se excluirán de los recuentos de publicaciones en el denominador.

El cambio completo al uso de la publicación en línea para el cálculo de los factores de impacto de las revistas (JIF) comenzará en 2022 con los datos de publicación de 2021.

Exploración de las identidades de WorldCat como fuente de información Altmetric: Un experimento de análisis del catálogo de la biblioteca en el campo de la Cienciometría

New Interface for WorldCat: Dec 18 | Indiana University Libraries

Torres-Salinas, D., Arroyo-Machado, W., & Thelwall, M. (2020). Exploring WorldCat Identities as an altmetric information source: A library catalog analysis experiment in the field of Scientometrics. (Preprint). ArXiv, https://doi.org/10.1007/s11192-020-03814-w

Evaluar el impacto de los libros académicos es un difícil problema de evaluación de la investigación. El análisis del catálogo de la biblioteca facilita el estudio cuantitativo, a diferentes niveles, del impacto y la difusión de los libros académicos sobre la base de los datos acerca de su disponibilidad en las bibliotecas. El catálogo mundial de WorldCat recopila datos sobre las existencias de las bibliotecas y ofrece una serie de herramientas, entre las que se encuentra la novedosa WorldCat Identities. Se basa en los perfiles de los autores y proporciona indicadores relativos a la disponibilidad de sus libros en los catálogos de las bibliotecas. Se investiga esta nueva herramienta para identificar sus fortalezas y debilidades en base a una muestra de autores de Bibliometría y Cienciometría. Se revisan los problemas que esto conlleva y comparamos los indicadores del Análisis de catálogos de bibliotecas con las citas de Google Scholar y Web of Science. Los resultados muestran que WorldCat Identities puede ser una herramienta útil para la evaluación del impacto de los libros, pero el valor de sus datos se ve socavado por la provisión de colecciones masivas de libros electrónicos a las bibliotecas académicas.

Evaluar la relación entre el impacto académico y social de los libros de libre acceso basados en comportamientos de citación y la atención de los medios sociales

Wei, M., & Noroozi Chakoli, A. (2020). Evaluating the relationship between the academic and social impact of open access books based on citation behaviors and social media attention. Scientometrics, 125(3), 2401–2420. https://doi.org/10.1007/s11192-020-03678-0

Texto completo

Los logros académicos de libre acceso incluyen no sólo documentos y revistas, sino también libros, que se han convertido en un importante logro para los estudiosos y pueden considerarse productos críticos para los estudios. Hasta hace poco, los libros han desempeñado un papel fundamental en la distribución del conocimiento y la cuestión principal es qué categoría de libros de acceso abierto o no abierto es más eficaz en la sociedad académica.

Así pues, en este estudio se compara la diferencia entre los libros de acceso abierto y los de acceso no abierto en lo que respecta a la distribución del conocimiento. Hemos recogido y analizado datos de Twitter, Mendeley y la plataforma Dimensions, así como el conjunto de datos de todos los libros de Springer. Twitter y Mendeley se consideran indicadores métricos alternativos, que reflejan los impactos con los indicadores de citación.

Los datos fueron analizados desde perspectivas estáticas y comparativas. Los resultados mostraron una relación entre el impacto académico y el impacto social basado en la citación y la atención de los medios sociales para los libros de OA, e indicaron que los libros de acceso abierto impulsan la distribución del conocimiento en Twitter y Mendeley para la muestra de libros extraídos de Springer en estudio. Además, los libros de acceso abierto tienen la ventaja añadida de mantener un impacto sostenido durante mucho tiempo. Es sensato evaluar el impacto de los libros de OA a través de la distribución de conocimientos. Sin embargo, no existe una correlación significativa entre la citación y la atención de los medios sociales en relación con los libros de OA y también el impacto social y académico de los libros en algunas disciplinas como la geografía, la medicina y la salud pública, la cultura y los estudios de medios de comunicación atraen más atención de los medios sociales.

Según el análisis, la correlación con las citas por el número de menciones en los medios sociales es insignificante, lo que indica que las medidas de los medios sociales tienen repercusiones diferentes de las citas. Sin embargo, el impacto social es similar a las medidas complementarias que deben considerarse en la evaluación del impacto de los libros de OA. Por lo tanto, sólo cuando se accede a los libros de OA a través de los canales de comunicación se pueden absorber los conocimientos contenidos en los libros para generar un impacto, y la reducción de la barrera de acceso hace que se preste más atención a los trabajos de investigación de OA. Las conclusiones demostraron que los libros y documentos de OA no tienen impactos similares en la citación. Además, los libros de OA no podían atraer más citaciones que los libros que no son de OA en algunas disciplinas, razón por la cual los libros de libre acceso tienen un impacto significativo en la atención de los medios sociales.

Clarivate identifica a los pioneros científicos mundiales en la lista anual de investigadores altamente citados

Highly Cited Researchers ™ 2020.

La lista anual identifica a los investigadores que demostraron una influencia significativa en su campo o campos elegidos a través de la publicación de múltiples artículos muy citados durante la última década. Sus nombres provienen de las publicaciones que se ubican en el 1% superior por citas por campo y año de publicación en el índice de citas de Web of Science ™.

La metodología que determina el “quién es quién” de los investigadores más influyentes se basa en los datos y análisis realizados por expertos bibliométricos y científicos de datos del Institute for Scientific Information ™ de Clarivate. También utiliza los recuentos para identificar los países y las instituciones de investigación donde se encuentran estas élites científicas.

Estados Unidos domina la lista de investigadores reconocidos por sus pares, pero el panorama global cambia a medida que los investigadores chinos captan una participación del 12%.

Los hallazgos clave para 2020 muestran:

  • Este año han sido reconocidos 6.167 investigadores de más de 60 países y regiones.
  • Si bien Estados Unidos continúa dominando la lista como el país del mayor número de investigadores altamente citados, con 2.650 autores, que representan el 41.5% de los investigadores en la lista, su participación relativa en la lista continúa disminuyendo (44% en 2019). .
  • La Universidad de Harvard, con 188 investigadores, es una vez más la institución con la mayor concentración de investigadores altamente citados en el mundo. Sus vecinos, el Broad Institute y el Massachusetts Institute of Technology, se unen a ellos para encabezar la lista de instituciones líderes a nivel mundial, hogar de 61 y 53 investigadores altamente citados, respectivamente.
  • El lugar de China continental en la lista continúa aumentando; ahora tiene 770 (12,1% o 1: 8) investigadores en la lista, en comparación con 636 o 10,2% en 2019. Su clasificación se ha visto impulsada por la notable entrada en el los diez primeros de la Universidad de Tsinghua, Beijing, subiendo 10 lugares del 19 al 9 en la lista junto con la entrada en 2020 de las universidades de Pekín y Zhejiang a los escalones superiores de la lista.
  • Singapur se muestra con fuerza, representada por la Universidad Tecnológica de Nanyang y la Universidad Nacional de Singapur.
  • Europa también tiene una buena cantidad de buenas noticias. El número de investigadores altamente citados con sede en Alemania y los Países Bajos ha aumentado este año; ambos mostraron una caída el año pasado. La Sociedad Max Planck en Alemania permanece en el número 5 en la lista de instituciones, mientras que la Universidad de Utrecht (27 investigadores) y la Universidad e Investigación de Wageningen (24 investigadores) en los Países Bajos subieron al nivel superior de las universidades enumeradas. El Instituto Suizo de Bioinformática subió 20 puestos en la clasificación institucional con la incorporación de una docena de investigadores altamente citados este año.
  • La lista de este año incluye 26 premios Nobel, incluidos tres anunciados este año

¿Cómo gestionar mejor los resultados de investigación para mejorar el impacto de la investigación?

¿Cómo gestionar mejor los resultados de investigación para mejorar el impacto de la investigación?

Curso entrega a académicos orientación para mejorar los resultados de las investigaciones Santiago de Chile (CHILE). Universidad Católica de la Santisima Concepción nov. 2020

¿Qué tiene que saber un investigador para mejorar los resultados de su investigación? Visibilidad de la información científica, identidad digital y acreditación académica

Citación de revistas depredadoras en las revistas científicas convencionales: contagio de citación

Citation contagion: a citation analysis of selected predatory marketing  journals | SpringerLink

Moussa, S. Citation contagion: a citation analysis of selected predatory marketing journalsScientometrics (2020). https://doi.org/10.1007/s11192-020-03729-6

Texto completo

Utilizando el Google Scholar (GS) como fuente de citas, este estudio tiene por objeto examinar el alcance de las citas de (artículos publicados en) 10 revistas depredadoras de marketing. Los análisis de citas indican que la revista depredadora más citada reunió 6296 citas desde que se publicó por primera vez en 2008. Cuatro de las 10 revistas depredadoras reunieron más de 732 citas cada una desde que fueron lanzadas (es decir, altamente citadas). Otras tres revistas fueron citadas entre 147 y 732 veces (es decir, moderadamente citadas). Las tres revistas restantes recibieron menos de 147 citas cada una (es decir, citadas trivialmente).

Los resultados muestran que los 1246 artículos publicados en estas 10 revistas depredadoras, y que son visibles para GS, recibieron 10.935 citas, con 8.776 citas por artículo. Alrededor del 11,624% de estos 1246 artículos fueron citados 13 veces o más. El artículo más citado recibió 217 citas, de las cuales 21 proceden de revistas indexadas en el Índice de Citas de Ciencias Sociales de Clarivate Analytics. Sobre la base de estos resultados, el presente estudio concluye que la literatura científica convencional ya ha sido contaminada por revistas de comercialización depredadoras.

Métricas responsables para una ciencia sustentable

20/10 Webinar: Acceso Abierto en la UNCuyo (11HS Argentina)

Métricas responsables para una ciencia sustentable

Intervienen

Adrian Méndez. Coordinador Biblioteca Digital, Sistema Integrado de Documentación Universidad de UNCuyo

En próximas sesiones:

María Alejandra Tejada Gómez es Asesora de la Vicerrectoría de Investigación, Pontificia Universidad Javeriana (PUJ). Reflexionó sobre evaluación de la investigación en búsqueda de las convergencias..

Enrique Orduña Malea es Dr. en Documentación, Universidad Politécnica de Valencia (UPV). Explicó las métricas de evaluación como una tragedia de tres actos..

Eduardo Aguado-López es Dr en Enseñanza Superior (CIDHEM, México), sociólogo, especialista en comunicación de ciencia y Acceso Abierto. Fundador y Director Gral de la Red de Revistas Científicas de América Latina, Caribe, España y Portugal (Redalyc). Nos dio excelentes razones para usar lenguaje estructurado (XML) y generación de indicadores en la metodología Redalyc2020..Semana internacional del acceso abierto.@bibliotecasuncuyo @aprender3c @institutoginogermani @ameli_conocimientoabierto @redalyc_oficial @unlpoficial

La medición altmétrica después de 10 años del manifiesto altmetrics

Engineering, Altmetric; Konkiel, Stacy; Priem, Jason; Adie, Euan; Derrick, Gemma; Didegah, Fereshteh; et al. (2020): The state of altmetrics: a tenth anniversary celebration. Altmetric. Online resource. https://doi.org/10.6084/m9.figshare.13010000.v2 

Texto completo

En honor al décimo aniversario de la publicación del Manifiesto Altmetrics, Altmetric ha publicado un informe histórico, The State of Altmetrics.

En el informe, los creadores de cambios, incluido el fundador de Altmetric, Euan Adie, los reputados científicos Lutz Bornmann, Zohreh Zahedi y Saeed Ul-Hassan, y los autores originales del Manifiesto de Altmetric Jason Priem, Paul Groth y Cameron Neylon reflexionan sobre una década de innovación y crecimiento de altmetrics.

Los temas discutidos incluyen la ética y el uso responsable de la altmetría, el uso del aprendizaje automático para comprender cómo las comunidades se unen en torno a temas de investigación particulares en línea y las posibilidades de aprovechar las altmetrics como “sensores” para detectar la propagación de enfermedades. El informe también comparte los resultados de una encuesta de la comunidad mundial, que supone que las altmetrics seguirán creciendo en su adopción y uso.