Archivo de la etiqueta: Retractación

50 revistas de acceso abierto en rápido crecimiento despojadas de sus codiciados factores de Impacto por Web of Science

Fast-growing open-access journals stripped of coveted impact factors
Web of Science delists some 50 journals, including one of the world’s largest

28 MAR 20235:55 JEFFREY BRAINARD

Ver original

Web of Science retira de la lista unas 50 revistas, entre ellas una de las mayores del mundo. Entre ellas revistas de MPDI

Casi dos docenas de revistas de dos de las editoriales de acceso abierto de más rápido crecimiento, incluida una de las revistas más grandes del mundo por volumen, ya no recibirán el visto bueno académico clave. El 20 de marzo, la base de datos Web of Science dijo que eliminó las revistas junto con docenas de otras, despojándolas de factor de impacto, la medida de calidad basada en citas que, aunque controvertida, tiene gran peso entre los autores y las instituciones. La medida destaca el debate continuo sobre un modelo comercial marcado por grandes volúmenes de artículos, aparentemente elegidos por su solidez científica más que por su novedad, y la práctica de algunos editores de acceso abierto de reclutar grandes cantidades de artículos para números especiales editados por invitados.

Clarivate inicialmente no nombró ninguna de las revistas eliminadas ni proporcionó razones específicas. Pero confirmó a  Science  las identidades de 19 revistas en hindawi y dos títulos de MDPI después de que circularan informes sobre su eliminación. Las revistas MDPI incluyen International Journal of Environmental Research and Public Health, que publicó alrededor de 17.000 artículos el año pasado. En 2022, tenía un factor de impacto de revista Web of Science de 4,614, situada en la mitad superior de todas las revistas en el campo de la salud pública.

La investigación en Ciencias Sociales poco confiable recibe más atención que los estudios más sólidos

Unreliable social science research gets more attention than solid studies
By Cathleen O’Grady. Science May. 21, 2021 , 2:15 PM

Ver noticia completa

En 2011, un sorprendente trabajo de psicología causó sensación en las redes sociales, las noticias y el mundo académico: Las personas utilizaban Internet como una forma de memoria «externa», según el estudio, confiando en ella para obtener información en lugar de recordar los hechos por sí mismos. En 2018, un hallazgo clave de ese documento no se replicó cuando un equipo de psicólogos lo puso a prueba junto con otros 20 estudios de ciencias sociales de alto perfil.

Sin embargo, el artículo original ha sido citado 1417 veces, y más de 400 de esas citas se produjeron después del proyecto de replicación de 2018. Eso es mucho más, en promedio, que los artículos del proyecto que sí se replicaron. Ahora, un nuevo estudio refuerza la popularidad de los estudios poco fiables: Los artículos de ciencias sociales que no se replicaron acumulan 153 citas más, de media, que los artículos que se replicaron con éxito.

Este último resultado es «bastante condenatorio», dice el científico cognitivo de la Universidad de Maryland, College Park, Michael Dougherty, que no participó en la investigación. «El recuento de citas se ha considerado durante mucho tiempo como un indicador de la calidad de la investigación», afirma, por lo que la conclusión de que la investigación menos fiable se cita más apunta a un «problema fundamental» en la forma de evaluar este tipo de trabajos.

Los economistas Marta Serra-García y Uri Gneezy, de la Universidad de California en San Diego, estaban interesados en saber si las ideas de investigación llamativas recibían más atención que las mundanas, aunque tuvieran menos probabilidades de ser ciertas. Para ello, recopilaron datos sobre 80 artículos de tres proyectos diferentes que habían tratado de replicar importantes hallazgos de las ciencias sociales, con distintos niveles de éxito.

Según informan hoy en Science Advances, el número de citas en Google Scholar fue significativamente mayor para los trabajos que no lograron replicar, con un aumento medio de 16 citas adicionales por año. Se trata de una cifra importante, dicen Serra-García y Gneezy, ya que los artículos publicados en revistas de alto impacto en el mismo periodo de tiempo acumularon un total de unas 40 citas al año de media.

Y cuando los investigadores examinaron las citas de los artículos publicados después de los proyectos de replicación más importantes, descubrieron que los artículos rara vez reconocían el fracaso de la replicación, mencionándolo sólo el 12% de las veces.

Los científicos quieren que su trabajo sea preciso, pero también quieren publicar resultados que llamen la atención. Es posible que los revisores bajen el listón de las pruebas cuando los resultados son especialmente sorprendentes o emocionantes, dice, lo que podría significar que los resultados sorprendentes y las pruebas más débiles van a menudo de la mano. Esto apunta a la necesidad de adoptar salvaguardias adicionales para reforzar la credibilidad de los trabajos publicados, como un umbral más alto para lo que se considera una buena prueba, y un mayor esfuerzo para centrarse en cuestiones y métodos de investigación sólidos, en lugar de hallazgos llamativos.

El resultado coincide con estudios anteriores que sugieren que la investigación popular es menos fiable. Un estudio de 2011 en Infection and Immunity, por ejemplo, encontró que las revistas de alto impacto tienen mayores tasas de retracción que las de menor impacto. Y la investigación de Dougherty -actualmente un preprint no revisado– ha encontrado que los artículos más citados se basaban en datos más débiles, dice. Pero un artículo publicado en 2020 en la revista Proceedings of the National Academy of Sciences, que analizaba una muestra diferente de artículos, no encontró ninguna relación entre las citas y las réplicas. Esto sugiere que la muestra de artículos podría ser realmente importante, dice Pfeiffer; por ejemplo, el efecto podría ser particularmente fuerte en las revistas de alto impacto.

Prácticas éticas en la investigación científica

PRESENTACIÓN PPS

VER VIDEO

Prácticas éticas en la investigación científica Julio Alonso Arévalo Universidad de Salamanca (España) alar@usal.es Academia de Verano UCSC 2021 Martes 12 de 15.00 a 16.30 horas

La publicación exitosa de la investigación atrae la atención de los académicos y sus instituciones. Esto, a su vez, puede proporcionar más fondos para el instituto y también asegurar el progreso de un individuo en su campo de conocimiento. Las instituciones académicas y la universidad utilizan con frecuencia el número de publicaciones como crédito y medida de competencia de un individuo. De manera que la creciente dependencia de las métricas para evaluar publicaciones académicas está produciendo formas nuevas de fraude académico y mala conducta.

ReTracker: un plugin de código abierto para el seguimiento automatizado de publicaciones científicas retractadas

Ver además Zotero generará alertas de la retactacion de artículos en sus bases de datos personales

ReTracker, un plugin de código abierto para el seguimiento de artículos de revistas científicas retractadas. ReTracker ayuda a los usuarios de Zotero a detectar cualquier artículo de sus bibliotecas actuales que haya sido retraído en PubMed. En su primera versión, el plugin ReTracker añade metadatos para cada entrada en su «estado de retracción», ya que el plugin realiza una comprobación de la caché local y envía una consulta a la base de datos de la herramienta. Si hay una coincidencia en el título completo del artículo entre la consulta y la base de datos de ReTracker, los metadatos del estado de la retracción se actualizarán.

ReTracker, es una herramienta gratuita de código abierto, y una solución necesaria que se distingue de las herramientas existentes (por ejemplo, Open Retractions, Cross-Mark, etc.), ya que permite a los investigadores gestionar sus bibliotecas de citas existentes sin esfuerzos adicionales para buscar repetidamente y marcar manualmente los documentos retractados de la(s) base(s) de datos externa(s). Con las futuras versiones, el instrumento tiene por objeto ampliar sus funcionalidades en lo que respecta a la normalización de las etiquetas de retracción, la adición de datos de retracción para otros tipos de artículos y el suministro de avisos emergentes para los complementos de los navegadores web.

Ampliar información L. Dinh, Y. Cheng and N. Parulian, «ReTracker: an Open-Source Plugin for Automated and Standardized Tracking of Retracted Scholarly Publications,» 2019 ACM/IEEE Joint Conference on Digital Libraries (JCDL), Champaign, IL, USA, 2019, pp. 406-407, doi: 10.1109/JCDL.2019.00092.

Un artículo retractado se sigue citando 11 años después

Schneider, J., Ye, D., Hill, A.M. et al. Continued post-retraction citation of a fraudulent clinical trial report, 11 years after it was retracted for falsifying data. Scientometrics 125, 2877–2913 (2020). https://doi.org/10.1007/s11192-020-03631-1

Un nuevo estudio publicado en la revista Scientometrics, descubrió que un informe de ensayo clínico retractado sigue siendo citado 11 años después de su retractación, y que las citas en realidad aumentaron después de que se retractara.

El equipo de Schneider revisó las citas de un artículo de 2005 en el campo de la medicina respiratoria (Matsuyama et al. En Chest 128 (6): 3817–3827, 2005. https://doi.org/10.1378/chest.128.6 .3817) que encontró que los ácidos grasos omega-3 son útiles para reducir los marcadores inflamatorios en pacientes con enfermedad pulmonar obstructiva crónica. El artículo fue retirado en 2008 por informar sobre datos falsificados de ensayos clínicos.

Sin embargo, se sigue citando para apoyar la intervención de nutrición médica. El análisis de Schneider cubrió 148 citas directas del artículo de 2006 a 2019 y 2.542 citas de segunda generación. La retractación no se mencionó en el 96% de las 112 citas directas posteriores a la retracción para las que pudo estudiar el contexto de la cita. El ejemplo demuestra problemas con la forma en que el entorno actual de bibliotecas digitales comunica el estado de retractación de los artículos científicos.

La forma en que se cita un artículo es importante, por ejemplo, si los autores parecen ser conscientes de la retractación, si utilizan el artículo retractado como base para construir su propio trabajo o si se cita para un concepto general o la historia de la investigación sobre un tema. asunto particular. Al analizar el contexto y el número de citas, Schneider encontró que más del 41% de las citas posteriores a la retracción del artículo de medicina respiratoria que no mencionaban la retracción también describían el artículo en detalle.