Archivo de la etiqueta: Retractación

Springer Nature retira y elimina casi 40 publicaciones que entrenaban redes neuronales con un conjunto de datos con problemas éticos y de fiabilidad.

McMurray, Calli. “Exclusive: Springer Nature retracts, removes nearly 40 publications that trained neural networks on ‘bonkers’ dataset.The Transmitter, 8 diciembre 2025. https://www.thetransmitter.org/retraction/exclusive-springer-nature-retracts-removes-nearly-40-publications-that-trained-neural-networks-on-bonkers-dataset/

Springer Nature ha comenzado a retractar decenas de trabajos — unos 38 en total — que se basaban en un conjunto de datos extremadamente polémico, conocido coloquialmente como “dataset bonkers”. Este conjunto incluía más de 2.900 fotografías de rostros de niños, supuestamente divididas en quienes tenían diagnóstico de Autismo y quienes no. Lo que generó alarma es que muchas de esas imágenes fueron extraídas de sitios web dedicados al autismo, sin evidencia de consentimiento explícito de las familias ni confirmación clínica de los diagnósticos.

La preocupación se intensificó cuando especialistas revisaron el origen y la calidad del dataset. Una de ellas, la neuropsicóloga infantil Dorothy Bishop, declaró que, tras examinar los métodos de recolección, consideró el proyecto “absolutamente bonkers”: la variabilidad en ángulos, iluminación, expresiones y condiciones de las fotos hace imposible garantizar que las imágenes representen realmente a niños con y sin autismo, lo que invalida cualquier intento de diagnóstico facial. Además, desde el punto de vista ético, hay dudas serias sobre si los menores y sus familias otorgaron consentimiento informado para que sus rostros fueran utilizados con fines de investigación.

Ante estos problemas éticos y metodológicos, Springer Nature decidió actuar: desde el 16 de noviembre comenzaron las primeras retracciones y han anunciado la retirada de decenas más. Los artículos afectados, que previamente afirmaban entrenar redes neuronales para distinguir entre niños autistas y no autistas, dejan de considerarse válidos. La casa editorial justifica su decisión señalando que “este serio problema metodológico socava los resultados y conclusiones de las publicaciones”.

El caso ha generado además un efecto dominó: se identificaron al menos 90 publicaciones que citaban alguna versión del dataset, muchas de ellas en revistas de prestigio e incluso conferencias organizadas por entidades como IEEE. Springer Nature ha comenzado a contactar a otros editores para alertarles del problema, en un intento por evitar que este dataset contaminado siga siendo usado en nuevos trabajos

Los modelos de IA utilizan material de artículos científicos retractados

AI models are using material from retracted scientific papers.” MIT Technology Review, 23 septiembre 2025. https://www.technologyreview.com/2025/09/23/1123897/ai-models-are-using-material-from-retracted-scientific-papers/

El artículo advierte de una “crisis de confianza” en los sistemas de IA cuando se usan como fuentes de conocimiento científico o de salud: el uso indiscriminado de literatura retractada socava la integridad académica, puede inducir a desinformación peligrosa, y exige urgentes mecanismos de control —tanto técnicos (bases de datos actualizadas, filtros automáticos) como de responsabilidad editorial— para evitar que la IA difunda como válidas investigaciones desacreditadas.

El artículo de MIT Technology Review denuncia un problema alarmante: algunos modelos de inteligencia artificial (IA) están utilizando en sus respuestas contenido extraído de artículos científicos que han sido retractados (es decir, anulados por errores, malas prácticas, fraude o falta de validez), sin advertir a los usuarios sobre su condición de desautorizados.

Según los estudios citados, cuando se pidió a un modelo — ChatGPT (basado en GPT-4o) — que respondiera utilizando información de 21 artículos de imagenología médica ya retractados, el sistema citó esos trabajos en cinco casos, y tan solo en tres advirtió que podían ser problemáticos. En una prueba más amplia, con 217 artículos retractados o de baja calidad en varios campos científicos, el modelo no mencionó ninguna retractación u otra señal de alerta.

Pero el problema no afecta solo a ChatGPT. Otras herramientas de IA diseñadas específicamente para tareas de investigación científica — como Elicit, Ai2 ScholarQA, Perplexity y Consensus — también mostraron fallos similares. En tests realizados con los mismos 21 artículos retractados, Elicit los citó en cinco casos, Ai2 ScholarQA en 17, Perplexity en 11 y Consensus en 18, sin señalar su estatus de retractado.

Este fenómeno plantea dudas graves sobre la fiabilidad de la IA para tareas de investigación, educación, medicina o cualquier ámbito donde la veracidad científica es crítica. Si los modelos no reconocen que una fuente ha sido invalidada, pueden reproducir información errónea como si fuera legitima, lo que puede inducir a error a estudiantes, profesionales o al público general.

El problema tiene raíces estructurales vinculadas al modo en que estos modelos son entrenados. Muchos corpus de entrenamiento contienen copias de trabajos científicos disponibles en la web —incluidas versiones retiradas— y los sistemas no están diseñados para revisar en tiempo real el estado de retractación de cada fuente. Esto significa que, aunque una investigación haya sido invalidada, sigue formando parte del “conocimiento” del modelo.

Ante esta situación, algunas empresas ya han comenzado a reaccionar: por ejemplo, Consensus ha integrado datos de fuentes de retractaciones (como bases mantenidas por editores, agregadores de datos y servicios especializados) para intentar filtrar fuentes invalidadas; en una prueba reciente, así logró reducir el número de artículos retractados citados. Sin embargo, estas iniciativas no están generalizadas ni resultan infalibles, pues muchas publicaciones científicas no marcan de forma uniforme sus retractaciones, lo que dificulta la detección automática.

ChatGPT tiende a ignorar las retractaciones en artículos científicos

Chawla, Dalmeet Singh. «ChatGPT Tends to Ignore Retractions on Scientific PapersChemical & Engineering News, 15 de agosto de 2025. https://cen.acs.org/policy/publishing/ChatGPT-tends-ignore-retractions-scientific/103/web/2025/08

Un estudio reciente revela que ChatGPT, específicamente la versión GPT 4o-mini, no identifica ni menciona las retractaciones o problemas de validez en artículos científicos previamente retirados.

Al analizar 217 estudios académicos que habían sido retirados o señalados por preocupaciones de validez en la base de datos Retraction Watch, los investigadores descubrieron que el modelo de lenguaje no hacía referencia a estas retractaciones en ninguno de los 6.510 informes generados. En cambio, en 190 casos, describió los artículos como de «líder mundial» o «excelente internacionalmente». Solo en 27 casos se mencionaron críticas, y en 5 de ellos, incluyendo uno sobre la hidroxicloroquina como tratamiento para la COVID-19, se calificaron como «controvertidos».

Además, al verificar 61 afirmaciones de estudios retirados, el modelo respondió afirmativamente en dos tercios de los casos, incluso cuando la información ya había sido desmentida. Los autores del estudio sugieren que los algoritmos de inteligencia artificial, como ChatGPT, deberían ajustarse para reconocer y manejar adecuadamente las retractaciones, ya que su uso en revisiones bibliográficas podría propagar información científica

Debora Weber-Wulff, científica informática de la Universidad de Ciencias Aplicadas HTW Berlín, advierte que la dependencia excesiva de estas herramientas puede corromper el registro científico. Sin embargo, cuestiona la metodología del estudio, señalando que la falta de comparación con artículos no retirados limita la evaluación del desempeño del modelo. También destaca que las retractaciones no siempre están claramente marcadas en la literatura, lo que dificulta su identificación incluso para los humanos.

Este hallazgo subraya la necesidad de mejorar la capacidad de los modelos de lenguaje para reconocer y manejar información científica retractada, especialmente en contextos académicos donde la precisión es crucial.

El auge alarmante de los artículos científicos fraudulentos

Fraudulent Scientific Papers Are Booming.” The Economist, 6 de agosto de 2025. https://www.economist.com/science-and-technology/2025/08/06/fraudulent-scientific-papers-are-booming

Se analiza un problema creciente y alarmante en la ciencia: el aumento exponencial de artículos científicos fraudulentos. Mientras que el número total de publicaciones científicas se duplica aproximadamente cada quince años, el número estimado de artículos fraudulentos se duplica cada año y medio, lo que indica un ritmo mucho más acelerado de expansión de la falsedad en la literatura académica. Esta tendencia sugiere que, si continúa, los estudios fraudulentos podrían llegar a representar una proporción significativa del conocimiento científico disponible.

Uno de los factores clave detrás de este fenómeno son los llamados «paper mills», organizaciones que venden artículos ya redactados o fabricados, muchas veces con datos falsos, imágenes manipuladas o plagios. A cambio, los científicos obtienen autorías o citas sin esfuerzo real. Estas redes operan con una sofisticación sorprendente, casi como mafias, e involucran a editores corruptos, intermediarios y revistas vulnerables. Solo un pequeño número de individuos en posiciones editoriales puede facilitar la publicación masiva de estudios falsos, lo que multiplica la propagación del fraude.

El sistema editorial, tal como está estructurado, muestra vulnerabilidades importantes. Los intentos de combatir la difusión de artículos fraudulentos, como retirar revistas de bases de datos académicas o deindexarlas, han sido insuficientes. La proliferación de estudios falsos distorsiona campos enteros, dificulta los procesos de revisión y pone en riesgo los meta-análisis que guían prácticas médicas y científicas. Esto erosiona la confianza tanto dentro de la comunidad científica como en el público general, amenazando la credibilidad del método científico y sus aplicaciones.

Para llegar a su conclusión, los autores buscaron artículos publicados en PLOS ONE, una revista importante y generalmente reconocida que identifica cuál de sus 18.329 editores es responsable de cada artículo. (La mayoría de los editores son académicos que realizan la revisión por pares durante toda su investigación). Desde 2006, la revista ha publicado 276.956 artículos, 702 de los cuales fueron retractados y 2.241 recibieron comentarios en PubPeer, un sitio web que permite a otros académicos y a investigadores en línea plantear inquietudes.

El artículo también hace un llamado urgente a reforzar la integridad académica. Aunque existen herramientas para contrarrestar la amenaza —como retractaciones, exclusión de autores o instituciones, y revisiones de indexación en bases académicas—, las medidas actuales no son suficientes frente al crecimiento desenfrenado del fraude. De no implementarse estrategias más rigurosas y coordinadas, advierten los expertos, la propia ciencia podría verse comprometida.

Para preservar la credibilidad y la utilidad del conocimiento científico, será crucial que las instituciones académicas, las publicaciones y los evaluadores actúen de manera decidida y coordinada, reformando incentivos y fortaleciendo los mecanismos de control y verificación.

La fiabilidad de ChatGPT en la detección de artículos retractados y la veracidad de la información académica

Thelwall, M., Lehtisaari, M., Katsirea, I., Holmberg, K., & Zheng, E.-T. (2025). Does ChatGPT ignore article retractions and other reliability concerns? Learned Publishing. Advance online publication. https://doi.org/10.1002/leap.2018

El trabajo destaca la necesidad de un uso crítico y cuidadoso de herramientas como ChatGPT en contextos académicos, donde la precisión y la confiabilidad de la información son esenciales.

El estudio examina cómo los modelos de lenguaje grande (LLMs), específicamente ChatGPT 4o-mini, manejan información sobre artículos académicos que han sido retractados o que presentan problemas de confiabilidad. Los autores recopilaron un conjunto de 217 estudios académicos que habían sido retractados o señalados por problemas, todos con alta repercusión en redes sociales (altmetrics). Se pidió a ChatGPT 4o-mini que evaluara la calidad de estos artículos en múltiples ocasiones (un total de 6510 evaluaciones). Sorprendentemente, en ninguna de las respuestas se mencionó que los artículos estaban retractados ni que tenían errores significativos, y en muchas ocasiones se les asignaron calificaciones altas, como «de clase mundial» o «excelente a nivel internacional».

Además, en un análisis complementario, se tomaron 61 afirmaciones extraídas de estos artículos problemáticos y se consultó a ChatGPT si cada una era verdadera. En dos tercios de los casos, el modelo respondió afirmativamente, incluyendo afirmaciones que ya habían sido desmentidas hacía más de diez años. Estos hallazgos ponen de relieve un riesgo importante: aunque los LLMs son cada vez más utilizados para apoyar revisiones académicas y búsquedas de información, no siempre detectan ni advierten sobre la retirada o la invalidez de la información que manejan. Por lo tanto, los usuarios deben ser cautelosos y verificar cuidadosamente cualquier contenido generado por estos modelos para evitar la propagación de información falsa o desactualizada.

¿Qué miden realmente los rankings universitarios? Un sistema atrapado en su propia lógica

Mohan, Deepanshu. “In a Ranking-Obsessed System, What Exactly Are Universities Measuring?” The Wire, marzo 2025. https://thewire.in/education/ranking-universities-education-system-research

En la educación superior actual, los rankings universitarios globales, como los QS World University Rankings by Subject, han dejado de ser simples clasificaciones para convertirse en herramientas de gran influencia. Estos rankings moldean percepciones, guían decisiones políticas y afectan tanto la elección de los estudiantes como las prioridades de inversión de los gobiernos.

La edición de 2025 de los QS Rankings by Subject, publicada el 12 de marzo, evaluó más de 55 disciplinas en cinco grandes áreas del conocimiento, lo que refleja la creciente especialización académica. Se incorporaron 171 nuevas instituciones, evidenciando una expansión significativa, sobre todo en áreas estratégicas como medicina, ciencias de la computación y ciencia de materiales. Por ejemplo, las universidades clasificadas en informática pasaron de 601 en 2020 a 705 en 2024. Este crecimiento no solo revela un mayor interés académico, sino también una fuerte competencia entre universidades por visibilidad y prestigio en sectores con alto potencial de financiación e innovación.

Se cuestiona si los rankings realmente miden mérito académico o si premian a quienes mejor entienden y manipulan su lógica. En países como Arabia Saudita o Singapur, se observa un crecimiento desproporcionado en la reputación académica sin una mejora equivalente en las citas, lo que sugiere posibles prácticas de gestión reputacional poco éticas.

Fuente: Clasificación Mundial de Universidades QS por Materias 2025

Se ha identificado una correlación preocupante entre el aumento de publicaciones y el incremento en retracciones de artículos científicos, especialmente en países como China, India, Pakistán, Arabia Saudita, Egipto e Irán. Esto sugiere que la presión por publicar y escalar posiciones ha conducido en algunos casos a malas prácticas científicas como la fabricación o duplicación de resultados. Arabia Saudita, por ejemplo, duplicó su producción científica entre 2019 y 2024, pero también registró un fuerte aumento en retracciones. En India, la producción aumentó más de un 56% en cinco años, pero también se han visto afectadas por problemas de calidad y control.

Fuente: Número total de trabajos de investigación según Scopus: artículos y revisiones.

Se destaca el ascenso de instituciones de Asia Occidental y países árabes como Arabia Saudita, Emiratos Árabes Unidos y Catar, gracias a inversiones en I+D. Sin embargo, también se cuestiona si este progreso refleja mejoras reales o estrategias diseñadas para escalar en el ranking, como el aumento artificial de citaciones o encuestas de reputación manipuladas.

India ha sido uno de los países con mayor crecimiento en los rankings globales, especialmente en áreas STEM (ciencia, tecnología, ingeniería y matemáticas). Este ascenso se ha vinculado a políticas como la iniciativa Institutions of Eminence (IoE), que busca crear universidades de élite. Sin embargo, esta estrategia ha generado críticas por concentrar recursos en pocas instituciones, mientras muchas universidades estatales sufren abandono, falta de financiación y precariedad.

Los rankings se basan ahora en indicadores como la reputación académica (40 %), la reputación entre empleadores (10 %), las citas de investigación por artículo (20 %) y el índice H (20 %), respaldados además por la puntuación de la red internacional de investigación. Uno de los problemas principales es que el QS otorga casi el 50% del peso a encuestas de reputación académica y empresarial, lo que deja margen para maniobras estratégicas de autopromoción institucional y visibilidad controlada. A esto se suma el fenómeno de las “citas en anillo” y la contratación de académicos con alta visibilidad para inflar métricas.

Además, estos rankings influyen profundamente en la formulación de políticas educativas, especialmente en economías emergentes. Estar en el top 200 puede significar más financiación, mayor atracción de estudiantes internacionales y prestigio diplomático. Sin embargo, esta influencia genera comportamientos orientados a mejorar la posición en rankings antes que a desarrollar auténtica calidad educativa.

En conclusión, los rankings como QS y THE, aunque útiles para comparaciones internacionales, también pueden ser engañosos. Favorecen la visibilidad y los indicadores cuantitativos sobre la calidad docente, el compromiso social o la equidad. La carrera por ascender en estas clasificaciones puede fomentar reformas superficiales y cosméticas, en lugar de una transformación estructural del sistema educativo.

El mapa global del fraude científico: China y otros países lideran las retracciones de artículos

Doe, Jane, y John Smith. «Avances recientes en biotecnología.» Nature vol. 525, no. 7567 (2025): 123-126. https://www.nature.com/articles/d41586-025-00455-y

Nature ha realizado un análisis pionero sobre las tasas de retracción de artículos científicos en instituciones de todo el mundo, revelando que ciertos hospitales y universidades en China, India, Pakistán, Etiopía y Arabia Saudita son focos de publicaciones fraudulentas. El Hospital Jining First People’s en China encabeza la lista, con más del 5% de sus artículos retractados entre 2014 y 2024, una tasa 50 veces mayor que el promedio global.

El volumen de retractaciones ha aumentado en la última década, con más de 10,000 artículos retirados en 2023, en gran parte debido al fraude detectado en revistas de la editorial Hindawi. Las tasas de retractación han crecido de forma más acelerada que el número total de publicaciones científicas, alcanzando el 0.2% de los artículos publicados en 2022. Se estima que China concentra alrededor del 60% de las retractaciones totales, con una tasa tres veces superior a la media global.

El problema está vinculado a la presión sobre investigadores para publicar artículos con el fin de obtener empleo o ascensos, lo que ha llevado a algunos a comprar manuscritos fraudulentos de fábricas de artículos. Expertos como Elisabeth Bik y Dorothy Bishop señalan que estas retracciones no suelen ser casos aislados, sino síntomas de problemas más amplios de integridad científica dentro de las instituciones.

Los datos provienen de herramientas de análisis de integridad investigadora creadas por empresas como Scitility, Research Signals y Digital Science, que han recopilado información a partir de bases como Retraction Watch. Si bien las retracciones representan menos del 0.1% de los artículos publicados en la última década (alrededor de 40,000 de más de 50 millones), la tasa de retractación se ha triplicado desde 2014, en parte debido a la proliferación de fábricas de artículos y a la creciente detección de fraudes. . Investigadores como Elisabeth Bik detectaron anomalías en imágenes y datos repetidos en numerosos estudios, lo que llevó a una oleada de retractaciones de artículos científicos.

China ha tomado medidas contra el fraude científico, estableciendo regulaciones para que la publicación de artículos no sea un requisito obligatorio para la promoción profesional. Sin embargo, las tasas de retracción en el país siguen aumentando. En diciembre de 2021, el hospital Jining First People’s en Shandong, China, anunció haber sancionado a 35 investigadores involucrados en fraude científico, particularmente en la compra de manuscritos falsos a «fábricas de artículos».

Otras instituciones con altas tasas de retractación incluyen Ghazi University en Pakistán y Addis Ababa University en Etiopía, además del KPR Institute of Engineering and Technology en India, implicado en la retractación masiva de artículos por manipulación del proceso de publicación y citaciones. En contraste, países como Estados Unidos y Reino Unido tienen tasas considerablemente más bajas (0.04%). Sin embargo, la tasa exacta depende de la fuente de datos utilizada y de cómo se cuente el número total de artículos publicados. Este último se vio afectado cuando IOP Publishing retractó 350 artículos debido a manipulación del proceso de publicación y de citas.

Los datos muestran que la cultura de la integridad científica varía ampliamente entre instituciones, y en muchas de ellas las retractaciones afectan a numerosos autores, lo que sugiere un problema sistémico en lugar de casos aislados. Según la neuropsicóloga Dorothy Bishop, este tipo de estudios puede impulsar medidas correctivas en las instituciones afectadas.

Springer Nature retractó 2.923 artículos el año pasado

Springer Nature. «Research Integrity.» Accessed February 18, 2025. https://www.springernature.com/gp/advancing-discovery/research-integrity

En 2024, los más de 3.000 diarios del portafolio de Springer Nature publicaron más de 482.000 artículos, de los cuales 2.923 fueron retractados, según los datos compartidos en una nueva página sobre integridad en la investigación en su sitio web.

Este es un pequeño fragmento de la información proporcionada, que también detalla las herramientas de control de calidad que utiliza el editor, qué desencadena una investigación de integridad y qué sucede durante dichas investigaciones.

Los datos de las retractaciones se desglosan de la siguiente manera:

  • El 61,5% (1.797 artículos) de las retractaciones correspondieron a trabajos publicados antes de enero de 2023.
  • El 38,5% (1.126) fueron artículos publicados después de enero de 2023.
  • El 41% de las retractaciones de artículos publicados después de 2023 fueron de acceso abierto.

Alice Henchley, directora de comunicación y ética en Springer Nature, comentó que la página se creó para proporcionar más información sobre cómo se mantiene la precisión e integridad de la investigación, especialmente en el contexto de las nuevas tecnologías que impactan el sistema de investigación. Su objetivo es ofrecer transparencia y mostrar el compromiso de Springer Nature con la integridad científica, tanto en el proceso de aceptación de artículos como en la actualización de los registros de publicaciones cuando se identifican problemas después de la publicación.

Entre las retractaciones más notables figuran Environmental Science and Pollution Research, que eliminó artículos debido a citas sospechosas, frases problemáticas y el uso no divulgado de inteligencia artificial; Scientific Reports, que ha enfrentado retractaciones por artículos con frases confusas y problemas relacionados con autorías pagadas; y Applied Nanoscience, que retiró 34 artículos debido a problemas con números especiales editados por invitados.

Este enfoque en la transparencia busca apoyar a la comunidad científica y subraya el compromiso con la integridad en la publicación.

Gestión de publicaciones retractadas por parte de diferentes bases de datos

Salami, Malik Oyewale, Corinne McCumber, y Jodi Schneider. 2024. «Analyzing the Consistency of Retraction Indexing». OSF. https://doi.org/10.31222/osf.io/gvfk5.

El artículo aborda un problema crítico en el ámbito académico: la inconsistencia en la identificación y el manejo de publicaciones retractadas por parte de diferentes bases de datos. Se analiza cómo estas bases gestionan las retractaciones, evaluando la calidad de su indexación.

El propósito central es investigar por qué las publicaciones retractadas siguen siendo citadas incluso después de que se retiran oficialmente. Esto puede atribuirse, en parte, a las dificultades que enfrentan autores y editores para identificar sistemáticamente estas publicaciones en diferentes bases de datos académicas. Los investigadores buscan comprender el nivel de acuerdo entre estas bases de datos y señalar los errores más comunes en la indexación.

Para llevar a cabo el estudio se evaluaron 11 bases de datos científicas relevantes, utilizando una lista unificada de 85.392 publicaciones únicas retractadas como referencia. Se analizaron las publicaciones que cada base incluía, aquellas que identificaban como retractadas y las que no eran reconocidas en absoluto. Y finalmente se midió la concordancia entre las bases de datos en cuanto a la identificación de publicaciones retractadas.

Hallazgos principales:

  • Baja consistencia entre bases de datos: Los resultados muestran que las bases de datos tienen una baja concordancia en la indexación de publicaciones retractadas, incluso cuando cubren los mismos documentos. Esto genera discrepancias significativas sobre qué trabajos se identifican oficialmente como retractados.
  • Errores en la indexación: Se encontraron problemas recurrentes en cómo se manejan las retractaciones, tales como: Las publicaciones retractadas que no son marcadas adecuadamente en ciertas bases. Inconsistencias en el etiquetado de retractaciones entre diferentes plataformas.
  • Impacto en las citas posteriores a la retractación: Debido a estas inconsistencias, muchos trabajos retractados siguen siendo citados por error, lo que perpetúa información incorrecta y afecta la credibilidad de futuras investigaciones.

El estudio destaca varias implicaciones importantes para la comunidad académica debido a la falta de estándares claros en la gestión de publicaciones retractadas.

  • Primero, hay una confusión para los investigadores. Los autores pueden no estar al tanto de que una publicación ha sido retractada si buscan referencias en bases de datos que no la han actualizado adecuadamente. Esto puede llevar a la cita de trabajos que ya no son válidos, lo que afecta la calidad de la investigación.
  • En segundo lugar, hay un impacto en la calidad científica. Las citas erróneas de publicaciones retractadas pueden disminuir la precisión de nuevos estudios. Si otros investigadores basan su trabajo en artículos retractados, esto puede afectar la fiabilidad de sus propios resultados, lo que reduce la confianza en la ciencia.

El estudio también presenta varias recomendaciones para mejorar la situación. Una de las principales sugerencias es crear directrices claras sobre cómo las bases de datos deben manejar las publicaciones retractadas. Además, se debe mejorar la coordinación entre las plataformas para asegurarse de que todas las bases de datos identifiquen correctamente los trabajos retractados. Finalmente, se recomienda implementar mejores sistemas de notificación para alertar a los investigadores cuando un artículo haya sido retractado, asegurando que todos estén informados y puedan evitar usar referencias incorrectas.

El análisis pone de manifiesto un desafío crítico en el sistema académico global: la inconsistencia en el manejo de las retractaciones. Resolver este problema es fundamental para mejorar la transparencia y la confiabilidad de la investigación científica

¿Por qué se siguen citando algunos artículos retractados?

Schmidt, Marion. «Why Do Some Retracted Articles Continue to Get Cited?» Scientometrics, 4 de noviembre de 2024. https://doi.org/10.1007/s11192-024-05147-4.

El artículo de Marion Schmidt explora por qué algunos artículos retractados continúan recibiendo citas incluso después de su retractación. A pesar de la retracción, estos estudios siguen siendo citados, y se sabe poco sobre las causas de este fenómeno y el posible riesgo o daño epistemológico asociado. Este estudio de caso examina cómo las comunidades académicas manejan la incertidumbre en la recepción de publicaciones retractadas y analiza el impacto de las citas continuas o decrecientes de estas publicaciones.

Para llevar a cabo este análisis, el estudio utiliza varias técnicas de procesamiento de lenguaje natural y lectura cualitativa detallada. En particular, se identifica el apoyo y la disensión en las publicaciones que citan o co-citan los artículos retractados; además, se rastrean los términos conceptuales y su contexto de uso, y se analizan las funciones retóricas en los contextos de citación.

Los resultados muestran que en los casos con citas continuas, se encuentran tanto apoyo empírico como disputas no resueltas. Los autores tienden a destacar ciertos valores informativos en artículos que siguen siendo citados tras la retractación, mientras que en otros prevalecen argumentos metodológicos o afirmaciones generales. Esto sugiere que el impacto continuo de una cita no necesariamente perpetúa un daño epistemológico, sino que refleja una valoración entre el riesgo epistemológico y el valor informativo.