Archivo de la categoría: Investigación

Retractados 45 artículos de un autor por el uso de direcciones de correo electrónico falsas en la revisión por pares

Marques, F. (2025, marzo). Use of fake email addresses leads to retraction of 45 articles by Brazilian scientists. Revista Pesquisa FAPESP. Recuperado de https://revistapesquisa.fapesp.br/en/use-of-fake-email-addresses-leads-to-retraction-of-45-articles-by-brazilian-scientists/

Se relata un caso significativo de problemas de integridad académica que llevó a la retracción de 45 artículos científicos firmados por un mismo investigador brasileño, el biólogo Guilherme Malafaia Pinto, del Instituto Federal Goiano (IF-Goiano), campus de Urutaí.

Los 45 trabajos fueron publicados en la revista Science of the Total Environment (STOTEN), editada por Elsevier, y su retirada no obedeció a errores experimentales o conclusiones erróneas, sino al compromiso del proceso de revisión por pares. Las notas de retracción señalaron que el sistema de evaluación había sido adulterado porque, aunque Malafaia sugería a revisores legítimos para sus manuscritos —práctica habitual en muchos procesos editoriales—, proporcionó direcciones de correo electrónico falsas para al menos tres de esos investigadores, de modo que las invitaciones de STOTEN llegaban a cuentas ficticias desde las cuales se devolvían opiniones favorables a la publicación. Como resultado, a pesar de que algunos artículos también recibieron evaluaciones de revisores independientes, Elsevier decidió retirar los trabajos al haber “perdido confianza en la validez o integridad” de los manuscritos.

La publicación también explora el contexto y las consecuencias del caso, tanto para el propio investigador como para la comunidad académica. Antes de este escándalo, Malafaia era un científico muy productivo, con casi 350 artículos publicados en una carrera de 15 años, supervisión de numerosos estudiantes de maestría y doctorado, y participación en comités editoriales de varias publicaciones, incluida STOTEN. Él niega haber manipulado deliberadamente la revisión de sus artículos, afirmando que usó direcciones de una base de datos china (CNKI) sin saber que eran falsas y que no tuvo participación directa en la redacción de los supuestos informes de revisión. En una carta abierta, argumentó que el problema fundamental era responsabilidad de los editores por no verificar los correos, y sugirió que sanciones menos drásticas que la retracción hubieran sido más apropiadas. Sin embargo, la situación ha tenido un impacto profundo en su reputación y la de sus colaboradores, muchos de los cuales ahora enfrentan cuestionamientos y el dilema de defender o distanciarse de los trabajos retractados; a la vez, la comunidad académica brasileña reflexiona sobre la importancia de fortalecer la ética y los sistemas de revisión para preservar la confianza en la ciencia.

Manual de redacción científica: cómo escribir manuscritos de forma eficiente y efectiva

Farji-Brener, Alejandro Gustavo, y Víctor Arroyo-Rodríguez. 2025. Manual de redacción científica: cómo escribir manuscritos de forma eficiente y efectiva. 1.ª ed. electrónica en PDF. Ciudad de México: Universidad Nacional Autónoma de México (UNAM). ISBN 978-607-587-923-9.

Texto completo

El manual constituye una obra de referencia destinada a cubrir una carencia estructural en la formación universitaria y de posgrado: la ausencia de una enseñanza sistemática sobre cómo escribir textos científicos publicables. Los autores parten de la constatación de que, aunque la publicación científica es un eje central de la carrera académica —tanto como mecanismo de difusión del conocimiento como indicador de productividad profesional—, la mayoría de los investigadores aprende a escribir “sobre la marcha”, bajo presión y mediante un proceso de ensayo y error que suele resultar frustrante. Frente a este panorama, el manual se propone como un “instructivo de navegación” que acompaña al lector desde las etapas previas a la escritura hasta el envío del manuscrito y la gestión del rechazo editorial, combinando reflexión conceptual, orientación práctica y una notable voluntad pedagógica.

Uno de los aportes centrales del libro es la distinción entre redacción eficiente y redacción efectiva. La eficiencia se entiende como la capacidad de escribir de manera organizada, económica en tiempo y energía, reduciendo el desgaste emocional que suele acompañar al proceso de escritura científica. La efectividad, en cambio, se refiere a la capacidad del texto para cumplir su objetivo principal: predisponer favorablemente a editores y revisores, atraer lectores y aumentar el impacto del trabajo en términos de lectura y citación. Desde esta doble perspectiva, los autores insisten en que escribir bien no es un talento innato reservado a unos pocos, sino una habilidad que puede aprenderse y perfeccionarse mediante estrategias concretas y práctica constante. Aunque el manual tiene un sesgo hacia las ciencias biológicas y, en particular, la ecología, sus principios son presentados como ampliamente transferibles a otras disciplinas científicas.

El manual subraya que publicar artículos científicos cumple una función esencial en el avance del conocimiento, ya que permite comunicar resultados, contrastar hipótesis, evitar la duplicación de esfuerzos y estimular nuevas líneas de investigación. Al mismo tiempo, reconoce abiertamente las dimensiones más “egoístas” de la publicación, vinculadas al progreso profesional, la obtención de financiación y el reconocimiento académico. Los autores reivindican, además, el carácter creativo de la escritura científica y la legítima satisfacción asociada a la producción intelectual, estableciendo un paralelismo con otras formas de creación cultural. Un mensaje clave atraviesa esta sección inicial: nadie está obligado a leer un artículo científico, por lo que es responsabilidad del autor hacer que su trabajo resulte relevante, claro y atractivo.

La presión sobre la publicación científica en la era de la sobreproducción académica

Hanson, Mark A., Pablo Gómez Barreiro, Paolo Crosetto, y Dan Brockington. 2024. “The Strain on Scientific Publishing.” Quantitative Science Studies 5 (4): 823–843. https://doi.org/10.1162/qss_a_00327

El artículo analiza la presión creciente que sufre la publicación científica como consecuencia del aumento acelerado del número de artículos que se publican cada año. Aunque la producción de conocimiento científico se ha expandido de forma notable, el número de investigadores capaces de leer, evaluar y revisar ese volumen de trabajos no ha crecido al mismo ritmo, lo que genera una sobrecarga estructural en todo el sistema editorial académico.

Los autores muestran que, en la última década, las bases de datos científicas han registrado un incremento muy significativo del número de artículos indexados. Este crecimiento ha intensificado las exigencias para los investigadores, que no solo deben producir más publicaciones, sino también dedicar una cantidad cada vez mayor de tiempo a tareas como la lectura y la revisión por pares. Como resultado, el sistema de “publicar o perecer” se vuelve más exigente y menos sostenible. Así, el número de artículos indexados en bases como Scopus y Web of Science se ha incrementado de forma exponencial en los últimos años, con un aumento de alrededor del 47 % entre 2016 y 2022.

Mientras que las grandes editoriales tradicionales (como Elsevier o Springer) han aumentado su producción de manera moderada, otras —especialmente aquellas que dependen de modelos de acceso abierto con cargos por procesamiento de artículos (APC) como MDPI y Frontiers— han visto incrementos marcados en artículos por revista y en la proporción de publicaciones a través de special issues o números especiales. Esto sugiere que las estrategias editoriales específicas pueden estar impulsando parte de la expansión de contenidos.

El trabajo propone una serie de métricas para analizar esta tensión, entre ellas el aumento del volumen total de artículos, el uso creciente de números especiales, los tiempos de evaluación editorial, las tasas de rechazo y la evolución de las métricas de impacto. Estas medidas permiten observar cómo las prácticas editoriales han cambiado y cómo algunas estrategias contribuyen a acelerar la publicación sin que ello garantice una mejora en la calidad científica.

Uno de los hallazgos más relevantes es que ciertos modelos editoriales, especialmente aquellos basados en el acceso abierto financiado mediante cargos por publicación, han impulsado un crecimiento muy rápido del número de artículos por revista. En algunos casos, este crecimiento se apoya en un uso intensivo de números especiales, lo que puede facilitar procesos editoriales más rápidos y homogéneos, pero también suscita dudas sobre el rigor de la revisión por pares.

El análisis de los tiempos de aceptación muestra que algunas revistas publican artículos con gran rapidez y con escasa variación entre los plazos de revisión, lo que sugiere procesos altamente estandarizados. Aunque la rapidez no implica necesariamente baja calidad, los autores señalan que esta tendencia puede aumentar la presión sobre revisores y editores y reducir la capacidad de evaluación crítica en profundidad.

En relación con las tasas de rechazo, el estudio revela que no existe un patrón único: algunas editoriales mantienen niveles altos, mientras que otras los reducen o los estabilizan. Esto indica que el aumento de publicaciones no responde a una lógica uniforme, sino a decisiones editoriales específicas que influyen directamente en la carga global del sistema.

El artículo también aborda la inflación de las métricas de impacto, mostrando cómo el aumento generalizado de citas puede distorsionar la percepción de calidad científica. La dependencia excesiva de indicadores bibliométricos refuerza comportamientos estratégicos por parte de investigadores y revistas, orientados a maximizar visibilidad y rendimiento cuantitativo más que a fortalecer la solidez del conocimiento producido.

En sus conclusiones, los autores sostienen que la tensión en la publicación científica no es consecuencia de un único factor, sino del encaje problemático entre incentivos académicos, modelos de negocio editoriales y sistemas de evaluación de la investigación. Para aliviar esta presión, consideran necesario repensar las políticas de evaluación, mejorar la transparencia editorial y reducir la dependencia de métricas basadas exclusivamente en el volumen de publicaciones.

Crisis en la calidad de publicaciones científicas: volumen vs. valor

Sample, Ian. “Quality of Scientific Papers Questioned as Academics ‘Overwhelmed’ by the Millions Published.The Guardian, Jul 13, 2025. https://www.theguardian.com/science/2025/jul/13/quality-of-scientific-papers-questioned-as-academics-overwhelmed-by-the-millions-published

La calidad de los artículos científicos está siendo seriamente cuestionada, ya que los académicos se encuentran desbordados por los millones de estudios que se publican cada año, una saturación que amenaza la integridad y la fiabilidad del sistema científico a escala global.

Un artículo en una revista científica que se hizo viral no por su ciencia, sino por una imagen generada por inteligencia artificial que mostraba una rata con un pene enorme y etiquetada con palabras sin sentido. Esa imagen pasó desapercibida por revisores y editores y llevó a que el artículo fuese retirado tres días después de su publicación, poniendo de manifiesto fallos en los procesos de revisión y control.

El texto recuerda que las revistas científicas no son simples repositorios académicos: condicionan decisiones médicas, políticas públicas, desarrollos tecnológicos y estrategias geopolíticas, incluso estimaciones de víctimas en conflictos armados. Desde el siglo XVII —cuando la Royal Society inició la publicación continuada de revistas científicas—, estos espacios han sido centrales para el avance del conocimiento, acogiendo trabajos de figuras como Newton, Darwin, Einstein o Marie Curie.

Sin embargo, los datos muestran que la cantidad de artículos científicos indexados ha crecido de forma exponencial: por ejemplo, en la base de datos Web of Science los estudios aumentaron de 1,71 millones en 2015 a 2,53 millones en 2024, y sumando otros tipos de artículos el total ronda más de 3 millones al año. Esta expansión ha superado con creces el crecimiento del número de investigadores y la capacidad de la comunidad científica para leer, revisar y valorar críticamente todos esos trabajos.

El sistema de evaluación por pares —el sistema en el que científicos expertos revisan artículos antes de su publicación— está cada vez más estresado. Revisar millones de artículos requiere tiempo, y muchos académicos están «agotados» por la carga de trabajo voluntario que supone revisar textos para otros investigadores. Este estrés contribuye a que errores, contenidos de baja calidad o incluso fraudes pasen desapercibidos, lo que debilita la confianza en los resultados publicados. Según un estudio reciente, solo en 2020, los académicos de todo el mundo dedicaron más de 100 millones de horas a la revisión por pares de artículos para revistas. En el caso de los expertos de Estados Unidos, el tiempo dedicado a la revisión ese año supuso más de 1500 millones de dólares en mano de obra gratuita.

Una causa fundamental es el conjunto de incentivos académicos y comerciales que priorizan cantidad sobre calidad:

  • Los investigadores compiten por publicar más y más artículos para avanzar en su carrera (“publish or perish”), lo que puede llevar a trabajos fragmentados, poco sustanciales o exagerados.
  • Las editoriales científicas comerciales obtienen grandes beneficios de los modelos de acceso abierto con tasas por publicación, lo que puede fomentar la proliferación de textículos académicos y revistas especializadas que aceptan prácticamente cualquier envío.

El artículo destaca que estas dinámicas han creado un sistema que incentiva la producción masiva de estudios aunque muchos aporten poco conocimiento nuevo o incluso errores, algo que preocupa a científicos de alto nivel, incluidos premios Nobel y sociedades científicas.

Varios expertos y organizaciones están pidiendo reformas profundas. Entre las propuestas que circulan en el debate público y académico están:

  • Reformar el sistema de evaluación de investigadores para valorar calidad sobre cantidad.
  • Repensar el rol y modelo de negocio de las editoriales, reduciendo la dependencia de tarifas por publicación y fomentando modelos de acceso y revisión más sostenibles.
  • Incrementar el uso de herramientas y métodos que mejoren la calidad de la revisión por pares y detecten malas prácticas, incluidos fraudes y contenidos generados de forma automatizada.

La IA ha acelerado la producción de artículos y podido generar textos e imágenes científicas que no siempre son verificados adecuadamente. Esto alimenta temores de que herramientas como modelos de lenguaje puedan ser utilizadas para generar artículos de baja calidad o manipular revisiones si no se establecen mejores salvaguardas de integridad.

Políticas gubernamentales de Estados Unidos han eliminado el acceso a información científica sobre el clima y la han reemplazado con desinformación

Cell, Kate. 2025. «Disinformation Undermines Our Right to ScienceUnion of Concerned Scientists Blog. https://blog.ucs.org/kate-cell/disinformation-undermines-our-right-to-science/.

El texto parte de un informe reciente de la UNESCO sobre tendencias globales en la libertad de expresión y desarrollo de medios, destacando especialmente la problemática de la desinformación climática. La autora señala que, hacia finales de 2025, determinadas políticas gubernamentales en Estados Unidos han eliminado el acceso a información científica sobre el clima, la han reemplazado con desinformación

La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) publicó su informe cuatrienal sobre Tendencias Mundiales en la Libertad de Expresión y Desarrollo de los Medios. Lo que sigue es una versión ligeramente adaptada de la contribución sobre desinformación climática.

A medida que la Tierra continúa calentándose [principalmente debido a la actividad humana] y los impactos en nuestro clima se vuelven cada vez más severos, la ciencia que busca advertirnos y orientarnos está siendo silenciada. Líderes globales poderosos y grandes corporaciones ignoran o niegan la ciencia en un intento deliberado de engañar al público y retrasar la acción urgente necesaria para proteger la habitabilidad del planeta.

En el articulo se analiza cómo la desinformación climática socava el derecho colectivo al conocimiento científico y a la toma de decisiones basada en evidencia. Según la autora, políticas gubernamentales recientes en Estados Unidos han limitado el acceso público a información científica sobre el clima, reemplazándola por narrativas sesgadas o desinformación. Esto afecta evaluaciones oficiales, como la National Climate Assessment, y disminuye la confianza en los científicos, poniendo en riesgo la acción frente al cambio climático.

Cell destaca que, aunque los efectos del cambio climático están bien documentados, existen poderosas fuerzas políticas y corporativas que niegan o manipulan la información científica para retrasar medidas urgentes. La autora señala casos recientes en los que se ha distorsionado información sobre olas de calor extremas, afectando la percepción pública y la preparación frente a eventos climáticos que ponen en riesgo la vida de millones de personas. Además, se ha limitado el acceso a recursos oficiales, obligando a investigadores y ciudadanos a buscar información en fuentes independientes o archivos previos.

La desinformación no solo tiene consecuencias sociales, sino también científicas y económicas. Los datos indican un aumento significativo de la mortalidad por calor extremo en las últimas décadas, y estudios económicos muestran pérdidas vinculadas a las emisiones de industrias específicas. A pesar de la solidez de la evidencia científica, estas campañas buscan debilitar la autoridad de los expertos y retrasar la adopción de políticas efectivas (Cell, 2025).

La autora identifica a la industria de los combustibles fósiles y a sus aliados políticos como los principales impulsores de esta desinformación. Documentos históricos muestran que estas industrias tenían conocimiento del cambio climático décadas atrás, pero eligieron estrategias de negación y manipulación para proteger sus intereses económicos. Entre las tácticas empleadas se incluyen la exageración de incertidumbres científicas, el financiamiento de estudios cuestionables, el acoso a científicos y la manipulación de funcionarios gubernamentales. Investigaciones realizadas por la Union of Concerned Scientists y otros organismos demuestran que la industria de los combustibles fósiles ha utilizado todas las tácticas del manual de desinformación:

  • Contratar a un científico que utilizaba métodos desacreditados y no revelaba la financiación de la industria.
  • Generar dudas exagerando las incertidumbres de la ciencia del cambio climático y dirigiéndose a profesores y estudiantes.
  • Acosar a los científicos climáticos.
  • Comprar credibilidad.

Además, las plataformas digitales juegan un papel crucial en la difusión de desinformación, muchas veces de forma indirecta al priorizar contenido que genera mayor interacción y publicidad. Esto amplifica la exposición de la sociedad a narrativas falsas o engañosas sobre el cambio climático, incluyendo teorías conspirativas y ataques a políticas de mitigación. La influencia de estas prácticas también afecta a instituciones científicas, limitando financiamiento, debilitando agencias regulatorias y generando presión sobre investigadores, lo que repercute en la comunicación científica y en la implementación de políticas basadas en evidencia.

Los investigadores creen que su institución valora más la publicación en revistas muy citadas que el impacto real que pueda tener un trabajo.

Grove, Jack. (2025, 12 de diciembre). Policy Impact Undervalued by Universities, Social Scientists Say. Inside Higher Ed. Recuperado de https://www.insidehighered.com/news/faculty-issues/research/2025/12/12/social-scientists-policy-impact-undervalued-universities

Los resultados reflejan que las universidades tienden a valorar más las publicaciones en revistas altamente citadas y otras métricas tradicionales de prestigio académico, como el recuento de citas o factores de impacto, antes que evaluar el impacto real de la investigación en la formulación de políticas o cambios sociales tangibles.

Encuesta global realizada por Sage entre más de 1 800 científicos sociales de 92 países, centrada en entender cómo perciben la valoración que sus universidades otorgan al impacto de su investigación en la sociedad y las políticas públicas. Según los datos del sondeo, solo alrededor de un tercio de los participantes considera que su institución los promovería o les daría valor por el impacto de su trabajo fuera del ámbito académico, lo que indica una desconexión entre las aspiraciones de estos investigadores y las prioridades institucionales.

En el estudio, el 92 % de los encuestados afirmó que para ellos el objetivo principal de la investigación es contribuir positivamente a la sociedad, pero solo el 68 % cree que esto sea una meta compartida por sus instituciones. Asimismo, un porcentaje similar percibe que los líderes universitarios no valoran plenamente la utilidad social de su trabajo, lo que sugiere que las prácticas de evaluación académica actuales aún están ancladas en métricas internas y tradicionales, dejando fuera dimensiones más abiertas o aplicadas del impacto científico. Cuando se les preguntó si su institución promocionaría o concedería la titularidad a un académico por sus esfuerzos por aplicar la investigación fuera del ámbito académico, solo el 37 % de los 1805 científicos sociales encuestados por Sage respondió afirmativamente.

Los datos también muestran que solo un 28 % de los científicos sociales opina que sus esfuerzos por influir en políticas públicas podrían traducirse en más financiación de investigación, y apenas un 35 % afirma que su universidad ofrece premios o reconocimiento explícito por el impacto fuera de la academia. Además, un 30 % de los encuestados declaró no recibir ningún tipo de reconocimiento por este tipo de trabajo, lo que pone en evidencia una brecha entre el compromiso de los científicos sociales con la relevancia de su investigación y las prácticas de recompensa institucional.

Del mismo modo, el 91 % de los investigadores está de acuerdo en que el objetivo final de la investigación es ampliar la bibliografía y facilitar futuras investigaciones, pero solo el 71 % cree que los responsables de su institución están de acuerdo con esto.

En conjunto, este artículo sugiere que, aunque los investigadores ven la contribución al bien público y a la toma de decisiones informadas como una parte esencial de su labor, el ecosistema académico permanece predominantemente orientado hacia la producción y citación de literatura especializada, con menor énfasis en la aplicación de conocimientos para abordar problemas sociales o influir en políticas. Esto plantea preguntas importantes sobre cómo las universidades podrían replantear sus criterios de evaluación y promoción profesional para reconocer y fomentar formas de investigación que conecten más directamente con desafíos sociales reales.

Esa percepción de desajuste entre la motivación de los científicos sociales y las instituciones debería llevar a replantearse si las métricas de prestigio utilizadas en el mundo académico están desajustadas con los valores, argumenta el informe de Sage.

Springer Nature retira y elimina casi 40 publicaciones que entrenaban redes neuronales con un conjunto de datos con problemas éticos y de fiabilidad.

McMurray, Calli. “Exclusive: Springer Nature retracts, removes nearly 40 publications that trained neural networks on ‘bonkers’ dataset.The Transmitter, 8 diciembre 2025. https://www.thetransmitter.org/retraction/exclusive-springer-nature-retracts-removes-nearly-40-publications-that-trained-neural-networks-on-bonkers-dataset/

Springer Nature ha comenzado a retractar decenas de trabajos — unos 38 en total — que se basaban en un conjunto de datos extremadamente polémico, conocido coloquialmente como “dataset bonkers”. Este conjunto incluía más de 2.900 fotografías de rostros de niños, supuestamente divididas en quienes tenían diagnóstico de Autismo y quienes no. Lo que generó alarma es que muchas de esas imágenes fueron extraídas de sitios web dedicados al autismo, sin evidencia de consentimiento explícito de las familias ni confirmación clínica de los diagnósticos.

La preocupación se intensificó cuando especialistas revisaron el origen y la calidad del dataset. Una de ellas, la neuropsicóloga infantil Dorothy Bishop, declaró que, tras examinar los métodos de recolección, consideró el proyecto “absolutamente bonkers”: la variabilidad en ángulos, iluminación, expresiones y condiciones de las fotos hace imposible garantizar que las imágenes representen realmente a niños con y sin autismo, lo que invalida cualquier intento de diagnóstico facial. Además, desde el punto de vista ético, hay dudas serias sobre si los menores y sus familias otorgaron consentimiento informado para que sus rostros fueran utilizados con fines de investigación.

Ante estos problemas éticos y metodológicos, Springer Nature decidió actuar: desde el 16 de noviembre comenzaron las primeras retracciones y han anunciado la retirada de decenas más. Los artículos afectados, que previamente afirmaban entrenar redes neuronales para distinguir entre niños autistas y no autistas, dejan de considerarse válidos. La casa editorial justifica su decisión señalando que “este serio problema metodológico socava los resultados y conclusiones de las publicaciones”.

El caso ha generado además un efecto dominó: se identificaron al menos 90 publicaciones que citaban alguna versión del dataset, muchas de ellas en revistas de prestigio e incluso conferencias organizadas por entidades como IEEE. Springer Nature ha comenzado a contactar a otros editores para alertarles del problema, en un intento por evitar que este dataset contaminado siga siendo usado en nuevos trabajos

Los modelos de IA utilizan material de artículos científicos retractados

AI models are using material from retracted scientific papers.” MIT Technology Review, 23 septiembre 2025. https://www.technologyreview.com/2025/09/23/1123897/ai-models-are-using-material-from-retracted-scientific-papers/

El artículo advierte de una “crisis de confianza” en los sistemas de IA cuando se usan como fuentes de conocimiento científico o de salud: el uso indiscriminado de literatura retractada socava la integridad académica, puede inducir a desinformación peligrosa, y exige urgentes mecanismos de control —tanto técnicos (bases de datos actualizadas, filtros automáticos) como de responsabilidad editorial— para evitar que la IA difunda como válidas investigaciones desacreditadas.

El artículo de MIT Technology Review denuncia un problema alarmante: algunos modelos de inteligencia artificial (IA) están utilizando en sus respuestas contenido extraído de artículos científicos que han sido retractados (es decir, anulados por errores, malas prácticas, fraude o falta de validez), sin advertir a los usuarios sobre su condición de desautorizados.

Según los estudios citados, cuando se pidió a un modelo — ChatGPT (basado en GPT-4o) — que respondiera utilizando información de 21 artículos de imagenología médica ya retractados, el sistema citó esos trabajos en cinco casos, y tan solo en tres advirtió que podían ser problemáticos. En una prueba más amplia, con 217 artículos retractados o de baja calidad en varios campos científicos, el modelo no mencionó ninguna retractación u otra señal de alerta.

Pero el problema no afecta solo a ChatGPT. Otras herramientas de IA diseñadas específicamente para tareas de investigación científica — como Elicit, Ai2 ScholarQA, Perplexity y Consensus — también mostraron fallos similares. En tests realizados con los mismos 21 artículos retractados, Elicit los citó en cinco casos, Ai2 ScholarQA en 17, Perplexity en 11 y Consensus en 18, sin señalar su estatus de retractado.

Este fenómeno plantea dudas graves sobre la fiabilidad de la IA para tareas de investigación, educación, medicina o cualquier ámbito donde la veracidad científica es crítica. Si los modelos no reconocen que una fuente ha sido invalidada, pueden reproducir información errónea como si fuera legitima, lo que puede inducir a error a estudiantes, profesionales o al público general.

El problema tiene raíces estructurales vinculadas al modo en que estos modelos son entrenados. Muchos corpus de entrenamiento contienen copias de trabajos científicos disponibles en la web —incluidas versiones retiradas— y los sistemas no están diseñados para revisar en tiempo real el estado de retractación de cada fuente. Esto significa que, aunque una investigación haya sido invalidada, sigue formando parte del “conocimiento” del modelo.

Ante esta situación, algunas empresas ya han comenzado a reaccionar: por ejemplo, Consensus ha integrado datos de fuentes de retractaciones (como bases mantenidas por editores, agregadores de datos y servicios especializados) para intentar filtrar fuentes invalidadas; en una prueba reciente, así logró reducir el número de artículos retractados citados. Sin embargo, estas iniciativas no están generalizadas ni resultan infalibles, pues muchas publicaciones científicas no marcan de forma uniforme sus retractaciones, lo que dificulta la detección automática.

China logra superar a Estados Unidos en el número de publicaciones aparecidas en las revistas científicas más prestigiosas del mundo

Wagner, Caroline S. China’s Historic Rise to the Top of the Scientific Ladder. Quincy Institute for Responsible Statecraft, 24 octubre 2025

Texto completo

En los últimos años, China ha logrado un ascenso sin precedentes en el ámbito científico mundial, alcanzando y superando a Estados Unidos en la producción de artículos publicados en las revistas más prestigiosas del planeta. Este logro no se limita a una mera cuestión de cantidad: las publicaciones en estas revistas son altamente selectivas, con tasas de rechazo superiores al 90 %, y representan avances originales y de alta calidad. La capacidad de China para posicionarse a la cabeza refleja una combinación de inversión estratégica, planificación a largo plazo y desarrollo de talento científico altamente cualificado.

El crecimiento de la producción científica china ha sido vertiginoso. Hace apenas unos años, Estados Unidos lideraba con claridad, superando a China en más de la mitad de las publicaciones relevantes. Sin embargo, en menos de cinco años, China ha registrado un crecimiento sostenido que le ha permitido tomar la delantera, no solo en volumen total de publicaciones, sino también en las áreas de ciencia más competitivas y tecnológicamente estratégicas. Este avance rápido evidencia la eficacia de las políticas nacionales que priorizan la ciencia como motor de desarrollo económico y de influencia global.

China ha logrado consolidar su liderazgo en campos específicos donde históricamente se consideraba menos competitiva. La química, las ciencias físicas y las ciencias de la tierra y medioambientales son áreas en las que ha superado ampliamente a Estados Unidos, gracias a la combinación de infraestructura avanzada, programas de financiación robustos y colaboración intensa dentro de su sistema académico. Por otro lado, Estados Unidos mantiene ventaja en ciencias biológicas y de la salud, aunque su liderazgo podría verse amenazado por recortes presupuestarios y cambios en la política de investigación.

Un aspecto interesante de este ascenso es la transformación de la colaboración científica internacional. Mientras que en el pasado gran parte de la investigación china se desarrollaba en cooperación con científicos de Estados Unidos, Europa o Japón, actualmente se observa un incremento significativo de publicaciones nacionales. Esto indica que China ha alcanzado un nivel de autosuficiencia científica que le permite desarrollar ciencia de alto impacto sin depender tanto de la colaboración internacional. Este fenómeno plantea nuevas preguntas sobre la posible fragmentación de la ciencia global y la competencia por recursos y talento en un contexto multipolar.

El impacto de este cambio va más allá del ámbito académico. La posición de China como líder científico global tiene implicaciones directas para la innovación tecnológica, el desarrollo industrial, la economía y la geopolítica. Domina áreas estratégicas como la computación cuántica, las energías renovables, los semiconductores y la ciencia de materiales, consolidando así ventajas competitivas que podrían redefinir los equilibrios globales. Este nuevo escenario demuestra que la supremacía científica ya no es exclusiva de Occidente, y que el mundo se mueve hacia un sistema de innovación multipolar, donde China se establece como un actor central con capacidad de influir en la dirección de la ciencia y la tecnología mundial.

El ascenso científico de China representa un cambio estructural en el mapa global del conocimiento. Su liderazgo no es momentáneo ni superficial: está cimentado en inversión sostenida, estrategia política y capacidad tecnológica, lo que le permite no solo competir, sino también definir nuevas reglas en la producción científica y en la innovación global. Este fenómeno marca el inicio de una era en la que la ciencia mundial será más diversa, competitiva y multipolar, con implicaciones profundas para la economía, la política y la cooperación internacional.

Clarivate publica la lista 2025 de Investigadores Altamente Citados

Clarivate Announces Highly Cited Researchers 2025 List. STM Publishing News, 12 noviembre 2025. https://clarivate.com/highly-cited-researchers/

Esta lista distingue a aquellos investigadores cuya producción científica ha tenido un “impacto amplio y significativo” a nivel global.

En esta edición, se han reconocido 6.868 investigadores de todo el mundo, quienes acumulan 7.131 reconocimientos, procedentes de más de 1.300 instituciones en 60 países y regiones. El hecho de que haya más “awards” que personas responde a que algunos investigadores han sido reconocidos en más de un campo científico (múltiples disciplinas).

El método de selección se basa principalmente en datos bibliométricos extraídos de la base de datos Web of Science Core Collection, tomando en cuenta la frecuencia de citas de los artículos. No obstante, Clarivate combina estos datos con análisis cuantitativo, métricas complementarias y revisión cualitativa por expertos, con el fin de identificar sólo aquellas contribuciones que genuinamente han influido en su campo a largo plazo.

En cuanto a la distribución geográfica:

  • El país con mayor número de reconocimientos es Estados unidos, con 2.670 premiados, lo que representa aproximadamente el 37 % del total mundial — una cifra que representa un ligero repunte respecto a años anteriores.
  • En segundo lugar aparece China con 1.406 premiados, (20 %), seguida por United Kingdom con 570 premiados, (8 %).
  • Otros países con presencia destacada: Alemania (363), Australia (312) y Canadá (227) awards.
  • Además, la concentración del talento resulta notable: aunque la lista cubre 60 países/regiones, el 86 % de los reconocimientos se concentran en solo 10 de ellos, y el 75 % en los cinco primeros. Esto evidencia una fuerte centralización del impacto científico global.
  • En lo que respecta a España, la presencia de 94 investigadores en ese selecto grupo supone un reconocimiento colectivo del desempeño científico nacional: demuestra que investigadores españoles están contribuyendo a la ciencia global con trabajos de gran impacto e influencia.

Un aspecto clave de esta edición 2025 es el refuerzo del procedimiento de evaluación: para combatir prácticas cuestionables (por ejemplo, producción extremadamente prolífica, auto-citas exageradas, patrones de citación anómalos), Clarivate ha implementado “capas adicionales de escrutinio”. En concreto, este año se excluyeron 432 premios potenciales debido a producción desmedida. Además, la revisión rigurosa permitió reintroducir la categoría de Matemáticas, que había sido temporalmente retirada en años previos.

Por último, la lista de HCR 2025 no sólo es un reconocimiento individual: funcionan como una especie de “termómetro global” del ecosistema científico, permitiendo analizar tendencias por país, instituciones, disciplinas, y también sirve como indicador del “talento investigador” distribuido internacionalmente.