Archivo de la etiqueta: Investigación

Manual de redacción científica: cómo escribir manuscritos de forma eficiente y efectiva

Farji-Brener, Alejandro Gustavo, y Víctor Arroyo-Rodríguez. 2025. Manual de redacción científica: cómo escribir manuscritos de forma eficiente y efectiva. 1.ª ed. electrónica en PDF. Ciudad de México: Universidad Nacional Autónoma de México (UNAM). ISBN 978-607-587-923-9.

Texto completo

El manual constituye una obra de referencia destinada a cubrir una carencia estructural en la formación universitaria y de posgrado: la ausencia de una enseñanza sistemática sobre cómo escribir textos científicos publicables. Los autores parten de la constatación de que, aunque la publicación científica es un eje central de la carrera académica —tanto como mecanismo de difusión del conocimiento como indicador de productividad profesional—, la mayoría de los investigadores aprende a escribir “sobre la marcha”, bajo presión y mediante un proceso de ensayo y error que suele resultar frustrante. Frente a este panorama, el manual se propone como un “instructivo de navegación” que acompaña al lector desde las etapas previas a la escritura hasta el envío del manuscrito y la gestión del rechazo editorial, combinando reflexión conceptual, orientación práctica y una notable voluntad pedagógica.

Uno de los aportes centrales del libro es la distinción entre redacción eficiente y redacción efectiva. La eficiencia se entiende como la capacidad de escribir de manera organizada, económica en tiempo y energía, reduciendo el desgaste emocional que suele acompañar al proceso de escritura científica. La efectividad, en cambio, se refiere a la capacidad del texto para cumplir su objetivo principal: predisponer favorablemente a editores y revisores, atraer lectores y aumentar el impacto del trabajo en términos de lectura y citación. Desde esta doble perspectiva, los autores insisten en que escribir bien no es un talento innato reservado a unos pocos, sino una habilidad que puede aprenderse y perfeccionarse mediante estrategias concretas y práctica constante. Aunque el manual tiene un sesgo hacia las ciencias biológicas y, en particular, la ecología, sus principios son presentados como ampliamente transferibles a otras disciplinas científicas.

El manual subraya que publicar artículos científicos cumple una función esencial en el avance del conocimiento, ya que permite comunicar resultados, contrastar hipótesis, evitar la duplicación de esfuerzos y estimular nuevas líneas de investigación. Al mismo tiempo, reconoce abiertamente las dimensiones más “egoístas” de la publicación, vinculadas al progreso profesional, la obtención de financiación y el reconocimiento académico. Los autores reivindican, además, el carácter creativo de la escritura científica y la legítima satisfacción asociada a la producción intelectual, estableciendo un paralelismo con otras formas de creación cultural. Un mensaje clave atraviesa esta sección inicial: nadie está obligado a leer un artículo científico, por lo que es responsabilidad del autor hacer que su trabajo resulte relevante, claro y atractivo.

Las fuentes fabricadas por IA socavan la confianza y hacen perder el tiempo a los investigadores.

Aquí tienes la traducción de los textos y globos de la imagen, organizada por paneles:

Panel 1 (Arriba a la izquierda)

  • Encabezado: La IA está creando revistas falsas, y los investigadores están pagando el precio.
  • En el robot: IA
  • Globo del robot: Mira esta investigación de la Revista de Socorro Internacional.

Panel 2 (Arriba a la derecha)

  • Encabezado: Las solicitudes generadas por IA para citas falsas inundan las bibliotecas.
  • Mujer: ¿Puedo conseguir este artículo?
  • Bibliotecario: Lo siento, no puedo encontrarlo…

Panel 3 (Centro a la izquierda)

  • Encabezado: Pasos a seguir:
    1. Usa fuentes oficiales.
    2. Verifica las citas de la IA.
    3. Divulga el uso de la IA.

Panel 4 y 5 (Centro derecha y abajo)

  • Encabezado: Las fuentes fabricadas por IA socavan la confianza y hacen perder el tiempo a los investigadores.

La presión sobre la publicación científica en la era de la sobreproducción académica

Hanson, Mark A., Pablo Gómez Barreiro, Paolo Crosetto, y Dan Brockington. 2024. “The Strain on Scientific Publishing.” Quantitative Science Studies 5 (4): 823–843. https://doi.org/10.1162/qss_a_00327

El artículo analiza la presión creciente que sufre la publicación científica como consecuencia del aumento acelerado del número de artículos que se publican cada año. Aunque la producción de conocimiento científico se ha expandido de forma notable, el número de investigadores capaces de leer, evaluar y revisar ese volumen de trabajos no ha crecido al mismo ritmo, lo que genera una sobrecarga estructural en todo el sistema editorial académico.

Los autores muestran que, en la última década, las bases de datos científicas han registrado un incremento muy significativo del número de artículos indexados. Este crecimiento ha intensificado las exigencias para los investigadores, que no solo deben producir más publicaciones, sino también dedicar una cantidad cada vez mayor de tiempo a tareas como la lectura y la revisión por pares. Como resultado, el sistema de “publicar o perecer” se vuelve más exigente y menos sostenible. Así, el número de artículos indexados en bases como Scopus y Web of Science se ha incrementado de forma exponencial en los últimos años, con un aumento de alrededor del 47 % entre 2016 y 2022.

Mientras que las grandes editoriales tradicionales (como Elsevier o Springer) han aumentado su producción de manera moderada, otras —especialmente aquellas que dependen de modelos de acceso abierto con cargos por procesamiento de artículos (APC) como MDPI y Frontiers— han visto incrementos marcados en artículos por revista y en la proporción de publicaciones a través de special issues o números especiales. Esto sugiere que las estrategias editoriales específicas pueden estar impulsando parte de la expansión de contenidos.

El trabajo propone una serie de métricas para analizar esta tensión, entre ellas el aumento del volumen total de artículos, el uso creciente de números especiales, los tiempos de evaluación editorial, las tasas de rechazo y la evolución de las métricas de impacto. Estas medidas permiten observar cómo las prácticas editoriales han cambiado y cómo algunas estrategias contribuyen a acelerar la publicación sin que ello garantice una mejora en la calidad científica.

Uno de los hallazgos más relevantes es que ciertos modelos editoriales, especialmente aquellos basados en el acceso abierto financiado mediante cargos por publicación, han impulsado un crecimiento muy rápido del número de artículos por revista. En algunos casos, este crecimiento se apoya en un uso intensivo de números especiales, lo que puede facilitar procesos editoriales más rápidos y homogéneos, pero también suscita dudas sobre el rigor de la revisión por pares.

El análisis de los tiempos de aceptación muestra que algunas revistas publican artículos con gran rapidez y con escasa variación entre los plazos de revisión, lo que sugiere procesos altamente estandarizados. Aunque la rapidez no implica necesariamente baja calidad, los autores señalan que esta tendencia puede aumentar la presión sobre revisores y editores y reducir la capacidad de evaluación crítica en profundidad.

En relación con las tasas de rechazo, el estudio revela que no existe un patrón único: algunas editoriales mantienen niveles altos, mientras que otras los reducen o los estabilizan. Esto indica que el aumento de publicaciones no responde a una lógica uniforme, sino a decisiones editoriales específicas que influyen directamente en la carga global del sistema.

El artículo también aborda la inflación de las métricas de impacto, mostrando cómo el aumento generalizado de citas puede distorsionar la percepción de calidad científica. La dependencia excesiva de indicadores bibliométricos refuerza comportamientos estratégicos por parte de investigadores y revistas, orientados a maximizar visibilidad y rendimiento cuantitativo más que a fortalecer la solidez del conocimiento producido.

En sus conclusiones, los autores sostienen que la tensión en la publicación científica no es consecuencia de un único factor, sino del encaje problemático entre incentivos académicos, modelos de negocio editoriales y sistemas de evaluación de la investigación. Para aliviar esta presión, consideran necesario repensar las políticas de evaluación, mejorar la transparencia editorial y reducir la dependencia de métricas basadas exclusivamente en el volumen de publicaciones.

Crisis en la calidad de publicaciones científicas: volumen vs. valor

Sample, Ian. “Quality of Scientific Papers Questioned as Academics ‘Overwhelmed’ by the Millions Published.The Guardian, Jul 13, 2025. https://www.theguardian.com/science/2025/jul/13/quality-of-scientific-papers-questioned-as-academics-overwhelmed-by-the-millions-published

La calidad de los artículos científicos está siendo seriamente cuestionada, ya que los académicos se encuentran desbordados por los millones de estudios que se publican cada año, una saturación que amenaza la integridad y la fiabilidad del sistema científico a escala global.

Un artículo en una revista científica que se hizo viral no por su ciencia, sino por una imagen generada por inteligencia artificial que mostraba una rata con un pene enorme y etiquetada con palabras sin sentido. Esa imagen pasó desapercibida por revisores y editores y llevó a que el artículo fuese retirado tres días después de su publicación, poniendo de manifiesto fallos en los procesos de revisión y control.

El texto recuerda que las revistas científicas no son simples repositorios académicos: condicionan decisiones médicas, políticas públicas, desarrollos tecnológicos y estrategias geopolíticas, incluso estimaciones de víctimas en conflictos armados. Desde el siglo XVII —cuando la Royal Society inició la publicación continuada de revistas científicas—, estos espacios han sido centrales para el avance del conocimiento, acogiendo trabajos de figuras como Newton, Darwin, Einstein o Marie Curie.

Sin embargo, los datos muestran que la cantidad de artículos científicos indexados ha crecido de forma exponencial: por ejemplo, en la base de datos Web of Science los estudios aumentaron de 1,71 millones en 2015 a 2,53 millones en 2024, y sumando otros tipos de artículos el total ronda más de 3 millones al año. Esta expansión ha superado con creces el crecimiento del número de investigadores y la capacidad de la comunidad científica para leer, revisar y valorar críticamente todos esos trabajos.

El sistema de evaluación por pares —el sistema en el que científicos expertos revisan artículos antes de su publicación— está cada vez más estresado. Revisar millones de artículos requiere tiempo, y muchos académicos están «agotados» por la carga de trabajo voluntario que supone revisar textos para otros investigadores. Este estrés contribuye a que errores, contenidos de baja calidad o incluso fraudes pasen desapercibidos, lo que debilita la confianza en los resultados publicados. Según un estudio reciente, solo en 2020, los académicos de todo el mundo dedicaron más de 100 millones de horas a la revisión por pares de artículos para revistas. En el caso de los expertos de Estados Unidos, el tiempo dedicado a la revisión ese año supuso más de 1500 millones de dólares en mano de obra gratuita.

Una causa fundamental es el conjunto de incentivos académicos y comerciales que priorizan cantidad sobre calidad:

  • Los investigadores compiten por publicar más y más artículos para avanzar en su carrera (“publish or perish”), lo que puede llevar a trabajos fragmentados, poco sustanciales o exagerados.
  • Las editoriales científicas comerciales obtienen grandes beneficios de los modelos de acceso abierto con tasas por publicación, lo que puede fomentar la proliferación de textículos académicos y revistas especializadas que aceptan prácticamente cualquier envío.

El artículo destaca que estas dinámicas han creado un sistema que incentiva la producción masiva de estudios aunque muchos aporten poco conocimiento nuevo o incluso errores, algo que preocupa a científicos de alto nivel, incluidos premios Nobel y sociedades científicas.

Varios expertos y organizaciones están pidiendo reformas profundas. Entre las propuestas que circulan en el debate público y académico están:

  • Reformar el sistema de evaluación de investigadores para valorar calidad sobre cantidad.
  • Repensar el rol y modelo de negocio de las editoriales, reduciendo la dependencia de tarifas por publicación y fomentando modelos de acceso y revisión más sostenibles.
  • Incrementar el uso de herramientas y métodos que mejoren la calidad de la revisión por pares y detecten malas prácticas, incluidos fraudes y contenidos generados de forma automatizada.

La IA ha acelerado la producción de artículos y podido generar textos e imágenes científicas que no siempre son verificados adecuadamente. Esto alimenta temores de que herramientas como modelos de lenguaje puedan ser utilizadas para generar artículos de baja calidad o manipular revisiones si no se establecen mejores salvaguardas de integridad.

Frontiers FAIR² Data Management recupera la ciencia perdida: cómo la IA transforma los datos invisibles en conocimiento reutilizable

Frontiers. “90% of Science Is Lost. This New AI Just Found It.” ScienceDaily, October 13, 2025. https://www.sciencedaily.com/releases/2025/10/251013040314.htm

Una gran cantidad de datos de investigación valiosos permanecen sin utilizar, atrapados en laboratorios o perdidos en el tiempo. Frontiers pretende cambiar esta situación con FAIR Data Management, un innovador sistema impulsado por IA que hace que los conjuntos de datos sean reutilizables, verificables y citables. Al unir la curación, el cumplimiento, la revisión por pares y la visualización interactiva en una sola plataforma, FAIR² permite a los científicos compartir su trabajo de forma responsable y obtener reconocimiento.

La gran mayoría de los datos generados nunca se reutilizan ni contribuyen de forma significativa a nuevos descubrimientos. Según la evaluación citada, una proporción abrumadora de datos —hasta un 90 %— queda atrapada en laboratorios, no se comparte adecuadamente o se pierde en archivos inaccesibles, lo que frena el progreso en áreas críticas como la medicina, el cambio climático y la tecnología. Este desperdicio de información no solo reduce la eficiencia de la investigación global, sino que también limita la reproducibilidad de los estudios y la capacidad de construir sobre trabajos previos, una componente fundamental del método científico moderno.

Para enfrentar este desafío, la editorial y organización científica Frontiers ha desarrollado un sistema innovador denominado Frontiers FAIR² Data Management, que combina herramientas avanzadas de inteligencia artificial con principios sólidos de gestión de datos. El objetivo principal de esta plataforma es aplicar de manera automatizada y a gran escala los principios FAIR (findable, accessible, interoperable, reusable — en español: localizable, accesible, interoperable y reutilizable) y expandirlos en un marco que garantice la compatibilidad con sistemas de IA y la integridad ética de los conjuntos de datos. Al integrar procesos de curación, revisión por pares, visualización interactiva y certificación dentro de un único sistema impulsado por IA, FAIR² pretende transformar conjuntos de datos “perdidos” en recursos útiles y citables que puedan impulsar nuevas investigaciones, acelerar descubrimientos y reconocer adecuadamente el trabajo de los investigadores.

El funcionamiento práctico de FAIR² va más allá de simplemente archivar datos. Cuando un científico somete sus resultados a este sistema, no solo se asegura de que los datos sean estructurados y completos, sino que también recibe una salida múltiple: un paquete de datos certificado, un artículo de datos revisado y citable, herramientas de visualización interactiva y un certificado FAIR² que respalda la calidad y reutilización del conjunto. Esta estrategia integral busca eliminar las barreras tradicionales para el intercambio de datos y fomentar una cultura científica en la que cada conjunto de datos tenga el potencial de generar conocimiento adicional, reducir el tiempo entre descubrimiento y aplicación práctica, y asegurar que las inversiones en investigación rindan un impacto mucho mayor del que logran actualmente.

Modelos de recuperación de costos: sostenibilidad de los servicios de investigación en bibliotecas universitarias

Cook, B. (2025, 8 de diciembre). Guest Post: Funding Research Services – How Libraries Are Exploring Cost Recovery Models. The Scholarly Kitchen. Recuperado de https://scholarlykitchen.sspnet.org/2025/12/08/guest-post-funding-research-services-how-libraries-are-exploring-cost-recovery-models/ (scholarlykitchen.sspnet.org

Las bibliotecas universitarias están explorando modelos de recuperación de costos para financiar los servicios de investigación especializados que ofrecen a facultades, estudiantes e investigadores.

Las bibliotecas universitarias y de investigación han sido históricamente un pilar fundamental de la actividad científica, proporcionando los recursos de información, libros, revistas, colecciones y experiencia especializada necesarios para que la investigación pueda desarrollarse. Con el tiempo, su papel se ha ampliado y ahora incluye servicios modernos y críticos para la misión institucional, como la gestión, curación y compartición de datos de investigación; revisiones sistemáticas; iniciativas de transformación digital; evaluación del impacto; y una gama cada vez mayor de apoyos funcionales y específicos por disciplina que se conectan directamente con todas las fases del proceso investigativo. Estas actividades se han vuelto esenciales para la forma en que se crea, publica y comparte la investigación. A diferencia de los recursos generales que las bibliotecas proporcionan a todos los usuarios, independientemente de la disciplina o situación financiera, los servicios de apoyo a la investigación son inherentemente más especializados y orientados a proyectos, requiriendo experiencia profunda, tiempo significativo del personal y flujos de trabajo personalizados según metodologías, cronogramas y entregables de cada equipo de investigación.

El carácter específico por proyecto de estos servicios también se relaciona con la forma en que se financia la investigación universitaria. La investigación puede estar respaldada por fondos departamentales o institucionales centralizados, disponibles de manera amplia para la comunidad académica, o por subvenciones externas que incluyen requisitos de cumplimiento, presupuesto, entregables y rendición de cuentas vinculados a proyectos o investigadores. La mayoría de las bibliotecas siguen financiándose a través de presupuestos institucionales tradicionales basados en costos indirectos históricos, calculados a partir del número de estudiantes y docentes equivalentes a tiempo completo. Sin embargo, a medida que las bibliotecas se integran más en los flujos de trabajo de investigación mediante servicios especializados, algunas instituciones comienzan a preguntarse cómo sostener estos servicios y hacer visibles sus contribuciones dentro de modelos de financiamiento institucional, especialmente frente a la incertidumbre en las políticas federales de investigación.

Para explorar estas cuestiones, se realizó una encuesta a 32 instituciones (públicas y privadas, con predominio de bibliotecas médicas y de ciencias de la salud) sobre su enfoque hacia el financiamiento basado en subvenciones o cobro directo por servicios relacionados con el apoyo a la investigación. Los resultados muestran que, en servicios generales como colecciones, preservación o capacitación, casi el 90 % de las bibliotecas no considera implementar cobros directos, citando preocupaciones sobre la misión institucional y la equidad de acceso. En contraste, los servicios especializados —como revisiones sistemáticas, gestión de datos de investigación, consultoría en proyectos digitales o análisis de impacto— presentan un panorama más variado: alrededor del 25 % de las bibliotecas reporta que ya cobra o considera cobrar por al menos un servicio especializado. Las bibliotecas médicas son las más activas en este ámbito, particularmente para revisiones sistemáticas y curación de datos, donde el cobro permite triage de proyectos y recuperación del tiempo del personal.

A pesar de estas exploraciones, las bibliotecas enfrentan desafíos significativos: cargas administrativas al establecer sistemas de recuperación de costos conformes a regulaciones federales; resistencia cultural y preocupación por crear inequidades o riesgos reputacionales; alineación con la misión institucional; y dificultad para distinguir entre servicios básicos y trabajo específico por proyecto. La encuesta también evidencia diferencias según tipo de institución: las bibliotecas médicas lideran la implementación de cobros, las universidades públicas citan complejidad administrativa y las privadas priorizan preocupaciones filosóficas o de equidad, mientras que bibliotecas no médicas son menos propensas a considerar cobros.

El contexto de recuperación de costos indirectos (F&A) es central en esta discusión. Las bibliotecas suelen absorber costos masivos de acceso público y servicios esenciales, mientras que los presupuestos dependen de cómo las instituciones asignan los costos indirectos recuperados de subvenciones patrocinadas. Modelos como el FAIR Model propuesto por el Joint Associations Group buscan visibilizar actividades tradicionalmente indirectas como costos directos, incluyendo servicios bibliotecarios, lo que podría permitir su inclusión explícita en presupuestos de subvenciones. Aunque las bibliotecas aún no han adoptado ampliamente cobros directos, muchas reconocen la importancia de entender y comunicar los costos reales de sus servicios para justificar su valor.

En conjunto, estos hallazgos reflejan una comunidad de bibliotecas en transición: algunas experimentan con cobros directos, pero la mayoría observa el entorno regulatorio y financiero mientras desarrolla conciencia sobre costos y sostenibilidad. El objetivo compartido es hacer visibles las contribuciones críticas de las bibliotecas, alinear los servicios con las prioridades institucionales y asegurar que los investigadores, administradores y financiadores reconozcan el valor del apoyo bibliotecario en la investigación académica. Esta evolución muestra que, aunque el cobro directo no es todavía una práctica generalizada, representa un indicador del reconocimiento creciente de la importancia estratégica y económica de los servicios de investigación especializados en bibliotecas universitarias.

Los investigadores creen que su institución valora más la publicación en revistas muy citadas que el impacto real que pueda tener un trabajo.

Grove, Jack. (2025, 12 de diciembre). Policy Impact Undervalued by Universities, Social Scientists Say. Inside Higher Ed. Recuperado de https://www.insidehighered.com/news/faculty-issues/research/2025/12/12/social-scientists-policy-impact-undervalued-universities

Los resultados reflejan que las universidades tienden a valorar más las publicaciones en revistas altamente citadas y otras métricas tradicionales de prestigio académico, como el recuento de citas o factores de impacto, antes que evaluar el impacto real de la investigación en la formulación de políticas o cambios sociales tangibles.

Encuesta global realizada por Sage entre más de 1 800 científicos sociales de 92 países, centrada en entender cómo perciben la valoración que sus universidades otorgan al impacto de su investigación en la sociedad y las políticas públicas. Según los datos del sondeo, solo alrededor de un tercio de los participantes considera que su institución los promovería o les daría valor por el impacto de su trabajo fuera del ámbito académico, lo que indica una desconexión entre las aspiraciones de estos investigadores y las prioridades institucionales.

En el estudio, el 92 % de los encuestados afirmó que para ellos el objetivo principal de la investigación es contribuir positivamente a la sociedad, pero solo el 68 % cree que esto sea una meta compartida por sus instituciones. Asimismo, un porcentaje similar percibe que los líderes universitarios no valoran plenamente la utilidad social de su trabajo, lo que sugiere que las prácticas de evaluación académica actuales aún están ancladas en métricas internas y tradicionales, dejando fuera dimensiones más abiertas o aplicadas del impacto científico. Cuando se les preguntó si su institución promocionaría o concedería la titularidad a un académico por sus esfuerzos por aplicar la investigación fuera del ámbito académico, solo el 37 % de los 1805 científicos sociales encuestados por Sage respondió afirmativamente.

Los datos también muestran que solo un 28 % de los científicos sociales opina que sus esfuerzos por influir en políticas públicas podrían traducirse en más financiación de investigación, y apenas un 35 % afirma que su universidad ofrece premios o reconocimiento explícito por el impacto fuera de la academia. Además, un 30 % de los encuestados declaró no recibir ningún tipo de reconocimiento por este tipo de trabajo, lo que pone en evidencia una brecha entre el compromiso de los científicos sociales con la relevancia de su investigación y las prácticas de recompensa institucional.

Del mismo modo, el 91 % de los investigadores está de acuerdo en que el objetivo final de la investigación es ampliar la bibliografía y facilitar futuras investigaciones, pero solo el 71 % cree que los responsables de su institución están de acuerdo con esto.

En conjunto, este artículo sugiere que, aunque los investigadores ven la contribución al bien público y a la toma de decisiones informadas como una parte esencial de su labor, el ecosistema académico permanece predominantemente orientado hacia la producción y citación de literatura especializada, con menor énfasis en la aplicación de conocimientos para abordar problemas sociales o influir en políticas. Esto plantea preguntas importantes sobre cómo las universidades podrían replantear sus criterios de evaluación y promoción profesional para reconocer y fomentar formas de investigación que conecten más directamente con desafíos sociales reales.

Esa percepción de desajuste entre la motivación de los científicos sociales y las instituciones debería llevar a replantearse si las métricas de prestigio utilizadas en el mundo académico están desajustadas con los valores, argumenta el informe de Sage.

Springer Nature retira y elimina casi 40 publicaciones que entrenaban redes neuronales con un conjunto de datos con problemas éticos y de fiabilidad.

McMurray, Calli. “Exclusive: Springer Nature retracts, removes nearly 40 publications that trained neural networks on ‘bonkers’ dataset.The Transmitter, 8 diciembre 2025. https://www.thetransmitter.org/retraction/exclusive-springer-nature-retracts-removes-nearly-40-publications-that-trained-neural-networks-on-bonkers-dataset/

Springer Nature ha comenzado a retractar decenas de trabajos — unos 38 en total — que se basaban en un conjunto de datos extremadamente polémico, conocido coloquialmente como “dataset bonkers”. Este conjunto incluía más de 2.900 fotografías de rostros de niños, supuestamente divididas en quienes tenían diagnóstico de Autismo y quienes no. Lo que generó alarma es que muchas de esas imágenes fueron extraídas de sitios web dedicados al autismo, sin evidencia de consentimiento explícito de las familias ni confirmación clínica de los diagnósticos.

La preocupación se intensificó cuando especialistas revisaron el origen y la calidad del dataset. Una de ellas, la neuropsicóloga infantil Dorothy Bishop, declaró que, tras examinar los métodos de recolección, consideró el proyecto “absolutamente bonkers”: la variabilidad en ángulos, iluminación, expresiones y condiciones de las fotos hace imposible garantizar que las imágenes representen realmente a niños con y sin autismo, lo que invalida cualquier intento de diagnóstico facial. Además, desde el punto de vista ético, hay dudas serias sobre si los menores y sus familias otorgaron consentimiento informado para que sus rostros fueran utilizados con fines de investigación.

Ante estos problemas éticos y metodológicos, Springer Nature decidió actuar: desde el 16 de noviembre comenzaron las primeras retracciones y han anunciado la retirada de decenas más. Los artículos afectados, que previamente afirmaban entrenar redes neuronales para distinguir entre niños autistas y no autistas, dejan de considerarse válidos. La casa editorial justifica su decisión señalando que “este serio problema metodológico socava los resultados y conclusiones de las publicaciones”.

El caso ha generado además un efecto dominó: se identificaron al menos 90 publicaciones que citaban alguna versión del dataset, muchas de ellas en revistas de prestigio e incluso conferencias organizadas por entidades como IEEE. Springer Nature ha comenzado a contactar a otros editores para alertarles del problema, en un intento por evitar que este dataset contaminado siga siendo usado en nuevos trabajos

Los modelos de IA utilizan material de artículos científicos retractados

AI models are using material from retracted scientific papers.” MIT Technology Review, 23 septiembre 2025. https://www.technologyreview.com/2025/09/23/1123897/ai-models-are-using-material-from-retracted-scientific-papers/

El artículo advierte de una “crisis de confianza” en los sistemas de IA cuando se usan como fuentes de conocimiento científico o de salud: el uso indiscriminado de literatura retractada socava la integridad académica, puede inducir a desinformación peligrosa, y exige urgentes mecanismos de control —tanto técnicos (bases de datos actualizadas, filtros automáticos) como de responsabilidad editorial— para evitar que la IA difunda como válidas investigaciones desacreditadas.

El artículo de MIT Technology Review denuncia un problema alarmante: algunos modelos de inteligencia artificial (IA) están utilizando en sus respuestas contenido extraído de artículos científicos que han sido retractados (es decir, anulados por errores, malas prácticas, fraude o falta de validez), sin advertir a los usuarios sobre su condición de desautorizados.

Según los estudios citados, cuando se pidió a un modelo — ChatGPT (basado en GPT-4o) — que respondiera utilizando información de 21 artículos de imagenología médica ya retractados, el sistema citó esos trabajos en cinco casos, y tan solo en tres advirtió que podían ser problemáticos. En una prueba más amplia, con 217 artículos retractados o de baja calidad en varios campos científicos, el modelo no mencionó ninguna retractación u otra señal de alerta.

Pero el problema no afecta solo a ChatGPT. Otras herramientas de IA diseñadas específicamente para tareas de investigación científica — como Elicit, Ai2 ScholarQA, Perplexity y Consensus — también mostraron fallos similares. En tests realizados con los mismos 21 artículos retractados, Elicit los citó en cinco casos, Ai2 ScholarQA en 17, Perplexity en 11 y Consensus en 18, sin señalar su estatus de retractado.

Este fenómeno plantea dudas graves sobre la fiabilidad de la IA para tareas de investigación, educación, medicina o cualquier ámbito donde la veracidad científica es crítica. Si los modelos no reconocen que una fuente ha sido invalidada, pueden reproducir información errónea como si fuera legitima, lo que puede inducir a error a estudiantes, profesionales o al público general.

El problema tiene raíces estructurales vinculadas al modo en que estos modelos son entrenados. Muchos corpus de entrenamiento contienen copias de trabajos científicos disponibles en la web —incluidas versiones retiradas— y los sistemas no están diseñados para revisar en tiempo real el estado de retractación de cada fuente. Esto significa que, aunque una investigación haya sido invalidada, sigue formando parte del “conocimiento” del modelo.

Ante esta situación, algunas empresas ya han comenzado a reaccionar: por ejemplo, Consensus ha integrado datos de fuentes de retractaciones (como bases mantenidas por editores, agregadores de datos y servicios especializados) para intentar filtrar fuentes invalidadas; en una prueba reciente, así logró reducir el número de artículos retractados citados. Sin embargo, estas iniciativas no están generalizadas ni resultan infalibles, pues muchas publicaciones científicas no marcan de forma uniforme sus retractaciones, lo que dificulta la detección automática.

China logra superar a Estados Unidos en el número de publicaciones aparecidas en las revistas científicas más prestigiosas del mundo

Wagner, Caroline S. China’s Historic Rise to the Top of the Scientific Ladder. Quincy Institute for Responsible Statecraft, 24 octubre 2025

Texto completo

En los últimos años, China ha logrado un ascenso sin precedentes en el ámbito científico mundial, alcanzando y superando a Estados Unidos en la producción de artículos publicados en las revistas más prestigiosas del planeta. Este logro no se limita a una mera cuestión de cantidad: las publicaciones en estas revistas son altamente selectivas, con tasas de rechazo superiores al 90 %, y representan avances originales y de alta calidad. La capacidad de China para posicionarse a la cabeza refleja una combinación de inversión estratégica, planificación a largo plazo y desarrollo de talento científico altamente cualificado.

El crecimiento de la producción científica china ha sido vertiginoso. Hace apenas unos años, Estados Unidos lideraba con claridad, superando a China en más de la mitad de las publicaciones relevantes. Sin embargo, en menos de cinco años, China ha registrado un crecimiento sostenido que le ha permitido tomar la delantera, no solo en volumen total de publicaciones, sino también en las áreas de ciencia más competitivas y tecnológicamente estratégicas. Este avance rápido evidencia la eficacia de las políticas nacionales que priorizan la ciencia como motor de desarrollo económico y de influencia global.

China ha logrado consolidar su liderazgo en campos específicos donde históricamente se consideraba menos competitiva. La química, las ciencias físicas y las ciencias de la tierra y medioambientales son áreas en las que ha superado ampliamente a Estados Unidos, gracias a la combinación de infraestructura avanzada, programas de financiación robustos y colaboración intensa dentro de su sistema académico. Por otro lado, Estados Unidos mantiene ventaja en ciencias biológicas y de la salud, aunque su liderazgo podría verse amenazado por recortes presupuestarios y cambios en la política de investigación.

Un aspecto interesante de este ascenso es la transformación de la colaboración científica internacional. Mientras que en el pasado gran parte de la investigación china se desarrollaba en cooperación con científicos de Estados Unidos, Europa o Japón, actualmente se observa un incremento significativo de publicaciones nacionales. Esto indica que China ha alcanzado un nivel de autosuficiencia científica que le permite desarrollar ciencia de alto impacto sin depender tanto de la colaboración internacional. Este fenómeno plantea nuevas preguntas sobre la posible fragmentación de la ciencia global y la competencia por recursos y talento en un contexto multipolar.

El impacto de este cambio va más allá del ámbito académico. La posición de China como líder científico global tiene implicaciones directas para la innovación tecnológica, el desarrollo industrial, la economía y la geopolítica. Domina áreas estratégicas como la computación cuántica, las energías renovables, los semiconductores y la ciencia de materiales, consolidando así ventajas competitivas que podrían redefinir los equilibrios globales. Este nuevo escenario demuestra que la supremacía científica ya no es exclusiva de Occidente, y que el mundo se mueve hacia un sistema de innovación multipolar, donde China se establece como un actor central con capacidad de influir en la dirección de la ciencia y la tecnología mundial.

El ascenso científico de China representa un cambio estructural en el mapa global del conocimiento. Su liderazgo no es momentáneo ni superficial: está cimentado en inversión sostenida, estrategia política y capacidad tecnológica, lo que le permite no solo competir, sino también definir nuevas reglas en la producción científica y en la innovación global. Este fenómeno marca el inicio de una era en la que la ciencia mundial será más diversa, competitiva y multipolar, con implicaciones profundas para la economía, la política y la cooperación internacional.