Archivo de la etiqueta: Investigación

La IA y el problema de la retractación de artículos científicos

Worlock, David. 2026. AI and the Issue of Science Article Retraction.” DavidWorlock.com, 6 de enero de 2026. https://www.davidworlock.com/2026/01/ai-and-the-issue-of-science-article-retraction/

Se ofrece una reflexión crítica sobre los desafíos que la inteligencia artificial (IA) plantea al sistema de publicación científica, especialmente en lo referente a la integridad del registro científico y el proceso de retractación de artículos académicos.

Worlock parte de una observación fundamental: aunque la IA está transformando profundamente la creación, difusión y análisis de conocimiento, muchos de los problemas estructurales que afectan a la ciencia —como la proliferación de artículos defectuosos, revisiones por pares ineficaces o la falta de mecanismos eficaces para gestionar retractaciones— no se resolverán simplemente mediante la automatización o la adopción de nuevas herramientas tecnológicas.

El autor contextualiza el tema en un contexto más amplio de crisis de confianza en las publicaciones científicas. Señala que la incapacidad del sistema para proporcionar estándares claros y verificables de calidad y autenticidad ha permitido que proliferan trabajos de mala calidad o incluso fraudulentos, muchos de los cuales permanecen en la literatura científica sin una retractación adecuada. Este problema no se limita a casos aislados, sino que forma parte de un sistema que continúa replicando y amplificando errores debido a la presión por publicar y a la ausencia de una infraestructura de retractación centralizada y transparente.

Worlock también examina el rol de la IA en este contexto. Aunque los sistemas de IA tienen la capacidad de procesar grandes volúmenes de información, Worlock advierte que la IA no sustituye la evaluación crítica humana y que los algoritmos pueden incluso exacerbar algunos de los problemas existentes si se utilizan sin criterio. Por ejemplo, las IA pueden integrar contenido repleto de errores metodológicos o datos falsos como si fuera válido, ya que carecen de un juicio epistemológico real para discernir la calidad científica, un reto que otros expertos han también identificado recientemente como un riesgo serio para la confianza en la literatura científica automatizada.

Además, el artículo subraya la importancia de reforzar los mecanismos de retractación. Worlock plantea que la mera existencia de retractaciones no basta si estas no son accesibles, claras y eficientemente comunicadas, algo que muchos investigadores experimentan cuando intentan rastrear qué artículos han sido retirados y por qué. El problema, según él y otros especialistas, radica en que las retractaciones a menudo no están bien etiquetadas ni se integran en los flujos de datos primarios que usan los motores de búsqueda, las bases de datos académicas y los propios sistemas de entrenamiento de modelos de IA.

Una vez que se introducen datos en el modelo de formación de un LLM, no se pueden eliminar. No quiero escribir aquí sobre los actos de piratería cometidos por los actores de la IA de Silicon Valley al retirar masivamente artículos académicos de sitios web a menudo pirateados e ilegales. Sin duda, esos datos incluían artículos retractados que nunca se habían eliminado ni etiquetado como retractados en línea. De hecho, en el mundo anterior a la IA, una de las quejas sobre la búsqueda de artículos académicos era que los artículos retractados rara vez eran evidentes. Solo en épocas más recientes, Retraction Watch y Open Alex comenzaron a señalar qué datos no eran confiables en las bases de datos académicas. En otras palabras, fue la comunidad académica y sin fines de lucro la que acudió al rescate, no el sector editorial con fines de lucro. Se podría considerar cómo podríamos construir modelos más efectivos y precisos en el futuro y cómo podríamos asegurarnos de que el material retractado no se incluya en ellos.

En esencia, Worlock llama a una reforma profunda del ecosistema de publicación científica, donde la IA se utilice no como sustituto de la evaluación humana, sino como complemento que apoye una mayor transparencia, responsabilidad y calidad en la ciencia publicada. Su análisis enfatiza que los avances tecnológicos deben ir acompañados de estructuras éticas y metodológicas que preserven la integridad del registro científico y protejan la confianza pública en la investigación académica.

Desafiando la cultura de la rapidez en la universidad

Berg, Maggie, y Barbara K. Seeber. The Slow Professor: Desafiando la cultura de la rapidez en la academia. Acompañado de Slow humanities: un manifiesto. Traducido por Beltrán Jiménez Villar. Granada: Editorial Universidad de Granada, 2022

Muestra

Una obra que surge como respuesta crítica a las transformaciones que han experimentado las universidades contemporáneas, especialmente en lo que respecta a la corporativización y la cultura de la rapidez.

Las autoras Maggie Berg y Barbara K. Seeber argumentan que en las últimas décadas las instituciones de educación superior han adoptado modelos organizativos y criterios de evaluación inspirados en la lógica empresarial, centrados en la productividad, la eficiencia y la competitividad. Este enfoque, importado desde la economía de mercado, ha impuesto a las y los académicos una presión constante por producir resultados medibles y rápidos —científicos, publicaciones, proyectos— dejando poco espacio para la reflexión profunda y el pensamiento riguroso que caracteriza a la labor académica.

En su crítica, las autoras reclaman una reconfiguración del tiempo académico que permita al profesorado recuperar prácticas profesionales más pausadas, deliberadas y humanas. Para ello, se inspiran en los ideales del movimiento Slow, originalmente surgido en ámbitos como la gastronomía (Slow Food) y extendido a diversas facetas de la vida social y cultural. Aplicados al contexto universitario, estos principios promueven una forma de trabajo menos alienada por la urgencia de “hacer más en menos tiempo” y más orientada hacia la calidad de la enseñanza, la investigación profunda y la construcción de comunidades académicas solidarias y reflexivas. Berg y Seeber proponen estrategias personales y colaborativas para que las y los profesores puedan tomar el control de su tiempo profesional y, con ello, potenciar una universidad más centrada en el sentido y la consciencia que en la productividad inmediata.

Además, esta edición española incluye el texto Slow Humanities: un manifiesto, que extiende la llamada a una transformación más amplia de las humanidades y de la vida académica en general. El manifiesto articula propuestas para que la comunidad universitaria adopte de forma activa la ética de la “lentitud” como modo de resistencia al aceleracionismo institucional, fomentando así una cultura académica que valore la profundidad, la creatividad y la colaboración por encima de los logros cuantificables. En conjunto, el libro y el manifiesto aportan una reflexión crítica y a la vez práctica sobre cómo repensar el ritmo —y con ello la calidad— del trabajo académico contemporáneo.

Topes a las tarifas de pago por publicación en acceso abierto: debate y tensiones en la comunidad científica ante la propuesta del NIH

Jacobs, Phie. “NIH’s Proposed Caps on Open-Access Publishing Fees Roil Scientific Community.” Science, 12 de diciembre de 2025. https://www.science.org/content/article/nih-s-proposed-caps-open-access-publishing-fees-roil-scientific-community

Se analiza la controversia generada dentro de la comunidad científica por la propuesta de los Institutos Nacionales de Salud de Estados Unidos (NIH) de limitar las tarifas que pueden cobrarse para publicar artículos en abierto con fondos públicos.

La iniciativa, planteada mediante una solicitud de comentarios públicos lanzada el 30 de julio de 2025, tiene como objetivo principal frenar los altos cargos por procesamiento de artículos (APCs), algunos de los cuales alcanzan los 12 690 USD por artículo en revistas como Nature. Según el NIH, estos elevados costos reducen los fondos disponibles para actividades de investigación y representan una carga injusta para los fondos públicos destinados a la ciencia.

Sin embargo, la respuesta de investigadores, instituciones académicas y editores ha sido mayoritariamente crítica. Más de 900 comentarios públicos reflejan una profunda preocupación de que los topes propuestos —que según los posibles límites podrían situarse entre 2.000 y 6.000 USD por artículo— no aborden los problemas estructurales del sistema editorial académico, y podrían tener efectos negativos no deseados. Muchos científicos señalan que estos límites podrían restringir la capacidad de publicar en revistas de alto impacto, lo que a su vez podría perjudicar la carrera profesional de investigadores, especialmente los de menor trayectoria o de instituciones con menos recursos. Algunos también argumentan que las tarifas de publicación no están bajo control de los investigadores, y que es más apropiado que el NIH negocie directamente con las editoriales en lugar de trasladar la carga a los propios científicos.

Además, varios comentaristas advierten que los topes sobre los costos de publicación podrían tener consecuencias paradójicas en el ecosistema editorial. Existe el riesgo de que dichos límites se conviertan en un “piso” más que en un techo, incentivando a ciertos editores a ajustar sus cargos hacia el nivel máximo permitido en lugar de reducir costos de forma efectiva. Otro punto crítico es la posible incompatibilidad entre la política de límites de APC y la exigencia del NIH de acceso abierto inmediato sin embargo (zero embargo), lo que podría poner a los investigadores en una situación difícil al intentar cumplir con ambas políticas. En resumen, aunque la propuesta busca controlar el gasto público en APC y fomentar un acceso más amplio a la investigación financiada con fondos públicos, la comunidad científica recalca que se requieren soluciones más profundas y colaborativas que simplemente imponer topes financieros.

ORCID 2030: Impulsando el futuro de la investigación

Petro, Julie (6 de enero de 2026). ORCID 2030: Advancing the Future of Research. ORCID Blog. Disponible en: https://info.orcid.org/orcid-2030-advancing-the-future-of-research/

ORCID lanza su plan estratégico ORCID 2030, orientado a reforzar la identidad digital de los investigadores y la confianza en el ecosistema científico. La iniciativa apuesta por una mayor conexión de datos, expansión de la comunidad y sostenibilidad a largo plazo.

ORCID ha sido clave en la infraestructura global de investigación durante más de una década, facilitando conexiones transparentes y confiables entre investigadores, sus contribuciones y las organizaciones que las apoyan. Su nuevo plan estratégico, ORCID 2030: Advancing the Future of Research, presenta un compromiso renovado para enfrentar los retos y oportunidades del futuro, evolucionando de un enfoque de consolidación de valor y confianza hacia uno más activo y expansivo en apoyo a la comunidad investigadora mundial.

El plan define cinco temas estratégicos interconectados que guiarán la labor de ORCID en los próximos cuatro años.

  1. Empoderar a los investigadores
  2. Conectar la información de investigación
  3. Ampliar la comunidad
  4. Avanzar la confianza y la integridad en la investigación
  5. Fortalecer la resiliencia de ORCID

Empoderar a los investigadores busca ampliar el valor que ORCID ofrece, haciendo el sistema más útil y eficiente para visibilizar contribuciones diversas. Conectar la información de investigación refuerza la misión de ser un nodo fiable de datos de identidad y contribución, mejorando la calidad y la integración de datos en su red.

Además, ampliar la comunidad enfatiza la participación global y la expansión a nuevos casos de uso; avanzar la confianza e integridad pone el foco en desafíos externos como la crisis de integridad en la investigación, promoviendo la neutralidad y los indicadores de confianza; y fortalecer la resiliencia de ORCID se centra en la sostenibilidad a largo plazo, eficiencia operativa, ciberseguridad y aplicación de tecnologías emergentes como la IA.

El desarrollo de este plan se basó en el marco estratégico SOAR (Fortalezas, Oportunidades, Aspiraciones, Resultados), una metodología inclusiva enfocada en potenciar lo que ya funciona y alinear los esfuerzos con la visión y valores de ORCID, con participación de la comunidad de usuarios y organizaciones asociadas a lo largo de 2025.

Reimaginar los flujos de trabajo de la publicación académica en la era de la inteligencia artificial

Zhou, Hong. “Reimagining Scholarly Publishing Workflow: A High-Level Map of What Changes Next.The Scholarly Kitchen, November 20, 2025. https://scholarlykitchen.sspnet.org/2025/11/20/reimagining-scholarly-publishing-workflow-a-high-level-map-of-what-changes-next/

Se presenta una hoja de ruta estratégica para que la publicación académica se adapte a un entorno acelerado, colaborativo y tecnológicamente complejo, buscando un equilibrio entre automatización inteligente y juicio humano, para producir ciencia más accesible, verificable y relevante tanto para personas como para sistemas automatizados.

Se ofrece una visión panorámica de cómo los flujos de trabajo en la publicación académica deben transformarse ante los desafíos actuales y futuros, destacando que los métodos tradicionales están bajo presión por el aumento exponencial de artículos, limitaciones en la revisión por pares y la creciente complejidad de mantener la integridad científica en un entorno saturado de IA y publicaciones de baja calidad. El autor subraya que la oportunidad real no está en añadir funcionalidades de IA a sistemas antiguos, sino en reimaginar los procesos de forma que la colaboración humano-IA mejore la eficiencia, la calidad y la transparencia. Esto implica repensar estrategias, cultura y tecnología para hacer que los procesos editoriales y de revisión sean más ágiles, basados en datos y sostenibles para una comunidad científica global cada vez más activa.

Una de las primeras transformaciones que plantea el artículo es la evolución del papel de los preprints. En lugar de limitarse a repositorios pasivos, propone que estos se conviertan en aceleradores de investigación: espacios donde se enriquece, verifica y hace descubrible la ciencia antes de su publicación formal. Esto incluye mecanismos automatizados de calidad, traducción y resúmenes generados con IA, así como herramientas que faciliten la participación comunitaria en evaluaciones de novedad, reproducibilidad y comentarios ligeros. El objetivo es acelerar la “tríaje” editorial y reducir la carga de trabajo de editores y revisores, al tiempo que se respalda la ciencia abierta y colaborativa.

A continuación, el autor aborda cómo deberían evolucionar los sistemas de presentación de manuscritos y control de calidad desde la etapa inicial, sugiriendo asistentes inteligentes que orienten a los investigadores en la preparación de sus textos, verifiquen el cumplimiento de directrices éticas y de estilo, y automaticen tareas administrativas como la elegibilidad de acuerdos transformativos o la transferencia entre revistas. Esto redunda en mejoras tanto para autores, al recibir retroalimentación temprana, como para editores, quienes reciben documentos con mayor calidad estructural y documental.

El texto también propone un cambio de paradigma en los procesos de verificación de integridad y revisión por pares, pasando de modelos reactivos que simplemente detectan problemas, a enfoques proactivos centrados en asegurar cumplimiento de políticas claras, trazabilidad de la procedencia y herramientas automatizadas que prevengan errores antes de que lleguen a etapas avanzadas. Según el autor, esto incluye el uso de marcos y estándares compartidos para clasificar situaciones de integridad, y sistemas predictivos que prioricen verificaciones basadas en patrones de riesgo identificados por IA.

En los procesos de producción editorial, se destaca que la IA puede automatizar buena parte de las tareas repetitivas —como edición de estilo, maquetación y pruebas tipográficas—, dejando a los humanos el control de las decisiones que implican juicio contextual o la preservación de la voz del autor. El modelo ideal combina eficiencia de IA con supervisión humana cuidadosa, posibilitando desde publicaciones multilingües y accesibles hasta producciones enriquecidas con resúmenes para audiencias amplias y formatos adaptados.

Por último, el artículo explora cómo los sitios de publicación y la difusión de contenidos deben evolucionar hacia modelos “machine-first” que no solo atiendan a lectores humanos sino que también faciliten el acceso y procesamiento por parte de herramientas de IA. Esto incluye APIs como fuente única de verdad, identificadores duraderos para versiones y retractaciones, y métricas que valoren la capacidad de un artículo para ser interpretado por máquinas y asistentes inteligentes, por encima de indicadores tradicionales como clics o visitas. Esta transición supone un cambio cultural que redefine el papel de editores, autores y plataformas en una economía de visibilidad informada por IA.

Manual de redacción científica: cómo escribir manuscritos de forma eficiente y efectiva

Farji-Brener, Alejandro Gustavo, y Víctor Arroyo-Rodríguez. 2025. Manual de redacción científica: cómo escribir manuscritos de forma eficiente y efectiva. 1.ª ed. electrónica en PDF. Ciudad de México: Universidad Nacional Autónoma de México (UNAM). ISBN 978-607-587-923-9.

Texto completo

El manual constituye una obra de referencia destinada a cubrir una carencia estructural en la formación universitaria y de posgrado: la ausencia de una enseñanza sistemática sobre cómo escribir textos científicos publicables. Los autores parten de la constatación de que, aunque la publicación científica es un eje central de la carrera académica —tanto como mecanismo de difusión del conocimiento como indicador de productividad profesional—, la mayoría de los investigadores aprende a escribir “sobre la marcha”, bajo presión y mediante un proceso de ensayo y error que suele resultar frustrante. Frente a este panorama, el manual se propone como un “instructivo de navegación” que acompaña al lector desde las etapas previas a la escritura hasta el envío del manuscrito y la gestión del rechazo editorial, combinando reflexión conceptual, orientación práctica y una notable voluntad pedagógica.

Uno de los aportes centrales del libro es la distinción entre redacción eficiente y redacción efectiva. La eficiencia se entiende como la capacidad de escribir de manera organizada, económica en tiempo y energía, reduciendo el desgaste emocional que suele acompañar al proceso de escritura científica. La efectividad, en cambio, se refiere a la capacidad del texto para cumplir su objetivo principal: predisponer favorablemente a editores y revisores, atraer lectores y aumentar el impacto del trabajo en términos de lectura y citación. Desde esta doble perspectiva, los autores insisten en que escribir bien no es un talento innato reservado a unos pocos, sino una habilidad que puede aprenderse y perfeccionarse mediante estrategias concretas y práctica constante. Aunque el manual tiene un sesgo hacia las ciencias biológicas y, en particular, la ecología, sus principios son presentados como ampliamente transferibles a otras disciplinas científicas.

El manual subraya que publicar artículos científicos cumple una función esencial en el avance del conocimiento, ya que permite comunicar resultados, contrastar hipótesis, evitar la duplicación de esfuerzos y estimular nuevas líneas de investigación. Al mismo tiempo, reconoce abiertamente las dimensiones más “egoístas” de la publicación, vinculadas al progreso profesional, la obtención de financiación y el reconocimiento académico. Los autores reivindican, además, el carácter creativo de la escritura científica y la legítima satisfacción asociada a la producción intelectual, estableciendo un paralelismo con otras formas de creación cultural. Un mensaje clave atraviesa esta sección inicial: nadie está obligado a leer un artículo científico, por lo que es responsabilidad del autor hacer que su trabajo resulte relevante, claro y atractivo.

Las fuentes fabricadas por IA socavan la confianza y hacen perder el tiempo a los investigadores.

Aquí tienes la traducción de los textos y globos de la imagen, organizada por paneles:

Panel 1 (Arriba a la izquierda)

  • Encabezado: La IA está creando revistas falsas, y los investigadores están pagando el precio.
  • En el robot: IA
  • Globo del robot: Mira esta investigación de la Revista de Socorro Internacional.

Panel 2 (Arriba a la derecha)

  • Encabezado: Las solicitudes generadas por IA para citas falsas inundan las bibliotecas.
  • Mujer: ¿Puedo conseguir este artículo?
  • Bibliotecario: Lo siento, no puedo encontrarlo…

Panel 3 (Centro a la izquierda)

  • Encabezado: Pasos a seguir:
    1. Usa fuentes oficiales.
    2. Verifica las citas de la IA.
    3. Divulga el uso de la IA.

Panel 4 y 5 (Centro derecha y abajo)

  • Encabezado: Las fuentes fabricadas por IA socavan la confianza y hacen perder el tiempo a los investigadores.

La presión sobre la publicación científica en la era de la sobreproducción académica

Hanson, Mark A., Pablo Gómez Barreiro, Paolo Crosetto, y Dan Brockington. 2024. “The Strain on Scientific Publishing.” Quantitative Science Studies 5 (4): 823–843. https://doi.org/10.1162/qss_a_00327

El artículo analiza la presión creciente que sufre la publicación científica como consecuencia del aumento acelerado del número de artículos que se publican cada año. Aunque la producción de conocimiento científico se ha expandido de forma notable, el número de investigadores capaces de leer, evaluar y revisar ese volumen de trabajos no ha crecido al mismo ritmo, lo que genera una sobrecarga estructural en todo el sistema editorial académico.

Los autores muestran que, en la última década, las bases de datos científicas han registrado un incremento muy significativo del número de artículos indexados. Este crecimiento ha intensificado las exigencias para los investigadores, que no solo deben producir más publicaciones, sino también dedicar una cantidad cada vez mayor de tiempo a tareas como la lectura y la revisión por pares. Como resultado, el sistema de “publicar o perecer” se vuelve más exigente y menos sostenible. Así, el número de artículos indexados en bases como Scopus y Web of Science se ha incrementado de forma exponencial en los últimos años, con un aumento de alrededor del 47 % entre 2016 y 2022.

Mientras que las grandes editoriales tradicionales (como Elsevier o Springer) han aumentado su producción de manera moderada, otras —especialmente aquellas que dependen de modelos de acceso abierto con cargos por procesamiento de artículos (APC) como MDPI y Frontiers— han visto incrementos marcados en artículos por revista y en la proporción de publicaciones a través de special issues o números especiales. Esto sugiere que las estrategias editoriales específicas pueden estar impulsando parte de la expansión de contenidos.

El trabajo propone una serie de métricas para analizar esta tensión, entre ellas el aumento del volumen total de artículos, el uso creciente de números especiales, los tiempos de evaluación editorial, las tasas de rechazo y la evolución de las métricas de impacto. Estas medidas permiten observar cómo las prácticas editoriales han cambiado y cómo algunas estrategias contribuyen a acelerar la publicación sin que ello garantice una mejora en la calidad científica.

Uno de los hallazgos más relevantes es que ciertos modelos editoriales, especialmente aquellos basados en el acceso abierto financiado mediante cargos por publicación, han impulsado un crecimiento muy rápido del número de artículos por revista. En algunos casos, este crecimiento se apoya en un uso intensivo de números especiales, lo que puede facilitar procesos editoriales más rápidos y homogéneos, pero también suscita dudas sobre el rigor de la revisión por pares.

El análisis de los tiempos de aceptación muestra que algunas revistas publican artículos con gran rapidez y con escasa variación entre los plazos de revisión, lo que sugiere procesos altamente estandarizados. Aunque la rapidez no implica necesariamente baja calidad, los autores señalan que esta tendencia puede aumentar la presión sobre revisores y editores y reducir la capacidad de evaluación crítica en profundidad.

En relación con las tasas de rechazo, el estudio revela que no existe un patrón único: algunas editoriales mantienen niveles altos, mientras que otras los reducen o los estabilizan. Esto indica que el aumento de publicaciones no responde a una lógica uniforme, sino a decisiones editoriales específicas que influyen directamente en la carga global del sistema.

El artículo también aborda la inflación de las métricas de impacto, mostrando cómo el aumento generalizado de citas puede distorsionar la percepción de calidad científica. La dependencia excesiva de indicadores bibliométricos refuerza comportamientos estratégicos por parte de investigadores y revistas, orientados a maximizar visibilidad y rendimiento cuantitativo más que a fortalecer la solidez del conocimiento producido.

En sus conclusiones, los autores sostienen que la tensión en la publicación científica no es consecuencia de un único factor, sino del encaje problemático entre incentivos académicos, modelos de negocio editoriales y sistemas de evaluación de la investigación. Para aliviar esta presión, consideran necesario repensar las políticas de evaluación, mejorar la transparencia editorial y reducir la dependencia de métricas basadas exclusivamente en el volumen de publicaciones.

Crisis en la calidad de publicaciones científicas: volumen vs. valor

Sample, Ian. “Quality of Scientific Papers Questioned as Academics ‘Overwhelmed’ by the Millions Published.The Guardian, Jul 13, 2025. https://www.theguardian.com/science/2025/jul/13/quality-of-scientific-papers-questioned-as-academics-overwhelmed-by-the-millions-published

La calidad de los artículos científicos está siendo seriamente cuestionada, ya que los académicos se encuentran desbordados por los millones de estudios que se publican cada año, una saturación que amenaza la integridad y la fiabilidad del sistema científico a escala global.

Un artículo en una revista científica que se hizo viral no por su ciencia, sino por una imagen generada por inteligencia artificial que mostraba una rata con un pene enorme y etiquetada con palabras sin sentido. Esa imagen pasó desapercibida por revisores y editores y llevó a que el artículo fuese retirado tres días después de su publicación, poniendo de manifiesto fallos en los procesos de revisión y control.

El texto recuerda que las revistas científicas no son simples repositorios académicos: condicionan decisiones médicas, políticas públicas, desarrollos tecnológicos y estrategias geopolíticas, incluso estimaciones de víctimas en conflictos armados. Desde el siglo XVII —cuando la Royal Society inició la publicación continuada de revistas científicas—, estos espacios han sido centrales para el avance del conocimiento, acogiendo trabajos de figuras como Newton, Darwin, Einstein o Marie Curie.

Sin embargo, los datos muestran que la cantidad de artículos científicos indexados ha crecido de forma exponencial: por ejemplo, en la base de datos Web of Science los estudios aumentaron de 1,71 millones en 2015 a 2,53 millones en 2024, y sumando otros tipos de artículos el total ronda más de 3 millones al año. Esta expansión ha superado con creces el crecimiento del número de investigadores y la capacidad de la comunidad científica para leer, revisar y valorar críticamente todos esos trabajos.

El sistema de evaluación por pares —el sistema en el que científicos expertos revisan artículos antes de su publicación— está cada vez más estresado. Revisar millones de artículos requiere tiempo, y muchos académicos están «agotados» por la carga de trabajo voluntario que supone revisar textos para otros investigadores. Este estrés contribuye a que errores, contenidos de baja calidad o incluso fraudes pasen desapercibidos, lo que debilita la confianza en los resultados publicados. Según un estudio reciente, solo en 2020, los académicos de todo el mundo dedicaron más de 100 millones de horas a la revisión por pares de artículos para revistas. En el caso de los expertos de Estados Unidos, el tiempo dedicado a la revisión ese año supuso más de 1500 millones de dólares en mano de obra gratuita.

Una causa fundamental es el conjunto de incentivos académicos y comerciales que priorizan cantidad sobre calidad:

  • Los investigadores compiten por publicar más y más artículos para avanzar en su carrera (“publish or perish”), lo que puede llevar a trabajos fragmentados, poco sustanciales o exagerados.
  • Las editoriales científicas comerciales obtienen grandes beneficios de los modelos de acceso abierto con tasas por publicación, lo que puede fomentar la proliferación de textículos académicos y revistas especializadas que aceptan prácticamente cualquier envío.

El artículo destaca que estas dinámicas han creado un sistema que incentiva la producción masiva de estudios aunque muchos aporten poco conocimiento nuevo o incluso errores, algo que preocupa a científicos de alto nivel, incluidos premios Nobel y sociedades científicas.

Varios expertos y organizaciones están pidiendo reformas profundas. Entre las propuestas que circulan en el debate público y académico están:

  • Reformar el sistema de evaluación de investigadores para valorar calidad sobre cantidad.
  • Repensar el rol y modelo de negocio de las editoriales, reduciendo la dependencia de tarifas por publicación y fomentando modelos de acceso y revisión más sostenibles.
  • Incrementar el uso de herramientas y métodos que mejoren la calidad de la revisión por pares y detecten malas prácticas, incluidos fraudes y contenidos generados de forma automatizada.

La IA ha acelerado la producción de artículos y podido generar textos e imágenes científicas que no siempre son verificados adecuadamente. Esto alimenta temores de que herramientas como modelos de lenguaje puedan ser utilizadas para generar artículos de baja calidad o manipular revisiones si no se establecen mejores salvaguardas de integridad.

Frontiers FAIR² Data Management recupera la ciencia perdida: cómo la IA transforma los datos invisibles en conocimiento reutilizable

Frontiers. “90% of Science Is Lost. This New AI Just Found It.” ScienceDaily, October 13, 2025. https://www.sciencedaily.com/releases/2025/10/251013040314.htm

Una gran cantidad de datos de investigación valiosos permanecen sin utilizar, atrapados en laboratorios o perdidos en el tiempo. Frontiers pretende cambiar esta situación con FAIR Data Management, un innovador sistema impulsado por IA que hace que los conjuntos de datos sean reutilizables, verificables y citables. Al unir la curación, el cumplimiento, la revisión por pares y la visualización interactiva en una sola plataforma, FAIR² permite a los científicos compartir su trabajo de forma responsable y obtener reconocimiento.

La gran mayoría de los datos generados nunca se reutilizan ni contribuyen de forma significativa a nuevos descubrimientos. Según la evaluación citada, una proporción abrumadora de datos —hasta un 90 %— queda atrapada en laboratorios, no se comparte adecuadamente o se pierde en archivos inaccesibles, lo que frena el progreso en áreas críticas como la medicina, el cambio climático y la tecnología. Este desperdicio de información no solo reduce la eficiencia de la investigación global, sino que también limita la reproducibilidad de los estudios y la capacidad de construir sobre trabajos previos, una componente fundamental del método científico moderno.

Para enfrentar este desafío, la editorial y organización científica Frontiers ha desarrollado un sistema innovador denominado Frontiers FAIR² Data Management, que combina herramientas avanzadas de inteligencia artificial con principios sólidos de gestión de datos. El objetivo principal de esta plataforma es aplicar de manera automatizada y a gran escala los principios FAIR (findable, accessible, interoperable, reusable — en español: localizable, accesible, interoperable y reutilizable) y expandirlos en un marco que garantice la compatibilidad con sistemas de IA y la integridad ética de los conjuntos de datos. Al integrar procesos de curación, revisión por pares, visualización interactiva y certificación dentro de un único sistema impulsado por IA, FAIR² pretende transformar conjuntos de datos “perdidos” en recursos útiles y citables que puedan impulsar nuevas investigaciones, acelerar descubrimientos y reconocer adecuadamente el trabajo de los investigadores.

El funcionamiento práctico de FAIR² va más allá de simplemente archivar datos. Cuando un científico somete sus resultados a este sistema, no solo se asegura de que los datos sean estructurados y completos, sino que también recibe una salida múltiple: un paquete de datos certificado, un artículo de datos revisado y citable, herramientas de visualización interactiva y un certificado FAIR² que respalda la calidad y reutilización del conjunto. Esta estrategia integral busca eliminar las barreras tradicionales para el intercambio de datos y fomentar una cultura científica en la que cada conjunto de datos tenga el potencial de generar conocimiento adicional, reducir el tiempo entre descubrimiento y aplicación práctica, y asegurar que las inversiones en investigación rindan un impacto mucho mayor del que logran actualmente.