Los 25 artículos científicos más citados desde el año 2000 tienen que ver con métodos, revisiones o software

Pearson, Helen, Heidi Ledford, Matthew Hutson, y Richard Van Noorden. “Exclusive: The Most-Cited Papers of the Twenty-First Century.Nature, April 10, 2025. https://www.nature.com/articles/d41586-025-01125-9.​

Las citas en la literatura científica son una manera de reconocer el uso e influencia de investigaciones previas. Sin embargo, los artículos más citados no suelen ser los más conocidos por el público general, sino que tienden a ser herramientas metodológicas, revisiones sistemáticas o descripciones de software ampliamente utilizado. Según Misha Teplitskiy, sociólogo de la Universidad de Míchigan, aunque los científicos afirman valorar teorías y descubrimientos empíricos, lo que realmente citan con más frecuencia son los métodos.

La revista Nature ha realizado un análisis exhaustivo sobre los 25 artículos científicos más citados desde el año 2000, revelando qué estudios han tenido mayor impacto medido por el número de citas, y por qué han alcanzado tal relevancia. Sorprendentemente, muchos de los artículos más citados no están relacionados con los descubrimientos más espectaculares —como las vacunas de ARNm, CRISPR, el bosón de Higgs o las ondas gravitacionales—, sino con métodos, software, estadísticas y herramientas que sustentan el trabajo científico diario.

El artículo más citado, según la media de cinco bases de datos académicas (Web of Science, Scopus, OpenAlex, Dimensions y Google Scholar), es un trabajo de 2016 de investigadores de Microsoft sobre aprendizaje residual profundo (ResNet), una arquitectura de red neuronal con más de 150 capas. Esta innovación resolvió problemas de entrenamiento en redes muy profundas y allanó el camino para avances como AlphaGo, AlphaFold o ChatGPT. Dependiendo de la base de datos, sus citas oscilan entre 103.000 y más de 250.000.

Rank (median)CitationTimes Cited (range across databases)
1Deep residual learning for image recognition (2016, preprint 2015)103.756–254,074
2Analysis of relative gene expression data using real-time quantitative PCR and the 2–ΔΔCT method (2001)149.953–185,480
3Using thematic analysis in psychology (2006)100.327–230,391
4Diagnostic and Statistical Manual of Mental Disorders, DSM-5 (2013)98,312–367,800
5A short history of SHELX (2007)76.523–99,470
6Random forests (2001)31.809–146,508
7Attention is all you need (2017)56.201–150,832
8ImageNet classification with deep convolutional neural networks (2017)46.860–137,997
9Global cancer statistics 2020: GLOBOCAN estimates of incidence and mortality worldwide for 36 cancers in 185 countries (2020)75.634–99,390
10Global cancer statistics 2018: GLOBOCAN estimates of incidence and mortality worldwide for 36 cancers in 185 countries (2016)66.844–93,433

Supplementary information

Otros artículos destacados incluyen el DSM-5 (manual diagnóstico de psiquiatría), el algoritmo de Random Forests (utilizado en machine learning), y GLOBOCAN, un informe bianual de la OMS sobre estadísticas globales de cáncer.

Los artículos sobre IA dominan el ranking. El trabajo de Hinton en 2012 sobre AlexNet, que revolucionó el reconocimiento de imágenes, ocupa el puesto 8. El artículo de 2017 “Attention is all you need”, que introdujo la arquitectura transformer que impulsa modelos de lenguaje como ChatGPT, está en el puesto 7. El artículo sobre Random Forests, método estadístico muy utilizado y accesible, está en el puesto 6.

La comunidad de IA también se ha beneficiado de la cultura del código abierto y del uso extendido de preprints, aunque muchas bases de datos aún no integran adecuadamente las citas entre versiones preliminares y artículos revisados.

Muchos artículos populares describen software científico. Uno de ellos es el artículo sobre SHELX (puesto 5), un conjunto de programas para determinar estructuras moleculares mediante difracción de rayos X, escrito por George Sheldrick. Otro caso es DESeq2, software para analizar datos de secuenciación de ARN (puesto 18). Estos artículos se citan por su utilidad más que por su novedad teórica.

El caso del artículo en el puesto 2 es paradigmático: Thomas Schmittgen publicó el método 2–ΔΔCT porque un revisor le dijo que no podía citar un manual técnico. Hoy acumula más de 160.000 citas.

Los informes GLOBOCAN de 2018 y 2020 están entre los diez primeros. Son herramientas esenciales para investigadores y responsables de políticas públicas. Otro trabajo clave (puesto 19) es el artículo sobre las “marcas distintivas del cáncer” (hallmarks of cancer), que ayudó a estructurar la investigación oncológica contemporánea.

El análisis muestra que el impacto en la ciencia no depende solo de grandes descubrimientos, sino de herramientas que permiten a otros investigar con más precisión, fiabilidad y alcance. El auge de la inteligencia artificial, el desarrollo de software y los métodos estadísticos dominan las citas, destacando cómo la ciencia avanza no solo por lo que descubre, sino por cómo lo hace.

La MIT desarrolla un método para que los modelos de lenguaje de IA se autocorrijan y generen respuestas más seguras y ética

Hinkel, Lauren. 2025. «Training LLMs to Self-Detoxify Their LanguageMIT News, April 14, 2025. https://news.mit.edu/2025/training-llms-self-detoxify-their-language-0414

Un nuevo método del laboratorio de IA MIT-IBM Watson ayuda a los grandes modelos lingüísticos a dirigir sus propias respuestas hacia resultados más seguros, éticos y alineados con los valores.

Un equipo del MIT-IBM Watson AI Lab ha desarrollado un nuevo método llamado Self-Disciplined Autoregressive Sampling (SASA) que permite a los modelos de lenguaje de gran tamaño (LLMs) reducir por sí mismos la generación de contenido tóxico o no deseado. Lo novedoso de esta técnica es que no requiere modificar el modelo base, ni reentrenarlo, ni usar sistemas externos de recompensa. En cambio, SASA actúa directamente durante el proceso de generación del texto, evaluando cada palabra potencial antes de seleccionarla para asegurar que el resultado final se mantenga dentro de un lenguaje seguro y éticamente aceptable.

Los modelos de lenguaje se entrenan con grandes cantidades de datos tomados de internet, lo que implica que inevitablemente absorben lenguaje ofensivo, sesgado o perjudicial. Esto puede llevar a que generen respuestas tóxicas incluso a partir de solicitudes inocentes. SASA aborda este problema mediante un enfoque innovador: establece una frontera entre el lenguaje tóxico y el no tóxico dentro del espacio interno del modelo (específicamente, en su representación de palabras o embeddings). Cuando el modelo va generando una frase palabra por palabra, SASA calcula qué tan cercana está cada palabra candidata a cruzar esa frontera, y favorece aquellas que mantienen el contenido en el lado no tóxico.

Para lograr esto, los investigadores crearon un clasificador lineal que analiza el contexto de las frases a partir de datos etiquetados con niveles de toxicidad. De esta forma, pueden determinar si una frase parcial (por ejemplo, los primeros 11 términos de una oración) se acerca a un resultado problemático cuando se le añade una determinada palabra número 12. SASA ajusta entonces las probabilidades de elección de esa palabra, penalizando las opciones que aumentarían la toxicidad y premiando las más seguras, pero sin perder la coherencia gramatical o semántica del texto.

Los investigadores probaron SASA en varios modelos populares como GPT-2 Large, LLaMA 2-7B y LLaMA 3.1-8B-Instruct, usando conjuntos de datos diseñados para evaluar toxicidad, sesgos y lenguaje ofensivo. En los experimentos, SASA logró reducir notablemente tanto la cantidad como la intensidad del lenguaje tóxico generado, sin afectar demasiado la fluidez del texto. Además, mostró ser útil para equilibrar desigualdades, como cuando los modelos tendían a generar más contenido tóxico en respuestas asociadas a mujeres que a hombres.

Una de las principales ventajas de SASA es que es un método ligero, rápido y adaptable. A diferencia de otras técnicas que requieren modificar o reentrenar el modelo —algo costoso y que puede afectar su rendimiento general—, SASA simplemente actúa como una especie de “guía interna” durante la generación de texto. Además, puede extenderse fácilmente para alinear los modelos con otros valores humanos, como la veracidad, la ayuda o la lealtad. Según su autora principal, Irene Ko, la idea no es evitar que los modelos conozcan el lenguaje dañino, sino que aprendan a reconocerlo y elegir no usarlo, del mismo modo que hacemos los seres humanos.

SASA representa un paso importante hacia modelos de lenguaje más seguros, éticos y controlables, permitiendo que mantengan su poder expresivo sin dejar de respetar principios fundamentales de convivencia y responsabilidad comunicativa.

La transformación inminente de la investigación: enfrentando el iceberg de la inteligencia artificial

Daley, Mark. «What We Really Need Is a ‘Deck Chair Configuration’ Committee… Facing the Uncomfortable AI Research Iceberg Noetic Engines, February 11, 2025. https://noeticengines.substack.com/p/what-we-really-need-is-a-deck-chair

Se aborda de manera crítica la tendencia actual en la investigación sobre la inteligencia artificial (IA), que se ha centrado en adoptar la IA de forma incremental, mejorando herramientas existentes, como la corrección de textos o la gestión de referencias. Aunque estas mejoras son útiles, Daley argumenta que estas pequeñas modificaciones son apenas la punta del iceberg de lo que la IA puede ofrecer en el ámbito de la investigación, y que en realidad estamos al borde de una transformación mucho más profunda.

Daley menciona el estudio Wiley ExplanAItions, que concluye que en un par de años, la IA ayudará a los investigadores a realizar tareas como resumir artículos más rápidamente o generar citas más precisas. Sin embargo, esta visión de la IA se queda corta al no considerar los avances que ya están ocurriendo. Según el autor, la verdadera revolución no está solo en mejorar las herramientas actuales, sino en que la IA está avanzando hacia un futuro en el que será capaz de ejecutar todo el proceso de investigación de manera autónoma en ciertos campos. Esto incluye la capacidad de generar nuevas hipótesis, diseñar y realizar experimentos complejos, analizar los datos y generar conclusiones escritas que podrían ser sometidas a una revisión por pares.

El autor resalta que este cambio ya es una realidad, mencionando ejemplos concretos, como el uso de la IA o1-pro en la investigación económica, que permitió a un investigador realizar un trabajo con suficiente novedad y mérito para ser publicado en una revista científica. Además, se menciona cómo otras aplicaciones de IA ya están escribiendo tesis de doctorado, lo que implica que las herramientas de IA no solo están mejorando la eficiencia de los investigadores, sino que están comenzando a reemplazar ciertas habilidades humanas clave en el proceso de investigación.

Daley advierte que centrarse únicamente en soluciones a corto plazo, como la mejora de la corrección de citas, sin tener en cuenta el potencial transformador de la IA, es comparable a centrarse en la mejora de un establo de caballos cuando los automóviles están a punto de hacer obsoleta esa industria. En su opinión, la IA está avanzando rápidamente más allá de tareas secundarias y está comenzando a asumir tareas que históricamente solo podían ser realizadas por seres humanos, como la formulación de hipótesis y el diseño de experimentos.

En cuanto a las implicaciones éticas, el artículo menciona la necesidad de replantear la forma en que la academia aborda la IA. Aunque los investigadores y líderes académicos a menudo subestiman la velocidad y el impacto de estos cambios, Daley subraya que esperar hasta que la IA esté realizando investigaciones completas será un error, ya que para ese momento podría ser demasiado tarde para desarrollar políticas y estructuras adecuadas que garanticen la integridad académica y la calidad de la investigación.

Finalmente, Daley hace una llamada a la acción por parte de la academia. En lugar de conformarse con pequeños avances y adaptaciones, el autor insta a los académicos a prepararse para una transformación profunda de la investigación científica. Esto no significa que los investigadores humanos desaparezcan, sino que deberán adaptarse y trabajar junto con la IA de una manera más integral. La clave será anticiparse a los cambios y reestructurar cómo se lleva a cabo, se evalúa y se recompensa la investigación en este nuevo ecosistema impulsado por la IA.

Librarians: documental sobre la censura de libros y el ataque a las bibliotecas

Snyder, Kim A. Librarians. 2024. IMDb. https://www.imdb.com/es-es/title/tt34966678/

A través de las historias de bibliotecarios comprometidos y valientes, el documental ofrece una reflexión crucial sobre lo que está en juego cuando se intenta restringir el acceso al conocimiento, especialmente en una época en la que las discusiones sobre la libertad de expresión son más relevantes que nunca.

El documental Librarians de Kim A. Snyder aborda una de las cuestiones más controvertidas y actuales en la cultura estadounidense: la censura de libros y el ataque a las bibliotecas como centros de libre acceso a la información. El enfoque del documental es profundamente personal y humano, centrándose en los bibliotecarios que han estado en la primera línea de resistencia contra la prohibición de libros, un tema especialmente relevante en los últimos años, particularmente en el contexto de políticas educativas en varios estados de EE. UU.

La historia de Librarians se inicia en Texas, un estado que ha sido escenario de numerosas batallas en torno a la censura de libros, pero rápidamente se expande a Florida, donde las tensiones aumentaron en 2024 cuando se retiraron libros que trataban sobre diversidad de género de las estanterías de las bibliotecas de las escuelas, algunos de los cuales fueron incluso destruidos. En este contexto, el documental captura la valentía de los bibliotecarios que desafían estas restricciones, a menudo arriesgando sus empleos, y presenta un retrato profundo de su lucha por proteger la libertad de expresión y el derecho a la educación.

El documental es especialmente significativo debido a su ubicación en Florida, que se ha convertido en un punto caliente en el debate sobre la censura de libros. En 2024, la ciudad de Sarasota, donde se realizó parte de la proyección del documental, vivió una controversia relacionada con la eliminación de libros considerados «inapropiados» en las bibliotecas locales, lo que le dio un aire de ironía al hecho de que el documental fuera proyectado en una universidad que había experimentado tales eventos. Esta conexión no pasa desapercibida para los realizadores ni para el público, lo que le otorga al proyecto una dimensión crítica y reflexiva sobre los desafíos de la libertad de información.

Los bibliotecarios que aparecen en Librarians son presentados no solo como figuras de resistencia ante la censura, sino también como los defensores del acceso a los conocimientos diversos y del derecho a la educación. El documental destaca sus historias personales, que van desde aquellos que enfrentan cargos criminales por sus acciones hasta aquellos que simplemente no pueden permanecer en silencio ante la injusticia de los intentos por suprimir la literatura. A lo largo de la película, se expone la desconcertante paradoja de que, mientras que los bibliotecarios son vistos tradicionalmente como guardianes neutrales del saber, ahora se ven forzados a actuar como defensores activos de los derechos civiles en un clima cada vez más polarizado.

El mensaje principal del documental es el papel esencial que juegan las bibliotecas y sus empleados en la preservación de la democracia. Los jurados del festival de cine de Sarasota, al otorgar el Premio del Jurado al Mejor Documental a Librarians, declararon que, en un momento en que diversas instituciones como universidades, bufetes de abogados y medios de comunicación están cediendo ante presiones externas, los bibliotecarios se han erigido como «improbables primeros respondedores» en la defensa de la democracia y la libertad de leer. Esta afirmación subraya la relevancia del trabajo de los bibliotecarios en la defensa de los valores fundamentales de la libertad de expresión y el acceso a la información, incluso cuando esos valores se ven amenazados.

AI Index 2025: impacto creciente de la inteligencia artificial en la sociedad, la economía, la educación y la ciencia

Stanford Institute for Human-Centered Artificial Intelligence (HAI). 2025. The AI Index Report 2025. Stanford University, 2025

Texto completo

El informe AI Index 2025 analiza el impacto creciente de la inteligencia artificial en la sociedad, la economía, la educación y la ciencia, ofreciendo datos objetivos para informar a líderes políticos, empresas y ciudadanos.

La influencia de la inteligencia artificial (IA) en la sociedad nunca ha sido tan pronunciada. En el Stanford HAI, se considera que la IA está destinada a ser la tecnología más transformadora del siglo XXI. Sin embargo, sus beneficios no se distribuirán de manera equitativa a menos que se guíe su desarrollo de manera reflexiva. El AI Index ofrece una de las visiones más completas y basadas en datos de la inteligencia artificial. Reconocido como un recurso confiable por medios globales, gobiernos y empresas líderes, el AI Index proporciona a los responsables políticos, líderes empresariales y al público en general información rigurosa y objetiva sobre el progreso técnico de la IA, su influencia económica y su impacto social.

  1. Mejoras destacadas en el rendimiento
    Los sistemas de IA superaron significativamente los nuevos estándares de evaluación como MMMU, GPQA y SWE-bench. En programación, algunos modelos superaron a los humanos en un tiempo limitado.
  2. Aumenta la integración en la vida cotidiana
    La IA se utiliza cada vez más en sectores como la sanidad y el transporte. La FDA aprobó 223 dispositivos médicos con IA en 2023. Waymo ofrece más de 150.000 viajes autónomos semanales y Baidu amplía su flota de robotaxis en China.
  3. El auge empresarial de la IA
    Inversión privada en IA en EE.UU. UU. alcanzó los 109.100 millones de dólares, muy por encima de China y Reino Unido. El 78% de las organizaciones utilizarán IA en 2024, en comparación con el 55% en 2023. Hay un impacto positivo en la productividad y la reducción de las brechas de habilidades.
  4. Liderazgo en EE. UU. y el ascenso de China
    EE. UU. Produzco 40 modelos destacados en 2024, en comparación con 15 en China. Sin embargo, China está cerrando rápidamente la brecha de calidad, además de liderar en publicaciones y patentes.
  5. Avances desiguales en la IA responsable
    A medida que aumentan los incidentes relacionados con la IA, pocos desarrolladores aplican evaluaciones estandarizadas. Nuevos hitos como HELM Safety y AIR-Bench ayudan, pero las acciones concretas en las empresas siguen siendo limitadas. Por el contrario, los gobiernos están intensificando su regulación.
  6. Optimismo global desigual
    Países asiáticos como China (83%) e Indonesia (80%) ven la IA como algo positivo, mientras que en EE. UU. UU. y Canadá sólo el 39-40%. Como resultado, la percepción está mejorando en países anteriormente escépticos como Alemania y Francia.
  7. Mayor eficiencia y accesibilidad
    El costo de inferencia de modelos como GPT-3.5 ha disminuido más de 280 veces a lo largo de los años. También reduce los costos de hardware y mejora la eficiencia energética. Los modelos de código abierto se están acercando en rendimiento a los cerrados.
  8. Regulación e inversión estatal
    EE. UU. emitió 59 regulaciones sobre IA en 2024, más del doble que en 2023. Otros países también están intensificando fuertemente: China (47.500 millones de dólares), Arabia Saudita (100.000 millones de dólares), Francia (109.000 millones de euros), entre otros.
  9. La educación en IA se está expandiendo, pero con brechas
    El 66% de los países ofrecen o planean ofrecer educación informática primaria/secundaria, con avances importantes en África y América Latina. Sin embargo, persisten problemas de infraestructura y de formación docente.
  10. La industria domina el desarrollo de modelos
    El 90% de los modelos destacados provienen del sector industrial. A medida que las universidades continúan liderando la investigación, la competencia en el desarrollo de modelos se intensifica.
  11. Reconocimiento científico
    La IA ha sido galardonada con el Premio Nobel (física y química) y un Premio Turing, en reconocimiento a su impacto en áreas como el aprendizaje profundo y el procesamiento de proteínas.
  12. Limitaciones del razonamiento comprensivo
    A pesar de los avances, los modelos de IA aún fallan en tareas de lógica compleja y razonamiento estructurado, lo que limita su aplicación en contextos críticos donde la precisión es vital.

Anthropic anuncia que Claude ya puede acceder a Gmail, Google Calendar y Google Docs

Zeff, Maxwell. 2025. “Anthropic’s Claude Can Now Read Your Gmail.TechCrunch, April 15, 2025. https://techcrunch.com/2025/04/15/anthropics-claude-now-read-your-gmail/

Anthropic informó que su chatbot de inteligencia artificial, Claude, ahora se integra con Google Workspace, permitiéndole acceder a correos electrónicos en Gmail, eventos programados en Google Calendar y documentos en Google Docs.

Esta funcionalidad está en fase beta y está disponible para los suscriptores de los planes Max, Team, Enterprise y Pro. Para las cuentas corporativas, será necesario que los administradores activen previamente la integración.

Con esta nueva herramienta, Claude se posiciona como uno de los primeros chatbots de terceros que se conectan profundamente con el ecosistema de productividad de Google, en competencia directa con Gemini de Google DeepMind y ChatGPT de OpenAI (este último ya permite acceso a archivos de Google Drive).

La integración busca ofrecer respuestas personalizadas sin necesidad de que el usuario suba archivos o escriba indicaciones complejas. Claude podrá escanear correos y calendarios, por ejemplo, para ayudar a padres a identificar compromisos importantes y buscar información relevante como calendarios escolares, eventos comunitarios o pronósticos del tiempo.

Uno de los aspectos más destacados es que Claude ofrecerá citas en línea (inline citations), mostrando al usuario la fuente precisa de la información que utiliza desde Google Workspace.

Sin embargo, esta funcionalidad también ha generado preocupaciones sobre la privacidad y seguridad de los datos, ya que no está completamente claro el alcance de la búsqueda que Claude puede realizar en los contenidos del usuario. Por ejemplo, no se especifica si Claude necesita instrucciones explícitas para acceder a ciertos correos o si puede consultar datos sensibles automáticamente. Tampoco se ha aclarado si el usuario puede restringir el acceso a determinados archivos.

En respuesta a estas inquietudes, un portavoz de Anthropic aseguró que la empresa no utiliza los datos de los usuarios para entrenar sus modelos, y que ha implementado mecanismos rigurosos de autenticación y control de acceso. Cada conexión con servicios externos está ligada exclusivamente al usuario o institución correspondiente y Claude no puede compartir información entre cuentas.

Además de esta integración, Anthropic lanzó también una nueva función llamada Claude Research, un sistema de búsqueda profunda que realiza múltiples consultas web para ofrecer respuestas detalladas. Esta herramienta compite directamente con los agentes de investigación avanzados de OpenAI y Google, y promete un equilibrio óptimo entre velocidad y exhaustividad. Según la compañía, las búsquedas de Claude Research tardan menos de un minuto en completarse.

Claude Research está disponible inicialmente en Estados Unidos, Japón y Brasil para usuarios de los planes Max, Team y Enterprise, y llegará próximamente a los suscriptores del plan Pro.

Ambas novedades se enmarcan en la estrategia de Anthropic para atraer nuevos usuarios a sus planes de suscripción. Aunque Claude ha ganado popularidad —con 3,3 millones de usuarios web en marzo de 2025—, su base de usuarios aún es considerablemente más pequeña que la de ChatGPT.

10 razones por las que la revista científica no se adapta a las nuevas formas de hacer y comunicar ciencia en el siglo XXI

Worlock, David. 2025. “10 Reasons Why the Science Research Journal Has Passed Its Sell-by Date.” David Worlock, April 2025. https://www.davidworlock.com/2025/04/10-reasons-why-the-science-research-journal-has-passed-its-sell-by-date/

El autor propone una revisión profunda y urgente del modelo actual, denunciando no solo su ineficacia y costes, sino también su incapacidad para adaptarse a las nuevas formas de hacer y comunicar ciencia en el siglo XXI.

Se recogen una reflexión crítica presentada durante una conferencia reciente del UKSG en Brighton. El autor, uno de los participantes en un debate junto con representantes de Elsevier y Coherent Digital, expone diez argumentos que justifican su afirmación de que el sistema de publicación científica, tal como lo conocemos, necesita una transformación profunda.

El sistema de publicación científica ha quedado anclado en estructuras del pasado, reproduciendo en digital las limitaciones del mundo impreso. La irrupción de la inteligencia artificial promete cambiar radicalmente este panorama, automatizando procesos, eliminando intermediarios innecesarios y creando un nuevo ecosistema de comunicación científica más ágil, accesible y confiable.

  1. El acceso abierto ya no cumple su promesa
    El modelo de acceso abierto (open access), que en su origen pretendía reducir barreras y costos para que el conocimiento científico fuera más accesible, ha comenzado no solo a estancarse, sino incluso a retroceder. Su funcionamiento basado en el volumen de publicaciones ha generado desconfianza, pues antepone la cantidad a la calidad. Irónicamente, lo que debía ser una alternativa más económica, ahora está siendo rechazado precisamente por sus elevados costes.
  2. La revisión por pares está en crisis
    El sistema de revisión por pares, que históricamente ha sido la piedra angular de la credibilidad científica, se encuentra quebrado. Cada vez más investigadores, entidades financiadoras y usuarios pierden la confianza en este mecanismo. Su lentitud, falta de transparencia y vulnerabilidad ante fraudes han generado una creciente deslegitimación del proceso.
  3. Falta un sistema centralizado de retracciones
    Existe una carencia grave de transparencia en lo que respecta a las retractaciones de artículos científicos. Los usuarios no disponen de un índice centralizado ni fiable para consultar qué artículos han sido retirados y por qué. Esto genera incertidumbre sobre la validez del conocimiento publicado y dificulta la depuración de errores científicos.
  4. Las publicaciones son demasiado lentas
    En áreas donde el conocimiento avanza a gran velocidad —como la biotecnología, la inteligencia artificial o la salud pública—, el sistema tradicional de publicación científica resulta excesivamente lento. Las revistas no logran adaptarse a los ritmos que exige la investigación actual, lo que entorpece el progreso científico y su aplicación práctica.
  5. Costes insostenibles para la comunidad investigadora
    Publicar en revistas científicas se ha convertido en una tarea costosa y poco rentable. Los beneficios no justifican el gasto y los financiadores se muestran cada vez más reacios a asumir los pagos asociados. El desequilibrio entre coste y retorno ha hecho que este sistema se perciba como económicamente insostenible.
  6. Falta de integridad estructural
    Muchos de los problemas actuales podrían resolverse si las revistas ofrecieran la integridad editorial plena que los usuarios esperan. Sin embargo, hoy en día proliferan contenidos generados por inteligencias artificiales sin control, artículos de papermills (fábricas de artículos) y fraudes sistemáticos que socavan la confianza en las publicaciones científicas.
  7. Estándares técnicos difíciles de aplicar en el sistema actual
    El desarrollo y aplicación de estándares técnicos como metadatos estructurados, identificadores persistentes (PIDs) y códigos de contenido (ISCC, C2PA, etc.) resulta más viable en entornos de autopublicación que dentro de los sistemas rígidos y obsoletos de las editoriales científicas. Esto limita el potencial de la ciencia abierta y dificulta la interoperabilidad entre plataformas.
  8. La validación científica debe independizarse de las revistas
    Los procesos de reconocimiento y evaluación científica —como la concesión de becas, ascensos o financiación— están demasiado ligados al prestigio de las revistas y a métricas como el factor de impacto, fácilmente manipulables. Sería preferible desarrollar sistemas independientes y más justos que reconozcan la calidad real de los investigadores sin depender de la marca editorial.
  9. El formato del artículo científico necesita evolucionar
    El formato tradicional de artículo ya no responde a las necesidades actuales. Es necesario introducir prácticas como la pre-registro de hipótesis y metodologías, y la integración de datos experimentales, código, vídeos, imágenes, audio, blogs y otros soportes que hoy en día las revistas no contemplan. La publicación científica debe volverse multimodal y más transparente.
  10. La lectura humana ya no es suficiente
    Dado el volumen de información disponible, muchos investigadores no tienen tiempo para leer artículos completos. Por ello, la comunicación entre máquinas se vuelve crucial. Sin embargo, las estructuras narrativas actuales no están diseñadas para su interpretación automática, lo que impide aprovechar el potencial de la inteligencia artificial y del análisis automatizado. Se necesita una transición hacia datos estructurados y enriquecidos con metadatos, comprensibles por máquinas.

German Natonal Academy of Sciences propone un cambio estructural de modelo de comunicación científica basado en una financiación directa de revistas científicas.

Tautz, D., Holzer, A., Schmidt, K. M., Buchner, J., Grötschel, M. & Jurburg, S. A New Concept for the Direct Funding and Evaluaton of Scientfc Journals.
Discussion No. 38, Halle (Saale): German Natonal Academy of Sciences
Leopoldina, 2025

Texto completo

La Academia Nacional de Ciencias de Alemania (Leopoldina) ha publicado el 15 de abril de 2025 un documento de debate que propone una profunda transformación en el modelo de publicación científica. El foco principal del texto es la necesidad de financiar directamente y evaluar públicamente las revistas científicas, con el objetivo de garantizar el acceso abierto al conocimiento, reducir costes y mejorar la calidad de las publicaciones académicas.

Actualmente, el acceso a los artículos científicos está restringido por barreras de pago impuestos por un pequeño grupo de editoriales con fines de lucro. Estas empresas obtienen ingresos bien sea a través de suscripciones de bibliotecas o mediante el cobro a los autores por publicar sus investigaciones (las llamadas article processing charges, APC). Dado que la financiación de la ciencia y las bibliotecas universitarias proviene del erario público, los beneficios de estas editoriales terminan repercutiendo en el presupuesto público, sin que exista una mejora proporcional en el valor científico ofrecido. Además, la escasa competencia ha derivado en una especie de monopolio editorial, que ha encarecido el sistema sin mejorar su eficiencia ni su calidad.

Frente a esta problemática, el documento propone que la financiación de las revistas científicas siga el mismo modelo que la investigación pública. En este sentido, serían las sociedades científicas, academias o instituciones públicas las encargadas de solicitar recursos para crear y mantener revistas científicas. Estas solicitudes se evaluarían mediante procedimientos competitivos y con criterios similares a los aplicados en la financiación de proyectos de investigación. De este modo, no solo se aseguraría la calidad y la pertinencia científica de las publicaciones, sino que también se garantizaría la transparencia en la gestión de los recursos.

El modelo propuesto se basa en el acceso abierto diamante (diamond open access), que se distingue por ser gratuito tanto para los autores como para los lectores. A diferencia del modelo de acceso abierto “oro”, donde el autor asume los costes de publicación, el modelo diamante plantea que la financiación provenga exclusivamente de fondos públicos adjudicados mediante convocatorias específicas. Así, el control editorial y financiero permanecería en manos de la comunidad científica, y los componentes del proceso editorial (como la revisión, maquetación o difusión) podrían contratarse a terceros mediante procedimientos abiertos y competitivos.

Para implementar este nuevo sistema, el informe recomienda involucrar activamente a las sociedades científicas que ya gestionan publicaciones, a fin de calcular el presupuesto necesario y diseñar adecuadamente el proceso de solicitud de fondos. También propone poner en marcha un proyecto piloto a nivel nacional que permita probar la viabilidad del modelo y ajustar sus mecanismos. Asimismo, se sugiere crear un grupo de trabajo internacional para explorar posibilidades de cofinanciación supranacional, lo cual permitiría extender el sistema a escala europea o global.

En definitiva, la propuesta de la Leopoldina busca asegurar que el conocimiento científico financiado con recursos públicos sea accesible libremente por toda la sociedad, esté gestionado desde la comunidad científica y se publique bajo principios de calidad, eficiencia y transparencia. Se trata de una iniciativa que, de implementarse, supondría una transformación radical del sistema editorial científico actual, desplazando el protagonismo de las grandes editoriales comerciales hacia las instituciones científicas públicas.

Prospectiva de la formación de profesionales de la información para las sociedades del conocimiento

Escalona Ríos, Lina, Elsa E. Barber y Nancy Bentivegna. 2025. Prospectiva de la formación de profesionales de la información para las sociedades del conocimiento. Ciudad de México: Instituto de Investigaciones Bibliotecológicas y de la Información, UNAM, 2025

Texto completo

PDF

ePuB

El libro Prospectiva de la formación de profesionales de la información para las sociedades del conocimiento examina los fenómenos de la bibliotecología desde diversas perspectivas. Analiza temas como la enseñanza en el currículo, las estrategias de aprendizaje y los retos de la docencia en entornos híbridos, lo que demanda un manejo avanzado de las Tecnologías de la Información y la Comunicación (TIC). Cada capítulo aborda formas de afrontar los paradigmas de la educación bibliotecológica, archivística y documental. Los autores invitan a reflexionar sobre la evolución de conceptos clave, como información, datos, práctica docente e investigación, así como la transformación de las áreas de especialización. La obra también explora la educación formal de los profesionales de la información y los retos que conlleva a través de estrategias docentes y los desafíos inherentes. Además, ofrece un panorama del mercado laboral al que se enfrentan estudiantes y expertos, describiendo los espacios de inserción profesional, tanto tradicionales como emergentes. Los trabajos reflejan los temas que preocupan a los especialistas de la información y cómo los abordan mediante una mirada representativa de las posturas teóricas y metodológicas contemporáneas en el campo.​

La mayoría de los estadounidenses quiere leer más libros. Pero no lo consigue

Limbong, Andrew. “Most Americans Want to Read More Books. We Just Don’t.” NPR, April 7, 2025. https://www.npr.org/2025/04/07/nx-s1-5333652/books-reading-poll.

Una nueva encuesta realizada por NPR/Ipsos revela que la mayoría de los estadounidenses disfrutan de la lectura y desean leer más, aunque en la práctica no sea una prioridad para ellos. El sondeo, realizado a más de 2.000 adultos en EE. UU., muestra que el 82 % considera que leer es una buena forma de aprender sobre el mundo, el 76 % lo encuentra relajante, y un 98 % de quienes tienen hijos quieren que estos desarrollen el gusto por la lectura.

A pesar de estas aspiraciones, solo el 51 % de los encuestados leyó un libro en el último mes, mientras que alrededor del 80 % consumió contenido en plataformas de streaming, redes sociales o videos cortos. Mallory Newall, vicepresidenta de Ipsos, señala que no se trata de una competencia directa entre leer y otras formas de entretenimiento, sino más bien de una cuestión de falta de tiempo. La razón más común para no leer más fue “otras actividades de la vida”, como tareas del hogar, socializar o simplemente descansar.

Cuando se preguntó qué harían con una hora extra de ocio, la mayoría optó por pasar tiempo con la familia, seguido en un empate por ver televisión, leer o hacer ejercicio. Las mujeres y las personas con mayor nivel educativo son significativamente más propensas a elegir la lectura en ese caso hipotético.

En cuanto a los géneros favoritos, los libros de suspense, crimen y misterio lideran ampliamente con un 37 % de preferencia. En un segundo nivel están la no ficción histórica (24 %), las memorias y la ficción histórica (ambas con 21 %). Las mujeres y los mayores de 50 años son los principales lectores de thrillers, aunque las mujeres muestran una mayor diversidad en sus gustos literarios, mientras que los hombres tienden a concentrarse en la no ficción.

Los porcentajes representan la proporción de personas que seleccionaron cada género como uno de sus favoritos:

  1. Thriller/crimen/misterio: 37% — Es claramente el género más popular, con una ventaja significativa sobre los demás.
  2. No ficción histórica: 24%
  3. Memorias/biografías/autobiografías: 21%
  4. Ficción histórica: 21%
  5. Fantasía: 20%
  6. Ciencia ficción: 19%
  7. Ficción realista/literaria: 18%
  8. Romance: 17%
  9. Autoayuda: 14%
  10. Literatura juvenil (Young adult): 8%
  11. Novelas gráficas: 5%
  12. Libros infantiles: 3%
  13. Poesía: 3%
  14. Otros: 10%
  15. No tengo un género favorito: 7%

Respuestas clave:

  • Los géneros más populares tienden a ser narrativos y orientados al entretenimiento, como los thrillers y la fantasía.
  • Los géneros de no ficción también tienen una gran presencia (como la no ficción histórica y las biografías).
  • Géneros como la poesía y los libros infantiles tienen una representación muy baja.
  • Un 7% de los encuestados afirmó no tener un género favorito, lo que sugiere una apertura o falta de preferencia específica en un segmento de lectores.

La edad influye notablemente en los hábitos de lectura: las personas mayores de 65 años son quienes más tiempo dedican a leer, posiblemente porque tienen más tiempo libre o no están al cuidado de niños pequeños. Para los jóvenes, leer es un deseo, pero se percibe como una actividad de baja prioridad e incluso algo aburrida, según Newall.

En conclusión, aunque leer sigue siendo una aspiración compartida por muchos estadounidenses, los hábitos reales muestran que otras formas de entretenimiento y las demandas del día a día suelen desplazar a la lectura del centro de sus rutinas.