Archivo de la categoría: Investigación

ERIC en peligro: la mas importante base de datos de investigación educativa podría dejar de actualizarse esta semana

​Barshay, Jill. «Proof Points: A Treasure Trove of Education Reports and Studies Is Under Threat.» The Hechinger Report, April 21, 2025. https://hechingerreport.org/proof-points-eric-under-threat/

El centro de recursos educativos ERIC (Education Resources Information Center), una biblioteca pública digital con 2,1 millones de documentos educativos, podría dejar de actualizarse esta semana por falta de financiación. A pesar de tener un contrato vigente hasta 2028 y fondos ya autorizados por el Congreso, el Departamento de Eficiencia Gubernamental (DOGE) se ha negado a liberar el dinero necesario para su operación. ERIC, gestionado por el Departamento de Educación de EE.UU., es una herramienta esencial para investigadores, docentes y responsables de políticas educativas, comparable a PubMed en el campo de la salud.

Erin Pollard Young, la única empleada del Departamento de Educación dedicada a ERIC, fue despedida en marzo junto con otros 1.300 trabajadores. Antes de su salida, intentó recortar el presupuesto de ERIC a la mitad, como exigía DOGE, pero incluso esa propuesta fue rechazada. El contrato podría expirar el 23 de abril, lo que significaría que ya no se añadirían nuevos documentos al repositorio.

ERIC contiene artículos de revistas académicas, libros, informes gubernamentales y tesis doctorales, incluyendo una gran cantidad de «literatura gris» (estudios no publicados ni catalogados en bases privadas como EBSCO), lo que lo hace insustituible por herramientas como Google o IA.

Desde el Departamento de Educación han justificado los recortes con la necesidad de reestructurar el Instituto de Ciencias de la Educación (IES), del cual depende ERIC, acusándolo de ineficacia en la mejora de resultados educativos.

Pollard Young ha decidido hablar públicamente sobre la situación, a pesar del riesgo de represalias, para intentar salvar un recurso que ha sido clave para la investigación educativa durante más de 60 años.

Repensar la forma de publicar para apoyar la ciencia abierta

Kiermer, Véronique, Alison Mudditt, and Niamh O’Connor. «Rethinking How We Publish to Support Open ScienceLeap: The Journal of Open Science 1, no. 1 (2025): 1-15. https://doi.org/10.1002/leap.2006

Se analiza cómo las publicaciones científicas pueden avanzar hacia un modelo que apoye la ciencia abierta. La clave de este cambio radica en ampliar la gama de contribuciones a la investigación que se muestran y reutilizan, lo cual permitirá una mayor diversidad de participantes y perspectivas, esenciales para una investigación confiable.

La llegada de la era digital ha transformado la manera en que creamos y consumimos información. En el ámbito de la investigación, este cambio abre nuevas oportunidades para practicar la ciencia abierta, permitiendo que una gama más amplia de contribuciones sea visibilizada y reutilizada. Aunque este avance se predijo cuando los primeros diarios aparecieron en línea, ha tardado más de lo esperado en materializarse. Los flujos de trabajo de la investigación han cambiado significativamente en las últimas décadas gracias a la capacidad de recopilar grandes cantidades de datos, analizarlos con más potencia computacional y colaborar en línea. Sin embargo, la publicación científica ha quedado rezagada. Aunque los artículos se procesan y distribuyen mayoritariamente de forma digital, los flujos de trabajo y conceptos fundamentales de la publicación siguen siendo vestigios de la era de la impresión.

Este estancamiento debe cambiar, ya que las revistas han servido históricamente como garantes de la calidad mediante la supervisión editorial y la revisión por pares. Sin embargo, las normas del siglo XX se basaban en un modelo que solo permitía la publicación de aquellos autores con credenciales conocidas. Este enfoque es obsoleto, y comunicar la investigación en la actualidad requiere una ampliación de esta visión. Es necesario repensar cómo evaluamos, compartimos y descubrimos la investigación, todo ello dentro de un ecosistema de ciencia abierta.

La importancia de la ciencia abierta

La ciencia abierta no se trata solo de hacer que un artículo sea accesible, sino de proporcionar el contexto necesario para comprenderlo, los recursos para replicar el trabajo y las herramientas para colaborar y mejorar la ciencia. Uno de los aspectos esenciales de la ciencia abierta es la ampliación de la participación en la creación, difusión y reutilización del conocimiento. Este modelo permite que más investigadores y otras partes interesadas se beneficien de la creación de conocimiento, algo que se alinea con el informe de la Academia Nacional de Ciencias de EE.UU., el cual señala que la ciencia realizada de manera abierta y transparente tiene más probabilidades de producir conocimientos confiables. La transparencia y la apertura son cruciales para garantizar que la investigación resista el escrutinio, así como para permitir que los mecanismos autocorrectivos de la ciencia funcionen eficazmente.

El informe de la UNESCO sobre Ciencia Abierta también refuerza este enfoque, al destacar la necesidad de diversidad en la participación, lo cual contribuye a una creación de conocimiento más confiable y efectiva. Para lograr una ciencia abierta efectiva, se deben abrir las puertas a una mayor variedad de perspectivas, tal como lo sugieren investigadores como Naomi Oreskes, quien defiende que la diversidad de comunidades de búsqueda de conocimiento es fundamental para alcanzar un conocimiento objetivo.

Obstáculos para la ciencia abierta

A pesar de los avances en el acceso abierto y las políticas de ciencia abierta, todavía existen importantes obstáculos. Uno de ellos radica en el hecho de que la publicación sigue centrada en los artículos, un vestigio del paradigma impreso que no valora de igual manera otros tipos de resultados de investigación, como los datos, los códigos y los protocolos. A pesar de que el porcentaje de artículos con declaraciones de disponibilidad de datos ha aumentado, la mayoría de los datos aún están disponibles solo «a solicitud» o a través de archivos de información adicional asociados a los artículos. El principal impedimento para compartir datos abiertos es la falta de reconocimiento y crédito para los investigadores que hacen estos datos accesibles. Para que la ciencia abierta se adopte de manera generalizada, es necesario que los diferentes tipos de resultados de investigación sean reconocidos, accesibles y acreditados adecuadamente.

Otro obstáculo importante es el modelo de negocio basado en las tarifas por publicación (APCs), que aunque ha facilitado el acceso abierto, excluye a muchos investigadores e instituciones que no pueden permitirse estos costos. A pesar de que se han implementado modelos no basados en APC, como el modelo de Publicación de Acción Comunitaria de PLOS, estos no son fácilmente escalables. Además, el modelo de APC sigue siendo dominante y muchas veces favorece a las grandes editoriales, perpetuando las desigualdades en el acceso al conocimiento.

El rol de los editores en la investigación

Los editores desempeñan un papel crucial en el ecosistema de la investigación, contribuyendo a la creación de conocimiento e innovación en varias etapas clave, como el financiamiento, la actividad investigadora, la difusión de los resultados y la innovación. A lo largo del ciclo de investigación, los editores facilitan la colaboración, el debate, la evaluación de calidad y la preservación de los resultados. Aunque el sistema de evaluación tradicional mediante revisión por pares sigue siendo importante, los editores deben adaptarse a nuevos modelos que respalden una ciencia abierta, permitiendo la vinculación y el descubrimiento de una variedad de contribuciones más allá de los artículos tradicionales.

Catalizando el cambio desde dentro de la publicación

El cambio hacia un modelo de ciencia abierta es un desafío complejo que requiere la colaboración de múltiples actores. PLOS, una organización pionera en este campo, ha comenzado un proyecto de Investigación y Diseño para definir los elementos clave de un nuevo modelo de publicación que se base en los principios de la ciencia abierta, con un modelo de negocio sostenible. Este proyecto incluye una consulta con diversos actores del ecosistema de investigación para garantizar que las soluciones propuestas sean inclusivas y accesibles para una amplia gama de investigadores e instituciones, especialmente en el contexto de las disparidades globales.

A través de esta iniciativa, PLOS espera catalizar un cambio sistémico en la publicación científica, promoviendo un modelo más inclusivo y accesible que permita la participación activa de más comunidades en la creación y difusión del conocimiento.

Los «golden oldies» de la ciencia: los trabajos de investigación de hace décadas que siguen siendo muy citados hoy

Van Noorden, Richard. «Science’s Golden Oldies: The Decades-Old Research Papers Still Heavily Cited TodayNature, April 15, 2025. https://doi.org/10.1038/d41586-025-01126-8

Supplementary information.

Se analiza cómo ciertos trabajos clave han mantenido su relevancia a lo largo del tiempo, destacando especialmente los más citados en los artículos publicados en 2023.

El análisis revela que, aunque muchas publicaciones recientes sobre inteligencia artificial (IA), software científico y métodos para mejorar la calidad de la investigación dominan hoy las listas de referencias, algunos estudios más antiguos continúan siendo referenciados con frecuencia. Entre ellos, se incluyen trabajos de los años 90, como el que describe una arquitectura temprana de redes neuronales llamada long short-term memory (LSTM) de 1997, que sigue siendo citado con frecuencia debido a su eficiencia en el procesamiento de datos.

También se destacan investigaciones sobre materiales publicadas en 1996 que, gracias a su innovador enfoque para calcular interacciones electrónicas en materiales, siguen siendo citadas en una proporción significativa. Un cuarto de las citas de este trabajo se han dado en los últimos dos años, mostrando cómo el impacto de investigaciones antiguas puede continuar creciendo a medida que nuevas generaciones de científicos las descubren y aplican.

El estudio muestra cómo algunas publicaciones, incluso décadas después de su publicación, siguen siendo fundamentales para el avance de la ciencia, gracias a su base teórica sólida y la continua aplicabilidad de sus descubrimientos. Esto subraya la importancia de identificar y reconocer las «piedras angulares» del conocimiento científico, independientemente de su antigüedad.

RankTitleNumber of Citations (Range)
1Deep residual learning for image recognition (2016)19,826–33,339
2Global cancer statistics 2020: GLOBOCAN estimates of incidence and mortality worldwide (2021)10,952–24,830
3Attention is all you need (2017)9,395–19,348
4Generalized gradient approximation made simple (1996)14,338–17,540
5Using thematic analysis in psychology (2006)10,660–17,347
6The PRISMA 2020 statement: an updated guideline for reporting systematic reviews (2021)13,115–13,443
7Analysis of relative gene expression data using real-time quantitative PCR and the 2−ΔΔCT method (2001)11,851–13,082
8Random forests (2001)6,266–12,294
9Efficient iterative schemes for ab initio total-energy calculations using a plane-wave basis set (1996)10,063–10,789
10Long short-term memory (1997)2,394–12,355

Fuente: Nature (2025).

Los artículos científicos más citados de todos los tiempos

Van Noorden, Richard. 2025. “These Are the Most-Cited Research Papers of All Time.” Nature, April 17, 2025. https://www.nature.com/articles/d41586-025-01124-w.

Nature ha actualizado su análisis sobre los trabajos científicos más citados de la historia, revelando que algunos han sido referenciados cientos de miles de veces. Esta revisión evidencia no solo el impacto de ciertas investigaciones, sino también cómo han evolucionado las tendencias en la producción científica y la citación a lo largo del tiempo.

Sorprendentemente, el artículo más citado no es ampliamente conocido entre la comunidad científica actual. Se trata de un trabajo de 1951 publicado en el Journal of Biological Chemistry, que describe un método para determinar la cantidad de proteínas en una solución. Este artículo ha sido citado más de 350.000 veces según el índice Web of Science (WoS), una base de datos que recopila 98 millones de publicaciones desde 1900.

Muchos de los artículos más citados están relacionados con técnicas de laboratorio en biología, lo que sugiere que los métodos ampliamente aplicables generan un impacto duradero. También figuran trabajos clave en inteligencia artificial (IA), software de investigación y métodos estadísticos.

La nueva clasificación actualiza una lista publicada por Nature en 2014, cuando los trabajos más citados eran herramientas de biología celular y molecular, principalmente de las décadas de 1950 y 1970. Desde entonces, alrededor de la mitad de los artículos en el top 100 han cambiado, debido al auge en las citas de trabajos más recientes. En 2014, eran necesarios unos 12.000 citas para entrar en el top 100. Hoy, hacen falta más de 30.000, lo que indica una inflación en el número de citas y el creciente volumen de publicaciones científicas.

Para este análisis, Nature también consultó otras dos grandes bases de datos de investigación: Dimensions y OpenAlex, cuyas versiones públicas permiten el análisis desde 1900. Aunque los rankings y recuentos de citas varían ligeramente entre bases, los artículos destacados son generalmente los mismos. La lista completa de los 100 más citados, con detalles sobre las diferencias entre bases, está disponible en el material suplementario del artículo.

Uno de los datos más llamativos es que un artículo de 2015 de investigadores de Microsoft, presentado en una conferencia sobre IA, ya ocupa el quinto lugar si se consideran los rankings medianos entre las tres bases de datos, y el séptimo solo en WoS. Esto muestra la velocidad con la que algunos artículos contemporáneos pueden acumular citas.

Actualmente, 16 artículos del siglo XXI se encuentran ya entre los 50 más citados de todos los tiempos, a pesar de su relativa juventud. Muchos de ellos están vinculados a desarrollos en software y al uso de la inteligencia artificial para acelerar el descubrimiento científico. Este fenómeno puede explicarse, según Paul Wouters (experto en cienciometría retirado de la Universidad de Leiden), por el aumento anual del número de publicaciones, lo que incrementa el volumen de referencias, así como por la mayor visibilidad de los trabajos científicos a través de Internet y las redes sociales.

Los 25 artículos científicos más citados desde el año 2000 tienen que ver con métodos, revisiones o software

Pearson, Helen, Heidi Ledford, Matthew Hutson, y Richard Van Noorden. “Exclusive: The Most-Cited Papers of the Twenty-First Century.Nature, April 10, 2025. https://www.nature.com/articles/d41586-025-01125-9.​

Las citas en la literatura científica son una manera de reconocer el uso e influencia de investigaciones previas. Sin embargo, los artículos más citados no suelen ser los más conocidos por el público general, sino que tienden a ser herramientas metodológicas, revisiones sistemáticas o descripciones de software ampliamente utilizado. Según Misha Teplitskiy, sociólogo de la Universidad de Míchigan, aunque los científicos afirman valorar teorías y descubrimientos empíricos, lo que realmente citan con más frecuencia son los métodos.

La revista Nature ha realizado un análisis exhaustivo sobre los 25 artículos científicos más citados desde el año 2000, revelando qué estudios han tenido mayor impacto medido por el número de citas, y por qué han alcanzado tal relevancia. Sorprendentemente, muchos de los artículos más citados no están relacionados con los descubrimientos más espectaculares —como las vacunas de ARNm, CRISPR, el bosón de Higgs o las ondas gravitacionales—, sino con métodos, software, estadísticas y herramientas que sustentan el trabajo científico diario.

El artículo más citado, según la media de cinco bases de datos académicas (Web of Science, Scopus, OpenAlex, Dimensions y Google Scholar), es un trabajo de 2016 de investigadores de Microsoft sobre aprendizaje residual profundo (ResNet), una arquitectura de red neuronal con más de 150 capas. Esta innovación resolvió problemas de entrenamiento en redes muy profundas y allanó el camino para avances como AlphaGo, AlphaFold o ChatGPT. Dependiendo de la base de datos, sus citas oscilan entre 103.000 y más de 250.000.

Rank (median)CitationTimes Cited (range across databases)
1Deep residual learning for image recognition (2016, preprint 2015)103.756–254,074
2Analysis of relative gene expression data using real-time quantitative PCR and the 2–ΔΔCT method (2001)149.953–185,480
3Using thematic analysis in psychology (2006)100.327–230,391
4Diagnostic and Statistical Manual of Mental Disorders, DSM-5 (2013)98,312–367,800
5A short history of SHELX (2007)76.523–99,470
6Random forests (2001)31.809–146,508
7Attention is all you need (2017)56.201–150,832
8ImageNet classification with deep convolutional neural networks (2017)46.860–137,997
9Global cancer statistics 2020: GLOBOCAN estimates of incidence and mortality worldwide for 36 cancers in 185 countries (2020)75.634–99,390
10Global cancer statistics 2018: GLOBOCAN estimates of incidence and mortality worldwide for 36 cancers in 185 countries (2016)66.844–93,433

Supplementary information

Otros artículos destacados incluyen el DSM-5 (manual diagnóstico de psiquiatría), el algoritmo de Random Forests (utilizado en machine learning), y GLOBOCAN, un informe bianual de la OMS sobre estadísticas globales de cáncer.

Los artículos sobre IA dominan el ranking. El trabajo de Hinton en 2012 sobre AlexNet, que revolucionó el reconocimiento de imágenes, ocupa el puesto 8. El artículo de 2017 “Attention is all you need”, que introdujo la arquitectura transformer que impulsa modelos de lenguaje como ChatGPT, está en el puesto 7. El artículo sobre Random Forests, método estadístico muy utilizado y accesible, está en el puesto 6.

La comunidad de IA también se ha beneficiado de la cultura del código abierto y del uso extendido de preprints, aunque muchas bases de datos aún no integran adecuadamente las citas entre versiones preliminares y artículos revisados.

Muchos artículos populares describen software científico. Uno de ellos es el artículo sobre SHELX (puesto 5), un conjunto de programas para determinar estructuras moleculares mediante difracción de rayos X, escrito por George Sheldrick. Otro caso es DESeq2, software para analizar datos de secuenciación de ARN (puesto 18). Estos artículos se citan por su utilidad más que por su novedad teórica.

El caso del artículo en el puesto 2 es paradigmático: Thomas Schmittgen publicó el método 2–ΔΔCT porque un revisor le dijo que no podía citar un manual técnico. Hoy acumula más de 160.000 citas.

Los informes GLOBOCAN de 2018 y 2020 están entre los diez primeros. Son herramientas esenciales para investigadores y responsables de políticas públicas. Otro trabajo clave (puesto 19) es el artículo sobre las “marcas distintivas del cáncer” (hallmarks of cancer), que ayudó a estructurar la investigación oncológica contemporánea.

El análisis muestra que el impacto en la ciencia no depende solo de grandes descubrimientos, sino de herramientas que permiten a otros investigar con más precisión, fiabilidad y alcance. El auge de la inteligencia artificial, el desarrollo de software y los métodos estadísticos dominan las citas, destacando cómo la ciencia avanza no solo por lo que descubre, sino por cómo lo hace.

La transformación inminente de la investigación: enfrentando el iceberg de la inteligencia artificial

Daley, Mark. «What We Really Need Is a ‘Deck Chair Configuration’ Committee… Facing the Uncomfortable AI Research Iceberg Noetic Engines, February 11, 2025. https://noeticengines.substack.com/p/what-we-really-need-is-a-deck-chair

Se aborda de manera crítica la tendencia actual en la investigación sobre la inteligencia artificial (IA), que se ha centrado en adoptar la IA de forma incremental, mejorando herramientas existentes, como la corrección de textos o la gestión de referencias. Aunque estas mejoras son útiles, Daley argumenta que estas pequeñas modificaciones son apenas la punta del iceberg de lo que la IA puede ofrecer en el ámbito de la investigación, y que en realidad estamos al borde de una transformación mucho más profunda.

Daley menciona el estudio Wiley ExplanAItions, que concluye que en un par de años, la IA ayudará a los investigadores a realizar tareas como resumir artículos más rápidamente o generar citas más precisas. Sin embargo, esta visión de la IA se queda corta al no considerar los avances que ya están ocurriendo. Según el autor, la verdadera revolución no está solo en mejorar las herramientas actuales, sino en que la IA está avanzando hacia un futuro en el que será capaz de ejecutar todo el proceso de investigación de manera autónoma en ciertos campos. Esto incluye la capacidad de generar nuevas hipótesis, diseñar y realizar experimentos complejos, analizar los datos y generar conclusiones escritas que podrían ser sometidas a una revisión por pares.

El autor resalta que este cambio ya es una realidad, mencionando ejemplos concretos, como el uso de la IA o1-pro en la investigación económica, que permitió a un investigador realizar un trabajo con suficiente novedad y mérito para ser publicado en una revista científica. Además, se menciona cómo otras aplicaciones de IA ya están escribiendo tesis de doctorado, lo que implica que las herramientas de IA no solo están mejorando la eficiencia de los investigadores, sino que están comenzando a reemplazar ciertas habilidades humanas clave en el proceso de investigación.

Daley advierte que centrarse únicamente en soluciones a corto plazo, como la mejora de la corrección de citas, sin tener en cuenta el potencial transformador de la IA, es comparable a centrarse en la mejora de un establo de caballos cuando los automóviles están a punto de hacer obsoleta esa industria. En su opinión, la IA está avanzando rápidamente más allá de tareas secundarias y está comenzando a asumir tareas que históricamente solo podían ser realizadas por seres humanos, como la formulación de hipótesis y el diseño de experimentos.

En cuanto a las implicaciones éticas, el artículo menciona la necesidad de replantear la forma en que la academia aborda la IA. Aunque los investigadores y líderes académicos a menudo subestiman la velocidad y el impacto de estos cambios, Daley subraya que esperar hasta que la IA esté realizando investigaciones completas será un error, ya que para ese momento podría ser demasiado tarde para desarrollar políticas y estructuras adecuadas que garanticen la integridad académica y la calidad de la investigación.

Finalmente, Daley hace una llamada a la acción por parte de la academia. En lugar de conformarse con pequeños avances y adaptaciones, el autor insta a los académicos a prepararse para una transformación profunda de la investigación científica. Esto no significa que los investigadores humanos desaparezcan, sino que deberán adaptarse y trabajar junto con la IA de una manera más integral. La clave será anticiparse a los cambios y reestructurar cómo se lleva a cabo, se evalúa y se recompensa la investigación en este nuevo ecosistema impulsado por la IA.

German Natonal Academy of Sciences propone un cambio estructural de modelo de comunicación científica basado en una financiación directa de revistas científicas.

Tautz, D., Holzer, A., Schmidt, K. M., Buchner, J., Grötschel, M. & Jurburg, S. A New Concept for the Direct Funding and Evaluaton of Scientfc Journals.
Discussion No. 38, Halle (Saale): German Natonal Academy of Sciences
Leopoldina, 2025

Texto completo

La Academia Nacional de Ciencias de Alemania (Leopoldina) ha publicado el 15 de abril de 2025 un documento de debate que propone una profunda transformación en el modelo de publicación científica. El foco principal del texto es la necesidad de financiar directamente y evaluar públicamente las revistas científicas, con el objetivo de garantizar el acceso abierto al conocimiento, reducir costes y mejorar la calidad de las publicaciones académicas.

Actualmente, el acceso a los artículos científicos está restringido por barreras de pago impuestos por un pequeño grupo de editoriales con fines de lucro. Estas empresas obtienen ingresos bien sea a través de suscripciones de bibliotecas o mediante el cobro a los autores por publicar sus investigaciones (las llamadas article processing charges, APC). Dado que la financiación de la ciencia y las bibliotecas universitarias proviene del erario público, los beneficios de estas editoriales terminan repercutiendo en el presupuesto público, sin que exista una mejora proporcional en el valor científico ofrecido. Además, la escasa competencia ha derivado en una especie de monopolio editorial, que ha encarecido el sistema sin mejorar su eficiencia ni su calidad.

Frente a esta problemática, el documento propone que la financiación de las revistas científicas siga el mismo modelo que la investigación pública. En este sentido, serían las sociedades científicas, academias o instituciones públicas las encargadas de solicitar recursos para crear y mantener revistas científicas. Estas solicitudes se evaluarían mediante procedimientos competitivos y con criterios similares a los aplicados en la financiación de proyectos de investigación. De este modo, no solo se aseguraría la calidad y la pertinencia científica de las publicaciones, sino que también se garantizaría la transparencia en la gestión de los recursos.

El modelo propuesto se basa en el acceso abierto diamante (diamond open access), que se distingue por ser gratuito tanto para los autores como para los lectores. A diferencia del modelo de acceso abierto “oro”, donde el autor asume los costes de publicación, el modelo diamante plantea que la financiación provenga exclusivamente de fondos públicos adjudicados mediante convocatorias específicas. Así, el control editorial y financiero permanecería en manos de la comunidad científica, y los componentes del proceso editorial (como la revisión, maquetación o difusión) podrían contratarse a terceros mediante procedimientos abiertos y competitivos.

Para implementar este nuevo sistema, el informe recomienda involucrar activamente a las sociedades científicas que ya gestionan publicaciones, a fin de calcular el presupuesto necesario y diseñar adecuadamente el proceso de solicitud de fondos. También propone poner en marcha un proyecto piloto a nivel nacional que permita probar la viabilidad del modelo y ajustar sus mecanismos. Asimismo, se sugiere crear un grupo de trabajo internacional para explorar posibilidades de cofinanciación supranacional, lo cual permitiría extender el sistema a escala europea o global.

En definitiva, la propuesta de la Leopoldina busca asegurar que el conocimiento científico financiado con recursos públicos sea accesible libremente por toda la sociedad, esté gestionado desde la comunidad científica y se publique bajo principios de calidad, eficiencia y transparencia. Se trata de una iniciativa que, de implementarse, supondría una transformación radical del sistema editorial científico actual, desplazando el protagonismo de las grandes editoriales comerciales hacia las instituciones científicas públicas.

Análisis de la cobertura de referencias de OpenAlex en comparación con Web of Science y Scopus

Culbert, J., Hobert, A., Jahn, N., Haupka, N., Schmidt, M., Donner, P., & Mayr, P. (2025). Reference Coverage Analysis of OpenAlex compared to Web of Science and Scopus. Scientometrics. https://doi.org/10.1007/s11192-025-05293-3

El estudio muestra que OpenAlex tiene una cobertura de referencias comparable a Web of Science y Scopus. Su número de citas por publicación y cobertura interna son muy similares. Destaca por incluir más identificadores ORCID, aunque ofrece menos resúmenes. En conjunto, es una alternativa válida y abierta para estudios bibliométricos.

Se analiza de manera rigurosa y comparativa la cobertura de referencias y metadatos que ofrece OpenAlex, en relación con dos de las principales bases de datos científicas comerciales: Web of Science (WoS) y Scopus. OpenAlex, desarrollada por el equipo de OurResearch y lanzada oficialmente en enero de 2022 como sucesora de Microsoft Academic Graph (MAG), se presenta como una plataforma de acceso abierto y licencia libre, lo cual representa un cambio significativo frente a los modelos propietarios que han dominado el campo de la bibliometría. Esta accesibilidad ha despertado un interés creciente en su uso por parte de investigadores, bibliotecarios y analistas de información científica.

El objetivo principal del estudio es determinar si OpenAlex puede considerarse una fuente válida, robusta y comparable a WoS y Scopus para el análisis de referencias bibliográficas, uno de los aspectos centrales en los estudios bibliométricos. Para ello, los autores del artículo construyeron un conjunto de datos compuesto por 16,8 millones de publicaciones recientes que aparecen de forma simultánea en las tres bases. Sobre este conjunto común, llevaron a cabo una comparación sistemática en torno a tres aspectos fundamentales: el número medio de referencias por artículo, la cobertura interna de citas (es decir, cuántas referencias citan otros documentos también presentes en la base de datos) y la disponibilidad de metadatos clave como identificadores ORCID, resúmenes y datos sobre el acceso abierto.

Uno de los hallazgos principales del estudio es que OpenAlex proporciona un número de referencias por artículo que es prácticamente equivalente al que ofrecen WoS y Scopus. Asimismo, la distribución de estas referencias —es decir, la forma en que se reparten entre los artículos— es muy similar entre las tres bases de datos, tanto a nivel global como cuando se desagrega por revista científica. Este hallazgo es relevante porque respalda la utilidad de OpenAlex en análisis cuantitativos basados en citas, tales como estudios de impacto, redes de colaboración, evolución de campos científicos, entre otros. La cobertura interna de referencias también se mostró comparable, lo que indica que OpenAlex tiene una red de citaciones sólida dentro de su propio sistema, un criterio importante para quienes realizan análisis de redes académicas.

En lo que respecta a los metadatos adicionales, OpenAlex ofrece una ventaja clara en cuanto a la inclusión de identificadores ORCID, lo que la convierte en una fuente particularmente útil para estudios que exploran la autoría, la colaboración científica y la identificación precisa de personas investigadoras. Sin embargo, presenta una desventaja significativa frente a WoS y Scopus en cuanto a la disponibilidad de resúmenes de artículos, un aspecto que puede limitar su utilidad en estudios de análisis de contenido, minería de texto o revisión sistemática automatizada. En cuanto a los datos sobre acceso abierto, las tres bases de datos muestran porcentajes similares, lo que sugiere que comparten fuentes comunes para este tipo de información, como Unpaywall.

El artículo no solo proporciona datos comparativos, sino que también reflexiona sobre el potencial transformador de OpenAlex en el ámbito de la ciencia abierta. Su gratuidad, accesibilidad y licencia permisiva permiten el desarrollo de herramientas bibliométricas libres, dashboards académicos, sistemas de recomendación científica y visualizaciones sin restricciones legales ni costes de suscripción. Este marco la convierte en una opción especialmente valiosa para instituciones de países en vías de desarrollo, universidades sin acceso a WoS o Scopus, o proyectos de investigación que prioricen la transparencia, la trazabilidad y la reproducibilidad de los datos utilizados.

En conclusión, los autores sostienen que OpenAlex es una alternativa plenamente válida a las bases de datos tradicionales para una gran variedad de estudios bibliométricos. Aunque aún presenta limitaciones, como la menor cobertura de resúmenes, sus fortalezas en cobertura de referencias y metadatos como ORCID la convierten en una herramienta prometedora. Dado que además se encuentra en constante actualización y crecimiento, su adopción puede contribuir a democratizar el acceso a la información científica y a fomentar una ciencia más abierta, colaborativa y reproducible.

Gemini permite convertir tus documentos de Google Docs en podcast, mejorar la escritura y generar gráficos

Google ha integrado nuevas funciones de su asistente de inteligencia artificial, Gemini, en Google Workspace. Una de las más destacadas es la capacidad de convertir documentos de Google Docs en podcasts. Ahora, al generar un informe o artículo, puedes obtener un resumen en audio con dos voces de IA que conversan sobre los puntos clave del texto. Esto facilita la revisión auditiva de tu trabajo y lo hace más accesible, especialmente para personas con discapacidades visuales o de lectura.

Además, Gemini introduce la función «Ayúdame a mejorar» en Google Docs, un editor virtual que sugiere mejoras en la redacción y estructura del texto. Esta herramienta estará disponible próximamente. También se está desarrollando una función para Google Sheets llamada «Ayúdame a analizar», que utiliza Gemini para analizar datos y generar gráficos, facilitando la interpretación de hojas de cálculo sin necesidad de ser un experto.

Aunque la idea de que una IA lea o resuma tu trabajo puede parecer extraña, estas funciones están diseñadas para complementar y amplificar nuestras capacidades, no para reemplazarnos. Con estas herramientas, el futuro del trabajo y la educación podría incluir resúmenes dinámicos de textos y análisis de datos más accesibles y rápidos.

El impacto de la inteligencia generativa en la integridad académica.

Tertiary Education Quality and Standards Agency (TEQSA). The Evolving Risk to Academic Integrity Posed by Generative Artificial Intelligence: Options for Immediate Action. TEQSA, agosto de 2024.

Texto completo

El informe aborda el creciente riesgo que la inteligencia artificial generativa representa para la integridad académica. A medida que las herramientas de IA, como los generadores de texto, se vuelven más accesibles y avanzadas, surgen preocupaciones sobre su uso indebido en el ámbito educativo.

Los estudiantes pueden recurrir a estas herramientas para crear respuestas automatizadas en exámenes y tareas, lo que plantea desafíos para las instituciones en la evaluación de la autenticidad del trabajo académico.

El documento sugiere que las universidades deben adoptar estrategias inmediatas para mitigar este riesgo. Estas incluyen la revisión y actualización de las políticas de evaluación, la implementación de tecnologías de detección de IA y el fomento de métodos de evaluación más centrados en el análisis crítico y la aplicación práctica del conocimiento. También se hace hincapié en la necesidad de educar a los estudiantes sobre el uso ético de la inteligencia artificial y en la importancia de la formación docente para identificar y abordar el uso indebido de estas tecnologías.

En conclusión, la rápida evolución de la inteligencia artificial generativa exige una respuesta urgente y adaptada de las instituciones educativas para proteger la integridad académica y garantizar una evaluación justa y precisa de los estudiantes.