Archivo de la categoría: Investigación

La persistente influencia del factor de impacto en la evaluación científica

Grove, Jack. “Journal Impact Factors Still Exert ‘Undue Influence’, Finds PLOS Study.” Times Higher Education, 2 de febrero de 2026.

Leer artículo original

El artículo analiza el papel que sigue desempeñando el factor de impacto de las revistas en los procesos de evaluación académica, a pesar de las numerosas críticas que ha recibido en los últimos años.

Un estudio reciente basado en una encuesta a casi quinientos investigadores del ámbito de la biología —todos ellos participantes recientes en comités de evaluación de proyectos o en procesos de contratación y promoción académica— revela que los evaluadores continúan recurriendo de forma habitual a indicadores externos como la reputación de la revista o el propio factor de impacto para valorar la calidad y credibilidad de la investigación. En concreto, el 57 % de los encuestados afirmó utilizar al menos uno de estos indicadores para juzgar si un trabajo científico es fiable, lo que evidencia que la reputación editorial sigue funcionando como un atajo cognitivo en la toma de decisiones académicas.

Entre los distintos indicadores considerados, la reputación de la revista aparece como el criterio más utilizado para evaluar la credibilidad de los resultados científicos, seguido por la reputación del laboratorio o del grupo de investigación. El factor de impacto, aunque menos empleado directamente, continúa desempeñando un papel significativo: alrededor del 19 % de los investigadores lo utiliza para valorar la credibilidad de un artículo y un 15 % para juzgar su fiabilidad. Sin embargo, diversos estudios han demostrado que este indicador es un predictor pobre de la calidad real de un artículo individual, ya que mide el promedio de citas de una revista y no el valor específico de cada trabajo publicado en ella.

Dado que el 90 % de los encuestados afirmó que la evaluación de los resultados de investigación es importante para las decisiones de los comités, pero menos de la mitad dijo estar satisfecha con el conjunto de métricas disponibles, el estudio sostiene que existe “un amplio margen de oportunidad para proporcionar nuevas señales de credibilidad y fiabilidad”

El artículo recuerda que desde hace más de una década existen iniciativas internacionales que buscan limitar el uso del factor de impacto en la evaluación científica. Un ejemplo destacado es la Declaración de San Francisco sobre Evaluación de la Investigación (DORA), que recomienda explícitamente no emplear el JIF en decisiones relacionadas con financiación, contratación o promoción académica. A pesar de estas recomendaciones, el estudio sugiere que la persistencia de este indicador se debe en gran medida a la falta de alternativas claras y aceptadas para evaluar la calidad intrínseca de los trabajos científicos.

Así, los autores del estudio sostienen que existe una demanda creciente entre los evaluadores de nuevos indicadores que reflejen mejor la integridad, la transparencia y el rigor metodológico de la investigación. Entre las posibles señales de calidad se mencionan prácticas de ciencia abierta como la disponibilidad de datos, código o protocolos, así como mecanismos que permitan evaluar la reproducibilidad y la integridad de los resultados. La investigación concluye que mejorar estos “indicadores de credibilidad” podría contribuir a reducir la dependencia de métricas simplificadoras como el factor de impacto y favorecer evaluaciones más justas y rigurosas de la producción científica.

Gestión de la comunicación científica: 25 ideas para mejorar tu investigación

Noguera-Vivo, J.M. [José Manuel]. (2022). Gestión de la comunicación científica: 25 ideas para mejorar tu investigación. Editorial UOC.

Texto completo

Comunicar con éxito no es un talento reservado para unos pocos, sino una destreza que se aprende. Y la comunicación es una parte inherente a cualquier investigación, sea cual sea la fase en la que se encuentre el autor (grado, máster, doctorando o investigador consolidado). Comunicar correctamente un trabajo científico influye en su credibilidad, su alcance o sus posibilidades de obtener financiación, ya que determinará el grado de percepción de su utilidad. En este libro, el autor comparte consejos prácticos para que lleves a otro nivel tu investigación gracias a una comunicación óptima.

Tendencias clave (2015–2025) de los investigadores más citados según Clarivate: evolución global de la excelencia científica

Fry, Ryan. “Highly Cited Researchers: Key Trends 2015–2025.Clarivate – The Institute for Scientific Information. Accedido el 27 de febrero de 2026. https://clarivate.com/academia-government/the-institute-for-scientific-information/highly-cited-researchers-key-trends-2015-2025

Entre 2015 y 2025, el programa de Highly Cited Researchers (Investigadores Altamente Citados) de Clarivate Analytics, gestionado por el Institute for Scientific Information (ISI), ha registrado una década de transformaciones y patrones significativos en la producción científica global.

Esta iniciativa, que identifica a investigadores con impacto excepcional al seleccionar a las voces científicas más citadas en la base de datos de Web of Science, ha generado datos que permiten analizar cómo se redistribuye la influencia científica entre países, regiones y ámbitos disciplinarios. La información se presenta en un panel interactivo de datos que refleja tanto cambios cuantitativos —número de investigadores altamente citados por país y por campo— como cualitativos, con una evolución metodológica de la propia selección y depuración de la lista durante el período 2015–2025.

Un hallazgo central de este análisis es la persistente preeminencia de Estados Unidos como líder en número y participación de investigadores altamente citados, aunque esta hegemonía muestra matices cuando se observan campos específicos y el crecimiento de otras regiones. Mientras Estados Unidos mantiene su dominio global, China continental ha experimentado un crecimiento explosivo en reconocimiento científico, alcanzando liderazgo en disciplinas como Química, Informática, Ingeniería y Ciencia de Materiales, áreas que anteriormente estaban dominadas por EE. UU. El aumento de China en estas categorías refleja no solo un repunte en producción científica, sino también una estrategia sostenida de inversión en investigación y desarrollo que ha alterado la distribución tradicional del impacto académico. A su vez, otras regiones como Hong Kong, Singapur y varios países europeos (por ejemplo, Suecia, Bélgica, Noruega) han triplicado el número de investigadores en estas listas, lo que indica una diversificación geográfica del reconocimiento científico global.

Además de estos patrones cuantitativos, el análisis de Clarivate pone en contexto cambios metodológicos y criterios de selección que afectan cómo se construye la lista de investigadores altamente citados. A lo largo de la última década, el ISI ha ido introduciendo filtros y ajustes para mejorar la integridad del proceso, respondiendo a preocupaciones sobre prácticas como la autocitación excesiva o la proliferación de publicaciones con un número atípico de artículos por autor. La versión renovada de 2025 recoge estos ajustes, que buscan asegurar que los investigadores incluidos reflejen un impacto amplio y sostenible en sus campos. Este enfoque no solo fortalece la credibilidad de la lista, sino que también ofrece una mirada más matizada sobre qué constituye una contribución científica significativa en el contexto contemporáneo.

En síntesis, el análisis de Clarivate para 2015–2025 no solo traza la trayectoria de investigadores de alto impacto, sino que también funciona como un barómetro de la evolución del paisaje científico global: revela cómo se reconfigura la distribución geográfica del talento investigativo, la importancia de disciplinas emergentes y la necesidad de metodologías más rigurosas que consideren tanto métricas bibliométricas como evaluaciones cualitativas. Este conjunto de tendencias proporciona a universidades, gobiernos y organismos académicos un recurso informativo para comprender mejor los centros de excelencia científica y para orientar políticas de investigación e innovación a gran escala.

Aspectos clave:

  1. Liderazgo global y redistribución geográfica

Estados Unidos sigue siendo el país con mayor número de investigadores altamente citados, manteniendo su hegemonía en la mayoría de disciplinas.

China ha experimentado un crecimiento sostenido, convirtiéndose en líder en áreas como Química, Ingeniería, Informática y Ciencia de Materiales.

Otras regiones con aumento notable incluyen Hong Kong, Singapur y varios países europeos (Suecia, Bélgica, Noruega), mostrando una diversificación del talento científico a nivel global.

  1. Transformaciones por disciplina

Los investigadores altamente citados se concentran en disciplinas STEM (Ciencia, Tecnología, Ingeniería y Matemáticas), pero también se observa crecimiento en áreas de ciencias sociales y salud.

Campos emergentes o estratégicos (por ejemplo, inteligencia artificial y biotecnología) muestran alta citación rápida, reflejando la rapidez con que ciertas áreas pueden impactar la comunidad científica global.

  1. Cambios metodológicos y calidad de la selección

Clarivate ha ajustado sus criterios para reducir sesgos por autocitación y publicaciones infladas, asegurando que la lista refleje un impacto real y sostenido.

La metodología ahora enfatiza tanto la cantidad de citas como la influencia transversal en la disciplina, haciendo la lista más confiable y representativa.

  1. Tendencias de colaboración y movilidad científica

Se observa un incremento en la colaboración internacional, lo que amplifica la visibilidad de ciertos investigadores.

La movilidad académica (entre universidades y países) se refleja en la distribución de investigadores citados, señalando cómo las instituciones pueden atraer talento global.

  1. Implicaciones estratégicas para políticas de investigación

Los datos permiten a gobiernos y universidades identificar centros de excelencia científica, priorizar áreas de inversión y diseñar políticas de I+D que fomenten impacto y visibilidad global.

La lista sirve como indicador de competitividad científica, ofreciendo información útil para decisiones sobre financiamiento, colaboración y desarrollo de infraestructuras de investigación.

La IA es buena para los científicos, pero empequeñece la ciencia misma

Hao, Qianyue, Fengli Xu, Yong Li, James Evans, et al. 2026. “Artificial intelligence tools expand scientists’ impact but contract science’s focus.” Nature 649: 1237–1243. https://doi.org/10.1038/s41586-025-09922-y

Reflexión crítica sobre cómo la adopción de herramientas de inteligencia artificial en la investigación científica puede estar generando efectos contrapuestos en el avance del conocimiento.

Por un lado, Worlock reconoce que la IA aporta beneficios claros a los investigadores individuales: automatiza tareas rutinarias, acelera la escritura de manuscritos y permite manejar grandes volúmenes de datos con una rapidez que ningún humano podría igualar. Estas ventajas, que están siendo reportadas y cuantificadas en estudios recientes, como el análisis de millones de publicaciones académicas que muestra que los científicos que usan IA publican más trabajos, reciben más citas y alcanzan posiciones de liderazgo más rápido, parecen confirmar de manera empírica que la productividad individual se incrementa significativamente cuando se integra IA en el flujo de trabajo científico.

Sin embargo, Worlock advierte que estos beneficios pueden tener un coste importante para la ciencia en su conjunto. A partir de debates surgidos en foros especializados —como The Coalition of the Curious que él menciona— y de evidencias recientes, el autor sugiere que la IA podría estar “encogiendo” el campo científico al concentrar esfuerzos en áreas de investigación consolidadas y ricas en datos, donde las herramientas pueden operar con mayor eficacia, en detrimento de exploraciones más fundamentales o arriesgadas. Esta crítica coincide con hallazgos académicos que documentan cómo la adopción generalizada de IA tiende a estrechar la diversidad temática de la ciencia y reduce la colaboración entre investigadores, ya que los incentivos se orientan hacia proyectos que son más fácilmente automatizables y citables. La preocupación central de Worlock es que, si la IA sirve sobre todo para acelerar trabajos ya en marcha o bien definidos, podría reforzar tendencias de homogeneización y disminuir la variedad de preguntas científicas que se formulan y se investigan.

Más allá de la productividad y la diversidad temática, Worlock también subraya que la discusión sobre el impacto de la IA en la ciencia no puede limitarse a métricas cuantitativas como número de publicaciones o citas, sino que debe incluir consideraciones más profundas sobre la verdadera naturaleza del descubrimiento científico. Es decir, ¿hasta qué punto una tecnología puede reclamar méritos de invención o comprensión cuando opera como una herramienta que sintetiza y acelera trabajos humanos sin necesariamente generar nuevas perspectivas teóricas? Esta inquietud se conecta con debates emergentes en la comunidad investigadora acerca de la necesidad de mantener el juicio, la creatividad y la colaboración humana como componentes esenciales de la práctica científica, incluso cuando se integran sistemas automatizados en la generación de hipótesis o en el diseño experimental. En este sentido, Worlock invita a sus lectores a “discutir” y reflexionar colectivamente sobre cómo estructurar incentivos, gestionar la integración de la IA y preservar la diversidad intelectual en un momento en que la ciencia y la tecnología están cada vez más entrelazadas.

¿Quién posee el conocimiento? Copyright, IA Generativa y el futuro de la publicación académica

Kochetkov, Dmitry. 2025. “Who Owns the Knowledge? Copyright, GenAI, and the Future of Academic Publishing.” arXiv, noviembre 24, 2025. https://doi.org/10.48550/arXiv.2511.21755

El documento aborda el impacto profundo y multifacético de la inteligencia artificial generativa (GenAI) y los grandes modelos de lenguaje (LLMs) en la investigación científica y el sistema de publicación académica. Las capacidades de estas tecnologías, señala el autor, representan un cambio de paradigma que ofrece oportunidades revolucionarias para acelerar descubrimiento, análisis y difusión del conocimiento, pero al mismo tiempo plantea desafíos éticos, legales y regulatorios significativos que no han sido adecuadamente resueltos por los marcos jurídicos existentes en las principales jurisdicciones del mundo.

Un foco central del análisis es el reto que GenAI plantea para las leyes de copyright tradicionales y para los principios de la ciencia abierta. Kochetkov argumenta que las normativas actuales en países como Estados Unidos, China, la Unión Europea y el Reino Unido, aunque pretenden fomentar la innovación, dejan vacíos importantes específicamente en relación con el uso de obras protegidas por derechos de autor y de resultados de ciencia abierta para entrenar modelos de IA. Es decir, las normas pensadas para regular la reutilización humana de contenidos no cubren adecuadamente la ingestión masiva de textos científicos por parte de algoritmos de aprendizaje automático.

El autor también discute las limitaciones de los mecanismos de licencia existentes, incluyendo las licencias de acceso abierto como las de Creative Commons. Aunque estas licencias han sido útiles para permitir la reutilización y difusión entre personas, no están diseñadas para regular el entrenamiento de GenAI, que implica procesamiento de datos a gran escala y sin intervención humana directa. Esto se traduce, según el artículo, en una falta de atribución y reconocimiento de la autoría real de los contenidos, lo cual socava nociones académicas fundamentales de originalidad, crédito y responsabilidad intelectual.

Frente a esto, Kochetkov propone una crítica al uso automático de figuras legales como la “excepción de uso justo” (“fair use”) en Estados Unidos para justificar el entrenamiento de modelos de IA con textos académicos. En su análisis, depender de este enfoque es problemático porque no respeta suficientemente los derechos de los creadores originales —especialmente cuando los modelos son desarrollados o explotados comercialmente o cuando producen derivados opacos sin atribución clara— y podría favorecer la consolidación de mercados oligopólicos donde prevalecen intereses comerciales sobre la integridad científica y la equidad en la producción de conocimiento.

Como alternativa, el autor aboga por que los autores mantengan derechos explícitos para rechazar el uso de sus obras en procesos de entrenamiento de IA, independientemente de la doctrina de uso justo, y que las universidades jueguen un papel más activo en la gobernanza responsable de IA. Las instituciones académicas, sostiene, están en una posición única para desarrollar políticas internas que reflejen los valores de integridad científica, transparencia y justicia epistémica, negociando derechos que incluyan cláusulas específicas sobre IA.

Finalmente, Kochetkov llama a un esfuerzo legislativo internacional armonizado que pueda integrar coherentemente derechos de autor, ciencia abierta y el uso de GenAI en la investigación académica. Una regulación coordinada a nivel global ayudaría a proteger la propiedad intelectual, garantizar transparencia en los datos de entrenamiento, y evitar que la infraestructura de conocimiento científico quede dominada por intereses comerciales en detrimento del acceso equitativo y la integridad de la producción académica.

En conjunto, el artículo plantea que la revolución de la IA en la ciencia requiere no solo innovación tecnológica, sino también reformas profundas en las políticas de derechos de autor, licencias abiertas y gobernanza institucional, para asegurar que la transformación digital refuerce —y no erosione— los principios fundamentales de la investigación científica y la difusión del saber.

Un marco para evaluar la confiabilidad de los resultados de la investigación científica

Brian A. Nosek, David B. Allison, Kathleen Hall Jamieson, Marcia McNutt, A. Beau Nielsen y Susan M. Wolf. A Framework for Assessing the Trustworthiness of Scientific Research Findings. Proceedings of the National Academy of Sciences of the United States of America (PNAS), Vol. 123, No. 6, e2536736123, publicado el 3 de febrero de 2026. DOI: 10.1073/pnas.2536736123

El artículo propone un marco conceptual estructurado para evaluar qué hace que los resultados científicos sean confiables, abordando debates actuales sobre la integridad y la credibilidad de la investigación en múltiples áreas del conocimiento.

Los autores —expertos en metodología, comunicación científica, ética e integridad de la investigación— argumentan que no existe una única respuesta simple a la pregunta de qué hace que los hallazgos científicos sean dignos de confianza, dado que enfoques tradicionales como la reputación de la revista, el recuento de citas o la revisión por pares por sí solos son indicadores insuficientes y a veces engañosos de la calidad real de la investigación. En lugar de esto, proponen un enfoque de sistemas que se centra en prácticas y estructuras observables que pueden facilitar la evaluación de la confiabilidad de los resultados.

El marco desarrollado se organiza en siete componentes esenciales que, en conjunto, ayudan a juzgar la confianza que se puede depositar en una investigación. Estos pilares incluyen si el estudio es responsable (accountable), es decir, si quienes lo realizan son transparentes y responsables de sus decisiones; si es evaluable, lo que significa que sus métodos y datos pueden ser examinados por otros; si ha sido evaluado —por pares, por replicación o por crítica—; si está bien formulado, con objetivos claros y relevantes; si controla sesgos y errores y, finalmente, si las conclusiones están justificadas por la evidencia. Según los autores, estos aspectos combinados permiten un juicio más sólido sobre la confianza en los hallazgos que los simples proxies externos de reputación o prestigio.

Además, el artículo subraya que la confiabilidad no es sinónimo de corrección absoluta: un resultado puede ser imperfecto o incluso incorrecto en algún detalle, pero aún así ser confiable si ha sido producido y comunicado de manera que los errores sean transparentes y susceptibles de ser detectados y corregidos con el tiempo. Esta distinción es crucial, ya que refleja que la ciencia es un proceso acumulativo en el que la capacidad de detectar errores y aprender de ellos es lo que permite avanzar en el conocimiento. El marco enfatiza también la importancia de crear lenguajes comunes y métricas significativas para que investigadores, instituciones, revistas científicas, financiadores e incluso el público puedan evaluar y comunicar mejor la confiabilidad de la investigación.

Finalmente, los autores señalan que adoptar este marco no resolverá todos los problemas de la ciencia por sí mismo, pero puede servir como una herramienta integral para mejorar la evaluación de la investigación más allá de estándares obsoletos. Al centrarse en comportamientos y prácticas que fomentan el escrutinio crítico, la transparencia, la reducción de sesgos y la evidencia sólida, el marco pretende fortalecer la base de confianza en la ciencia, contribuyendo a que los hallazgos sean más útiles y significativos tanto para la comunidad académica como para la sociedad en general.

7 aspectos clave del marco para evaluar la confiabilidad de los resultados científicos, explicados uno por uno con detalle:

1. Responsabilidad (Accountability)

Los investigadores deben ser transparentes y responsables sobre cómo diseñaron, condujeron y reportaron su estudio. Esto implica que haya claridad en quién hizo qué, y que los autores puedan ser contactados o interrogados sobre sus decisiones. La responsabilidad fomenta la confianza porque asegura que no hay ocultamiento de información crucial.

2. Evaluabilidad (Evaluability)

Los métodos, datos y resultados deben ser accesibles y presentados de tal forma que otros científicos puedan revisar, reproducir o cuestionar el trabajo. Esto incluye compartir datos abiertos, protocolos, códigos y materiales usados, para que el estudio pueda ser examinado y validado por terceros.

3. Evaluación (Assessment)

El estudio debe haber sido sometido a algún tipo de revisión crítica, ya sea a través del proceso tradicional de revisión por pares, revisiones independientes, replicaciones por otros investigadores o críticas constructivas. La evaluación rigurosa ayuda a detectar errores o sesgos que podrían afectar la confiabilidad.

4. Formulación adecuada (Well-formulated)

El problema de investigación debe estar claramente definido, con objetivos precisos y relevantes. Un estudio bien planteado evita ambigüedades que dificultan interpretar los resultados y asegura que las preguntas que busca responder son importantes y están claramente expresadas.

5. Control de sesgos y errores (Control of biases and errors)

Los investigadores deben usar métodos para minimizar la influencia de prejuicios, errores sistemáticos o aleatorios que podrían distorsionar los resultados. Esto puede incluir diseño experimental riguroso, uso de controles, aleatorización y análisis estadísticos adecuados para validar la robustez del hallazgo.

6. Justificación de conclusiones (Justification of conclusions)

Las conclusiones que se presentan deben estar respaldadas por la evidencia empírica recogida. No basta con afirmar algo llamativo o deseable; debe haber una relación clara entre los datos y las interpretaciones o afirmaciones que se hacen.

7. Transparencia y comunicación (Transparency and communication)

Finalmente, el estudio debe comunicar claramente los métodos, limitaciones, resultados y cualquier conflicto de interés. La transparencia en la comunicación permite que otros comprendan plenamente el contexto y alcance del estudio, y facilita que se interpreten correctamente los hallazgos.

Los tres grandes de la información científica: una revisión bibliométrica comparativa de Web of Science, Scopus y OpenAlex

Torres-Salinas, Daniel & Arroyo-Machado, Wenceslao (2026). The ‘Big Three’ of Scientific Information: A Comparative Bibliometric Review of Web of Science, Scopus, and OpenAlex (preprint). arXiv:2601.21908. doi:10.48550/arXiv.2601.21908. https://arxiv.org/abs/2601.21908

Se ofrece un análisis comparativo exhaustivo de las tres principales bases de datos bibliográficas multidisciplinares utilizadas globalmente para la evaluación de la investigación científica: Web of Science Core Collection (WoS), Scopus y OpenAlex.

El estudio está motivado por la necesidad de evidencia actualizada que permita a bibliotecarios, gestores de investigación, evaluadores académicos y responsables de políticas comprender las fortalezas y limitaciones de cada fuente en cuanto a cobertura documental, calidad y riqueza de metadatos, diversidad lingüística y funcionalidades disponibles para análisis evaluativos.

La investigación se estructura en dos grandes secciones metodológicas. La primera consiste en una revisión sistemática de la literatura reciente, donde se sintetizan estudios previos sobre volumen de registros, cobertura de acceso abierto, diversidad lingüística, cobertura de referencias y calidad de metadatos en cada uno de los tres sistemas. Se detallan características clave: WoS y Scopus funcionan como bases de datos comerciales con criterios editoriales rigurosos y herramientas analíticas integradas, mientras que OpenAlex, de acceso completamente abierto, destaca por su enorme volumen de registros y su mayor inclusión de fuentes de países del Sur global, aunque también presenta mayores tasas de errores o inconsistencias en metadatos.

La segunda parte del trabajo es un análisis bibliométrico original basado en datos empíricos del período 2015-2024. Este análisis abarca la distribución longitudinal de publicaciones, los tipos documentales, perfiles temáticos, diferencias por idioma y el grado de solapamiento entre bases de datos usando DOI como llave de correspondencia. Este contraste evidencia que WoS y Scopus tienen un alto grado de superposición entre sí, ofreciendo consistencia en sus coberturas, mientras que OpenAlex amplía significativamente la representatividad total, especialmente en idiomas distintos del inglés y en revistas de acceso abierto, aunque con menor precisión en ciertos metadatos básicos (por ejemplo, afiliaciones institucionales, clasificaciones temáticas y años de publicación).

la tabla muestra que OpenAlex contiene un volumen de publicaciones considerablemente mayor en total (36,150,302) que Web of Science (23,508,100) y Scopus (26,645,058), aunque el porcentaje total de cobertura (clasificación completa) es menor —67 % frente a ~98 % en las otras dos bases— lo que indica que en OpenAlex no todas las publicaciones tienen asignada un área temática.

En detalle por áreas temáticas:

  • Ciencias sociales y humanidades:
    Web of Science muestra 2,121,562 publicaciones (9 % del total de su contenido clasificado), Scopus 3,229,265 (12.1 %) y OpenAlex 7,390,532 (20.4 %). Esto indica que OpenAlex tiene una mayor proporción de publicaciones en ciencias sociales y humanidades que las bases comerciales, sugiriendo una cobertura más amplia de este campo.
  • Ciencias biomédicas y de la salud:
    Las tres bases reflejan que esta es el área con más publicaciones. Web of Science tiene 10,178,006 (43.3 %), Scopus 9,932,031 (37.3 %) y OpenAlex 12,473,349 (34.5 %). Aunque OpenAlex tiene más publicaciones absolutas, su porcentaje es menor, lo que puede deberse a su mayor diversidad temática.
  • Ciencias físicas e ingeniería:
    En este campo Web of Science registra 5,429,077 (23.1 %), Scopus 5,984,787 (22.5 %) y OpenAlex 6,435,849 (17.8 %). Aquí también se observa que OpenAlex tiene la menor proporción relativa, probablemente porque su enorme volumen de registros incluye muchos trabajos de otras áreas.
  • Ciencias de la vida y de la tierra:
    Las cifras son: Web of Science con 3,480,765 (14.8 %), Scopus con 4,714,799 (17.7 %) y OpenAlex con 5,556,612 (15.4 %). La proporción de OpenAlex es similar a la de WoS, mientras que Scopus muestra un porcentaje relativamente mayor en esta área.
  • Matemáticas y ciencias de la computación:
    Web of Science tiene 2,298,690 (9.8 %), Scopus 2,784,176 (10.4 %) y OpenAlex 4,293,960 (11.9 %). Aquí también OpenAlex muestra una participación proporcional ligeramente mayor que las otras bases, aunque las cifras absolutas reflejan la amplitud de su cobertura general.

Los resultados globales ponen de manifiesto que ninguna base de datos por sí sola ofrece un panorama completo de la actividad científica mundial: WoS y Scopus destacan por su fiabilidad y calidad editorial, pero son más limitadas en cobertura no anglófona y en contenidos abiertos; OpenAlex, por su parte, proporciona una biodiversidad documental más amplia, aunque requiere ajustes metodológicos adicionales para asegurar la calidad de los datos a nivel evaluativo. El estudio concluye con un resumen de diez puntos principales y propone cinco recomendaciones prácticas, destacando la necesidad de combinar fuentes en evaluaciones estratégicas, adaptar protocolos según objetivos (por ejemplo, evaluación formal vs. estudios exploratorios) e integrar enfoques críticos que mitiguen sesgos geográficos y lingüísticos en el análisis de la literatura científica global.

Un mapeo global de los idiomas en las publicaciones académicas y sus citas

Pradier, Carolina, Lucía Céspedes y Vincent Larivière. 2026. “How Multilingual Is Scholarly Communication? Mapping the Global Distribution of Languages in Publications and Citations.Journal of the Association for Information Science and Technology 1–15. https://doi.org/10.1002/asi.70055

El artículo aborda la diversidad lingüística en la comunicación científica global, un tema que ha recibido atención en estudios regionales, pero que escasea en análisis de gran escala con datos objetivos.

Los autores identifican que el idioma es una fuente importante de inequidades sistémicas en ciencia, ya que favorece a quienes publican en inglés, mientras que los investigadores que utilizan otros idiomas enfrentan barreras para la visibilidad, la difusión y el reconocimiento de su trabajo. Este tipo de desigualdades se vuelve evidente en la producción y citación de publicaciones científicas, donde el predominio del inglés puede limitar la participación efectiva de hablantes no nativos.

Para examinar esta cuestión, el estudio utiliza datos bibliométricos masivos de dos fuentes amplias: OpenAlex y Dimensions. Estas bases de datos permiten analizar tanto el idioma de las publicaciones científicas (cerca de 87,5 millones) como el idioma de los artículos citados dentro de esas publicaciones (aproximadamente 1,48 mil millones) para el período 1990–2023. A partir de este enorme corpus de datos, los autores miden la proporción de artículos publicados en diferentes idiomas, así como las prácticas de citación relativas al idioma.

Los resultados muestran que, si bien el inglés continúa dominando la comunicación científica global, algunas lenguas han crecido más rápido que el inglés en términos de producción científica reciente, especialmente el indonesio, el portugués y el español. Este crecimiento está relacionado con la expansión de circuitos académicos regionales —por ejemplo, en América Latina e Indonesia— que fortalecen la producción y circulación de conocimiento en lenguas distintas del inglés. Este fenómeno sugiere que las políticas nacionales que valoran tanto la publicación en la lengua local como en inglés pueden tener impactos concretos sobre la distribución lingüística de las publicaciones científicas.

Otra dimensión importante del estudio es la preferencia por publicar y citar en la misma lengua (own-language preference). Los autores señalan que los investigadores tienden a citar obras en su propio idioma con más frecuencia de lo esperado por azar, especialmente en los idiomas distintos al inglés. Esto pone de manifiesto no solo la persistencia de prácticas lingüísticas locales, sino también una fuerte conexión entre el multilingüismo y la bibliodiversidad —entendida como la diversidad de lenguas, formatos y enfoques en la comunicación científica—. Además, se observa que las ciencias sociales y las humanidades son los campos menos dominados por el inglés, lo que contrasta con disciplinas como las ciencias naturales o biomédicas, donde el inglés es casi universal.

Los hallazgos del artículo ponen de relieve que el dominio del inglés no es absoluto ni inmutable, sino que está siendo matizado por desarrollos regionales y políticas de comunicación científica que validan otras lenguas. Al mismo tiempo, el estudio reconoce que las bases de datos bibliométricas aún subrepresentan contenido no anglófono, lo que implica que la diversidad real puede ser mayor de lo que se observa. En conjunto, estos resultados invitan a repensar las prácticas de evaluación científica global y a promover enfoques que reconozcan la riqueza del multilingüismo en la generación y difusión del conocimiento

La muerte de las revistas científicas

Beale, R. (2025). In Memoriam: The Academic Journal (preprint). arXiv:2512.23915v1. Recuperado de https://arxiv.org/html/2512.23915v1

Se trata de un ensayo reflexivo que traza la historia, evolución y final simbólico de la revista académica tradicional considerando su impacto profundo en la ciencia, la sociedad y la cultura académica moderna.

El texto empieza con una evocación de los orígenes de las publicaciones científicas en el siglo XVII, destacando el papel pionero del Journal des Sçavans y de Philosophical Transactions, que establecieron el formato y la intención de los primeros medios de difusión científica impulsados por académicos para académicos. En estas primeras etapas, las revistas eran herramientas para compartir descubrimientos y avanzar el conocimiento colectivo, libre de intereses comerciales predominantes.

Beale describe cómo las revistas académicas ingresaron a su “edad adulta”, abrazando el sistema de revisión por pares y consolidándose como guardián de la calidad científica. Sin embargo, con la entrada de grandes editoriales comerciales tras la Segunda Guerra Mundial, este modelo se transformó bajo una lógica capitalista: académicos que generaban contenido y revisión sin remuneración, mientras las editoriales recibian beneficios sustanciales al vender acceso a ese conocimiento. Esta etapa marcó una transición crucial desde el propósito original de difusión científica hacia un sistema en el que las publicaciones se convirtieron en métricas de prestigio y progreso profesional, impulsadas por la filosofía de “Publicar o Perecer”.

En el desarrollo de la “madurez” de las revistas científicas, el autor ilustra cómo la proliferación de indicadores cuantitativos (factor de impacto, índice h, etc.) y el énfasis en méritos numéricos distorsionaron el valor de la investigación, priorizando la cantidad sobre la calidad y debilitando prácticas fundamentales como la replicación de resultados. Este enfoque paradigmático condujo a la expansión de unidades mínimas publicables (MPU) y a prácticas que, aunque eficientes para avanzar en carreras académicas, erosionaron la esencia del método científico.

Beale también sitúa a las revistas académicas dentro del contexto de las transformaciones tecnológicas de finales del siglo XX y principios del XXI, señalando cómo servicios como arXiv y las iniciativas de acceso abierto retaron el dominio tradicional de las publicaciones impresas. Aunque estos “descendientes” surgieron con filosofías más abiertas, la presión institucional por métricas de prestigio a menudo relegó su valor dentro de la evaluación profesional.

Finalmente, el ensayo culmina con la “muerte” simbólica de las revistas científicas el 1 de enero de 2026 —una metáfora que representa el agotamiento del modelo tradicional frente a la proliferación de contenidos generados y compartidos a gran escala, en parte facilitados por herramientas de inteligencia artificial como ChatGPT que erosionan las barreras de entrada del proceso editorial clásico. Esta conclusión lleva al lector a meditar sobre el legado de las revistas: celebradas por su rol en la sistematización del conocimiento, pero también criticadas por cómo se distanciaron de sus ideales fundacionales para convertirse en engranajes de una maquinaria profesional y comercial que, según el autor, ya no puede sostener de manera íntegra la misión original de la comunicación científica

¿Por qué los autores no revelan el uso de IA en sus trabajos de investigación?

Staiman, Avi. 2026. “Why Authors Aren’t Disclosing AI Use and What Publishers Should (Not) Do About It.The Scholarly Kitchen, January 27, 2026. https://scholarlykitchen.sspnet.org/2026/01/27/why-authors-arent-disclosing-ai-use-and-what-publishers-should-not-do-about-it/

El artículo aborda el fenómeno creciente de que muchos autores académicos no están declarando el uso de herramientas de inteligencia artificial (IA) en sus procesos de investigación y redacción, a pesar de que un número significativo de ellos reconoce emplearlas en distintas fases del trabajo científico

Staiman explica que, aunque las editoriales han desarrollado políticas que requieren declaraciones sobre el uso de IA con el objetivo de mantener la integridad de la literatura científica, estas normas no están siendo efectivamente cumplidas: solo un porcentaje muy bajo de autores realmente declara haber usado IA en sus manuscritos. Esta brecha entre las expectativas formales de transparencia y la práctica real refleja, según el autor, varios factores humanos y estructurales que dificultan la declaración abierta de asistencia artificial en la escritura científica.

Una de las principales razones de esta falta de transparencia es el miedo de los investigadores a que la divulgación de uso de IA sea percibida negativamente por editores y revisores, lo que podría influir adversamente en la evaluación de la calidad, originalidad o rigor del trabajo. Aunque muchos investigadores usan IA para tareas como mejorar la redacción, sintetizar información o buscar literatura relevante, existe una percepción persistente de que tal uso podría ser interpretado como una forma de atajo o amenaza a la integridad académica, lo que crea un ambiente en el que los autores prefieren omitir estas declaraciones.

Otra barrera importante es la confusión y falta de claridad en las directrices editoriales: las políticas de las revistas y editoriales varían ampliamente sobre qué tipo de uso de IA debe ser declarado, cuándo hacerlo y cómo documentarlo. Algunos requisitos son vagos o excesivamente complejos, lo que genera incertidumbre en los autores respecto a si deben declarar, cómo hacerlo o si incluso es obligatorio. Esta ambigüedad, combinada con la carga adicional de trabajo que supone documentar exhaustivamente cada instancia de uso de IA y la ausencia de incentivos claros para hacerlo, contribuye a que muchos autores opten por no reportarlo.

Además, el artículo señala que algunos autores ni siquiera son conscientes del uso de IA en herramientas integradas en aplicaciones comunes (como asistentes de redacción en suites ofimáticas), lo que dificulta aún más la trazabilidad y divulgación de la asistencia artificial. También destaca una confusión extendida entre el uso de IA y el plagio, lo que lleva a algunos autores a tratar de ocultar signos de asistencia de IA en lugar de ser transparentes, con la intención de evitar evaluaciones negativas o fallos en las pruebas de detección.

Finalmente, el autor advierte que, si las editoriales no clarifican, educan y, sobre todo, repiensan cómo deben abordar el uso de IA, es probable que la falta de divulgación continúe. Argumenta que las editoriales no deberían centrarse en herramientas de detección de IA —las cuales son poco fiables y pueden reforzar la idea de que el uso de IA es inaceptable— sino en proporcionar directrices claras, educar a la comunidad académica sobre prácticas responsables y crear políticas que reconozcan las distintas formas legítimas de asistencia de IA sin sacrificar la integridad de la investigación.