Archivo de la categoría: Investigación

La IA es buena para los científicos, pero empequeñece la ciencia misma

Hao, Qianyue, Fengli Xu, Yong Li, James Evans, et al. 2026. “Artificial intelligence tools expand scientists’ impact but contract science’s focus.” Nature 649: 1237–1243. https://doi.org/10.1038/s41586-025-09922-y

Reflexión crítica sobre cómo la adopción de herramientas de inteligencia artificial en la investigación científica puede estar generando efectos contrapuestos en el avance del conocimiento.

Por un lado, Worlock reconoce que la IA aporta beneficios claros a los investigadores individuales: automatiza tareas rutinarias, acelera la escritura de manuscritos y permite manejar grandes volúmenes de datos con una rapidez que ningún humano podría igualar. Estas ventajas, que están siendo reportadas y cuantificadas en estudios recientes, como el análisis de millones de publicaciones académicas que muestra que los científicos que usan IA publican más trabajos, reciben más citas y alcanzan posiciones de liderazgo más rápido, parecen confirmar de manera empírica que la productividad individual se incrementa significativamente cuando se integra IA en el flujo de trabajo científico.

Sin embargo, Worlock advierte que estos beneficios pueden tener un coste importante para la ciencia en su conjunto. A partir de debates surgidos en foros especializados —como The Coalition of the Curious que él menciona— y de evidencias recientes, el autor sugiere que la IA podría estar “encogiendo” el campo científico al concentrar esfuerzos en áreas de investigación consolidadas y ricas en datos, donde las herramientas pueden operar con mayor eficacia, en detrimento de exploraciones más fundamentales o arriesgadas. Esta crítica coincide con hallazgos académicos que documentan cómo la adopción generalizada de IA tiende a estrechar la diversidad temática de la ciencia y reduce la colaboración entre investigadores, ya que los incentivos se orientan hacia proyectos que son más fácilmente automatizables y citables. La preocupación central de Worlock es que, si la IA sirve sobre todo para acelerar trabajos ya en marcha o bien definidos, podría reforzar tendencias de homogeneización y disminuir la variedad de preguntas científicas que se formulan y se investigan.

Más allá de la productividad y la diversidad temática, Worlock también subraya que la discusión sobre el impacto de la IA en la ciencia no puede limitarse a métricas cuantitativas como número de publicaciones o citas, sino que debe incluir consideraciones más profundas sobre la verdadera naturaleza del descubrimiento científico. Es decir, ¿hasta qué punto una tecnología puede reclamar méritos de invención o comprensión cuando opera como una herramienta que sintetiza y acelera trabajos humanos sin necesariamente generar nuevas perspectivas teóricas? Esta inquietud se conecta con debates emergentes en la comunidad investigadora acerca de la necesidad de mantener el juicio, la creatividad y la colaboración humana como componentes esenciales de la práctica científica, incluso cuando se integran sistemas automatizados en la generación de hipótesis o en el diseño experimental. En este sentido, Worlock invita a sus lectores a “discutir” y reflexionar colectivamente sobre cómo estructurar incentivos, gestionar la integración de la IA y preservar la diversidad intelectual en un momento en que la ciencia y la tecnología están cada vez más entrelazadas.

¿Quién posee el conocimiento? Copyright, IA Generativa y el futuro de la publicación académica

Kochetkov, Dmitry. 2025. “Who Owns the Knowledge? Copyright, GenAI, and the Future of Academic Publishing.” arXiv, noviembre 24, 2025. https://doi.org/10.48550/arXiv.2511.21755

El documento aborda el impacto profundo y multifacético de la inteligencia artificial generativa (GenAI) y los grandes modelos de lenguaje (LLMs) en la investigación científica y el sistema de publicación académica. Las capacidades de estas tecnologías, señala el autor, representan un cambio de paradigma que ofrece oportunidades revolucionarias para acelerar descubrimiento, análisis y difusión del conocimiento, pero al mismo tiempo plantea desafíos éticos, legales y regulatorios significativos que no han sido adecuadamente resueltos por los marcos jurídicos existentes en las principales jurisdicciones del mundo.

Un foco central del análisis es el reto que GenAI plantea para las leyes de copyright tradicionales y para los principios de la ciencia abierta. Kochetkov argumenta que las normativas actuales en países como Estados Unidos, China, la Unión Europea y el Reino Unido, aunque pretenden fomentar la innovación, dejan vacíos importantes específicamente en relación con el uso de obras protegidas por derechos de autor y de resultados de ciencia abierta para entrenar modelos de IA. Es decir, las normas pensadas para regular la reutilización humana de contenidos no cubren adecuadamente la ingestión masiva de textos científicos por parte de algoritmos de aprendizaje automático.

El autor también discute las limitaciones de los mecanismos de licencia existentes, incluyendo las licencias de acceso abierto como las de Creative Commons. Aunque estas licencias han sido útiles para permitir la reutilización y difusión entre personas, no están diseñadas para regular el entrenamiento de GenAI, que implica procesamiento de datos a gran escala y sin intervención humana directa. Esto se traduce, según el artículo, en una falta de atribución y reconocimiento de la autoría real de los contenidos, lo cual socava nociones académicas fundamentales de originalidad, crédito y responsabilidad intelectual.

Frente a esto, Kochetkov propone una crítica al uso automático de figuras legales como la “excepción de uso justo” (“fair use”) en Estados Unidos para justificar el entrenamiento de modelos de IA con textos académicos. En su análisis, depender de este enfoque es problemático porque no respeta suficientemente los derechos de los creadores originales —especialmente cuando los modelos son desarrollados o explotados comercialmente o cuando producen derivados opacos sin atribución clara— y podría favorecer la consolidación de mercados oligopólicos donde prevalecen intereses comerciales sobre la integridad científica y la equidad en la producción de conocimiento.

Como alternativa, el autor aboga por que los autores mantengan derechos explícitos para rechazar el uso de sus obras en procesos de entrenamiento de IA, independientemente de la doctrina de uso justo, y que las universidades jueguen un papel más activo en la gobernanza responsable de IA. Las instituciones académicas, sostiene, están en una posición única para desarrollar políticas internas que reflejen los valores de integridad científica, transparencia y justicia epistémica, negociando derechos que incluyan cláusulas específicas sobre IA.

Finalmente, Kochetkov llama a un esfuerzo legislativo internacional armonizado que pueda integrar coherentemente derechos de autor, ciencia abierta y el uso de GenAI en la investigación académica. Una regulación coordinada a nivel global ayudaría a proteger la propiedad intelectual, garantizar transparencia en los datos de entrenamiento, y evitar que la infraestructura de conocimiento científico quede dominada por intereses comerciales en detrimento del acceso equitativo y la integridad de la producción académica.

En conjunto, el artículo plantea que la revolución de la IA en la ciencia requiere no solo innovación tecnológica, sino también reformas profundas en las políticas de derechos de autor, licencias abiertas y gobernanza institucional, para asegurar que la transformación digital refuerce —y no erosione— los principios fundamentales de la investigación científica y la difusión del saber.

Un marco para evaluar la confiabilidad de los resultados de la investigación científica

Brian A. Nosek, David B. Allison, Kathleen Hall Jamieson, Marcia McNutt, A. Beau Nielsen y Susan M. Wolf. A Framework for Assessing the Trustworthiness of Scientific Research Findings. Proceedings of the National Academy of Sciences of the United States of America (PNAS), Vol. 123, No. 6, e2536736123, publicado el 3 de febrero de 2026. DOI: 10.1073/pnas.2536736123

El artículo propone un marco conceptual estructurado para evaluar qué hace que los resultados científicos sean confiables, abordando debates actuales sobre la integridad y la credibilidad de la investigación en múltiples áreas del conocimiento.

Los autores —expertos en metodología, comunicación científica, ética e integridad de la investigación— argumentan que no existe una única respuesta simple a la pregunta de qué hace que los hallazgos científicos sean dignos de confianza, dado que enfoques tradicionales como la reputación de la revista, el recuento de citas o la revisión por pares por sí solos son indicadores insuficientes y a veces engañosos de la calidad real de la investigación. En lugar de esto, proponen un enfoque de sistemas que se centra en prácticas y estructuras observables que pueden facilitar la evaluación de la confiabilidad de los resultados.

El marco desarrollado se organiza en siete componentes esenciales que, en conjunto, ayudan a juzgar la confianza que se puede depositar en una investigación. Estos pilares incluyen si el estudio es responsable (accountable), es decir, si quienes lo realizan son transparentes y responsables de sus decisiones; si es evaluable, lo que significa que sus métodos y datos pueden ser examinados por otros; si ha sido evaluado —por pares, por replicación o por crítica—; si está bien formulado, con objetivos claros y relevantes; si controla sesgos y errores y, finalmente, si las conclusiones están justificadas por la evidencia. Según los autores, estos aspectos combinados permiten un juicio más sólido sobre la confianza en los hallazgos que los simples proxies externos de reputación o prestigio.

Además, el artículo subraya que la confiabilidad no es sinónimo de corrección absoluta: un resultado puede ser imperfecto o incluso incorrecto en algún detalle, pero aún así ser confiable si ha sido producido y comunicado de manera que los errores sean transparentes y susceptibles de ser detectados y corregidos con el tiempo. Esta distinción es crucial, ya que refleja que la ciencia es un proceso acumulativo en el que la capacidad de detectar errores y aprender de ellos es lo que permite avanzar en el conocimiento. El marco enfatiza también la importancia de crear lenguajes comunes y métricas significativas para que investigadores, instituciones, revistas científicas, financiadores e incluso el público puedan evaluar y comunicar mejor la confiabilidad de la investigación.

Finalmente, los autores señalan que adoptar este marco no resolverá todos los problemas de la ciencia por sí mismo, pero puede servir como una herramienta integral para mejorar la evaluación de la investigación más allá de estándares obsoletos. Al centrarse en comportamientos y prácticas que fomentan el escrutinio crítico, la transparencia, la reducción de sesgos y la evidencia sólida, el marco pretende fortalecer la base de confianza en la ciencia, contribuyendo a que los hallazgos sean más útiles y significativos tanto para la comunidad académica como para la sociedad en general.

7 aspectos clave del marco para evaluar la confiabilidad de los resultados científicos, explicados uno por uno con detalle:

1. Responsabilidad (Accountability)

Los investigadores deben ser transparentes y responsables sobre cómo diseñaron, condujeron y reportaron su estudio. Esto implica que haya claridad en quién hizo qué, y que los autores puedan ser contactados o interrogados sobre sus decisiones. La responsabilidad fomenta la confianza porque asegura que no hay ocultamiento de información crucial.

2. Evaluabilidad (Evaluability)

Los métodos, datos y resultados deben ser accesibles y presentados de tal forma que otros científicos puedan revisar, reproducir o cuestionar el trabajo. Esto incluye compartir datos abiertos, protocolos, códigos y materiales usados, para que el estudio pueda ser examinado y validado por terceros.

3. Evaluación (Assessment)

El estudio debe haber sido sometido a algún tipo de revisión crítica, ya sea a través del proceso tradicional de revisión por pares, revisiones independientes, replicaciones por otros investigadores o críticas constructivas. La evaluación rigurosa ayuda a detectar errores o sesgos que podrían afectar la confiabilidad.

4. Formulación adecuada (Well-formulated)

El problema de investigación debe estar claramente definido, con objetivos precisos y relevantes. Un estudio bien planteado evita ambigüedades que dificultan interpretar los resultados y asegura que las preguntas que busca responder son importantes y están claramente expresadas.

5. Control de sesgos y errores (Control of biases and errors)

Los investigadores deben usar métodos para minimizar la influencia de prejuicios, errores sistemáticos o aleatorios que podrían distorsionar los resultados. Esto puede incluir diseño experimental riguroso, uso de controles, aleatorización y análisis estadísticos adecuados para validar la robustez del hallazgo.

6. Justificación de conclusiones (Justification of conclusions)

Las conclusiones que se presentan deben estar respaldadas por la evidencia empírica recogida. No basta con afirmar algo llamativo o deseable; debe haber una relación clara entre los datos y las interpretaciones o afirmaciones que se hacen.

7. Transparencia y comunicación (Transparency and communication)

Finalmente, el estudio debe comunicar claramente los métodos, limitaciones, resultados y cualquier conflicto de interés. La transparencia en la comunicación permite que otros comprendan plenamente el contexto y alcance del estudio, y facilita que se interpreten correctamente los hallazgos.

Los tres grandes de la información científica: una revisión bibliométrica comparativa de Web of Science, Scopus y OpenAlex

Torres-Salinas, Daniel & Arroyo-Machado, Wenceslao (2026). The ‘Big Three’ of Scientific Information: A Comparative Bibliometric Review of Web of Science, Scopus, and OpenAlex (preprint). arXiv:2601.21908. doi:10.48550/arXiv.2601.21908. https://arxiv.org/abs/2601.21908

Se ofrece un análisis comparativo exhaustivo de las tres principales bases de datos bibliográficas multidisciplinares utilizadas globalmente para la evaluación de la investigación científica: Web of Science Core Collection (WoS), Scopus y OpenAlex.

El estudio está motivado por la necesidad de evidencia actualizada que permita a bibliotecarios, gestores de investigación, evaluadores académicos y responsables de políticas comprender las fortalezas y limitaciones de cada fuente en cuanto a cobertura documental, calidad y riqueza de metadatos, diversidad lingüística y funcionalidades disponibles para análisis evaluativos.

La investigación se estructura en dos grandes secciones metodológicas. La primera consiste en una revisión sistemática de la literatura reciente, donde se sintetizan estudios previos sobre volumen de registros, cobertura de acceso abierto, diversidad lingüística, cobertura de referencias y calidad de metadatos en cada uno de los tres sistemas. Se detallan características clave: WoS y Scopus funcionan como bases de datos comerciales con criterios editoriales rigurosos y herramientas analíticas integradas, mientras que OpenAlex, de acceso completamente abierto, destaca por su enorme volumen de registros y su mayor inclusión de fuentes de países del Sur global, aunque también presenta mayores tasas de errores o inconsistencias en metadatos.

La segunda parte del trabajo es un análisis bibliométrico original basado en datos empíricos del período 2015-2024. Este análisis abarca la distribución longitudinal de publicaciones, los tipos documentales, perfiles temáticos, diferencias por idioma y el grado de solapamiento entre bases de datos usando DOI como llave de correspondencia. Este contraste evidencia que WoS y Scopus tienen un alto grado de superposición entre sí, ofreciendo consistencia en sus coberturas, mientras que OpenAlex amplía significativamente la representatividad total, especialmente en idiomas distintos del inglés y en revistas de acceso abierto, aunque con menor precisión en ciertos metadatos básicos (por ejemplo, afiliaciones institucionales, clasificaciones temáticas y años de publicación).

la tabla muestra que OpenAlex contiene un volumen de publicaciones considerablemente mayor en total (36,150,302) que Web of Science (23,508,100) y Scopus (26,645,058), aunque el porcentaje total de cobertura (clasificación completa) es menor —67 % frente a ~98 % en las otras dos bases— lo que indica que en OpenAlex no todas las publicaciones tienen asignada un área temática.

En detalle por áreas temáticas:

  • Ciencias sociales y humanidades:
    Web of Science muestra 2,121,562 publicaciones (9 % del total de su contenido clasificado), Scopus 3,229,265 (12.1 %) y OpenAlex 7,390,532 (20.4 %). Esto indica que OpenAlex tiene una mayor proporción de publicaciones en ciencias sociales y humanidades que las bases comerciales, sugiriendo una cobertura más amplia de este campo.
  • Ciencias biomédicas y de la salud:
    Las tres bases reflejan que esta es el área con más publicaciones. Web of Science tiene 10,178,006 (43.3 %), Scopus 9,932,031 (37.3 %) y OpenAlex 12,473,349 (34.5 %). Aunque OpenAlex tiene más publicaciones absolutas, su porcentaje es menor, lo que puede deberse a su mayor diversidad temática.
  • Ciencias físicas e ingeniería:
    En este campo Web of Science registra 5,429,077 (23.1 %), Scopus 5,984,787 (22.5 %) y OpenAlex 6,435,849 (17.8 %). Aquí también se observa que OpenAlex tiene la menor proporción relativa, probablemente porque su enorme volumen de registros incluye muchos trabajos de otras áreas.
  • Ciencias de la vida y de la tierra:
    Las cifras son: Web of Science con 3,480,765 (14.8 %), Scopus con 4,714,799 (17.7 %) y OpenAlex con 5,556,612 (15.4 %). La proporción de OpenAlex es similar a la de WoS, mientras que Scopus muestra un porcentaje relativamente mayor en esta área.
  • Matemáticas y ciencias de la computación:
    Web of Science tiene 2,298,690 (9.8 %), Scopus 2,784,176 (10.4 %) y OpenAlex 4,293,960 (11.9 %). Aquí también OpenAlex muestra una participación proporcional ligeramente mayor que las otras bases, aunque las cifras absolutas reflejan la amplitud de su cobertura general.

Los resultados globales ponen de manifiesto que ninguna base de datos por sí sola ofrece un panorama completo de la actividad científica mundial: WoS y Scopus destacan por su fiabilidad y calidad editorial, pero son más limitadas en cobertura no anglófona y en contenidos abiertos; OpenAlex, por su parte, proporciona una biodiversidad documental más amplia, aunque requiere ajustes metodológicos adicionales para asegurar la calidad de los datos a nivel evaluativo. El estudio concluye con un resumen de diez puntos principales y propone cinco recomendaciones prácticas, destacando la necesidad de combinar fuentes en evaluaciones estratégicas, adaptar protocolos según objetivos (por ejemplo, evaluación formal vs. estudios exploratorios) e integrar enfoques críticos que mitiguen sesgos geográficos y lingüísticos en el análisis de la literatura científica global.

Un mapeo global de los idiomas en las publicaciones académicas y sus citas

Pradier, Carolina, Lucía Céspedes y Vincent Larivière. 2026. “How Multilingual Is Scholarly Communication? Mapping the Global Distribution of Languages in Publications and Citations.Journal of the Association for Information Science and Technology 1–15. https://doi.org/10.1002/asi.70055

El artículo aborda la diversidad lingüística en la comunicación científica global, un tema que ha recibido atención en estudios regionales, pero que escasea en análisis de gran escala con datos objetivos.

Los autores identifican que el idioma es una fuente importante de inequidades sistémicas en ciencia, ya que favorece a quienes publican en inglés, mientras que los investigadores que utilizan otros idiomas enfrentan barreras para la visibilidad, la difusión y el reconocimiento de su trabajo. Este tipo de desigualdades se vuelve evidente en la producción y citación de publicaciones científicas, donde el predominio del inglés puede limitar la participación efectiva de hablantes no nativos.

Para examinar esta cuestión, el estudio utiliza datos bibliométricos masivos de dos fuentes amplias: OpenAlex y Dimensions. Estas bases de datos permiten analizar tanto el idioma de las publicaciones científicas (cerca de 87,5 millones) como el idioma de los artículos citados dentro de esas publicaciones (aproximadamente 1,48 mil millones) para el período 1990–2023. A partir de este enorme corpus de datos, los autores miden la proporción de artículos publicados en diferentes idiomas, así como las prácticas de citación relativas al idioma.

Los resultados muestran que, si bien el inglés continúa dominando la comunicación científica global, algunas lenguas han crecido más rápido que el inglés en términos de producción científica reciente, especialmente el indonesio, el portugués y el español. Este crecimiento está relacionado con la expansión de circuitos académicos regionales —por ejemplo, en América Latina e Indonesia— que fortalecen la producción y circulación de conocimiento en lenguas distintas del inglés. Este fenómeno sugiere que las políticas nacionales que valoran tanto la publicación en la lengua local como en inglés pueden tener impactos concretos sobre la distribución lingüística de las publicaciones científicas.

Otra dimensión importante del estudio es la preferencia por publicar y citar en la misma lengua (own-language preference). Los autores señalan que los investigadores tienden a citar obras en su propio idioma con más frecuencia de lo esperado por azar, especialmente en los idiomas distintos al inglés. Esto pone de manifiesto no solo la persistencia de prácticas lingüísticas locales, sino también una fuerte conexión entre el multilingüismo y la bibliodiversidad —entendida como la diversidad de lenguas, formatos y enfoques en la comunicación científica—. Además, se observa que las ciencias sociales y las humanidades son los campos menos dominados por el inglés, lo que contrasta con disciplinas como las ciencias naturales o biomédicas, donde el inglés es casi universal.

Los hallazgos del artículo ponen de relieve que el dominio del inglés no es absoluto ni inmutable, sino que está siendo matizado por desarrollos regionales y políticas de comunicación científica que validan otras lenguas. Al mismo tiempo, el estudio reconoce que las bases de datos bibliométricas aún subrepresentan contenido no anglófono, lo que implica que la diversidad real puede ser mayor de lo que se observa. En conjunto, estos resultados invitan a repensar las prácticas de evaluación científica global y a promover enfoques que reconozcan la riqueza del multilingüismo en la generación y difusión del conocimiento

La muerte de las revistas científicas

Beale, R. (2025). In Memoriam: The Academic Journal (preprint). arXiv:2512.23915v1. Recuperado de https://arxiv.org/html/2512.23915v1

Se trata de un ensayo reflexivo que traza la historia, evolución y final simbólico de la revista académica tradicional considerando su impacto profundo en la ciencia, la sociedad y la cultura académica moderna.

El texto empieza con una evocación de los orígenes de las publicaciones científicas en el siglo XVII, destacando el papel pionero del Journal des Sçavans y de Philosophical Transactions, que establecieron el formato y la intención de los primeros medios de difusión científica impulsados por académicos para académicos. En estas primeras etapas, las revistas eran herramientas para compartir descubrimientos y avanzar el conocimiento colectivo, libre de intereses comerciales predominantes.

Beale describe cómo las revistas académicas ingresaron a su “edad adulta”, abrazando el sistema de revisión por pares y consolidándose como guardián de la calidad científica. Sin embargo, con la entrada de grandes editoriales comerciales tras la Segunda Guerra Mundial, este modelo se transformó bajo una lógica capitalista: académicos que generaban contenido y revisión sin remuneración, mientras las editoriales recibian beneficios sustanciales al vender acceso a ese conocimiento. Esta etapa marcó una transición crucial desde el propósito original de difusión científica hacia un sistema en el que las publicaciones se convirtieron en métricas de prestigio y progreso profesional, impulsadas por la filosofía de “Publicar o Perecer”.

En el desarrollo de la “madurez” de las revistas científicas, el autor ilustra cómo la proliferación de indicadores cuantitativos (factor de impacto, índice h, etc.) y el énfasis en méritos numéricos distorsionaron el valor de la investigación, priorizando la cantidad sobre la calidad y debilitando prácticas fundamentales como la replicación de resultados. Este enfoque paradigmático condujo a la expansión de unidades mínimas publicables (MPU) y a prácticas que, aunque eficientes para avanzar en carreras académicas, erosionaron la esencia del método científico.

Beale también sitúa a las revistas académicas dentro del contexto de las transformaciones tecnológicas de finales del siglo XX y principios del XXI, señalando cómo servicios como arXiv y las iniciativas de acceso abierto retaron el dominio tradicional de las publicaciones impresas. Aunque estos “descendientes” surgieron con filosofías más abiertas, la presión institucional por métricas de prestigio a menudo relegó su valor dentro de la evaluación profesional.

Finalmente, el ensayo culmina con la “muerte” simbólica de las revistas científicas el 1 de enero de 2026 —una metáfora que representa el agotamiento del modelo tradicional frente a la proliferación de contenidos generados y compartidos a gran escala, en parte facilitados por herramientas de inteligencia artificial como ChatGPT que erosionan las barreras de entrada del proceso editorial clásico. Esta conclusión lleva al lector a meditar sobre el legado de las revistas: celebradas por su rol en la sistematización del conocimiento, pero también criticadas por cómo se distanciaron de sus ideales fundacionales para convertirse en engranajes de una maquinaria profesional y comercial que, según el autor, ya no puede sostener de manera íntegra la misión original de la comunicación científica

¿Por qué los autores no revelan el uso de IA en sus trabajos de investigación?

Staiman, Avi. 2026. “Why Authors Aren’t Disclosing AI Use and What Publishers Should (Not) Do About It.The Scholarly Kitchen, January 27, 2026. https://scholarlykitchen.sspnet.org/2026/01/27/why-authors-arent-disclosing-ai-use-and-what-publishers-should-not-do-about-it/

El artículo aborda el fenómeno creciente de que muchos autores académicos no están declarando el uso de herramientas de inteligencia artificial (IA) en sus procesos de investigación y redacción, a pesar de que un número significativo de ellos reconoce emplearlas en distintas fases del trabajo científico

Staiman explica que, aunque las editoriales han desarrollado políticas que requieren declaraciones sobre el uso de IA con el objetivo de mantener la integridad de la literatura científica, estas normas no están siendo efectivamente cumplidas: solo un porcentaje muy bajo de autores realmente declara haber usado IA en sus manuscritos. Esta brecha entre las expectativas formales de transparencia y la práctica real refleja, según el autor, varios factores humanos y estructurales que dificultan la declaración abierta de asistencia artificial en la escritura científica.

Una de las principales razones de esta falta de transparencia es el miedo de los investigadores a que la divulgación de uso de IA sea percibida negativamente por editores y revisores, lo que podría influir adversamente en la evaluación de la calidad, originalidad o rigor del trabajo. Aunque muchos investigadores usan IA para tareas como mejorar la redacción, sintetizar información o buscar literatura relevante, existe una percepción persistente de que tal uso podría ser interpretado como una forma de atajo o amenaza a la integridad académica, lo que crea un ambiente en el que los autores prefieren omitir estas declaraciones.

Otra barrera importante es la confusión y falta de claridad en las directrices editoriales: las políticas de las revistas y editoriales varían ampliamente sobre qué tipo de uso de IA debe ser declarado, cuándo hacerlo y cómo documentarlo. Algunos requisitos son vagos o excesivamente complejos, lo que genera incertidumbre en los autores respecto a si deben declarar, cómo hacerlo o si incluso es obligatorio. Esta ambigüedad, combinada con la carga adicional de trabajo que supone documentar exhaustivamente cada instancia de uso de IA y la ausencia de incentivos claros para hacerlo, contribuye a que muchos autores opten por no reportarlo.

Además, el artículo señala que algunos autores ni siquiera son conscientes del uso de IA en herramientas integradas en aplicaciones comunes (como asistentes de redacción en suites ofimáticas), lo que dificulta aún más la trazabilidad y divulgación de la asistencia artificial. También destaca una confusión extendida entre el uso de IA y el plagio, lo que lleva a algunos autores a tratar de ocultar signos de asistencia de IA en lugar de ser transparentes, con la intención de evitar evaluaciones negativas o fallos en las pruebas de detección.

Finalmente, el autor advierte que, si las editoriales no clarifican, educan y, sobre todo, repiensan cómo deben abordar el uso de IA, es probable que la falta de divulgación continúe. Argumenta que las editoriales no deberían centrarse en herramientas de detección de IA —las cuales son poco fiables y pueden reforzar la idea de que el uso de IA es inaceptable— sino en proporcionar directrices claras, educar a la comunidad académica sobre prácticas responsables y crear políticas que reconozcan las distintas formas legítimas de asistencia de IA sin sacrificar la integridad de la investigación.

Actitudes y comportamientos de comunicación académica entre investigadores de la Generación Z

Nicholas, David; Clark, David; Abdullah, Abrizah; Revez, Jorge; Rodríguez Bravo, Blanca; Świgoń, Marzena; y Akeroyd, John. “The scholarly communication attitudes and behaviours of Gen‑Z researchers: a pathfinding study.” Cambridge Open Engage, 23 de enero de 2026, DOI: 10.33774/coe‑2026‑s8b36. Cambridge University Press, 2026

Texto completo

Estudio piloto cualitativo que explora las actitudes y comportamientos de comunicación académica de investigadores de la Generación Z (nacidos aproximadamente entre mediados de los 90 y comienzos de los 2010) en comparación con colegas pertenecientes a generaciones anteriores dentro de la misma fase de carrera académica. El objetivo central de este trabajo fue identificar diferencias emergentes que puedan justificar una investigación más amplia en el futuro.

La investigación se basó en entrevistas en profundidad de aproximadamente una hora con alrededor de 30 investigadores de la Generación Z provenientes de ocho países y abarcando diversas disciplinas. Para contextualizar estos hallazgos, los autores compararon las experiencias narradas por los participantes más jóvenes con un grupo más amplio de 120 investigadores más veteranos.

Además, el equipo de investigación empleó análisis mediante IA (Claude AI) no sólo para procesar los datos cualitativos obtenidos, sino también para evaluar el estado actual de la literatura publicada sobre comunicación académica entre investigadores jóvenes. Este uso de IA refleja una tendencia hacia la integración de herramientas tecnológicas en la propia praxis investigadora, algo que también está siendo observado como una característica distintiva entre generaciones.

Entre los hallazgos preliminares, los autores destacan que los investigadores de la Generación Z tienden a adoptar estratégicamente la inteligencia artificial como un medio para mejorar su eficiencia y avanzar en sus carreras académicas. En contraste, los investigadores más experimentados muestran una mayor conciencia crítica y cautela respecto a las implicaciones filosóficas y éticas del uso de estas tecnologías en la comunicación y difusión del conocimiento científico.

El estudio concluye que, pese a las limitaciones de tamaño y alcance de la muestra, existen diferencias suficientemente claras en prácticas y actitudes que justifican una investigación ampliada. Esto podría enriquecer la comprensión de cómo evoluciona la comunicación académica en un contexto globalizado y tecnológicamente mediado, particularmente entre los recién llegados al mundo académico frente a generaciones anteriores.

Tres importantes universidades de investigación renuncian al nuevo acuerdo con Elsevier

Grove, Jack. “Three Major Research Universities Opt Out of New Elsevier Deal.Times Higher Education, 22 de enero de 2026. https://www.timeshighereducation.com/news/three-major-research-universities-opt-out-new-elsevier-deal

En enero de 2026, tres universidades británicas centradas en investigación anunciaron que no renovarán sus acuerdos con la editorial académica Elsevier, a pesar de que una negociación nacional liderada por el organismo sectorial Jisc había concluido recientemente con ofertas de suscripción consideradas “fuertes y con ahorro comparado con precios históricos”.

Estas instituciones, entre las cuales figuran la University of Kent, la University of Essex y la University of Sussex, decidieron no adherirse al nuevo acuerdo Read and Publish con Elsevier para 2026. La University of Kent explicó que los fondos liberados se destinarán a apoyar un enfoque más sostenible y centrado en los investigadores hacia la publicación en acceso abierto, incluyendo la financiación de los cargos por procesamiento de artículos (APCs) en las propias revistas de Elsevier.

La University of Essex expresó insatisfacción con los aumentos de precio propuestos y la falta de compromiso de Elsevier para avanzar hacia un modelo de acceso abierto más sólido, aunque la universidad mantiene acuerdos con otros grandes editores como Sage, Springer Nature, Taylor & Francis y Wiley para 2026.

Por su parte, la University of Sussex tampoco renovó con Elsevier y ha listado acuerdos con editores más pequeños para el periodo 2026–28. Las decisiones de estas universidades reflejan tensiones crecientes en el sector académico sobre el coste de las suscripciones y el papel de los grandes editores comerciales en el acceso a contenidos científicos.

Aunque muchos campus del Reino Unido aún no han declarado si aceptarán el acuerdo negociado por Jisc, hay predicciones de que más instituciones puedan optar por no adherirse a medida que expiren los plazos de transición. Algunos analistas señalan que decisiones similares tomadas en 2025 por universidades como Sheffield, Surrey o York demostraron que los investigadores pueden continuar su trabajo utilizando vías alternativas para acceder al material científico sin un acuerdo de suscripción directa con Elsevier.

Adiós a Elsevier y Clarivate: OpenAlex y la nueva era de la ciencia abierta

Winemiller, Sam. 2026. OpenAlex and Values‑Aligned Tools. ACRLog, 26 de enero de 2026. https://acrlog.org/2026/01/26/openalex-and-values-aligned-tools/

Se hace una llamada a la comunidad académica y bibliotecaria para cuestionar la hegemonía de herramientas comerciales en la evaluación científica y abrazar alternativas abiertas como OpenAlex —no solo por su utilidad técnica, sino también por su potencial para reflejar y reforzar valores compartidos de acceso abierto, inclusión y control comunitario sobre las infraestructuras que sostienen el conocimiento global.

La academia necesita desvincular de las entidades corporativas nuestra capacidad para comprender y evaluar la actividad académica. Compañías como Elsevier y Clarivate han integrado efectivamente métodos de evaluación en la academia que dependen de sus herramientas propietarias (Scopus y SciVal; Web of Science y Journal Citation Reports e InCites, respectivamente). De manera conveniente, estos productos también emiten juicios sobre la “legitimidad” de los lugares de publicación académica y sobre si son valiosos como líneas dentro de un expediente de promoción o para decisiones de suscripción bibliotecaria, lo que plantea preguntas sobre posibles conflictos de interés. Uno podría suponer que las revistas propiedad de Elsevier rara vez se excluyen del corpus de Scopus, por ejemplo.

La necesidad de separar la indexación y evaluación de la actividad académica del control corporativo coincide con la necesidad de recuperar cierto grado de control sobre todo el sistema de publicación académica. Un camino posible sería un cambio significativo hacia espacios gestionados por instituciones académicas, sociedades científicas o alianzas académicas, en lugar de editores con fines de lucro; sin embargo, un obstáculo básico para este cambio es la indexación inconsistente e incompleta de dichos espacios en gráficos de conocimiento científico como Scopus y Web of Science. En su reciente artículo sobre el tema, Nazarovets et al. (2026) concluyen con esta sugerencia: “…la visibilidad desigual de las UJs [revistas universitarias] resalta un punto ciego estructural en la evaluación global de la investigación: a menos que infraestructuras más inclusivas como DOAJ y OpenAlex sean ampliamente reconocidas y mejoradas en cuanto a cobertura y fiabilidad de metadatos, grandes partes de la producción académica permanecerán invisibles incluso si se decide abandonar WoS [Web of Science] y Scopus.” Este es solo uno de los posibles beneficios de invertir en infraestructura abierta como OpenAlex (tal como lo recomienda la UNESCO). La infraestructura abierta puede definirse como herramientas y recursos fundamentales, gratuitos, sobre los cuales se puede realizar, compartir y explorar la ciencia y la investigación abierta.

Para quienes no estén familiarizados con OpenAlex, es esencialmente una gran base de datos de trabajos académicos y metadatos relacionados. OpenAlex se centra en la inclusión amplia de trabajos académicos, en contraste con la “curaduría” de fuentes legítimas practicada por servicios propietarios. Posee una interfaz web y puede consultarse mediante API, pero en esencia es una infraestructura dedicada al dominio público a través de la licencia CC0, mantenida activamente por una organización sin fines de lucro (501(c)3). Por supuesto, depender de datos de citas reportados por los editores puede ser cuestionable, pero mientras trabajamos en reconocer y recompensar otros tipos de evidencia sobre el impacto de la investigación, al menos podemos usar datos de citas lo más completos posibles.

¿Es OpenAlex tan bueno como sus competidores? Según mi experiencia, suele ser igual o mejor para la mayoría de propósitos, como generar listas de publicaciones de autores, incluyendo preprints, o analizar tendencias de publicación en acceso abierto de una institución a lo largo del tiempo. La mayoría de quienes lo han explorado a fondo parecen coincidir. Culbert et al. (2024) analizaron la cobertura de referencias de OpenAlex en comparación con Web of Science y Scopus, encontrándola “comparable”, incluso antes de las recientes mejoras de OpenAlex, que incluyeron más de 50 millones de trabajos nuevos. En una revisión de Katina, Ho (2025) calificó a OpenAlex como “…una alternativa prometedora y fiable a las bases de datos de citas tradicionales por suscripción para investigadores, administradores universitarios, instituciones de investigación y organismos gubernamentales interesados en actividades de investigación y colaboraciones potenciales.” Otras herramientas de descubrimiento académico, como Overton, utilizan OpenAlex como fuente de datos fundamental.

Cada persona necesitará probarlo para evaluar si su usabilidad cumple con sus estándares, pero para quienes dudan, basta considerar que el simple uso de estas herramientas puede ser una pequeña contribución hacia un futuro diferente para la infraestructura de investigación. Los coordinadores involucrados en la Declaración de Barcelona sobre Información de Investigación Abierta comentaron sobre el compromiso de la declaración de apoyar infraestructuras para información de investigación abierta:

“Lo que creemos importante para las organizaciones es asumir seriamente su responsabilidad de apoyar estas infraestructuras, las cuales solo pueden existir y desarrollarse si son usadas y apoyadas. Esto incluye apoyo financiero, pero también puede involucrar participación en la gobernanza y contribuciones en especie, como aportar datos y mejorar su calidad. En cuanto a las contribuciones financieras, la Universidad de la Sorbona es un gran ejemplo: cuando se dieron de baja de Web of Science, redirigieron parte de ese presupuesto a apoyar OpenAlex. En general, abogamos por hacer de las inversiones en infraestructura abierta una parte integral de los presupuestos institucionales.”

Para muchos en bibliotecas universitarias, no contamos con recursos significativos para invertir o desinvertir, aunque votar con nuestro dinero sigue siendo una opción si tenemos autorización para hacerlo. Sin embargo, lo que sí está dentro de nuestro ámbito de influencia es aprender sobre infraestructura alineada con valores y usarla, aprovechando nuestras posiciones como profesionales de la información para enseñar y motivar a otros a usar infraestructura alineada con valores. En mi institución, hemos empezado con proyectos pequeños, como integrar OpenAlex en nuestra plataforma local de perfiles académicos y trabajar para añadir nuestro repositorio institucional como fuente de datos para OpenAlex. Ya sea OpenAlex u otra herramienta alineada con valores, podemos “votar” con nuestro uso como un pequeño acto diario de apoyo o resistencia. Enseñando sobre estas herramientas, pequeños actos individuales se convierten en poder colectivo.