Archivo de la etiqueta: Investigación

Adiós a Elsevier y Clarivate: OpenAlex y la nueva era de la ciencia abierta

Winemiller, Sam. 2026. OpenAlex and Values‑Aligned Tools. ACRLog, 26 de enero de 2026. https://acrlog.org/2026/01/26/openalex-and-values-aligned-tools/

Se hace una llamada a la comunidad académica y bibliotecaria para cuestionar la hegemonía de herramientas comerciales en la evaluación científica y abrazar alternativas abiertas como OpenAlex —no solo por su utilidad técnica, sino también por su potencial para reflejar y reforzar valores compartidos de acceso abierto, inclusión y control comunitario sobre las infraestructuras que sostienen el conocimiento global.

La academia necesita desvincular de las entidades corporativas nuestra capacidad para comprender y evaluar la actividad académica. Compañías como Elsevier y Clarivate han integrado efectivamente métodos de evaluación en la academia que dependen de sus herramientas propietarias (Scopus y SciVal; Web of Science y Journal Citation Reports e InCites, respectivamente). De manera conveniente, estos productos también emiten juicios sobre la “legitimidad” de los lugares de publicación académica y sobre si son valiosos como líneas dentro de un expediente de promoción o para decisiones de suscripción bibliotecaria, lo que plantea preguntas sobre posibles conflictos de interés. Uno podría suponer que las revistas propiedad de Elsevier rara vez se excluyen del corpus de Scopus, por ejemplo.

La necesidad de separar la indexación y evaluación de la actividad académica del control corporativo coincide con la necesidad de recuperar cierto grado de control sobre todo el sistema de publicación académica. Un camino posible sería un cambio significativo hacia espacios gestionados por instituciones académicas, sociedades científicas o alianzas académicas, en lugar de editores con fines de lucro; sin embargo, un obstáculo básico para este cambio es la indexación inconsistente e incompleta de dichos espacios en gráficos de conocimiento científico como Scopus y Web of Science. En su reciente artículo sobre el tema, Nazarovets et al. (2026) concluyen con esta sugerencia: “…la visibilidad desigual de las UJs [revistas universitarias] resalta un punto ciego estructural en la evaluación global de la investigación: a menos que infraestructuras más inclusivas como DOAJ y OpenAlex sean ampliamente reconocidas y mejoradas en cuanto a cobertura y fiabilidad de metadatos, grandes partes de la producción académica permanecerán invisibles incluso si se decide abandonar WoS [Web of Science] y Scopus.” Este es solo uno de los posibles beneficios de invertir en infraestructura abierta como OpenAlex (tal como lo recomienda la UNESCO). La infraestructura abierta puede definirse como herramientas y recursos fundamentales, gratuitos, sobre los cuales se puede realizar, compartir y explorar la ciencia y la investigación abierta.

Para quienes no estén familiarizados con OpenAlex, es esencialmente una gran base de datos de trabajos académicos y metadatos relacionados. OpenAlex se centra en la inclusión amplia de trabajos académicos, en contraste con la “curaduría” de fuentes legítimas practicada por servicios propietarios. Posee una interfaz web y puede consultarse mediante API, pero en esencia es una infraestructura dedicada al dominio público a través de la licencia CC0, mantenida activamente por una organización sin fines de lucro (501(c)3). Por supuesto, depender de datos de citas reportados por los editores puede ser cuestionable, pero mientras trabajamos en reconocer y recompensar otros tipos de evidencia sobre el impacto de la investigación, al menos podemos usar datos de citas lo más completos posibles.

¿Es OpenAlex tan bueno como sus competidores? Según mi experiencia, suele ser igual o mejor para la mayoría de propósitos, como generar listas de publicaciones de autores, incluyendo preprints, o analizar tendencias de publicación en acceso abierto de una institución a lo largo del tiempo. La mayoría de quienes lo han explorado a fondo parecen coincidir. Culbert et al. (2024) analizaron la cobertura de referencias de OpenAlex en comparación con Web of Science y Scopus, encontrándola “comparable”, incluso antes de las recientes mejoras de OpenAlex, que incluyeron más de 50 millones de trabajos nuevos. En una revisión de Katina, Ho (2025) calificó a OpenAlex como “…una alternativa prometedora y fiable a las bases de datos de citas tradicionales por suscripción para investigadores, administradores universitarios, instituciones de investigación y organismos gubernamentales interesados en actividades de investigación y colaboraciones potenciales.” Otras herramientas de descubrimiento académico, como Overton, utilizan OpenAlex como fuente de datos fundamental.

Cada persona necesitará probarlo para evaluar si su usabilidad cumple con sus estándares, pero para quienes dudan, basta considerar que el simple uso de estas herramientas puede ser una pequeña contribución hacia un futuro diferente para la infraestructura de investigación. Los coordinadores involucrados en la Declaración de Barcelona sobre Información de Investigación Abierta comentaron sobre el compromiso de la declaración de apoyar infraestructuras para información de investigación abierta:

“Lo que creemos importante para las organizaciones es asumir seriamente su responsabilidad de apoyar estas infraestructuras, las cuales solo pueden existir y desarrollarse si son usadas y apoyadas. Esto incluye apoyo financiero, pero también puede involucrar participación en la gobernanza y contribuciones en especie, como aportar datos y mejorar su calidad. En cuanto a las contribuciones financieras, la Universidad de la Sorbona es un gran ejemplo: cuando se dieron de baja de Web of Science, redirigieron parte de ese presupuesto a apoyar OpenAlex. En general, abogamos por hacer de las inversiones en infraestructura abierta una parte integral de los presupuestos institucionales.”

Para muchos en bibliotecas universitarias, no contamos con recursos significativos para invertir o desinvertir, aunque votar con nuestro dinero sigue siendo una opción si tenemos autorización para hacerlo. Sin embargo, lo que sí está dentro de nuestro ámbito de influencia es aprender sobre infraestructura alineada con valores y usarla, aprovechando nuestras posiciones como profesionales de la información para enseñar y motivar a otros a usar infraestructura alineada con valores. En mi institución, hemos empezado con proyectos pequeños, como integrar OpenAlex en nuestra plataforma local de perfiles académicos y trabajar para añadir nuestro repositorio institucional como fuente de datos para OpenAlex. Ya sea OpenAlex u otra herramienta alineada con valores, podemos “votar” con nuestro uso como un pequeño acto diario de apoyo o resistencia. Enseñando sobre estas herramientas, pequeños actos individuales se convierten en poder colectivo.

Citas fantasma y ciencia creada con ayuda de IA en un informe sobre salud infantil de la administración Trump

Manto, Margaret. “The MAHA Report Has Been Updated to Replace Citations That Didn’t Exist.” NOTUS, 29 de mayo de 2025. https://www.notus.org/health-science/maha-report-update-citations

El informe MAHA, publicado en mayo de 2025 y encargado a la secretaria de Salud y Servicios Humanos, Robert F. Kennedy Jr., contenía numerosas referencias a estudios que no existían o eran fabricados, lo que sugiere que partes significativas del texto podrían haber sido generadas mediante prompts a sistemas de generative AI (IA generativa)

El informe Make America Healthy Again (MAHA), un documento emblemático publicado por la Comisión MAHA bajo la administración de Donald Trump, centrado en la salud infantil y en causas de enfermedad crónica en Estados Unidos. Una investigación del propio medio reveló originalmente que al menos siete citas incluidas en la versión inicial del informe simplemente no existían en la literatura científica —es decir, atribuían estudios que no estaban publicados o que jamás fueron escritos por los autores listados— lo que llevó a una fuerte preocupación por la integridad científica del texto.

Ante esta revelación, la Casa Blanca y el Departamento de Salud y Servicios Humanos (HHS) procedieron a reemplazar las citas inexistentes en una nueva versión del informe publicada en el sitio oficial de la Casa Blanca. Cinco de las referencias falsas fueron sustituidas por trabajos completamente distintos, y dos por estudios reales de los mismos autores mencionados previamente, aunque con títulos y contenidos distintos. Por ejemplo, un estudio epidemiológico supuestamente escrito por la investigadora Katherine Keyes fue reemplazado por un enlace a un artículo de KFF Health News sobre un tema similar, y otras referencias vinculadas a publicidad de medicamentos en niños se cambiaron por artículos periodísticos y estudios más antiguos sobre tendencias en uso de psicofármacos. Aunque estas nuevas fuentes parecen corresponder a estudios legítimos, no está claro si respaldan de manera precisa las afirmaciones formuladas en el informe original.

Además de sustituir las citas inexistentes, la versión actualizada también modificó referencias que habían sido mal interpretadas en la versión previa. Por ejemplo, un estudio que se usó para sostener que la psicoterapia es tan eficaz como los medicamentos en el corto plazo fue reemplazado después de que uno de los autores originales señalará a NOTUS que su investigación no incluía psicoterapia dentro de los parámetros analizados. A pesar de los cambios, tanto la Casa Blanca como funcionarios de HHS minimizaron la gravedad de los errores, describiéndolos como problemas menores de formato que ya habían sido corregidos, y defendieron la sustancia general del informe. Voceros oficiales declararon que el documento sigue siendo una evaluación histórica y transformadora para entender la epidemia de enfermedades crónicas que afectan a los niños estadounidenses, y subrayaron que los ajustes no alteran sus conclusiones principales.

Sin embargo, la actualización y corrección de citas ha suscitado debates profundos sobre los estándares de rigor científico que deben aplicarse a informes gubernamentales de salud pública, especialmente cuando estos documentos se utilizan para formular políticas importantes. Organizaciones periodísticas, científicos y legisladores han cuestionado la confiabilidad de las referencias del MAHA report y han pedido mayor transparencia en cómo se elaboran y revisan estos textos, así como sobre el uso de tecnologías como la inteligencia artificial durante su redacción. La situación ilustra las tensiones entre la comunicación científica, la integridad académica y las prioridades políticas en la producción de informes de política pública.

La ciencia se está ahogando en la basura de la IA

Andersen, Ross. 2026. “Science Is Drowning in AI Slop.The Atlantic, 22 de enero de 2026. https://www.msn.com/en-us/news/us/science-is-drowning-in-ai-slop/ar-AA1UK0tV

Ross Andersen aborda una crisis creciente en el mundo académico: el aluvión de investigaciones generadas con apoyo de inteligencia artificial que están saturando la producción científica con contenidos de baja calidad, irrelevantes o incluso falsos, lo que él denomina “AI slop” —una especie de desecho digital académico– que la comunidad científica aún no ha aprendido a gestionar eficazmente.

Cada día, en Bluesky y LinkedIn, Quintana veía a académicos publicar mensajes sobre el hallazgo de estas “citas fantasma” en artículos científicos. (La versión inicial del “Informe MAHA” de la administración Trump sobre la salud infantil, publicada la pasada primavera, contenía más de media docena de ellas). Pero hasta que Quintana encontró un falso artículo firmado por un “Quintana” citado en una revista para la que actuaba como revisor, había pensado que el problema se limitaba a publicaciones con estándares más bajos. “Cuando ocurre en una revista que respetas, te das cuenta de lo extendido que está el problema”.

Casi inmediatamente después de que los grandes modelos de lenguaje se popularizaran, los manuscritos comenzaron a llegar a las bandejas de entrada de las revistas en cantidades nunca vistas. Parte de este fenómeno puede atribuirse a la capacidad de la IA para aumentar la productividad, especialmente entre científicos no angloparlantes que necesitan ayuda para presentar su investigación. Pero ChatGPT y herramientas similares también se están utilizando para dar una nueva apariencia de plausibilidad a trabajos fraudulentos o chapuceros, según Mandy Hill, directora general de publicación académica en Cambridge University Press & Assessment. Esto hace que la tarea de separar el grano de la paja sea mucho más lenta para editores y revisores, y también más compleja desde el punto de vista técnico.

Andersen explica que la presión por publicar, combinada con la facilidad de generación de texto e incluso figuras mediante modelos de lenguaje avanzados, ha hecho que conferencias y revistas reciban enormes cantidades de trabajos que no aportan hallazgos verificables ni replicables, y que rara vez se someten a una revisión crítica profunda.

Este problema se agrava por la propia mecánica de la revisión por pares: muchos revisores están recurriendo también a herramientas de IA para evaluar artículos, y al mismo tiempo algunos autores insertan mensajes ocultos que incitan a estas IA a elogiar sus textos, lo que distorsiona aún más el proceso. Andersen describe casos concretos, como ilustraciones generadas que parecen plausibles pero son absurdas o científicamente incorrectas, y un incremento sin precedente en las presentaciones a conferencias de alto impacto en campos como el aprendizaje automático y la robótica. La IA también puede generar las imágenes de un artículo falso. Un artículo de revisión de 2024, ya retractado, publicado en Frontiers in Cell and Developmental Biology, incluía una ilustración generada por IA de una rata con unos testículos desproporcionadamente grandes y ridículos, que no solo superó la revisión por pares, sino que se publicó antes de que nadie lo advirtiera. Por embarazoso que fuera para la revista, el daño fue escaso. Mucho más preocupante es la capacidad de la IA generativa para crear imágenes convincentes de tejidos cortados en láminas finísimas, campos microscópicos o geles de electroforesis, que se usan habitualmente como pruebas en la investigación biomédica.

Las actas de congresos son el principal canal de publicación de artículos en IA y otras ciencias de la computación, y en los últimos años se han visto desbordadas por los envíos. NeurIPS, una de las principales conferencias de IA, ha visto duplicarse las presentaciones en cinco años. ICLR, la conferencia líder en aprendizaje profundo, también ha experimentado un aumento y parece incluir una cantidad considerable de slop: una startup de detección de LLM analizó los envíos para su próxima reunión en Brasil y encontró más de 50 que incluían citas alucinadas. La mayoría no se había detectado durante la revisión por pares. Eso podría deberse a que muchas de las revisiones por pares se realizaron con ayuda de la IA. Pangram Labs analizó recientemente miles de informes de revisión enviados a ICLR y descubrió que más de la mitad habían sido redactados con ayuda de un LLM, y alrededor de una quinta parte eran completamente generados por IA. En todas las ciencias académicas, los autores de artículos incluso han empezado a usar fuentes blancas diminutas para incrustar mensajes secretos dirigidos a los LLM revisores. Instan a las IA a elogiar el artículo que están leyendo, a describirlo como “revolucionario” y “transformador”, y a ahorrarles la molestia de una revisión exigente sugiriendo solo correcciones fáciles.

Este volumen ha superado la capacidad de revisión crítica de la comunidad, de modo que la investigación real y valiosa queda sepultada por un ruido cuya proporción crece constantemente. Además, el autor extiende el análisis a los servidores de preprints (sitios donde los científicos comparten borradores de sus trabajos antes de la revisión formal), donde la llegada masiva de textos asistidos por IA ha catalizado un incremento de publicaciones superficiales. Esto plantea un riesgo no solo para la credibilidad de estos repositorios, sino para todo el sistema de comunicación científica, que depende de un equilibrio entre cantidad y calidad para que los hallazgos genuinos puedan ser detectados, replicados y aprovechados. Expertos citados señalan que si este flujo no se frena, podría convertirse en una “crisis existencial” para ciertos campos del conocimiento, al difuminarse la distinción entre trabajo bien fundamentado y “slop” generado por algoritmos que simplemente repiten patrones sin entendimiento real. Hasta el punto de que ya se está hablando de una teoría conspirativa denominada “internet muerto”. Sus defensores creen que, en las redes sociales y otros espacios en línea, solo unas pocas personas reales crean publicaciones, comentarios e imágenes, y que el resto son generados y amplificados por redes de bots en competencia. Las IA escribirían la mayoría de los artículos y revisarían la mayoría de ellos. Este intercambio vacío serviría para entrenar nuevos modelos de IA. Imágenes fraudulentas y citas fantasma se incrustarían cada vez más profundamente en nuestros sistemas de conocimiento. Se convertirían en una contaminación epistemológica permanente que nunca podría filtrarse.

Las ‘Big Three’ de la información científica: revisión bibliométrica comparativa de Web of Science, Scopus y OpenAlex

Torres-Salinas, D., & Arroyo-Machado, W. (2026). Las ‘Big Three’ de la información científica: Revisión bibliométrica comparativa de Web of Science, Scopus y OpenAlex (1.2.). InfluScience Ediciones. https://doi.org/10.5281/zenodo.18336510

El informe realiza un análisis exhaustivo de las tres principales bases de datos bibliográficas multidisciplinares que se utilizan en la evaluación de la investigación científica. Su objetivo central es ofrecer evidencia actualizada y crítica sobre cómo estas plataformas difieren en cobertura, calidad de metadatos, funcionalidades y utilidad estratégica para distintos tipos de análisis científico y de evaluación.

Este trabajo combina una revisión sistemática de la literatura reciente con un análisis bibliométrico original, lo que permite ofrecer tanto un marco teórico como datos empíricos recientes sobre estas bases de datos. En la primera parte, los autores presentan una revisión sistemática de estudios previos que comparan Web of Science, Scopus y OpenAlex. Se analizan aspectos como el volumen de registros, la cobertura de acceso abierto, la diversidad lingüística, la cobertura de referencias y la calidad de los metadatos. Esta revisión permite contextualizar la investigación actual y destacar las fortalezas y limitaciones de cada plataforma según la literatura existente. Además, se subraya la importancia de entender estos factores para tomar decisiones informadas en evaluaciones de producción científica y proyectos de bibliometría.

La segunda parte del informe desarrolla un análisis bibliométrico original, abarcando el período 2015–2024. Se examina la distribución longitudinal de los registros, los tipos documentales, los perfiles temáticos, las diferencias idiomáticas y los solapamientos entre las tres bases de datos. Los resultados muestran que OpenAlex tiene una cobertura total más amplia, incluyendo una mayor diversidad lingüística y un porcentaje mayor de contenido en acceso abierto, mientras que Web of Science y Scopus mantienen niveles más altos de consistencia y calidad de los metadatos. También se identifican diferencias en la proporción de tipos documentales y la granularidad en la clasificación temática.

Entre los hallazgos más relevantes, el informe destaca que las bases comerciales tradicionales operan con modelos de suscripción y curación estricta, lo que garantiza la fiabilidad de los datos, mientras que OpenAlex adopta un enfoque de acceso abierto y escalable, con ventajas en cobertura y representatividad geográfica. Asimismo, se observa que, aunque OpenAlex ofrece mayor amplitud, esto también implica mayores desafíos para la limpieza y consistencia de los registros. Estas diferencias son especialmente importantes para investigadores, bibliotecarios y gestores de ciencia que buscan equilibrar calidad y cobertura en estudios bibliométricos o evaluaciones institucionales.

Finalmente, los autores presentan un conjunto de recomendaciones estratégicas destinadas a optimizar la selección y el uso de estas bases de datos. Se sugiere combinar fuentes cuando se busque un balance entre calidad y amplitud, interpretar cuidadosamente los sesgos lingüísticos y geográficos, y elegir la plataforma según los objetivos específicos de cada análisis. El informe concluye resaltando que el conocimiento detallado de las características y limitaciones de Web of Science, Scopus y OpenAlex es esencial para garantizar evaluaciones científicas precisas, inclusivas y estratégicas.

Miles de citas invisibles se infiltran en artículos y generan métricas falsas

Joelving, Frederik. “How Thousands of Invisible Citations Sneak into Papers and Make for Fake Metrics.” Retraction Watch, 9 de octubre de 2023. https://retractionwatch.com/2023/10/09/how-thousands-of-invisible-citations-sneak-into-papers-and-make-for-fake-metrics/

El artículo de Retraction Watch expone un fenómeno descubierto en 2022 por el científico informático Guillaume Cabanac: ciertos trabajos científicos acumulaban un número inusualmente alto de citas en poco tiempo a pesar de haber sido descargados muy pocas veces, una discrepancia que no cuadraba con el impacto real del artículo.

Tras una investigación, Cabanac y sus colegas identificaron la causa en los metadatos enviados a Crossref, donde se incluían referencias que no aparecían ni en el PDF ni en la versión HTML del artículo, sino únicamente en los archivos técnicos que utilizan las bases de datos para indexar publicaciones.

El buscador marcó este artículo en particular —que ya ha sido retractado— por contener las llamadas frases manipuladas, giros extraños en términos establecidos que probablemente fueron introducidos por software de traducción o por personas que buscaban evadir los detectores de plagio.

Cabanac notó algo extraño: el estudio había sido citado 107 veces según el «donut de Altmetrics», un indicador del impacto potencial de un artículo, pero solo se había descargado 62 veces.

Además, según Google Académico, este artículo solo había sido citado una vez. “Había una clara discrepancia entre los recuentos de Google Académico y los de Altmetrics/Dimensions”, afirma Cabanac. Esta diferencia es especialmente significativa, ya que “sabemos que Google Académico suele sobreestimar el número de citas”, añade.

Este tipo de “citas invisibles” —citas añadidas en los metadatos pero no visibles para los lectores— acaba siendo procesado por servicios de métricas como Altmetrics o Dimensions, inflando artificialmente los contadores de citas y otras métricas de impacto académico. El artículo señala que esta manipulación perjudica la integridad de los sistemas de evaluación científica, pues métricas como el número de citas o índices derivadas de ellas se emplean a menudo para medir el rendimiento de investigadores y asignar financiación, lo que podría dar una imagen errónea del impacto real de ciertos autores o publicaciones.

Además, el reporte aclara que estas falsas referencias parecían proceder especialmente de ciertas revistas producidas por un editor específico, y que ni siquiera está claro si se trata de una manipulación deliberada o un fallo técnico de procesos de envío de metadatos. La situación pone de relieve la necesidad de mejorar los mecanismos de control de calidad en la producción de metadatos académicos y de desarrollar herramientas que comparen sistemáticamente las referencias visibles en el texto con las incluidas en los registros técnicos, para evitar que tales citaciones ocultas distorsionen las métricas científicas.

Cómo integrar el Consensus con los gestores de referencias: EndNote, Zotero, Paperpile

Elechko, A. 2024. How to Integrate Consensus With Reference Managers – EndNote, Zotero, Paperpile. Help Center. Accedido el 16 de enero de 2026. https://help.consensus.app/en/articles/9922811-how-to-integrate-consensus-with-reference-managers-endnote-zotero-paperpile

Consensus, una herramienta de búsqueda académica basada en inteligencia artificial, puede integrarse de forma sencilla con distintos gestores de referencias bibliográficas como EndNote, Zotero o Paperpile.

El objetivo principal de esta integración es facilitar el trabajo investigador, permitiendo que las referencias encontradas en Consensus se incorporen directamente a los sistemas habituales de gestión bibliográfica, evitando así la introducción manual de datos y reduciendo errores en la citación.

Consensus permite exportar los resultados de búsqueda y las listas de artículos guardados en formatos estándar ampliamente aceptados en el ámbito académico, principalmente RIS y CSV. Estos formatos son compatibles no solo con EndNote, Zotero y Paperpile, sino también con otros gestores como Mendeley, RefWorks, Citavi o Papers. De este modo, el investigador puede transferir rápidamente la información bibliográfica —autores, títulos, revistas, fechas y otros metadatos— a su gestor de referencias preferido y continuar allí el proceso de organización, anotación y citación.

El proceso de exportación es sencillo: tras realizar una búsqueda en Consensus o acceder a una lista previamente guardada, basta con utilizar la opción de descarga y seleccionar el formato deseado. En el caso de Zotero, además, se destaca la utilidad del Zotero Connector, una extensión de navegador que permite guardar directamente los artículos desde la página de resultados o desde la ficha individual de cada trabajo, integrando así Consensus en el flujo de trabajo habitual del investigador de forma casi inmediata.

La IA ya está muy presente en los flujos de trabajo de la publicación académica

Dolechek, Melanie. “AI in Scholarly Publishing — SSP Pulse Check Report.The Scholarly Kitchen (blog), 9 de enero de 2026. https://scholarlykitchen.sspnet.org/2026/01/09/ai-in-scholarly-publishing-ssp-pulse-check-report/

Texto completo

El objetivo del informe es explorar cómo las organizaciones del ámbito de la publicación académica están adoptando y respondiendo a la inteligencia artificial (IA). La encuesta, realizada entre el 1 y el 12 de diciembre de 2025 entre 563 profesionales de distintas organizaciones, revela que la IA ya está muy presente en los flujos de trabajo de la publicación académica, aplicándose principalmente en tareas relacionadas con la creación y resumen de contenidos, revisión de integridad y detección de plagio, así como en herramientas de accesibilidad y descubrimiento de contenidos.

A pesar de esta adopción generalizada, el informe subraya que la preparación institucional para gestionar el impacto de la IA sigue rezagada respecto al uso tecnológico. La mayoría de las organizaciones se encuentran en un estado de preparación parcial, con políticas, capacidades y conocimientos aún en desarrollo, lo que refleja que el entusiasmo por la IA va acompañado de incertidumbre y retos organizativos. Entre los principales obstáculos se encuentran preocupaciones éticas y legales, problemas de privacidad y seguridad de datos, y una insuficiente capacidad especializada dentro de los equipos.

Las respuestas a la encuesta muestran que la adopción de IA ya está en marcha en las organizaciones de publicación académica, y la gran mayoría reporta al menos un caso de uso activo. Las aplicaciones más comunes se centran en los flujos de trabajo relacionados con el contenido, particularmente la creación o resumen de contenido (48%) y la verificación de plagio o integridad de la investigación (43%). Estos usos reflejan áreas donde la IA puede ofrecer ganancias inmediatas de eficiencia y ampliar el soporte a los procesos editoriales existentes sin alterar fundamentalmente la autoridad en la toma de decisiones.

Las herramientas de accesibilidad y traducción (34%) y el descubrimiento de contenido (34%) también son muy relevantes, subrayando el papel creciente de la IA en mejorar el alcance, la usabilidad y la encontrabilidad del contenido académico.

Más allá de las funciones editoriales principales, las organizaciones aplican cada vez más la IA a actividades empresariales y operativas. Más de una cuarta parte de los encuestados informa que utiliza IA para marketing o interacción con clientes (27%) y para análisis de datos o previsiones (27%), lo que indica una mayor comodidad con los conocimientos generados por IA para informar estrategias y alcance de la audiencia. La asistencia en la revisión por pares o la asignación de revisores (22%) y la generación o etiquetado de metadatos (18%) aparecen como aplicaciones emergentes, pero aún no universales, lo que sugiere tanto oportunidad como cautela en áreas que interfieren más directamente con el juicio académico y el control de calidad.

De acuerdo con los datos mostrados, las categorías con mayor peso son:

  • Creación o resumen de contenido: Es la aplicación más destacada con un 48%.
  • Controles de plagio o integridad: Ocupa el segundo lugar con un 43%.
  • Descubrimiento de contenido: Representa un 34%.
  • Herramientas de accesibilidad o traducción: Empata con el descubrimiento de contenido con un 34%.
  • Marketing o compromiso del cliente: 27%.
  • Análisis de datos o pronósticos: 27%.
  • Asistencia en revisión por pares o emparejamiento de revisores: 22%.
  • Generación de metadatos o etiquetado: 18%.
  • Licencia de contenido a terceros: 13%.
  • Personalización o inteligencia predictiva: 13%.
  • Finalmente, la imagen indica que un 14% corresponde a otros usos y un 12% de los consultados no utiliza IA actualmente.

Actitudes hacia la IA

Las respuestas indican que la mayoría de las organizaciones abordan la IA con interés medido, más que con entusiasmo incondicional. La mayoría (51%) describe su postura como exploración cautelosa de oportunidades, lo que sugiere experimentación activa junto con consideración cuidadosa de riesgos, gobernanza y adecuación. Al mismo tiempo, más de un tercio de los encuestados muestra una postura fuertemente positiva hacia la IA: 19% adopta activamente e invierte en IA y 16% se identifica como adoptante entusiasta y proactivo — juntos indican un impulso significativo hacia una integración más profunda.

Solo una pequeña minoría permanece al margen o en contra. Solo el 6% reporta una postura neutral de esperar y ver, otro 6% se declara escéptico o resistente, y solo 2% evita activamente las herramientas de IA. En conjunto, estos resultados sugieren que, aunque la cautela sigue siendo dominante, la resistencia a la IA en la publicación académica es limitada y la trayectoria general apunta hacia una adopción más amplia con el tiempo.

Preparación ante la IA

Las respuestas sugieren que la mayoría de las organizaciones se sienten parcialmente preparadas para enfrentar el impacto de la IA en el próximo año. Casi la mitad (45%) reporta estar moderadamente preparada, mientras otro 27% se siente solo ligeramente preparada, lo que indica que muchas organizaciones todavía están construyendo habilidades, políticas y confianza interna. Un porcentaje menor se siente altamente preparado: 16% se describe como muy preparado y solo 3% como completamente preparado, lo que subraya lo rara que sigue siendo la sensación de preparación total. Al mismo tiempo, 9% reporta no estar preparado en absoluto, destacando la necesidad de orientación, buenas prácticas compartidas y desarrollo de capacidades en toda la comunidad.

El sondeo también identifica oportunidades importantes asociadas con la IA, entre ellas la eficiencia de los flujos de trabajo —que puede liberar tiempo para tareas de mayor valor añadido—, el fortalecimiento de la revisión por pares mediante herramientas de apoyo o asignación de revisores, y el uso de IA para reforzar la integridad y calidad de la investigación a través de la detección de plagio o de prácticas poco éticas. Asimismo, la IA se percibe como una herramienta valiosa para mejorar la descubribilidad del contenido científico y para apoyar a autores de distintas lenguas mediante traducción y servicios lingüísticos.

Barreras para la adopción de IA

Los encuestados identificaron preocupaciones legales/éticas, privacidad/seguridad y falta de experiencia/capacidad como las principales barreras para la adopción de IA.

A pesar de los altos niveles de adopción e interés en IA, las organizaciones de publicación académica todavía albergan serias preocupaciones sobre su uso en el sector. Las preocupaciones éticas o legales (63%) y los problemas de privacidad o seguridad de los datos (61%) encabezan la lista, reflejando cautela generalizada respecto a cumplimiento, propiedad intelectual y uso responsable — preocupaciones especialmente agudas en la publicación académica. La preparación organizacional también emerge como un desafío significativo, con la mitad de los encuestados (50%) citando la falta de experiencia o capacidad del personal, lo que subraya que las capacidades humanas e institucionales a menudo quedan detrás del interés tecnológico.

Consideraciones prácticas y financieras forman un segundo nivel de barreras. Restricciones presupuestarias (28%), calidad o disponibilidad de datos (25%) y un ROI o caso de negocio poco claros (25%) sugieren que muchas organizaciones todavía evalúan costos frente a beneficios inciertos. Los problemas culturales y de herramientas —como la resistencia al cambio (23%) y la falta de herramientas adecuadas (19%)— son menos dominantes pero todavía significativos. Casi todas las organizaciones reportan algún tipo de fricción al adoptar IA.

No obstante, las preocupaciones sobre los riesgos son profundas y existenciales. Muchos encuestados expresan inquietudes sobre la posibilidad de que la IA degrade la calidad y la integridad de la literatura académica, dificultando la detección de contenidos generados por IA sin rigor científico, y erosionando la confianza en el proceso de revisión por pares tradicional. También existe ansiedad sobre la falta de transparencia en el uso de IA y la autenticidad de las contribuciones cuando las herramientas automatizadas participan en la producción o evaluación de trabajos. En conjunto, estas respuestas reflejan una comunidad editorial que navega entre la oportunidad de mejorar procesos y la necesidad de proteger los valores fundamentales de la comunicación científica.

El impacto de la IA en la comunicación académica, informes sobre la aparición de «revistas imaginarias» hasta el punto de crear revistas y citas fantásticas

Linacre, Simon. 2026. “Land of Make Believe.” Cabells Blog, 7 de enero de 2026. https://blog.cabells.com/2026/01/07/land-of-make-believe/

A finales de 2025 empezaron a surgir informes sobre algo que han llamado revistas imaginarias. La IA generativa puede “alucinar”, es decir, inventar hechos o datos presentándolos como reales, pero que llegue al punto de generar títulos de revistas y citas que no existen en absoluto ha sorprendido a muchos.

Se han detectado referencias a publicaciones que nunca han existido en trabajos académicos. Estamos acostumbrados a las revistas falsas o depredadoras, pero estos nuevos títulos sólo aparecen en bibliografías generadas por IA, sin rastro real de su existencia.

Además, también se han encontrado artículos atribuidos a autores que no existen. Incluso algunos de estos textos se han presentado a revistas legítimas. Esto podría formar parte de pruebas para evaluar sistemas de revisión o detección de plagio, aunque también podría responder a fines más oscuros.

Aunque suene sorprendente, la aparición de artículos completamente generados por IA está alterando las normas tradicionales de la investigación y la publicación académica. Muchos repositorios de preprints han tenido que restringir envíos ante el aumento de trabajos de baja calidad generados por IA.

El impacto podría ser serio: si se difunden investigaciones inventadas y otros investigadores las citan o usan como referencia, el daño se propaga rápidamente. Incluso se han visto casos en los que artículos falsos han sido citados decenas de veces, sin que los autores supieran que su nombre aparecía en esos documentos.

Frente a esta situación, las fuentes verificadas de publicaciones científicas se vuelven más importantes a medida que el uso de IA se expande. Las fronteras entre investigación humana, híbrida o generada exclusivamente por IA se están desdibujando, con implicaciones profundas para editores, autores, instituciones y financiadores.

Prioridades de la comunidad global para la IA agencial en la investigación

Research Data Alliance, “Global community priorities for agentic AI in research: Consultation results available,” Research Data Alliance, Jan. 8, 2026. [Online]. Available:

Texto completo

Research Data Alliance (RDA) ha publicado los resultados de una consulta global dirigida a identificar las prioridades de la comunidad investigadora respecto al uso de la IA agente —es decir, sistemas de inteligencia artificial capaces de operar con un alto grado de autonomía y mínima supervisión humana— a lo largo del ciclo de la investigación científica.

Esta consulta, abierta desde noviembre de 2025 y sin requerir experiencia previa en IA, combinó cuatro sesiones informativas online con una encuesta anónima de 15 minutos en la que participaron 83 personas de diversos perfiles y regiones. La iniciativa buscaba comprender cómo se está utilizando actualmente la IA agente en la investigación y qué herramientas autónomas podrían aportar más valor en tareas como planificación, búsqueda de información, gestión de datos, financiación, publicación e impacto.

De los 11 posibles agentes inteligentes propuestos, tres herramientas surgieron como prioridades claras para la comunidad global de investigación.

  1. Literature Librarian, se plantea como un asistente capaz de buscar literatura científica mediante consultas en lenguaje natural integradas con suscripciones de bibliotecas, facilitando y acelerando la revisión de antecedentes y la exploración bibliográfica.
  2. Data Director obtuvo alta valoración por su potencial para apoyar la preparación y el intercambio de datos de investigación conforme a los principios FAIR (Findable, Accessible, Interoperable, Reusable), lo que podría mejorar la calidad, disponibilidad y reutilización de los datos científicos.
  3. Funding Finder, propone una herramienta que identifique oportunidades de financiación relevantes y apoye la preparación de solicitudes, ayudando a investigadores y equipos a acceder a recursos financieros con mayor eficiencia.

Estos tres agentes se destacaron de manera consistente tanto en análisis por región como por tipo de participante.. Más allá de las prioridades concretas, los participantes expresaron una visión matizada y ambivalente sobre el futuro de la IA agente en la investigación, reconociendo tanto sus beneficios potenciales como los retos éticos, organizativos y técnicos que supone su adopción generalizada. Los resultados de la consulta serán utilizados por la RDA como base para avanzar en 2026 en el desarrollo colaborativo de un marco de referencia abierto y tecnológicamente agnóstico para al menos una herramienta prioritaria de IA agente, asegurando que este trabajo futuro se alinee con los principios y el marco de actuación de la organización y refleje las necesidades de la comunidad investigadora global.

La administración Trump cierra la biblioteca de investigación más grande del Goddard Space and Flight Center de la NASA

Niiler, Eric. “Research Library at NASA’s Goddard Space and Flight Center to Close Friday.The New York Times, December 31, 2025. https://www.nytimes.com/2025/12/31/climate/nasa-goddard-library-closing.html

La biblioteca de investigación más grande del Goddard Space and Flight Center de la NASA, en Greenbelt, Maryland, se cerrará permanentemente el viernes 2 de enero de 2026 como parte de un proceso de reorganización de las instalaciones de la agencia espacial.

La colección contiene decenas de miles de libros, documentos y revistas, muchos de ellos no digitalizados ni disponibles en ningún otro lugar, lo que ha generado preocupación por la pérdida de acceso a material histórico y científico único.

Los fondos de la biblioteca serán revisados en un período de 60 días: una parte podría trasladarse a un almacén gubernamental y otra descartarse, siguiendo procedimientos estándar de eliminación de propiedad federal. La NASA describe el cierre como parte de una consolidación con el objetivo de ahorrar dinero y reducir costes de mantenimiento en el campus.

Este cierre forma parte de un plan más amplio que incluye la clausura de varios edificios y laboratorios de ciencia e ingeniería antes de marzo de 2026, en medio de reducciones de personal y recortes presupuestarios. Algunos investigadores han expresado su consternación, argumentando que la biblioteca ha sido un recurso crucial para planificar misiones espaciales y acceder a material histórico que no está disponible digitalmente, y que su desaparición podría dificultar investigaciones futuras.

Desde 2022, siete bibliotecas de la NASA han sido cerradas en distintos centros del país, dejando pocas instalaciones similares operativas. La pérdida de acceso físico a estas colecciones plantea preguntas sobre cómo se conservará y seguirá utilizándose el acervo científico a largo plazo.