Archivo de la categoría: Investigación

Actitudes y comportamientos de comunicación académica entre investigadores de la Generación Z

Nicholas, David; Clark, David; Abdullah, Abrizah; Revez, Jorge; Rodríguez Bravo, Blanca; Świgoń, Marzena; y Akeroyd, John. “The scholarly communication attitudes and behaviours of Gen‑Z researchers: a pathfinding study.” Cambridge Open Engage, 23 de enero de 2026, DOI: 10.33774/coe‑2026‑s8b36. Cambridge University Press, 2026

Texto completo

Estudio piloto cualitativo que explora las actitudes y comportamientos de comunicación académica de investigadores de la Generación Z (nacidos aproximadamente entre mediados de los 90 y comienzos de los 2010) en comparación con colegas pertenecientes a generaciones anteriores dentro de la misma fase de carrera académica. El objetivo central de este trabajo fue identificar diferencias emergentes que puedan justificar una investigación más amplia en el futuro.

La investigación se basó en entrevistas en profundidad de aproximadamente una hora con alrededor de 30 investigadores de la Generación Z provenientes de ocho países y abarcando diversas disciplinas. Para contextualizar estos hallazgos, los autores compararon las experiencias narradas por los participantes más jóvenes con un grupo más amplio de 120 investigadores más veteranos.

Además, el equipo de investigación empleó análisis mediante IA (Claude AI) no sólo para procesar los datos cualitativos obtenidos, sino también para evaluar el estado actual de la literatura publicada sobre comunicación académica entre investigadores jóvenes. Este uso de IA refleja una tendencia hacia la integración de herramientas tecnológicas en la propia praxis investigadora, algo que también está siendo observado como una característica distintiva entre generaciones.

Entre los hallazgos preliminares, los autores destacan que los investigadores de la Generación Z tienden a adoptar estratégicamente la inteligencia artificial como un medio para mejorar su eficiencia y avanzar en sus carreras académicas. En contraste, los investigadores más experimentados muestran una mayor conciencia crítica y cautela respecto a las implicaciones filosóficas y éticas del uso de estas tecnologías en la comunicación y difusión del conocimiento científico.

El estudio concluye que, pese a las limitaciones de tamaño y alcance de la muestra, existen diferencias suficientemente claras en prácticas y actitudes que justifican una investigación ampliada. Esto podría enriquecer la comprensión de cómo evoluciona la comunicación académica en un contexto globalizado y tecnológicamente mediado, particularmente entre los recién llegados al mundo académico frente a generaciones anteriores.

Tres importantes universidades de investigación renuncian al nuevo acuerdo con Elsevier

Grove, Jack. “Three Major Research Universities Opt Out of New Elsevier Deal.Times Higher Education, 22 de enero de 2026. https://www.timeshighereducation.com/news/three-major-research-universities-opt-out-new-elsevier-deal

En enero de 2026, tres universidades británicas centradas en investigación anunciaron que no renovarán sus acuerdos con la editorial académica Elsevier, a pesar de que una negociación nacional liderada por el organismo sectorial Jisc había concluido recientemente con ofertas de suscripción consideradas “fuertes y con ahorro comparado con precios históricos”.

Estas instituciones, entre las cuales figuran la University of Kent, la University of Essex y la University of Sussex, decidieron no adherirse al nuevo acuerdo Read and Publish con Elsevier para 2026. La University of Kent explicó que los fondos liberados se destinarán a apoyar un enfoque más sostenible y centrado en los investigadores hacia la publicación en acceso abierto, incluyendo la financiación de los cargos por procesamiento de artículos (APCs) en las propias revistas de Elsevier.

La University of Essex expresó insatisfacción con los aumentos de precio propuestos y la falta de compromiso de Elsevier para avanzar hacia un modelo de acceso abierto más sólido, aunque la universidad mantiene acuerdos con otros grandes editores como Sage, Springer Nature, Taylor & Francis y Wiley para 2026.

Por su parte, la University of Sussex tampoco renovó con Elsevier y ha listado acuerdos con editores más pequeños para el periodo 2026–28. Las decisiones de estas universidades reflejan tensiones crecientes en el sector académico sobre el coste de las suscripciones y el papel de los grandes editores comerciales en el acceso a contenidos científicos.

Aunque muchos campus del Reino Unido aún no han declarado si aceptarán el acuerdo negociado por Jisc, hay predicciones de que más instituciones puedan optar por no adherirse a medida que expiren los plazos de transición. Algunos analistas señalan que decisiones similares tomadas en 2025 por universidades como Sheffield, Surrey o York demostraron que los investigadores pueden continuar su trabajo utilizando vías alternativas para acceder al material científico sin un acuerdo de suscripción directa con Elsevier.

Adiós a Elsevier y Clarivate: OpenAlex y la nueva era de la ciencia abierta

Winemiller, Sam. 2026. OpenAlex and Values‑Aligned Tools. ACRLog, 26 de enero de 2026. https://acrlog.org/2026/01/26/openalex-and-values-aligned-tools/

Se hace una llamada a la comunidad académica y bibliotecaria para cuestionar la hegemonía de herramientas comerciales en la evaluación científica y abrazar alternativas abiertas como OpenAlex —no solo por su utilidad técnica, sino también por su potencial para reflejar y reforzar valores compartidos de acceso abierto, inclusión y control comunitario sobre las infraestructuras que sostienen el conocimiento global.

La academia necesita desvincular de las entidades corporativas nuestra capacidad para comprender y evaluar la actividad académica. Compañías como Elsevier y Clarivate han integrado efectivamente métodos de evaluación en la academia que dependen de sus herramientas propietarias (Scopus y SciVal; Web of Science y Journal Citation Reports e InCites, respectivamente). De manera conveniente, estos productos también emiten juicios sobre la “legitimidad” de los lugares de publicación académica y sobre si son valiosos como líneas dentro de un expediente de promoción o para decisiones de suscripción bibliotecaria, lo que plantea preguntas sobre posibles conflictos de interés. Uno podría suponer que las revistas propiedad de Elsevier rara vez se excluyen del corpus de Scopus, por ejemplo.

La necesidad de separar la indexación y evaluación de la actividad académica del control corporativo coincide con la necesidad de recuperar cierto grado de control sobre todo el sistema de publicación académica. Un camino posible sería un cambio significativo hacia espacios gestionados por instituciones académicas, sociedades científicas o alianzas académicas, en lugar de editores con fines de lucro; sin embargo, un obstáculo básico para este cambio es la indexación inconsistente e incompleta de dichos espacios en gráficos de conocimiento científico como Scopus y Web of Science. En su reciente artículo sobre el tema, Nazarovets et al. (2026) concluyen con esta sugerencia: “…la visibilidad desigual de las UJs [revistas universitarias] resalta un punto ciego estructural en la evaluación global de la investigación: a menos que infraestructuras más inclusivas como DOAJ y OpenAlex sean ampliamente reconocidas y mejoradas en cuanto a cobertura y fiabilidad de metadatos, grandes partes de la producción académica permanecerán invisibles incluso si se decide abandonar WoS [Web of Science] y Scopus.” Este es solo uno de los posibles beneficios de invertir en infraestructura abierta como OpenAlex (tal como lo recomienda la UNESCO). La infraestructura abierta puede definirse como herramientas y recursos fundamentales, gratuitos, sobre los cuales se puede realizar, compartir y explorar la ciencia y la investigación abierta.

Para quienes no estén familiarizados con OpenAlex, es esencialmente una gran base de datos de trabajos académicos y metadatos relacionados. OpenAlex se centra en la inclusión amplia de trabajos académicos, en contraste con la “curaduría” de fuentes legítimas practicada por servicios propietarios. Posee una interfaz web y puede consultarse mediante API, pero en esencia es una infraestructura dedicada al dominio público a través de la licencia CC0, mantenida activamente por una organización sin fines de lucro (501(c)3). Por supuesto, depender de datos de citas reportados por los editores puede ser cuestionable, pero mientras trabajamos en reconocer y recompensar otros tipos de evidencia sobre el impacto de la investigación, al menos podemos usar datos de citas lo más completos posibles.

¿Es OpenAlex tan bueno como sus competidores? Según mi experiencia, suele ser igual o mejor para la mayoría de propósitos, como generar listas de publicaciones de autores, incluyendo preprints, o analizar tendencias de publicación en acceso abierto de una institución a lo largo del tiempo. La mayoría de quienes lo han explorado a fondo parecen coincidir. Culbert et al. (2024) analizaron la cobertura de referencias de OpenAlex en comparación con Web of Science y Scopus, encontrándola “comparable”, incluso antes de las recientes mejoras de OpenAlex, que incluyeron más de 50 millones de trabajos nuevos. En una revisión de Katina, Ho (2025) calificó a OpenAlex como “…una alternativa prometedora y fiable a las bases de datos de citas tradicionales por suscripción para investigadores, administradores universitarios, instituciones de investigación y organismos gubernamentales interesados en actividades de investigación y colaboraciones potenciales.” Otras herramientas de descubrimiento académico, como Overton, utilizan OpenAlex como fuente de datos fundamental.

Cada persona necesitará probarlo para evaluar si su usabilidad cumple con sus estándares, pero para quienes dudan, basta considerar que el simple uso de estas herramientas puede ser una pequeña contribución hacia un futuro diferente para la infraestructura de investigación. Los coordinadores involucrados en la Declaración de Barcelona sobre Información de Investigación Abierta comentaron sobre el compromiso de la declaración de apoyar infraestructuras para información de investigación abierta:

“Lo que creemos importante para las organizaciones es asumir seriamente su responsabilidad de apoyar estas infraestructuras, las cuales solo pueden existir y desarrollarse si son usadas y apoyadas. Esto incluye apoyo financiero, pero también puede involucrar participación en la gobernanza y contribuciones en especie, como aportar datos y mejorar su calidad. En cuanto a las contribuciones financieras, la Universidad de la Sorbona es un gran ejemplo: cuando se dieron de baja de Web of Science, redirigieron parte de ese presupuesto a apoyar OpenAlex. En general, abogamos por hacer de las inversiones en infraestructura abierta una parte integral de los presupuestos institucionales.”

Para muchos en bibliotecas universitarias, no contamos con recursos significativos para invertir o desinvertir, aunque votar con nuestro dinero sigue siendo una opción si tenemos autorización para hacerlo. Sin embargo, lo que sí está dentro de nuestro ámbito de influencia es aprender sobre infraestructura alineada con valores y usarla, aprovechando nuestras posiciones como profesionales de la información para enseñar y motivar a otros a usar infraestructura alineada con valores. En mi institución, hemos empezado con proyectos pequeños, como integrar OpenAlex en nuestra plataforma local de perfiles académicos y trabajar para añadir nuestro repositorio institucional como fuente de datos para OpenAlex. Ya sea OpenAlex u otra herramienta alineada con valores, podemos “votar” con nuestro uso como un pequeño acto diario de apoyo o resistencia. Enseñando sobre estas herramientas, pequeños actos individuales se convierten en poder colectivo.

Los gestores de referencias bibliográficas en la era de la Inteligencia Artificial

Frechette, J. (23 de enero de 2026). Guest post – The next era of reference management: An interview with William Gunn. The Scholarly Kitchen. https://scholarlykitchen.sspnet.org/2026/01/23/guest-post-the-next-era-of-reference-management-an-interview-with-william-gunn/

Se destaca que la gestión de referencias ha sido tradicionalmente percibida como una tarea tediosa; sin embargo, herramientas como EndNote, Zotero y Mendeley revolucionaron por completo este proceso, automatizando labores que antes eran manuales y laboriosas. En la actualidad, la evolución de estos gestores apunta hacia una nueva era impulsada por la inteligencia artificial (IA), en la que los flujos de trabajo se volverán más inteligentes, integrados y capaces de asistir al investigador de manera proactiva en todas las fases de su trabajo académico.

Gunn recorre la historia de estas herramientas, destacando el papel pionero de EndNote en los años 80 y 90 como software de escritorio y la posterior evolución hacia soluciones basadas en la web como Zotero y Mendeley. Estas últimas aprovecharon los metadatos uniformes, los DOIs y los navegadores web para permitir importaciones rápidas y precisas de referencias. Mendeley, en particular, introdujo elementos de interacción social, permitiendo a los investigadores compartir y descubrir trabajos entre pares, además de facilitar métricas alternativas basadas en la lectura y la colaboración académica.

La entrevista enfatiza que la próxima era de los gestores de referencias estará marcada por la integración de inteligencia artificial (IA) y flujos de trabajo más inteligentes. Según Gunn, los futuros gestores no solo almacenarán referencias, sino que ayudarán activamente a los investigadores a descubrir literatura relevante, comprender relaciones entre trabajos y generar citas correctas automáticamente, incluso adaptadas a distintos estilos bibliográficos. La IA también permitirá instrucciones específicas, como localizar el primer artículo que propuso una técnica determinada, agilizando la redacción y la revisión de literatura.

No obstante, Gunn advierte sobre las limitaciones de los modelos de IA: problemas de cobertura incompleta, sesgos en la recuperación de información y el riesgo de generar citas incorrectas o inexactas. Esto es especialmente crítico en revisiones sistemáticas o investigaciones que influyen en políticas, donde la supervisión humana sigue siendo imprescindible. Sin embargo, la IA puede automatizar tareas repetitivas, como extraer metodologías, resultados y métricas de estudios, liberando al investigador para centrarse en el análisis crítico y la síntesis de la información.

Otro aspecto abordado es la colaboración versus el trabajo individual. Si bien el análisis profundo sigue siendo una tarea humana, las fases de descubrimiento y organización de información se están volviendo cada vez más colaborativas. Herramientas que faciliten la cooperación entre equipos de investigación y comunidades académicas tendrán mayor relevancia, potenciando la eficiencia y la calidad de los procesos investigativos.

Finalmente, Gunn ofrece recomendaciones para desarrolladores de herramientas académicas: construir ventajas competitivas sólidas, comprender los flujos de trabajo reales de los investigadores y desarrollar estrategias claras para la adopción institucional. En conclusión, la nueva era de la gestión de referencias no busca reemplazar al investigador, sino apoyar cada etapa de su trabajo, integrando descubrimiento, organización, colaboración y análisis en flujos de trabajo más inteligentes y eficientes.

Citas fantasma y ciencia creada con ayuda de IA en un informe sobre salud infantil de la administración Trump

Manto, Margaret. “The MAHA Report Has Been Updated to Replace Citations That Didn’t Exist.” NOTUS, 29 de mayo de 2025. https://www.notus.org/health-science/maha-report-update-citations

El informe MAHA, publicado en mayo de 2025 y encargado a la secretaria de Salud y Servicios Humanos, Robert F. Kennedy Jr., contenía numerosas referencias a estudios que no existían o eran fabricados, lo que sugiere que partes significativas del texto podrían haber sido generadas mediante prompts a sistemas de generative AI (IA generativa)

El informe Make America Healthy Again (MAHA), un documento emblemático publicado por la Comisión MAHA bajo la administración de Donald Trump, centrado en la salud infantil y en causas de enfermedad crónica en Estados Unidos. Una investigación del propio medio reveló originalmente que al menos siete citas incluidas en la versión inicial del informe simplemente no existían en la literatura científica —es decir, atribuían estudios que no estaban publicados o que jamás fueron escritos por los autores listados— lo que llevó a una fuerte preocupación por la integridad científica del texto.

Ante esta revelación, la Casa Blanca y el Departamento de Salud y Servicios Humanos (HHS) procedieron a reemplazar las citas inexistentes en una nueva versión del informe publicada en el sitio oficial de la Casa Blanca. Cinco de las referencias falsas fueron sustituidas por trabajos completamente distintos, y dos por estudios reales de los mismos autores mencionados previamente, aunque con títulos y contenidos distintos. Por ejemplo, un estudio epidemiológico supuestamente escrito por la investigadora Katherine Keyes fue reemplazado por un enlace a un artículo de KFF Health News sobre un tema similar, y otras referencias vinculadas a publicidad de medicamentos en niños se cambiaron por artículos periodísticos y estudios más antiguos sobre tendencias en uso de psicofármacos. Aunque estas nuevas fuentes parecen corresponder a estudios legítimos, no está claro si respaldan de manera precisa las afirmaciones formuladas en el informe original.

Además de sustituir las citas inexistentes, la versión actualizada también modificó referencias que habían sido mal interpretadas en la versión previa. Por ejemplo, un estudio que se usó para sostener que la psicoterapia es tan eficaz como los medicamentos en el corto plazo fue reemplazado después de que uno de los autores originales señalará a NOTUS que su investigación no incluía psicoterapia dentro de los parámetros analizados. A pesar de los cambios, tanto la Casa Blanca como funcionarios de HHS minimizaron la gravedad de los errores, describiéndolos como problemas menores de formato que ya habían sido corregidos, y defendieron la sustancia general del informe. Voceros oficiales declararon que el documento sigue siendo una evaluación histórica y transformadora para entender la epidemia de enfermedades crónicas que afectan a los niños estadounidenses, y subrayaron que los ajustes no alteran sus conclusiones principales.

Sin embargo, la actualización y corrección de citas ha suscitado debates profundos sobre los estándares de rigor científico que deben aplicarse a informes gubernamentales de salud pública, especialmente cuando estos documentos se utilizan para formular políticas importantes. Organizaciones periodísticas, científicos y legisladores han cuestionado la confiabilidad de las referencias del MAHA report y han pedido mayor transparencia en cómo se elaboran y revisan estos textos, así como sobre el uso de tecnologías como la inteligencia artificial durante su redacción. La situación ilustra las tensiones entre la comunicación científica, la integridad académica y las prioridades políticas en la producción de informes de política pública.

La ciencia se está ahogando en la basura de la IA

Andersen, Ross. 2026. “Science Is Drowning in AI Slop.The Atlantic, 22 de enero de 2026. https://www.msn.com/en-us/news/us/science-is-drowning-in-ai-slop/ar-AA1UK0tV

Ross Andersen aborda una crisis creciente en el mundo académico: el aluvión de investigaciones generadas con apoyo de inteligencia artificial que están saturando la producción científica con contenidos de baja calidad, irrelevantes o incluso falsos, lo que él denomina “AI slop” —una especie de desecho digital académico– que la comunidad científica aún no ha aprendido a gestionar eficazmente.

Cada día, en Bluesky y LinkedIn, Quintana veía a académicos publicar mensajes sobre el hallazgo de estas “citas fantasma” en artículos científicos. (La versión inicial del “Informe MAHA” de la administración Trump sobre la salud infantil, publicada la pasada primavera, contenía más de media docena de ellas). Pero hasta que Quintana encontró un falso artículo firmado por un “Quintana” citado en una revista para la que actuaba como revisor, había pensado que el problema se limitaba a publicaciones con estándares más bajos. “Cuando ocurre en una revista que respetas, te das cuenta de lo extendido que está el problema”.

Casi inmediatamente después de que los grandes modelos de lenguaje se popularizaran, los manuscritos comenzaron a llegar a las bandejas de entrada de las revistas en cantidades nunca vistas. Parte de este fenómeno puede atribuirse a la capacidad de la IA para aumentar la productividad, especialmente entre científicos no angloparlantes que necesitan ayuda para presentar su investigación. Pero ChatGPT y herramientas similares también se están utilizando para dar una nueva apariencia de plausibilidad a trabajos fraudulentos o chapuceros, según Mandy Hill, directora general de publicación académica en Cambridge University Press & Assessment. Esto hace que la tarea de separar el grano de la paja sea mucho más lenta para editores y revisores, y también más compleja desde el punto de vista técnico.

Andersen explica que la presión por publicar, combinada con la facilidad de generación de texto e incluso figuras mediante modelos de lenguaje avanzados, ha hecho que conferencias y revistas reciban enormes cantidades de trabajos que no aportan hallazgos verificables ni replicables, y que rara vez se someten a una revisión crítica profunda.

Este problema se agrava por la propia mecánica de la revisión por pares: muchos revisores están recurriendo también a herramientas de IA para evaluar artículos, y al mismo tiempo algunos autores insertan mensajes ocultos que incitan a estas IA a elogiar sus textos, lo que distorsiona aún más el proceso. Andersen describe casos concretos, como ilustraciones generadas que parecen plausibles pero son absurdas o científicamente incorrectas, y un incremento sin precedente en las presentaciones a conferencias de alto impacto en campos como el aprendizaje automático y la robótica. La IA también puede generar las imágenes de un artículo falso. Un artículo de revisión de 2024, ya retractado, publicado en Frontiers in Cell and Developmental Biology, incluía una ilustración generada por IA de una rata con unos testículos desproporcionadamente grandes y ridículos, que no solo superó la revisión por pares, sino que se publicó antes de que nadie lo advirtiera. Por embarazoso que fuera para la revista, el daño fue escaso. Mucho más preocupante es la capacidad de la IA generativa para crear imágenes convincentes de tejidos cortados en láminas finísimas, campos microscópicos o geles de electroforesis, que se usan habitualmente como pruebas en la investigación biomédica.

Las actas de congresos son el principal canal de publicación de artículos en IA y otras ciencias de la computación, y en los últimos años se han visto desbordadas por los envíos. NeurIPS, una de las principales conferencias de IA, ha visto duplicarse las presentaciones en cinco años. ICLR, la conferencia líder en aprendizaje profundo, también ha experimentado un aumento y parece incluir una cantidad considerable de slop: una startup de detección de LLM analizó los envíos para su próxima reunión en Brasil y encontró más de 50 que incluían citas alucinadas. La mayoría no se había detectado durante la revisión por pares. Eso podría deberse a que muchas de las revisiones por pares se realizaron con ayuda de la IA. Pangram Labs analizó recientemente miles de informes de revisión enviados a ICLR y descubrió que más de la mitad habían sido redactados con ayuda de un LLM, y alrededor de una quinta parte eran completamente generados por IA. En todas las ciencias académicas, los autores de artículos incluso han empezado a usar fuentes blancas diminutas para incrustar mensajes secretos dirigidos a los LLM revisores. Instan a las IA a elogiar el artículo que están leyendo, a describirlo como “revolucionario” y “transformador”, y a ahorrarles la molestia de una revisión exigente sugiriendo solo correcciones fáciles.

Este volumen ha superado la capacidad de revisión crítica de la comunidad, de modo que la investigación real y valiosa queda sepultada por un ruido cuya proporción crece constantemente. Además, el autor extiende el análisis a los servidores de preprints (sitios donde los científicos comparten borradores de sus trabajos antes de la revisión formal), donde la llegada masiva de textos asistidos por IA ha catalizado un incremento de publicaciones superficiales. Esto plantea un riesgo no solo para la credibilidad de estos repositorios, sino para todo el sistema de comunicación científica, que depende de un equilibrio entre cantidad y calidad para que los hallazgos genuinos puedan ser detectados, replicados y aprovechados. Expertos citados señalan que si este flujo no se frena, podría convertirse en una “crisis existencial” para ciertos campos del conocimiento, al difuminarse la distinción entre trabajo bien fundamentado y “slop” generado por algoritmos que simplemente repiten patrones sin entendimiento real. Hasta el punto de que ya se está hablando de una teoría conspirativa denominada “internet muerto”. Sus defensores creen que, en las redes sociales y otros espacios en línea, solo unas pocas personas reales crean publicaciones, comentarios e imágenes, y que el resto son generados y amplificados por redes de bots en competencia. Las IA escribirían la mayoría de los artículos y revisarían la mayoría de ellos. Este intercambio vacío serviría para entrenar nuevos modelos de IA. Imágenes fraudulentas y citas fantasma se incrustarían cada vez más profundamente en nuestros sistemas de conocimiento. Se convertirían en una contaminación epistemológica permanente que nunca podría filtrarse.

Las ‘Big Three’ de la información científica: revisión bibliométrica comparativa de Web of Science, Scopus y OpenAlex

Torres-Salinas, D., & Arroyo-Machado, W. (2026). Las ‘Big Three’ de la información científica: Revisión bibliométrica comparativa de Web of Science, Scopus y OpenAlex (1.2.). InfluScience Ediciones. https://doi.org/10.5281/zenodo.18336510

El informe realiza un análisis exhaustivo de las tres principales bases de datos bibliográficas multidisciplinares que se utilizan en la evaluación de la investigación científica. Su objetivo central es ofrecer evidencia actualizada y crítica sobre cómo estas plataformas difieren en cobertura, calidad de metadatos, funcionalidades y utilidad estratégica para distintos tipos de análisis científico y de evaluación.

Este trabajo combina una revisión sistemática de la literatura reciente con un análisis bibliométrico original, lo que permite ofrecer tanto un marco teórico como datos empíricos recientes sobre estas bases de datos. En la primera parte, los autores presentan una revisión sistemática de estudios previos que comparan Web of Science, Scopus y OpenAlex. Se analizan aspectos como el volumen de registros, la cobertura de acceso abierto, la diversidad lingüística, la cobertura de referencias y la calidad de los metadatos. Esta revisión permite contextualizar la investigación actual y destacar las fortalezas y limitaciones de cada plataforma según la literatura existente. Además, se subraya la importancia de entender estos factores para tomar decisiones informadas en evaluaciones de producción científica y proyectos de bibliometría.

La segunda parte del informe desarrolla un análisis bibliométrico original, abarcando el período 2015–2024. Se examina la distribución longitudinal de los registros, los tipos documentales, los perfiles temáticos, las diferencias idiomáticas y los solapamientos entre las tres bases de datos. Los resultados muestran que OpenAlex tiene una cobertura total más amplia, incluyendo una mayor diversidad lingüística y un porcentaje mayor de contenido en acceso abierto, mientras que Web of Science y Scopus mantienen niveles más altos de consistencia y calidad de los metadatos. También se identifican diferencias en la proporción de tipos documentales y la granularidad en la clasificación temática.

Entre los hallazgos más relevantes, el informe destaca que las bases comerciales tradicionales operan con modelos de suscripción y curación estricta, lo que garantiza la fiabilidad de los datos, mientras que OpenAlex adopta un enfoque de acceso abierto y escalable, con ventajas en cobertura y representatividad geográfica. Asimismo, se observa que, aunque OpenAlex ofrece mayor amplitud, esto también implica mayores desafíos para la limpieza y consistencia de los registros. Estas diferencias son especialmente importantes para investigadores, bibliotecarios y gestores de ciencia que buscan equilibrar calidad y cobertura en estudios bibliométricos o evaluaciones institucionales.

Finalmente, los autores presentan un conjunto de recomendaciones estratégicas destinadas a optimizar la selección y el uso de estas bases de datos. Se sugiere combinar fuentes cuando se busque un balance entre calidad y amplitud, interpretar cuidadosamente los sesgos lingüísticos y geográficos, y elegir la plataforma según los objetivos específicos de cada análisis. El informe concluye resaltando que el conocimiento detallado de las características y limitaciones de Web of Science, Scopus y OpenAlex es esencial para garantizar evaluaciones científicas precisas, inclusivas y estratégicas.

Miles de citas invisibles se infiltran en artículos y generan métricas falsas

Joelving, Frederik. “How Thousands of Invisible Citations Sneak into Papers and Make for Fake Metrics.” Retraction Watch, 9 de octubre de 2023. https://retractionwatch.com/2023/10/09/how-thousands-of-invisible-citations-sneak-into-papers-and-make-for-fake-metrics/

El artículo de Retraction Watch expone un fenómeno descubierto en 2022 por el científico informático Guillaume Cabanac: ciertos trabajos científicos acumulaban un número inusualmente alto de citas en poco tiempo a pesar de haber sido descargados muy pocas veces, una discrepancia que no cuadraba con el impacto real del artículo.

Tras una investigación, Cabanac y sus colegas identificaron la causa en los metadatos enviados a Crossref, donde se incluían referencias que no aparecían ni en el PDF ni en la versión HTML del artículo, sino únicamente en los archivos técnicos que utilizan las bases de datos para indexar publicaciones.

El buscador marcó este artículo en particular —que ya ha sido retractado— por contener las llamadas frases manipuladas, giros extraños en términos establecidos que probablemente fueron introducidos por software de traducción o por personas que buscaban evadir los detectores de plagio.

Cabanac notó algo extraño: el estudio había sido citado 107 veces según el «donut de Altmetrics», un indicador del impacto potencial de un artículo, pero solo se había descargado 62 veces.

Además, según Google Académico, este artículo solo había sido citado una vez. “Había una clara discrepancia entre los recuentos de Google Académico y los de Altmetrics/Dimensions”, afirma Cabanac. Esta diferencia es especialmente significativa, ya que “sabemos que Google Académico suele sobreestimar el número de citas”, añade.

Este tipo de “citas invisibles” —citas añadidas en los metadatos pero no visibles para los lectores— acaba siendo procesado por servicios de métricas como Altmetrics o Dimensions, inflando artificialmente los contadores de citas y otras métricas de impacto académico. El artículo señala que esta manipulación perjudica la integridad de los sistemas de evaluación científica, pues métricas como el número de citas o índices derivadas de ellas se emplean a menudo para medir el rendimiento de investigadores y asignar financiación, lo que podría dar una imagen errónea del impacto real de ciertos autores o publicaciones.

Además, el reporte aclara que estas falsas referencias parecían proceder especialmente de ciertas revistas producidas por un editor específico, y que ni siquiera está claro si se trata de una manipulación deliberada o un fallo técnico de procesos de envío de metadatos. La situación pone de relieve la necesidad de mejorar los mecanismos de control de calidad en la producción de metadatos académicos y de desarrollar herramientas que comparen sistemáticamente las referencias visibles en el texto con las incluidas en los registros técnicos, para evitar que tales citaciones ocultas distorsionen las métricas científicas.

Un investigador “infla” su índice h en Google Scholar subiendo numerosos preprints cargados de autocitas

Joelving, Frederik. “How to Juice Your Google Scholar H-Index, Preprint by Preprint.” Retraction Watch, December 8, 2025. https://retractionwatch.com/2025/12/08/how-to-juice-your-google-scholar-h-index-preprint-by-preprint/

Un investigador logró inflar artificialmente su índice h en Google Scholar subiendo numerosos preprints cargados de autocitas, aprovechando que la plataforma indexa documentos sin revisión por pares.

Un investigador asociado a la Universidad de Zhejiang, Muhammad Zain Yousaf, logró un aumento extraordinario en su índice h de Google Scholar en un corto período de tiempo mediante una estrategia que aprovechó preprints cargados de autocitas. Según la investigación, Yousaf subió diez documentos a un servidor de preprints (TechRxiv) en solo dos días, y la mayoría de las referencias dentro de estos documentos eran trabajos propios, en muchos casos con el autor repitiéndose en una proporción muy alta de la bibliografía. Esto provocó que su índice h, una medida de productividad y impacto científico que combina publicaciones y citaciones, se disparara a niveles comparables a los de académicos sénior, aunque la calidad real de los documentos era cuestionada por expertos que los describieron como incoherentes o de baja calidad técnica.

La situación generó sospechas de manipulación de métricas académicas, ya que Google Scholar indexa automáticamente citas incluso de fuentes sin revisión por pares, lo que permite que documentos no evaluados formalmente influyan en el cómputo de indicadores bibliométricos. Investigadores que analizaron el caso descubrieron que, al excluir autocitas y fuentes sin revisión formal (como preprints y actas de conferencias), el índice h real de Yousaf se reducía a la mitad o más, lo que pone en evidencia la fragilidad del sistema para medir el impacto científico auténtico frente a maniobras de este tipo.

El informe también pone énfasis en que esta no es una anomalía única: otros casos documentados muestran que Google Scholar puede ser sencillo de manipular debido a la forma en que indexa contenido en línea, lo que plantea preocupaciones sobre su uso generalizado para evaluaciones académicas, contrataciones y financiación. Expertos citados en el artículo señalan que, mientras continúe la presión sobre investigadores para obtener altas métricas de citación, seguirán apareciendo tácticas similares que explotan lagunas en los sistemas de evaluación automatizados.

Cómo integrar el Consensus con los gestores de referencias: EndNote, Zotero, Paperpile

Elechko, A. 2024. How to Integrate Consensus With Reference Managers – EndNote, Zotero, Paperpile. Help Center. Accedido el 16 de enero de 2026. https://help.consensus.app/en/articles/9922811-how-to-integrate-consensus-with-reference-managers-endnote-zotero-paperpile

Consensus, una herramienta de búsqueda académica basada en inteligencia artificial, puede integrarse de forma sencilla con distintos gestores de referencias bibliográficas como EndNote, Zotero o Paperpile.

El objetivo principal de esta integración es facilitar el trabajo investigador, permitiendo que las referencias encontradas en Consensus se incorporen directamente a los sistemas habituales de gestión bibliográfica, evitando así la introducción manual de datos y reduciendo errores en la citación.

Consensus permite exportar los resultados de búsqueda y las listas de artículos guardados en formatos estándar ampliamente aceptados en el ámbito académico, principalmente RIS y CSV. Estos formatos son compatibles no solo con EndNote, Zotero y Paperpile, sino también con otros gestores como Mendeley, RefWorks, Citavi o Papers. De este modo, el investigador puede transferir rápidamente la información bibliográfica —autores, títulos, revistas, fechas y otros metadatos— a su gestor de referencias preferido y continuar allí el proceso de organización, anotación y citación.

El proceso de exportación es sencillo: tras realizar una búsqueda en Consensus o acceder a una lista previamente guardada, basta con utilizar la opción de descarga y seleccionar el formato deseado. En el caso de Zotero, además, se destaca la utilidad del Zotero Connector, una extensión de navegador que permite guardar directamente los artículos desde la página de resultados o desde la ficha individual de cada trabajo, integrando así Consensus en el flujo de trabajo habitual del investigador de forma casi inmediata.