Archivo de la categoría: Investigación

Mantener la integridad de la investigación en la era de la GenAI: análisis de los retos éticos y recomendaciones a los investigadores

Bjelobaba, Sonja, Lorna Waddington, Mike Perkins, Tomáš Foltýnek, Sabuj Bhattacharyya, y Debora Weber-Wulff. “Maintaining Research Integrity in the Age of GenAI: An Analysis of Ethical Challenges and Recommendations to Researchers.” International Journal for Educational Integrity 21, no. 18 (2025). https://doi.org/10.1007/s40979-025-00191-w.

El artículo analiza los desafíos éticos emergentes derivados del uso creciente de herramientas de inteligencia artificial generativa (GenAI) en el ciclo de vida de la investigación académica. A través de una revisión rápida basada en la práctica, los autores identifican riesgos como la generación de contenido no verificable, la atribución inadecuada de autoría, y la posible erosión de la integridad académica.

En los últimos años, el uso de inteligencia artificial generativa (GenAI) ha transformado drásticamente el panorama académico. Aunque se ha hablado extensamente sobre su impacto en el ámbito educativo —especialmente entre estudiantes—, existe aún poca investigación sobre cómo estas herramientas afectan el proceso investigador. Este artículo se propone llenar ese vacío, analizando los desafíos éticos que plantea el uso de GenAI en todas las etapas del ciclo de investigación académica, desde la formulación de hipótesis hasta la revisión por pares, con el objetivo de ofrecer recomendaciones claras para un uso responsable.

Los autores emplean una revisión rápida que combina literatura científica reciente con análisis práctico del funcionamiento de herramientas de GenAI aplicadas al trabajo investigador. Como marco ético, se basan en el Código Europeo de Conducta para la Investigación, que establece los principios fundamentales de fiabilidad, honestidad, respeto y responsabilidad. A partir de esta estructura, el artículo examina cómo estas herramientas pueden interferir, beneficiar o perjudicar las distintas fases del proceso científico.

En la formulación de preguntas de investigación y diseño de estudios, GenAI puede ayudar a generar ideas iniciales, pero muchas veces estas son superficiales, repetitivas o carentes de originalidad. Además, los modelos tienden a reproducir sesgos previos y, en algunos casos, suprimen ciertos temas o expresiones por filtros ideológicos o comerciales, lo que plantea un problema de censura encubierta. Estas dinámicas pueden limitar el pensamiento crítico y afectar la libertad académica.

Durante la revisión bibliográfica, el uso de GenAI presenta varios riesgos. Algunas herramientas proporcionan referencias aparentemente válidas, pero que no existen —las llamadas “alucinaciones”—, o bien generan resúmenes que reproducen fragmentos literales, incurriendo en plagio inadvertido. Además, al cargar documentos protegidos por derechos de autor en estos sistemas, los investigadores pueden estar vulnerando normativas de propiedad intelectual, especialmente si las plataformas se quedan con una copia de los datos.

En la fase de recogida de datos, se advierte sobre el uso de GenAI para diseñar encuestas, formular entrevistas o transcribir audios. Las herramientas pueden no captar sutilezas culturales o lingüísticas, generando sesgos significativos. Asimismo, su uso en la transcripción o anonimización de datos puede violar leyes de protección de datos, sobre todo si el procesamiento se hace en servidores externos. Esto representa un riesgo ético y legal que debe ser gestionado desde el principio del proyecto.

El análisis de datos con apoyo de GenAI también está lleno de desafíos. Si bien puede ayudar a procesar grandes volúmenes de información, hay riesgo de interpretar incorrectamente resultados estadísticos o de generar conclusiones falsas. En particular, el uso de GenAI para anonimizar información sensible no es fiable, y puede permitir la reidentificación de personas si los modelos conservan trazas de los datos originales.

Durante la redacción de artículos académicos, se han detectado problemas como la omisión de comillas o referencias, la producción de frases sintácticamente confusas, y la inclusión de ideas mal citadas o alteradas. Todo ello puede derivar en acusaciones de plagio o mala praxis. En el ámbito de la traducción, aunque los LLM ofrecen resultados aceptables, también existe el riesgo de “falsos positivos” en detectores de IA, especialmente en manuscritos traducidos por hablantes no nativos.

En la revisión por pares y publicación científica, se subraya que GenAI no puede figurar como autor, ya que no puede asumir responsabilidades ni declarar conflictos de interés. Aun así, estas herramientas están siendo utilizadas para evaluar artículos, lo que plantea dudas sobre la transparencia del proceso. Además, el uso indiscriminado de GenAI puede incentivar prácticas cuestionables como el «salami slicing» (división artificial de investigaciones) o la proliferación de artículos fraudulentos en publicaciones depredadoras.

Entre los riesgos éticos identificados se destacan: la falta de transparencia en el uso de GenAI, el incumplimiento de derechos de autor, la exposición de datos personales, la generación de contenidos plagiados o erróneos, la reproducción de sesgos y estereotipos, la censura por diseño, y la fabricación de datos o resultados. Estos riesgos pueden acumularse a lo largo del proceso investigador y poner en peligro la integridad científica.

Como respuesta, el artículo ofrece recomendaciones claras: documentar y declarar el uso de GenAI en cada fase del trabajo; verificar manualmente los resultados generados; evitar subir materiales con derechos de autor sin permiso explícito; utilizar plataformas que garanticen privacidad y no reclamen propiedad sobre los contenidos; preferir el procesamiento local cuando sea posible; y fomentar normativas institucionales que regulen el uso de estas herramientas con criterios éticos.

Recomendaciones

Basándose en los principios del código europeo, el artículo propone medidas como:


– Documentar y declarar el uso de GenAI en la metodología.
– Verificar manualmente todas las salidas generadas.
– No cargar contenido con copyright sin permiso.
– Emplear herramientas que rastreen fuentes originales.
– Seleccionar servicios que no reclamen propiedad intelectual.
– Considerar la privacidad desde el inicio (optar por procesamiento local si es posible).
– Mantener supervisión ética del diseño, recogida, análisis y publicación de datos.
– Fomentar políticas institucionales claras. Individualmente, los investigadores deben asumir responsabilidad de transparencia y precisión .

Cuando medir empobrece: el coste conceptual de cuantificar la investigación

Martins, Igor. “The Pressure to Quantify Research Is Erasing Conceptual Depth.” LSE Impact of Social Sciences (blog), junio 11, 2025 https://blogs.lse.ac.uk/impactofsocialsciences/2025/06/11/the-pressure-to-quantify-research-is-erasing-conceptual-depth/

Igor Martins advierte que la presión por traducir ideas complejas en indicadores concretos —como citaciones, rankings o índices— conduce a una investigación superficial, donde lo medible desplaza lo significativo

Tanto investigadores como instituciones están cada vez más obligados a presentar resultados que encajen en indicadores numéricos —citaciones, rankings de revistas, índices de desarrollo—, lo que no solo limita qué se investiga, sino también cómo se construye el conocimiento.

Este fenómeno refleja la falacia de McNamara: priorizar lo cuantificable y desechar lo que no puede medirse. Como se explica en la “Ética de la cuantificación”, esta forma de pensar puede generar una confianza excesiva en los números y hacer que problemas complejos de tipo político o social se traten como si fueran únicamente cuestiones técnicas, simplificando en exceso su naturaleza y dificultando soluciones adecuadas.

Para las metodologías cualitativas, la presión por métricas transforma conceptos en marcos rígidos que favorecen eficiencia y comparabilidad a costa de profundidad. Según un estudio en BMC (2025), «estos marcos… promueven eficiencia y comparabilidad, pero arriesgan perder lo valioso de una buena investigación cualitativa: la profundidad» Además, convertir datos cualitativos en parámetros fácilmente cuantificables (p. ej., inter-rater reliability) puede distorsionar la riqueza del análisis.

Martins relata su experiencia durante un posdoctorado en la Universidad de Lund, donde trabajó en una teoría sobre el cierre de brechas económicas. Para ello debió operacionalizar conceptos abstractos como “capacidades sociales”, traduciendo nociones de inclusión, autonomía o estabilidad en métricas concretas. Sin embargo, relata que las exigencias de claridad y objetividad reducían la riqueza teórica original. Él mismo admite: “en aquel momento… la demanda de una métrica había empezado a desplazar el trabajo conceptual en sí”

El artículo profundiza en los riesgos de aplicar criterios cuantitativos uniformes a disciplinas muy diversas. Citando a Jonathan Adams, Martins advierte: “producir métricas comparables entre filósofos, historiadores o economistas borra las diferencias que dan valor a esa diversidad intelectual” . Cuando los proxies –las métricas– se institucionalizan, se corre el riesgo de confundir el mapa con el territorio, perdiendo de vista el fenómeno original .

No obstante, Martins reconoce que la medición tiene beneficios prácticos: facilita la comparación, replicación y comunicación de resultados, especialmente en economía del desarrollo y bienestar, donde indicadores como el PIB o la calidad institucional guían políticas. El problema no es medir, sino que la métrica se convierta en el fin, sustituyendo el pensamiento profundo. Advierte que “la ambigüedad no siempre es un problema; a veces, es lo que hace que un concepto valga la pena”

Por lo que llama a un uso cuidadoso de las métricas: que sean herramientas para clarificar y ampliar el pensamiento, no reemplazos del mismo. Propone mantener vigilante el equilibrio entre la cuantificación y la riqueza conceptual, reconociendo que cierta vaguedad es necesaria para capturar fenómenos complejos.

Nature ha anunciado que comenzará a publicar automáticamente los archivos de revisión por pares junto con los artículos científicos

Hernández, María (editora). 2025. “Nature Looks to Open Up ‘Black Box’ of Science by Publishing Peer‑Review Files.” NBC News, 18 de junio de 2025. https://www.nbcnews.com/science/science-news/nature-looks-open-black-box-science-publishing-peer-review-files-rcna213359.

La revista Nature, una de las más influyentes del mundo científico, ha decidido dar un paso crucial hacia la transparencia editorial: comenzará a publicar automáticamente los archivos de revisión por pares de los artículos aceptados.

Esta medida implica que los informes de los revisores, junto con la respuesta de los autores y las decisiones editoriales, estarán disponibles para el público como parte del registro científico. Aunque los revisores seguirán siendo anónimos, su trabajo será visible, lo que representa un cambio significativo en una práctica tradicionalmente cerrada.

Esta iniciativa responde a las críticas recurrentes sobre la opacidad del sistema de revisión por pares, un pilar esencial en la validación del conocimiento científico. Según un estudio publicado en PLOS ONE, el 64 % de los investigadores encuestados considera que el sistema necesita más apertura. Publicaciones como eLife o F1000Research ya aplican modelos transparentes de revisión, lo que ha incrementado la confianza en sus procesos.

Además, Nature forma parte de Springer Nature, grupo editorial que impulsa la ciencia abierta (Open Science). Esta nueva política alinea la revista con estándares como los de la Iniciativa FAIR (Findable, Accessible, Interoperable, Reusable), promovidos por la Comisión Europea para mejorar la reproducibilidad y reutilización del conocimiento científico.

Sin embargo, la medida también genera debate. Algunos revisores temen que la exposición de sus comentarios, incluso de forma anónima, pueda llevar a represalias o influir en su libertad de crítica. Otros señalan que su labor, aún siendo central, no recibe suficiente reconocimiento. En ese sentido, plataformas como Publons y ORCID buscan mejorar la visibilidad del trabajo de los revisores, una tarea muchas veces no remunerada.

Otra preocupación emergente es la posible utilización de estos archivos como datasets para entrenar modelos de inteligencia artificial, lo que plantea desafíos éticos en cuanto al consentimiento y al uso de datos sensibles. Algunos expertos, como Jonas Heller, señalan que el acceso masivo a estos textos puede alimentar sistemas de IA que emulen el proceso de revisión sin intervención humana, lo que plantea un nuevo escenario para la publicación científica.

En conjunto, la decisión de Nature marca un cambio histórico que puede transformar la relación entre autores, editores y lectores, acercando la ciencia a un modelo más participativo, accesible y confiable.

La administración Trump cancela contratos de suscripción con Springer Nature por valor de millones de dólares

Inside Higher Ed. «Trump Admin Cuts NIH’s Springer Nature Subscriptions.» Inside Higher Ed, 27 de junio de 2025. https://www.insidehighered.com/news/quick-takes/2025/06/27/trump-admin-cuts-nihs-springer-nature-subscriptions.

La administración Trump ha cancelado contratos por millones de dólares con Springer Nature, una gigante editorial científica de propiedad alemana que durante mucho tiempo recibió pagos por suscripciones de los Institutos Nacionales de Salud y otras agencias.

La administración Trump ha decidido cancelar millones de dólares en contratos de suscripción con Springer Nature, una importante editorial científica alemana que provee contenido para agencias como los Institutos Nacionales de Salud (NIH) de Estados Unidos. Esta medida se produjo tras cuestionamientos del Departamento de Justicia sobre las prácticas editoriales de Springer, acusándola de adoptar posiciones partidistas en debates científicos y de promover ciertos puntos de vista de manera indebida.

A principios de este año, el Departamento de Justicia envió una carta a una publicación de Springer cuestionando sus prácticas editoriales. La carta también planteaba preguntas sobre los supuestos vínculos de Springer con China, financiación del Partido Comunista Chino (PCCh) y reclamaciones relacionadas con la censura.

Al menos otra revista científica, Chest, también recibió una carta sobre la toma de partido en debates científicos, como informó The Washington Post en abril.

Springer Nature tiene más de 3.000 revistas y publicaciones, y su portafolio incluye Nature y Scientific American. El contenido editorial abarca desde noticias científicas y médicas hasta artículos de investigación revisados por pares escritos por científicos.

La empresa salió a bolsa en octubre de 2024, y esta controversia refleja las tensiones actuales entre la administración estadounidense y ciertas entidades científicas internacionales.

¿Son mejores las ideas de investigación generadas por Inteligencia Artificial o las creadas por humanos?

Si, Chenglei, Tatsunori Hashimoto y Diyi Yang. The Ideation-Execution Gap: Execution Outcomes of LLM-Generated versus Human Research Ideas. arXiv, 25 de junio de 2025. https://arxiv.org/abs/2506.20803

Los resultados mostraron que las ideas generadas por LLM recibieron puntuaciones significativamente más bajas que las ideas humanas en todos los criterios evaluados: novedad, entusiasmo, efectividad y puntuación general. Este fenómeno, denominado «brecha ideación-ejecución», sugiere que, aunque los LLM pueden generar ideas originales, su capacidad para traducir esas ideas en resultados de investigación efectivos es limitada.

El estudio investiga la diferencia entre la generación de ideas de investigación por modelos de lenguaje grande (LLM, Large Language Models) y la capacidad real de esas ideas para traducirse en resultados concretos y efectivos cuando se llevan a la práctica. Aunque investigaciones anteriores han señalado que los LLM pueden producir ideas originales e innovadoras, el presente estudio se enfoca en la llamada “brecha ideación-ejecución” para determinar si estas ideas realmente tienen éxito cuando se implementan en proyectos de investigación reales.

Para evaluar esta cuestión, los autores diseñaron un experimento riguroso en el que 43 investigadores expertos en procesamiento de lenguaje natural recibieron ideas de investigación generadas tanto por humanos como por LLM. Cada investigador trabajó durante más de 100 horas en la ejecución de una de estas ideas, desarrollando proyectos completos documentados en informes detallados de cuatro páginas. Estos informes fueron luego evaluados de manera anónima por otros expertos para medir la calidad y el impacto de los resultados obtenidos.

Los resultados revelaron que, en múltiples dimensiones evaluadas —incluyendo la novedad de la idea, el entusiasmo generado, la efectividad del proyecto y la valoración general—, los proyectos derivados de ideas humanas superaron claramente a los derivados de ideas generadas por LLM. En otras palabras, aunque los LLM son capaces de ofrecer propuestas creativas y novedosas, su capacidad para traducir esas ideas en investigaciones exitosas y aplicables es significativamente menor.

Este hallazgo tiene implicaciones importantes para el uso de la inteligencia artificial en la investigación científica. Sugiere que, aunque la IA puede ser una herramienta valiosa para inspirar ideas o asistir en la fase inicial de generación conceptual, la supervisión humana y la experiencia siguen siendo cruciales para asegurar que las ideas puedan concretarse en resultados tangibles y de calidad. El estudio enfatiza la necesidad de evaluar no solo la creatividad o novedad de las ideas producidas por IA, sino también su factibilidad y capacidad de ejecución.

Finalmente, los autores invitan a reflexionar sobre cómo integrar de manera efectiva las capacidades de los modelos de lenguaje en el proceso de investigación, proponiendo un enfoque colaborativo entre humanos e IA que maximice las fortalezas de cada uno, minimizando las limitaciones observadas.

ChatGPT en la escritura académica: un análisis cienciométrico de la literatura publicada entre 2022 y 2023

Lendvai GF. ChatGPT in Academic Writing: A Scientometric Analysis of Literature Published Between 2022 and 2023Journal of Empirical Research on Human Research Ethics. 2025;0(0). doi:10.1177/15562646251350203

El artículo analiza cómo la literatura académica ha percibido la herramienta de inteligencia artificial ChatGPT en el contexto de la escritura académica. Utilizando un enfoque cientométrico, los autores examinan la evolución de las publicaciones académicas que abordan el uso de ChatGPT en la redacción de textos científicos, identificando tendencias, patrones y áreas de interés en la investigación.

El estudio se centra en el análisis de 171 artículos académicos revisados por pares, extraídos de la base de datos Scopus, que abordan el uso de ChatGPT en la escritura académica. Utilizando el software CiteSpace, los autores realizaron un análisis de co-citación de documentos para mapear la estructura temática e intelectual del discurso sobre ChatGPT en la producción de conocimiento académico.

Se identificaron diez clusters temáticos principales, entre los que destacan:

  1. Riesgos éticos: Incluye preocupaciones sobre la autoría, el plagio y la integridad académica.
  2. Aplicaciones prácticas: Uso de ChatGPT para la redacción de textos, generación de resúmenes y asistencia en la escritura.
  3. Innovaciones pedagógicas: Integración de ChatGPT en entornos educativos para mejorar la enseñanza y el aprendizaje.

El análisis también destacó una creciente aceptación de ChatGPT como herramienta para mejorar la escritura y apoyar marcos educativos innovadores, especialmente entre hablantes no nativos de inglés. Sin embargo, persisten preocupaciones sobre referencias inventadas, plagio, ética de la autoría y la fiabilidad de las herramientas de detección de IA.

El estudio destaca el creciente interés en la aplicación de ChatGPT en diversos aspectos de la escritura académica, incluyendo la generación de contenido, la asistencia en la redacción y la mejora de la calidad del texto. Además, se analizan las implicaciones éticas y metodológicas de utilizar herramientas de IA en la producción académica, considerando aspectos como la autoría, la originalidad y la integridad de la investigación.

A través de este análisis, los autores proporcionan una visión detallada de cómo la comunidad académica está incorporando ChatGPT en sus prácticas de escritura y los desafíos que esto implica. El estudio también sugiere áreas para futuras investigaciones y el desarrollo de directrices para el uso ético y efectivo de la inteligencia artificial en la redacción académica.

El estudio enfatiza la necesidad de una supervisión proactiva y el desarrollo de políticas para garantizar una integración responsable de la IA generativa en la investigación y la educación. Se sugiere que las instituciones académicas implementen directrices claras sobre el uso de herramientas como ChatGPT, promoviendo prácticas éticas y transparentes en la producción académica.

Guía práctica para una investigación ética y responsable con inteligencia artificial

UK Research Integrity Office. (2025, 27 de junio). Embracing AI with integrity: A practical guide for researchers. UKRIO. https://ukrio.org/wp-content/uploads/Embracing-AI-with-integrity.pdf

El documento proporciona una guía clara, práctica y accesible para que los investigadores integren herramientas de inteligencia artificial (IA) en su trabajo de forma ética y responsable.

Reconociendo que la IA ya forma parte del ecosistema académico —desde la escritura de textos hasta el análisis de datos—, el objetivo principal de esta guía es proteger la integridad de la investigación, asegurando que el uso de la IA no comprometa la transparencia, la responsabilidad ni la originalidad del trabajo científico.

La guía se estructura en torno a cinco áreas clave de riesgo relacionadas con el uso de la IA en la investigación. La primera de ellas es el cumplimiento legal y regulatorio, que incluye aspectos como el respeto a los derechos de autor, la protección de datos personales y el cumplimiento de los requisitos de las agencias financiadoras. En segundo lugar, se abordan las consideraciones éticas, como la equidad, la eliminación de sesgos, el consentimiento informado y el respeto por los participantes en la investigación, especialmente en estudios con seres humanos.

El tercer aspecto señalado es la necesidad de proteger el registro de la investigación, lo que implica documentar de forma clara cuándo, cómo y con qué herramientas de IA se ha trabajado. Esto favorece la trazabilidad y permite que otros comprendan y repliquen el proceso investigativo. La cuarta área de atención es la divulgación y presentación de resultados, en la que se destaca la importancia de indicar si se han utilizado herramientas de IA en la redacción, el análisis o la elaboración de gráficos, asegurando que la autoría humana esté bien diferenciada y que la contribución de la IA esté correctamente citada o reconocida.

Finalmente, la guía subraya el riesgo de que el uso extensivo de la IA pueda debilitar habilidades humanas esenciales como el pensamiento crítico, la creatividad y el juicio profesional. Aunque la IA puede ser una gran aliada, el documento recomienda evitar la dependencia excesiva de estas tecnologías, especialmente en etapas formativas o en tareas que requieren discernimiento ético o análisis complejo.

Embracing AI with Integrity también incluye recomendaciones prácticas para investigadores, instituciones y responsables de políticas científicas. A los investigadores se les insta a reflexionar críticamente sobre el uso que hacen de estas herramientas, a reconocer sus limitaciones, y a documentar su uso en sus publicaciones y proyectos. A las instituciones, se les recomienda desarrollar políticas claras, ofrecer formación continua y fomentar una cultura de uso ético de la IA.

La guía responde a una necesidad detectada en una encuesta previa realizada por UKRIO en 2024, que reveló una gran preocupación en la comunidad científica por la falta de directrices claras respecto al uso de estas tecnologías. Como resultado, muchas universidades y centros de investigación no contaban aún con políticas definidas, lo que generaba incertidumbre entre académicos y estudiantes. Con esta publicación, UKRIO busca llenar ese vacío y fomentar un diálogo abierto sobre el uso responsable de la IA en la ciencia.

¿Cómo son las carreras de investigación en los distintos países? Una nueva base de datos mundial ofrece algunas respuestas

Science.org. (2025, junio 30). How do research careers compare across countries? New global database has some answers. Science. https://www.science.org/content/article/how-do-research-careers-compare-across-countries-new-global-database-has-some-answers

El observatorio ReICO representa un paso importante hacia una comprensión global y comparativa de las carreras de investigación. Al ofrecer datos detallados y contextualizados, permite a los responsables políticos y a las instituciones científicas tomar decisiones más informadas para mejorar la sostenibilidad, equidad y atractivo de la profesión investigadora en todo el mundo.

Un nuevo observatorio internacional creado por la OCDE, llamado Research and Innovation Careers Observatory (ReICO), busca proporcionar datos comparativos y fiables sobre las trayectorias profesionales de los investigadores en distintos países. Esta herramienta es un avance clave para quienes diseñan políticas científicas, ya que permite visualizar y analizar cómo varían las condiciones laborales, los patrones de movilidad, la distribución sectorial del empleo y los obstáculos estructurales que enfrentan los científicos a lo largo de sus carreras.

Uno de los hallazgos destacados del informe es el crecimiento en el número de personas con doctorado en los países de la OCDE. Entre 2014 y 2022, la proporción de la población activa con doctorado pasó de 0,9 % a 1,3 %. Aunque países como Eslovenia y Suiza presentan porcentajes superiores al 3 %, en otros como México, Costa Rica e Indonesia la cifra no supera el 0,2 %. Esta disparidad refleja desequilibrios importantes en la inversión en educación superior avanzada y en las oportunidades de desarrollo científico.

Sin embargo, a pesar del aumento en la formación de doctores, las condiciones laborales siguen siendo frágiles, sobre todo en las primeras etapas de la carrera investigadora. Según los datos recogidos, aproximadamente el 75 % de los investigadores menores de 34 años tienen contratos temporales. Esta precariedad, combinada con la presión por publicar y conseguir financiación, hace que muchos científicos abandonen la carrera académica o busquen oportunidades fuera del ámbito público.

El informe también muestra un cambio estructural significativo: cada vez más investigadores trabajan fuera de la academia, especialmente en el sector empresarial. Entre los años 2000 y 2021, la proporción de científicos empleados en empresas pasó del 60 % al 66 %. Este crecimiento refleja no solo la expansión de la I+D en el ámbito privado, sino también una adaptación de los perfiles científicos a necesidades del mercado, lo cual plantea nuevos desafíos y oportunidades para la formación doctoral.

Otro aspecto que destaca el observatorio es la dificultad para rastrear las trayectorias profesionales, especialmente cuando los investigadores cambian de sector, país o dejan de publicar artículos científicos. Esta falta de información dificulta a los jóvenes investigadores imaginar trayectorias profesionales sostenibles y contribuye a la incertidumbre sobre las salidas laborales tras el doctorado.

Finalmente, el ReICO también aborda las brechas de género persistentes en la ciencia. Las mujeres tienen más probabilidades de tener contratos temporales en todas las etapas de su carrera y están subrepresentadas en los puestos de mayor jerarquía. El informe recomienda a los países diversificar sus criterios de evaluación del rendimiento científico, apoyarse más en trayectorias variadas y aplicar políticas activas de inclusión y equidad.

Es «ORCID y…», no «ORCID o…»: Cómo los identificadores de investigadores trabajan juntos para ayudar a los investigadores

Brown, J., & Meadows, A. (2025, junio 25). It’s “ORCID and…,” not “ORCID or…”: How researcher identifiers work together to help researchers, build a better picture of research, and streamline administrative tasks [Informe]. Zenodo. https://doi.org/10.5281/zenodo.15737460

El informe destaca que ORCID —el identificador de investigadores— no compite con otros sistemas; más bien, los integra y complementa. Su propuesta central es que los investigadores deben considerarlo “y no ‘o.’” En lugar de reemplazar otros identificadores, ORCID conecta redes nacionales, disciplinas especializadas y sistemas propietarios a través de una plataforma interoperable abierta.

ORCID surgió en 2012 para resolver la ambigüedad en la autoría científica generada por nombres similares, cambios de nombre, variaciones culturales y convenciones tipográficas. Como identificador alfanumérico persistente, funciona como una “cédula” digital que permite rastrear con precisión la producción académica de una persona. Su diseño abierto facilita la vinculación con otros sistemas de identificación (Scopus Author ID, ResearcherID, ISNI…), potenciando la automatización y evitando duplicidades.

El informe estructura su análisis en tres capas de interoperabilidad: (1) cobertura nacional, en la cual instituciones integran ORCID en sus sistemas internos para proyectarse globalmente; (2) cobertura disciplinar, mediante la asociación con infraestructuras específicas como DOI para publicaciones o RAiD para conjuntos de datos; y (3) sistemas propietarios o comerciales, que pueden integrar ORCID mediante APIs abiertas, permitiendo su uso junto con herramientas premium para la gestión de investigación.

Los beneficios se traducen en eficiencia administrativa y visibilidad de las contribuciones: al eliminar procesos manuales y consolidar identificadores, se reducen errores y aumentan los ahorros en tiempo y recursos. En algunos casos documentados en el informe, se observan ahorros equivalentes a varios días/persona al año, que podrían equivaler a ahorros millonarios si se escalan .

Informe del Encuentro de Bolonia sobre Ciencia Abierta

Report of the Bologna Meeting on Open Research Information.” Barcelona Declaration, May 28 2025, University of Bologna. 25 de junio de 2025. https://zenodo.org/records/15730917

En mayo de 2025, firmantes, simpatizantes y personas interesadas en la Declaración de Barcelona sobre Información Abierta en Investigación se reunieron en Bolonia, Italia, para seguir impulsando esta iniciativa. El evento, de un día y en formato híbrido, se celebró en el marco del 5.º Taller sobre Citaciones Abiertas y Metadatos Académicos Abiertos (WOOC2025), coorganizado por la propia Declaración de Barcelona, la Universidad de Bolonia y OpenCitations.

Casi 200 participantes de 35 países tomaron parte en una jornada de diálogo y colaboración diseñada para avanzar colectivamente en los objetivos de la Declaración. El encuentro se centró en compartir experiencias de implementación, fortalecer vínculos entre los distintos grupos de trabajo y definir los próximos pasos en la hoja de ruta de la Declaración.

La jornada comenzó con palabras de bienvenida de Raffaella Campaner (Vicerrectora de Relaciones Internacionales de la Universidad de Bolonia) y Bianca Kramer (Directora Ejecutiva de la Declaración de Barcelona), quienes marcaron el tono proactivo del evento. Posteriormente, representantes de entidades firmantes como la Fundación “la Caixa”, la Biblioteca Digital de California y la red neerlandesa de firmantes compartieron ejemplos prácticos de implementación en distintos contextos institucionales.

Durante la segunda parte del día se llevaron a cabo sesiones interactivas en grupos de trabajo. En dos rondas, los siete grupos de trabajo de la Declaración presentaron avances, recogieron comentarios y debatieron prioridades en un entorno abierto y colaborativo. Luego, sus coordinadores expusieron en sesión plenaria los puntos clave y las ideas para seguir avanzando.

El evento concluyó con una sesión orientada al futuro, en la que se esbozaron nuevas prioridades relacionadas con la gobernanza, la colaboración y el compromiso a nivel global.