Archivo de la categoría: Investigación

La IA ya está muy presente en los flujos de trabajo de la publicación académica

Dolechek, Melanie. “AI in Scholarly Publishing — SSP Pulse Check Report.The Scholarly Kitchen (blog), 9 de enero de 2026. https://scholarlykitchen.sspnet.org/2026/01/09/ai-in-scholarly-publishing-ssp-pulse-check-report/

Texto completo

El objetivo del informe es explorar cómo las organizaciones del ámbito de la publicación académica están adoptando y respondiendo a la inteligencia artificial (IA). La encuesta, realizada entre el 1 y el 12 de diciembre de 2025 entre 563 profesionales de distintas organizaciones, revela que la IA ya está muy presente en los flujos de trabajo de la publicación académica, aplicándose principalmente en tareas relacionadas con la creación y resumen de contenidos, revisión de integridad y detección de plagio, así como en herramientas de accesibilidad y descubrimiento de contenidos.

A pesar de esta adopción generalizada, el informe subraya que la preparación institucional para gestionar el impacto de la IA sigue rezagada respecto al uso tecnológico. La mayoría de las organizaciones se encuentran en un estado de preparación parcial, con políticas, capacidades y conocimientos aún en desarrollo, lo que refleja que el entusiasmo por la IA va acompañado de incertidumbre y retos organizativos. Entre los principales obstáculos se encuentran preocupaciones éticas y legales, problemas de privacidad y seguridad de datos, y una insuficiente capacidad especializada dentro de los equipos.

Las respuestas a la encuesta muestran que la adopción de IA ya está en marcha en las organizaciones de publicación académica, y la gran mayoría reporta al menos un caso de uso activo. Las aplicaciones más comunes se centran en los flujos de trabajo relacionados con el contenido, particularmente la creación o resumen de contenido (48%) y la verificación de plagio o integridad de la investigación (43%). Estos usos reflejan áreas donde la IA puede ofrecer ganancias inmediatas de eficiencia y ampliar el soporte a los procesos editoriales existentes sin alterar fundamentalmente la autoridad en la toma de decisiones.

Las herramientas de accesibilidad y traducción (34%) y el descubrimiento de contenido (34%) también son muy relevantes, subrayando el papel creciente de la IA en mejorar el alcance, la usabilidad y la encontrabilidad del contenido académico.

Más allá de las funciones editoriales principales, las organizaciones aplican cada vez más la IA a actividades empresariales y operativas. Más de una cuarta parte de los encuestados informa que utiliza IA para marketing o interacción con clientes (27%) y para análisis de datos o previsiones (27%), lo que indica una mayor comodidad con los conocimientos generados por IA para informar estrategias y alcance de la audiencia. La asistencia en la revisión por pares o la asignación de revisores (22%) y la generación o etiquetado de metadatos (18%) aparecen como aplicaciones emergentes, pero aún no universales, lo que sugiere tanto oportunidad como cautela en áreas que interfieren más directamente con el juicio académico y el control de calidad.

De acuerdo con los datos mostrados, las categorías con mayor peso son:

  • Creación o resumen de contenido: Es la aplicación más destacada con un 48%.
  • Controles de plagio o integridad: Ocupa el segundo lugar con un 43%.
  • Descubrimiento de contenido: Representa un 34%.
  • Herramientas de accesibilidad o traducción: Empata con el descubrimiento de contenido con un 34%.
  • Marketing o compromiso del cliente: 27%.
  • Análisis de datos o pronósticos: 27%.
  • Asistencia en revisión por pares o emparejamiento de revisores: 22%.
  • Generación de metadatos o etiquetado: 18%.
  • Licencia de contenido a terceros: 13%.
  • Personalización o inteligencia predictiva: 13%.
  • Finalmente, la imagen indica que un 14% corresponde a otros usos y un 12% de los consultados no utiliza IA actualmente.

Actitudes hacia la IA

Las respuestas indican que la mayoría de las organizaciones abordan la IA con interés medido, más que con entusiasmo incondicional. La mayoría (51%) describe su postura como exploración cautelosa de oportunidades, lo que sugiere experimentación activa junto con consideración cuidadosa de riesgos, gobernanza y adecuación. Al mismo tiempo, más de un tercio de los encuestados muestra una postura fuertemente positiva hacia la IA: 19% adopta activamente e invierte en IA y 16% se identifica como adoptante entusiasta y proactivo — juntos indican un impulso significativo hacia una integración más profunda.

Solo una pequeña minoría permanece al margen o en contra. Solo el 6% reporta una postura neutral de esperar y ver, otro 6% se declara escéptico o resistente, y solo 2% evita activamente las herramientas de IA. En conjunto, estos resultados sugieren que, aunque la cautela sigue siendo dominante, la resistencia a la IA en la publicación académica es limitada y la trayectoria general apunta hacia una adopción más amplia con el tiempo.

Preparación ante la IA

Las respuestas sugieren que la mayoría de las organizaciones se sienten parcialmente preparadas para enfrentar el impacto de la IA en el próximo año. Casi la mitad (45%) reporta estar moderadamente preparada, mientras otro 27% se siente solo ligeramente preparada, lo que indica que muchas organizaciones todavía están construyendo habilidades, políticas y confianza interna. Un porcentaje menor se siente altamente preparado: 16% se describe como muy preparado y solo 3% como completamente preparado, lo que subraya lo rara que sigue siendo la sensación de preparación total. Al mismo tiempo, 9% reporta no estar preparado en absoluto, destacando la necesidad de orientación, buenas prácticas compartidas y desarrollo de capacidades en toda la comunidad.

El sondeo también identifica oportunidades importantes asociadas con la IA, entre ellas la eficiencia de los flujos de trabajo —que puede liberar tiempo para tareas de mayor valor añadido—, el fortalecimiento de la revisión por pares mediante herramientas de apoyo o asignación de revisores, y el uso de IA para reforzar la integridad y calidad de la investigación a través de la detección de plagio o de prácticas poco éticas. Asimismo, la IA se percibe como una herramienta valiosa para mejorar la descubribilidad del contenido científico y para apoyar a autores de distintas lenguas mediante traducción y servicios lingüísticos.

Barreras para la adopción de IA

Los encuestados identificaron preocupaciones legales/éticas, privacidad/seguridad y falta de experiencia/capacidad como las principales barreras para la adopción de IA.

A pesar de los altos niveles de adopción e interés en IA, las organizaciones de publicación académica todavía albergan serias preocupaciones sobre su uso en el sector. Las preocupaciones éticas o legales (63%) y los problemas de privacidad o seguridad de los datos (61%) encabezan la lista, reflejando cautela generalizada respecto a cumplimiento, propiedad intelectual y uso responsable — preocupaciones especialmente agudas en la publicación académica. La preparación organizacional también emerge como un desafío significativo, con la mitad de los encuestados (50%) citando la falta de experiencia o capacidad del personal, lo que subraya que las capacidades humanas e institucionales a menudo quedan detrás del interés tecnológico.

Consideraciones prácticas y financieras forman un segundo nivel de barreras. Restricciones presupuestarias (28%), calidad o disponibilidad de datos (25%) y un ROI o caso de negocio poco claros (25%) sugieren que muchas organizaciones todavía evalúan costos frente a beneficios inciertos. Los problemas culturales y de herramientas —como la resistencia al cambio (23%) y la falta de herramientas adecuadas (19%)— son menos dominantes pero todavía significativos. Casi todas las organizaciones reportan algún tipo de fricción al adoptar IA.

No obstante, las preocupaciones sobre los riesgos son profundas y existenciales. Muchos encuestados expresan inquietudes sobre la posibilidad de que la IA degrade la calidad y la integridad de la literatura académica, dificultando la detección de contenidos generados por IA sin rigor científico, y erosionando la confianza en el proceso de revisión por pares tradicional. También existe ansiedad sobre la falta de transparencia en el uso de IA y la autenticidad de las contribuciones cuando las herramientas automatizadas participan en la producción o evaluación de trabajos. En conjunto, estas respuestas reflejan una comunidad editorial que navega entre la oportunidad de mejorar procesos y la necesidad de proteger los valores fundamentales de la comunicación científica.

Potencial de la inteligencia artificial para acelerar el impacto de la investigación en el mundo real

Higher Education Policy Institute (HEPI) & Taylor & Francis (8 de enero de 2026). Using Artificial Intelligence (AI) to Advance Translational Research (HEPI Policy Note 67). Disponible en HEPI Insights

Texto completo

El informe analiza de manera exhaustiva cómo la inteligencia artificial puede transformar el proceso de investigación académica para acelerar su impacto en el mundo real, especialmente en lo que se conoce como investigación traslacional, es decir, la que busca convertir descubrimientos científicos en aplicaciones prácticas y beneficios tangibles para la sociedad.

Un nuevo informe elaborado por HEPI y Taylor & Francis explora el potencial de la inteligencia artificial (IA) para impulsar la investigación traslacional y acelerar el camino que va desde el descubrimiento científico hasta su aplicación práctica en la sociedad.

Using Artificial Intelligence (AI) to Advance Translational Research (Nota de política HEPI n.º 67), elaborado por Rose Stephenson, directora de Política y Estrategia de HEPI, y Lan Murdock, directora sénior de Comunicación Corporativa en Taylor & Francis, se basa en los debates mantenidos en una mesa redonda con responsables del ámbito de la educación superior, investigadores, innovadores en IA y organismos financiadores, así como en una serie de estudios de caso de investigación, para evaluar el papel futuro de la IA en la investigación traslacional.

Principales conclusiones

El informe concluye que la IA tiene el potencial de reforzar el sistema de investigación traslacional del Reino Unido, pero que la materialización de estos beneficios requerirá una implementación cuidadosa, una gobernanza adecuada y una inversión sostenida.

Entre las principales conclusiones se incluyen las siguientes:

  • La IA podría acelerar la investigación traslacional al permitir un análisis más rápido de grandes y complejos conjuntos de datos, apoyar la síntesis del conocimiento y mejorar los vínculos entre disciplinas. Sin embargo, la disponibilidad y la calidad de estos conjuntos de datos siguen siendo desiguales, lo que limita en algunos ámbitos la capacidad de las herramientas de IA para apoyar la traducción de la investigación.
  • El acceso a competencias y experiencia en IA es cada vez más importante, y la integración de estas capacidades en marcos interdisciplinarios será un componente clave para impulsar la investigación traslacional.
  • La IA puede mejorar la accesibilidad y la visibilidad de la investigación, entre otras cosas mediante resúmenes en lenguaje claro, sistemas de búsqueda semántica (funciones de búsqueda que utilizan conceptos e ideas, y no solo palabras clave, ofreciendo resultados más precisos) y nuevos formatos dirigidos a públicos más allá del ámbito académico.
  • Existen riesgos claros asociados al uso de la IA, incluidos los desafíos relacionados con la reproducibilidad, los sesgos, la pérdida de competencias, la integridad académica, la propiedad intelectual y la rendición de cuentas.

Recomendaciones

Para garantizar que la IA respalde una investigación traslacional de alta calidad y realizada de manera responsable, el informe formula una serie de recomendaciones dirigidas a organismos financiadores de la investigación, instituciones y editoriales, entre las que se incluyen:

  • Establecer expectativas claras para el uso responsable de la IA, incluida su alineación con orientaciones como Embracing AI with Integrity de la UK Research Integrity Office.
  • Invertir en una IA fiable y ética, incluyendo acciones para mejorar la transparencia, reducir los sesgos y apoyar la reproducibilidad.
  • Reforzar el apoyo a la investigación interdisciplinaria, con un mayor reconocimiento del trabajo en equipo y vías más claras para acceder a conocimientos y experiencia en IA.
  • Apoyar infraestructuras compartidas y abiertas de investigación en IA para reducir duplicidades y facilitar que las herramientas desarrolladas por investigadores estén disponibles de forma más amplia.
  • Fomentar el intercambio y la reutilización de datos, junto con la inversión en infraestructuras que permitan un acceso seguro y responsable a los datos.

Rose Stephenson, directora de Política y Estrategia de HEPI y coautora del informe, afirmó: «El Reino Unido cuenta con fortalezas extraordinarias en investigación, pero demasiadas ideas tienen dificultades para recorrer el camino desde el descubrimiento hasta su uso en el mundo real. La IA tiene el potencial de apoyar este proceso acelerando el análisis, conectando disciplinas y mejorando el acceso a la investigación. Sin embargo, estos beneficios solo se harán realidad si la IA se utiliza de manera transparente, ética y de formas que refuercen, en lugar de sustituir, la experiencia humana».

Por su parte, Rebecca Lawrence, vicepresidenta de Traducción del Conocimiento en Taylor & Francis, señaló: «Estamos muy agradecidos a todos los participantes de la mesa redonda y a quienes compartieron aportaciones para los estudios de caso. Los valiosos debates y el proceso posterior de elaboración de la nota de política han puesto de relieve los beneficios de trabajar de manera colectiva para aprovechar el poder y las oportunidades que puede ofrecer el uso responsable de la IA en la investigación traslacional».

Mediante la inversión en conocimiento interdisciplinario, gobernanza ética e infraestructuras, las partes interesadas pueden contribuir a transformar la investigación traslacional y permitir que un mayor número de investigaciones recientes genere beneficios sociales significativos.

El impacto de la IA en la comunicación académica, informes sobre la aparición de «revistas imaginarias» hasta el punto de crear revistas y citas fantásticas

Linacre, Simon. 2026. “Land of Make Believe.” Cabells Blog, 7 de enero de 2026. https://blog.cabells.com/2026/01/07/land-of-make-believe/

A finales de 2025 empezaron a surgir informes sobre algo que han llamado revistas imaginarias. La IA generativa puede “alucinar”, es decir, inventar hechos o datos presentándolos como reales, pero que llegue al punto de generar títulos de revistas y citas que no existen en absoluto ha sorprendido a muchos.

Se han detectado referencias a publicaciones que nunca han existido en trabajos académicos. Estamos acostumbrados a las revistas falsas o depredadoras, pero estos nuevos títulos sólo aparecen en bibliografías generadas por IA, sin rastro real de su existencia.

Además, también se han encontrado artículos atribuidos a autores que no existen. Incluso algunos de estos textos se han presentado a revistas legítimas. Esto podría formar parte de pruebas para evaluar sistemas de revisión o detección de plagio, aunque también podría responder a fines más oscuros.

Aunque suene sorprendente, la aparición de artículos completamente generados por IA está alterando las normas tradicionales de la investigación y la publicación académica. Muchos repositorios de preprints han tenido que restringir envíos ante el aumento de trabajos de baja calidad generados por IA.

El impacto podría ser serio: si se difunden investigaciones inventadas y otros investigadores las citan o usan como referencia, el daño se propaga rápidamente. Incluso se han visto casos en los que artículos falsos han sido citados decenas de veces, sin que los autores supieran que su nombre aparecía en esos documentos.

Frente a esta situación, las fuentes verificadas de publicaciones científicas se vuelven más importantes a medida que el uso de IA se expande. Las fronteras entre investigación humana, híbrida o generada exclusivamente por IA se están desdibujando, con implicaciones profundas para editores, autores, instituciones y financiadores.

Prioridades de la comunidad global para la IA agencial en la investigación

Research Data Alliance, “Global community priorities for agentic AI in research: Consultation results available,” Research Data Alliance, Jan. 8, 2026. [Online]. Available:

Texto completo

Research Data Alliance (RDA) ha publicado los resultados de una consulta global dirigida a identificar las prioridades de la comunidad investigadora respecto al uso de la IA agente —es decir, sistemas de inteligencia artificial capaces de operar con un alto grado de autonomía y mínima supervisión humana— a lo largo del ciclo de la investigación científica.

Esta consulta, abierta desde noviembre de 2025 y sin requerir experiencia previa en IA, combinó cuatro sesiones informativas online con una encuesta anónima de 15 minutos en la que participaron 83 personas de diversos perfiles y regiones. La iniciativa buscaba comprender cómo se está utilizando actualmente la IA agente en la investigación y qué herramientas autónomas podrían aportar más valor en tareas como planificación, búsqueda de información, gestión de datos, financiación, publicación e impacto.

De los 11 posibles agentes inteligentes propuestos, tres herramientas surgieron como prioridades claras para la comunidad global de investigación.

  1. Literature Librarian, se plantea como un asistente capaz de buscar literatura científica mediante consultas en lenguaje natural integradas con suscripciones de bibliotecas, facilitando y acelerando la revisión de antecedentes y la exploración bibliográfica.
  2. Data Director obtuvo alta valoración por su potencial para apoyar la preparación y el intercambio de datos de investigación conforme a los principios FAIR (Findable, Accessible, Interoperable, Reusable), lo que podría mejorar la calidad, disponibilidad y reutilización de los datos científicos.
  3. Funding Finder, propone una herramienta que identifique oportunidades de financiación relevantes y apoye la preparación de solicitudes, ayudando a investigadores y equipos a acceder a recursos financieros con mayor eficiencia.

Estos tres agentes se destacaron de manera consistente tanto en análisis por región como por tipo de participante.. Más allá de las prioridades concretas, los participantes expresaron una visión matizada y ambivalente sobre el futuro de la IA agente en la investigación, reconociendo tanto sus beneficios potenciales como los retos éticos, organizativos y técnicos que supone su adopción generalizada. Los resultados de la consulta serán utilizados por la RDA como base para avanzar en 2026 en el desarrollo colaborativo de un marco de referencia abierto y tecnológicamente agnóstico para al menos una herramienta prioritaria de IA agente, asegurando que este trabajo futuro se alinee con los principios y el marco de actuación de la organización y refleje las necesidades de la comunidad investigadora global.

La administración Trump cierra la biblioteca de investigación más grande del Goddard Space and Flight Center de la NASA

Niiler, Eric. “Research Library at NASA’s Goddard Space and Flight Center to Close Friday.The New York Times, December 31, 2025. https://www.nytimes.com/2025/12/31/climate/nasa-goddard-library-closing.html

La biblioteca de investigación más grande del Goddard Space and Flight Center de la NASA, en Greenbelt, Maryland, se cerrará permanentemente el viernes 2 de enero de 2026 como parte de un proceso de reorganización de las instalaciones de la agencia espacial.

La colección contiene decenas de miles de libros, documentos y revistas, muchos de ellos no digitalizados ni disponibles en ningún otro lugar, lo que ha generado preocupación por la pérdida de acceso a material histórico y científico único.

Los fondos de la biblioteca serán revisados en un período de 60 días: una parte podría trasladarse a un almacén gubernamental y otra descartarse, siguiendo procedimientos estándar de eliminación de propiedad federal. La NASA describe el cierre como parte de una consolidación con el objetivo de ahorrar dinero y reducir costes de mantenimiento en el campus.

Este cierre forma parte de un plan más amplio que incluye la clausura de varios edificios y laboratorios de ciencia e ingeniería antes de marzo de 2026, en medio de reducciones de personal y recortes presupuestarios. Algunos investigadores han expresado su consternación, argumentando que la biblioteca ha sido un recurso crucial para planificar misiones espaciales y acceder a material histórico que no está disponible digitalmente, y que su desaparición podría dificultar investigaciones futuras.

Desde 2022, siete bibliotecas de la NASA han sido cerradas en distintos centros del país, dejando pocas instalaciones similares operativas. La pérdida de acceso físico a estas colecciones plantea preguntas sobre cómo se conservará y seguirá utilizándose el acervo científico a largo plazo.

La IA y el problema de la retractación de artículos científicos

Worlock, David. 2026. AI and the Issue of Science Article Retraction.” DavidWorlock.com, 6 de enero de 2026. https://www.davidworlock.com/2026/01/ai-and-the-issue-of-science-article-retraction/

Se ofrece una reflexión crítica sobre los desafíos que la inteligencia artificial (IA) plantea al sistema de publicación científica, especialmente en lo referente a la integridad del registro científico y el proceso de retractación de artículos académicos.

Worlock parte de una observación fundamental: aunque la IA está transformando profundamente la creación, difusión y análisis de conocimiento, muchos de los problemas estructurales que afectan a la ciencia —como la proliferación de artículos defectuosos, revisiones por pares ineficaces o la falta de mecanismos eficaces para gestionar retractaciones— no se resolverán simplemente mediante la automatización o la adopción de nuevas herramientas tecnológicas.

El autor contextualiza el tema en un contexto más amplio de crisis de confianza en las publicaciones científicas. Señala que la incapacidad del sistema para proporcionar estándares claros y verificables de calidad y autenticidad ha permitido que proliferan trabajos de mala calidad o incluso fraudulentos, muchos de los cuales permanecen en la literatura científica sin una retractación adecuada. Este problema no se limita a casos aislados, sino que forma parte de un sistema que continúa replicando y amplificando errores debido a la presión por publicar y a la ausencia de una infraestructura de retractación centralizada y transparente.

Worlock también examina el rol de la IA en este contexto. Aunque los sistemas de IA tienen la capacidad de procesar grandes volúmenes de información, Worlock advierte que la IA no sustituye la evaluación crítica humana y que los algoritmos pueden incluso exacerbar algunos de los problemas existentes si se utilizan sin criterio. Por ejemplo, las IA pueden integrar contenido repleto de errores metodológicos o datos falsos como si fuera válido, ya que carecen de un juicio epistemológico real para discernir la calidad científica, un reto que otros expertos han también identificado recientemente como un riesgo serio para la confianza en la literatura científica automatizada.

Además, el artículo subraya la importancia de reforzar los mecanismos de retractación. Worlock plantea que la mera existencia de retractaciones no basta si estas no son accesibles, claras y eficientemente comunicadas, algo que muchos investigadores experimentan cuando intentan rastrear qué artículos han sido retirados y por qué. El problema, según él y otros especialistas, radica en que las retractaciones a menudo no están bien etiquetadas ni se integran en los flujos de datos primarios que usan los motores de búsqueda, las bases de datos académicas y los propios sistemas de entrenamiento de modelos de IA.

Una vez que se introducen datos en el modelo de formación de un LLM, no se pueden eliminar. No quiero escribir aquí sobre los actos de piratería cometidos por los actores de la IA de Silicon Valley al retirar masivamente artículos académicos de sitios web a menudo pirateados e ilegales. Sin duda, esos datos incluían artículos retractados que nunca se habían eliminado ni etiquetado como retractados en línea. De hecho, en el mundo anterior a la IA, una de las quejas sobre la búsqueda de artículos académicos era que los artículos retractados rara vez eran evidentes. Solo en épocas más recientes, Retraction Watch y Open Alex comenzaron a señalar qué datos no eran confiables en las bases de datos académicas. En otras palabras, fue la comunidad académica y sin fines de lucro la que acudió al rescate, no el sector editorial con fines de lucro. Se podría considerar cómo podríamos construir modelos más efectivos y precisos en el futuro y cómo podríamos asegurarnos de que el material retractado no se incluya en ellos.

En esencia, Worlock llama a una reforma profunda del ecosistema de publicación científica, donde la IA se utilice no como sustituto de la evaluación humana, sino como complemento que apoye una mayor transparencia, responsabilidad y calidad en la ciencia publicada. Su análisis enfatiza que los avances tecnológicos deben ir acompañados de estructuras éticas y metodológicas que preserven la integridad del registro científico y protejan la confianza pública en la investigación académica.

Desafiando la cultura de la rapidez en la universidad

Berg, Maggie, y Barbara K. Seeber. The Slow Professor: Desafiando la cultura de la rapidez en la academia. Acompañado de Slow humanities: un manifiesto. Traducido por Beltrán Jiménez Villar. Granada: Editorial Universidad de Granada, 2022

Muestra

Una obra que surge como respuesta crítica a las transformaciones que han experimentado las universidades contemporáneas, especialmente en lo que respecta a la corporativización y la cultura de la rapidez.

Las autoras Maggie Berg y Barbara K. Seeber argumentan que en las últimas décadas las instituciones de educación superior han adoptado modelos organizativos y criterios de evaluación inspirados en la lógica empresarial, centrados en la productividad, la eficiencia y la competitividad. Este enfoque, importado desde la economía de mercado, ha impuesto a las y los académicos una presión constante por producir resultados medibles y rápidos —científicos, publicaciones, proyectos— dejando poco espacio para la reflexión profunda y el pensamiento riguroso que caracteriza a la labor académica.

En su crítica, las autoras reclaman una reconfiguración del tiempo académico que permita al profesorado recuperar prácticas profesionales más pausadas, deliberadas y humanas. Para ello, se inspiran en los ideales del movimiento Slow, originalmente surgido en ámbitos como la gastronomía (Slow Food) y extendido a diversas facetas de la vida social y cultural. Aplicados al contexto universitario, estos principios promueven una forma de trabajo menos alienada por la urgencia de “hacer más en menos tiempo” y más orientada hacia la calidad de la enseñanza, la investigación profunda y la construcción de comunidades académicas solidarias y reflexivas. Berg y Seeber proponen estrategias personales y colaborativas para que las y los profesores puedan tomar el control de su tiempo profesional y, con ello, potenciar una universidad más centrada en el sentido y la consciencia que en la productividad inmediata.

Además, esta edición española incluye el texto Slow Humanities: un manifiesto, que extiende la llamada a una transformación más amplia de las humanidades y de la vida académica en general. El manifiesto articula propuestas para que la comunidad universitaria adopte de forma activa la ética de la “lentitud” como modo de resistencia al aceleracionismo institucional, fomentando así una cultura académica que valore la profundidad, la creatividad y la colaboración por encima de los logros cuantificables. En conjunto, el libro y el manifiesto aportan una reflexión crítica y a la vez práctica sobre cómo repensar el ritmo —y con ello la calidad— del trabajo académico contemporáneo.

ORCID 2030: Impulsando el futuro de la investigación

Petro, Julie (6 de enero de 2026). ORCID 2030: Advancing the Future of Research. ORCID Blog. Disponible en: https://info.orcid.org/orcid-2030-advancing-the-future-of-research/

ORCID lanza su plan estratégico ORCID 2030, orientado a reforzar la identidad digital de los investigadores y la confianza en el ecosistema científico. La iniciativa apuesta por una mayor conexión de datos, expansión de la comunidad y sostenibilidad a largo plazo.

ORCID ha sido clave en la infraestructura global de investigación durante más de una década, facilitando conexiones transparentes y confiables entre investigadores, sus contribuciones y las organizaciones que las apoyan. Su nuevo plan estratégico, ORCID 2030: Advancing the Future of Research, presenta un compromiso renovado para enfrentar los retos y oportunidades del futuro, evolucionando de un enfoque de consolidación de valor y confianza hacia uno más activo y expansivo en apoyo a la comunidad investigadora mundial.

El plan define cinco temas estratégicos interconectados que guiarán la labor de ORCID en los próximos cuatro años.

  1. Empoderar a los investigadores
  2. Conectar la información de investigación
  3. Ampliar la comunidad
  4. Avanzar la confianza y la integridad en la investigación
  5. Fortalecer la resiliencia de ORCID

Empoderar a los investigadores busca ampliar el valor que ORCID ofrece, haciendo el sistema más útil y eficiente para visibilizar contribuciones diversas. Conectar la información de investigación refuerza la misión de ser un nodo fiable de datos de identidad y contribución, mejorando la calidad y la integración de datos en su red.

Además, ampliar la comunidad enfatiza la participación global y la expansión a nuevos casos de uso; avanzar la confianza e integridad pone el foco en desafíos externos como la crisis de integridad en la investigación, promoviendo la neutralidad y los indicadores de confianza; y fortalecer la resiliencia de ORCID se centra en la sostenibilidad a largo plazo, eficiencia operativa, ciberseguridad y aplicación de tecnologías emergentes como la IA.

El desarrollo de este plan se basó en el marco estratégico SOAR (Fortalezas, Oportunidades, Aspiraciones, Resultados), una metodología inclusiva enfocada en potenciar lo que ya funciona y alinear los esfuerzos con la visión y valores de ORCID, con participación de la comunidad de usuarios y organizaciones asociadas a lo largo de 2025.

Reimaginar los flujos de trabajo de la publicación académica en la era de la inteligencia artificial

Zhou, Hong. “Reimagining Scholarly Publishing Workflow: A High-Level Map of What Changes Next.The Scholarly Kitchen, November 20, 2025. https://scholarlykitchen.sspnet.org/2025/11/20/reimagining-scholarly-publishing-workflow-a-high-level-map-of-what-changes-next/

Se presenta una hoja de ruta estratégica para que la publicación académica se adapte a un entorno acelerado, colaborativo y tecnológicamente complejo, buscando un equilibrio entre automatización inteligente y juicio humano, para producir ciencia más accesible, verificable y relevante tanto para personas como para sistemas automatizados.

Se ofrece una visión panorámica de cómo los flujos de trabajo en la publicación académica deben transformarse ante los desafíos actuales y futuros, destacando que los métodos tradicionales están bajo presión por el aumento exponencial de artículos, limitaciones en la revisión por pares y la creciente complejidad de mantener la integridad científica en un entorno saturado de IA y publicaciones de baja calidad. El autor subraya que la oportunidad real no está en añadir funcionalidades de IA a sistemas antiguos, sino en reimaginar los procesos de forma que la colaboración humano-IA mejore la eficiencia, la calidad y la transparencia. Esto implica repensar estrategias, cultura y tecnología para hacer que los procesos editoriales y de revisión sean más ágiles, basados en datos y sostenibles para una comunidad científica global cada vez más activa.

Una de las primeras transformaciones que plantea el artículo es la evolución del papel de los preprints. En lugar de limitarse a repositorios pasivos, propone que estos se conviertan en aceleradores de investigación: espacios donde se enriquece, verifica y hace descubrible la ciencia antes de su publicación formal. Esto incluye mecanismos automatizados de calidad, traducción y resúmenes generados con IA, así como herramientas que faciliten la participación comunitaria en evaluaciones de novedad, reproducibilidad y comentarios ligeros. El objetivo es acelerar la “tríaje” editorial y reducir la carga de trabajo de editores y revisores, al tiempo que se respalda la ciencia abierta y colaborativa.

A continuación, el autor aborda cómo deberían evolucionar los sistemas de presentación de manuscritos y control de calidad desde la etapa inicial, sugiriendo asistentes inteligentes que orienten a los investigadores en la preparación de sus textos, verifiquen el cumplimiento de directrices éticas y de estilo, y automaticen tareas administrativas como la elegibilidad de acuerdos transformativos o la transferencia entre revistas. Esto redunda en mejoras tanto para autores, al recibir retroalimentación temprana, como para editores, quienes reciben documentos con mayor calidad estructural y documental.

El texto también propone un cambio de paradigma en los procesos de verificación de integridad y revisión por pares, pasando de modelos reactivos que simplemente detectan problemas, a enfoques proactivos centrados en asegurar cumplimiento de políticas claras, trazabilidad de la procedencia y herramientas automatizadas que prevengan errores antes de que lleguen a etapas avanzadas. Según el autor, esto incluye el uso de marcos y estándares compartidos para clasificar situaciones de integridad, y sistemas predictivos que prioricen verificaciones basadas en patrones de riesgo identificados por IA.

En los procesos de producción editorial, se destaca que la IA puede automatizar buena parte de las tareas repetitivas —como edición de estilo, maquetación y pruebas tipográficas—, dejando a los humanos el control de las decisiones que implican juicio contextual o la preservación de la voz del autor. El modelo ideal combina eficiencia de IA con supervisión humana cuidadosa, posibilitando desde publicaciones multilingües y accesibles hasta producciones enriquecidas con resúmenes para audiencias amplias y formatos adaptados.

Por último, el artículo explora cómo los sitios de publicación y la difusión de contenidos deben evolucionar hacia modelos “machine-first” que no solo atiendan a lectores humanos sino que también faciliten el acceso y procesamiento por parte de herramientas de IA. Esto incluye APIs como fuente única de verdad, identificadores duraderos para versiones y retractaciones, y métricas que valoren la capacidad de un artículo para ser interpretado por máquinas y asistentes inteligentes, por encima de indicadores tradicionales como clics o visitas. Esta transición supone un cambio cultural que redefine el papel de editores, autores y plataformas en una economía de visibilidad informada por IA.

Valor de los metadatos para los datos de investigación

Strecker, Dorothea (2025). How permanent are metadata for research data? Understanding changes in DataCite metadata. arXiv:2412.05128v2 (13 de diciembre de 2025)

Texto completo

El artículo analiza en profundidad hasta qué punto los metadatos de los datos de investigación pueden considerarse permanentes una vez que se les asigna un identificador persistente (DOI) a través de DataCite. En el contexto de la ciencia abierta, los metadatos son fundamentales porque permiten que los conjuntos de datos sean localizables, accesibles, interpretables y reutilizables. Sin embargo, a diferencia de los catálogos bibliotecarios tradicionales, los metadatos de los datos de investigación se crean y mantienen en entornos muy diversos, con prácticas desiguales y, en muchos casos, con un mantenimiento limitado a lo largo del tiempo. El estudio parte de la hipótesis de que, aunque los DOIs están pensados para ser persistentes, los metadatos que los acompañan pueden cambiar de forma significativa después de su publicación inicial.

Para examinar esta cuestión, el trabajo se centra en el análisis de millones de registros de metadatos asociados a conjuntos de datos publicados en 2021, observando su evolución durante los dos años siguientes. El enfoque metodológico se basa en el uso de información de procedencia de metadatos, lo que permite identificar qué elementos cambian, con qué frecuencia y en qué momento. Este enfoque empírico aporta una visión poco habitual en los estudios sobre metadatos, ya que no se limita a evaluar la calidad en un momento concreto, sino que estudia los cambios a lo largo del tiempo.

Los resultados muestran que la mayoría de los metadatos permanecen estables, lo que indica que, en términos generales, pueden considerarse suficientemente fiables para tareas como análisis bibliométricos o estudios de infraestructura científica. No obstante, una proporción relevante de registros sí experimenta modificaciones. Estas modificaciones suelen ser incrementales y puntuales, y afectan sobre todo a elementos como los nombres de los creadores, las descripciones del conjunto de datos o la incorporación de identificadores relacionados. En cambio, otros campos clave —como el título o el año de publicación— rara vez se modifican, lo que refuerza la idea de una estructura básica bastante fija.

El análisis temporal revela que los cambios se concentran en las primeras fases tras la publicación del DOI, lo que sugiere que muchos ajustes responden a correcciones o mejoras iniciales más que a un mantenimiento continuo a largo plazo. Además, el estudio detecta diferencias notables entre repositorios, lo que indica que no existe una práctica homogénea en la gestión de metadatos: algunos repositorios tienden a revisar y actualizar más sus registros, mientras que otros apenas los modifican una vez publicados.

En la discusión, el artículo plantea una reflexión crítica sobre el concepto de “permanencia” aplicado a los metadatos. Aunque estos son relativamente estables, no muestran una evolución sostenida que acompañe el ciclo de vida completo de los datos de investigación. Esto limita su potencial para reflejar nuevos usos, citas, relaciones o contextos científicos emergentes. El trabajo sugiere que, para mejorar la reutilización y el valor a largo plazo de los datos, sería necesario repensar las políticas y prácticas de mantenimiento de metadatos, promoviendo una actualización más activa y coherente.