Reimaginar los flujos de trabajo de la publicación académica en la era de la inteligencia artificial

Zhou, Hong. “Reimagining Scholarly Publishing Workflow: A High-Level Map of What Changes Next.The Scholarly Kitchen, November 20, 2025. https://scholarlykitchen.sspnet.org/2025/11/20/reimagining-scholarly-publishing-workflow-a-high-level-map-of-what-changes-next/

Se presenta una hoja de ruta estratégica para que la publicación académica se adapte a un entorno acelerado, colaborativo y tecnológicamente complejo, buscando un equilibrio entre automatización inteligente y juicio humano, para producir ciencia más accesible, verificable y relevante tanto para personas como para sistemas automatizados.

Se ofrece una visión panorámica de cómo los flujos de trabajo en la publicación académica deben transformarse ante los desafíos actuales y futuros, destacando que los métodos tradicionales están bajo presión por el aumento exponencial de artículos, limitaciones en la revisión por pares y la creciente complejidad de mantener la integridad científica en un entorno saturado de IA y publicaciones de baja calidad. El autor subraya que la oportunidad real no está en añadir funcionalidades de IA a sistemas antiguos, sino en reimaginar los procesos de forma que la colaboración humano-IA mejore la eficiencia, la calidad y la transparencia. Esto implica repensar estrategias, cultura y tecnología para hacer que los procesos editoriales y de revisión sean más ágiles, basados en datos y sostenibles para una comunidad científica global cada vez más activa.

Una de las primeras transformaciones que plantea el artículo es la evolución del papel de los preprints. En lugar de limitarse a repositorios pasivos, propone que estos se conviertan en aceleradores de investigación: espacios donde se enriquece, verifica y hace descubrible la ciencia antes de su publicación formal. Esto incluye mecanismos automatizados de calidad, traducción y resúmenes generados con IA, así como herramientas que faciliten la participación comunitaria en evaluaciones de novedad, reproducibilidad y comentarios ligeros. El objetivo es acelerar la “tríaje” editorial y reducir la carga de trabajo de editores y revisores, al tiempo que se respalda la ciencia abierta y colaborativa.

A continuación, el autor aborda cómo deberían evolucionar los sistemas de presentación de manuscritos y control de calidad desde la etapa inicial, sugiriendo asistentes inteligentes que orienten a los investigadores en la preparación de sus textos, verifiquen el cumplimiento de directrices éticas y de estilo, y automaticen tareas administrativas como la elegibilidad de acuerdos transformativos o la transferencia entre revistas. Esto redunda en mejoras tanto para autores, al recibir retroalimentación temprana, como para editores, quienes reciben documentos con mayor calidad estructural y documental.

El texto también propone un cambio de paradigma en los procesos de verificación de integridad y revisión por pares, pasando de modelos reactivos que simplemente detectan problemas, a enfoques proactivos centrados en asegurar cumplimiento de políticas claras, trazabilidad de la procedencia y herramientas automatizadas que prevengan errores antes de que lleguen a etapas avanzadas. Según el autor, esto incluye el uso de marcos y estándares compartidos para clasificar situaciones de integridad, y sistemas predictivos que prioricen verificaciones basadas en patrones de riesgo identificados por IA.

En los procesos de producción editorial, se destaca que la IA puede automatizar buena parte de las tareas repetitivas —como edición de estilo, maquetación y pruebas tipográficas—, dejando a los humanos el control de las decisiones que implican juicio contextual o la preservación de la voz del autor. El modelo ideal combina eficiencia de IA con supervisión humana cuidadosa, posibilitando desde publicaciones multilingües y accesibles hasta producciones enriquecidas con resúmenes para audiencias amplias y formatos adaptados.

Por último, el artículo explora cómo los sitios de publicación y la difusión de contenidos deben evolucionar hacia modelos “machine-first” que no solo atiendan a lectores humanos sino que también faciliten el acceso y procesamiento por parte de herramientas de IA. Esto incluye APIs como fuente única de verdad, identificadores duraderos para versiones y retractaciones, y métricas que valoren la capacidad de un artículo para ser interpretado por máquinas y asistentes inteligentes, por encima de indicadores tradicionales como clics o visitas. Esta transición supone un cambio cultural que redefine el papel de editores, autores y plataformas en una economía de visibilidad informada por IA.

Apertura de la Metroteka en Varsovia

Would You Read Instead of Scroll? Warsaw’s Metro Library Dares You To
Magazine de 1000Libraries (publicado el 17 de noviembre de 2025)

Texto completo

La apertura de la Metroteka en Varsovia, una biblioteca integrada dentro de una estación del metro, como una respuesta innovadora a la tendencia generalizada de que los viajeros usen sus teléfonos móviles para desplazarse por contenidos digitales mientras viajan.

La Metroteka es la primera biblioteca pública integrada dentro de una estación de metro en Varsovia, Polonia. Fue inaugurada el 4 de septiembre de 2025 en la estación Kondratowicza de la línea M2 del metro, en el distrito de Targówek, como parte de una iniciativa innovadora para acercar la lectura y la cultura a los viajeros y residentes de la ciudad.

En lugar de los habituales anuncios digitales y pantallas luminosas en las estaciones, Metroteka ofrece alrededor de 16 000 libros distribuidos en 150 m², con zonas de lectura separadas para adultos y niños, espacios comunes para trabajar o estudiar, y un área estilo cafetería con bebidas calientes. Este diseño pretende ofrecer una alternativa sensorial y cultural al uso de pantallas, invitando a los usuarios a sumergirse en la lectura durante sus desplazamientos cotidianos. Este proyecto surge de la colaboración entre la Biblioteca Pública de Targówek, el Consejo y la Junta del Distrito de Targówek y la Autoridad del Metro de Varsovia, con el objetivo de transformar un espacio de tránsito cotidiano en un entorno cultural accesible.

El proyecto no solo busca fomentar la lectura casual entre personas de todas las edades, sino también reconectar a la comunidad con la literatura en un contexto donde el hábito lector ha estado en declive, como reflejan las bajas tasas de lectura en Polonia en años recientes. Además, la biblioteca incorpora elementos únicos como un muro de jardín hidroponico con hierbas y flores que sirven tanto de elemento estético como de conversación sobre sostenibilidad ambiental. Con sistemas de autoservicio para tomar y devolver libros (incluyendo taquillas disponibles las 24 h), Metroteka está diseñada para integrarse de forma natural en la rutina diaria de los viajeros, eliminando la necesidad de planificar una visita a una biblioteca tradicional y acercando así los libros al ritmo de la vida urbana moderna

¿Qué está pasando con la lectura? Para muchas personas la IA podría estar poniendo fin a la era del texto tradicional.

Rothman, Joshua. “What’s Happening to Reading?The New Yorker, junio, 2025. https://www.newyorker.com/culture/open-questions/whats-happening-to-reading

El ensayo reflexiona sobre cómo ha cambiado radicalmente la experiencia de la lectura en la era digital. Durante décadas, leer un libro —práctica sostenida y profunda— era una actividad relativamente constante. Sin embargo, la omnipresencia de los teléfonos inteligentes, la diversidad de contenidos y la velocidad de la información han fragmentado ese acto. La lectura intensa, entendida como el seguimiento paciente y reflexivo de un texto, ya no es lo habitual; en su lugar, predomina una lectura dispersa, alternando entre distintos formatos, plataformas y dispositivos.

Hoy, leer implica interactuar con múltiples medios: libros impresos o digitales, audiolibros, blogs, redes sociales y mensajes breves. Este cambio ha creado una lectura que es a la vez dispersa y concentrada: difusa en su distribución, pero intensamente personalizada en su consumo. La competencia de otros entretenimientos —series, videojuegos, podcasts o videos— reduce la disponibilidad de tiempo y concentración para la lectura profunda, modificando la manera en que los lectores se relacionan con los textos.

El ensayo también aborda el impacto de la inteligencia artificial. Con herramientas capaces de resumir, condensar o reformular textos, la lectura se convierte en una experiencia modular y pragmática. Muchos lectores podrían depender de versiones abreviadas o reinterpretadas generadas por máquinas, lo que podría desplazar el hábito de enfrentarse directamente a la obra original. Esto redefine lo que significa leer, privilegiando la eficiencia y la utilidad sobre la comprensión profunda y sostenida.

Finalmente, se reflexiona sobre las consecuencias culturales de estos cambios. La lectura tradicional podría convertirse en una práctica minoritaria, apreciada por unos pocos, mientras que la mayoría interactúa con textos a través de formatos asistidos por IA o simplificados. La lectura no desaparece, pero su naturaleza y propósito se transforman: deja de ser un ejercicio de concentración y pensamiento crítico para convertirse en una práctica más flexible, inmediata y mediada por la tecnología.

Valor de los metadatos para los datos de investigación

Strecker, Dorothea (2025). How permanent are metadata for research data? Understanding changes in DataCite metadata. arXiv:2412.05128v2 (13 de diciembre de 2025)

Texto completo

El artículo analiza en profundidad hasta qué punto los metadatos de los datos de investigación pueden considerarse permanentes una vez que se les asigna un identificador persistente (DOI) a través de DataCite. En el contexto de la ciencia abierta, los metadatos son fundamentales porque permiten que los conjuntos de datos sean localizables, accesibles, interpretables y reutilizables. Sin embargo, a diferencia de los catálogos bibliotecarios tradicionales, los metadatos de los datos de investigación se crean y mantienen en entornos muy diversos, con prácticas desiguales y, en muchos casos, con un mantenimiento limitado a lo largo del tiempo. El estudio parte de la hipótesis de que, aunque los DOIs están pensados para ser persistentes, los metadatos que los acompañan pueden cambiar de forma significativa después de su publicación inicial.

Para examinar esta cuestión, el trabajo se centra en el análisis de millones de registros de metadatos asociados a conjuntos de datos publicados en 2021, observando su evolución durante los dos años siguientes. El enfoque metodológico se basa en el uso de información de procedencia de metadatos, lo que permite identificar qué elementos cambian, con qué frecuencia y en qué momento. Este enfoque empírico aporta una visión poco habitual en los estudios sobre metadatos, ya que no se limita a evaluar la calidad en un momento concreto, sino que estudia los cambios a lo largo del tiempo.

Los resultados muestran que la mayoría de los metadatos permanecen estables, lo que indica que, en términos generales, pueden considerarse suficientemente fiables para tareas como análisis bibliométricos o estudios de infraestructura científica. No obstante, una proporción relevante de registros sí experimenta modificaciones. Estas modificaciones suelen ser incrementales y puntuales, y afectan sobre todo a elementos como los nombres de los creadores, las descripciones del conjunto de datos o la incorporación de identificadores relacionados. En cambio, otros campos clave —como el título o el año de publicación— rara vez se modifican, lo que refuerza la idea de una estructura básica bastante fija.

El análisis temporal revela que los cambios se concentran en las primeras fases tras la publicación del DOI, lo que sugiere que muchos ajustes responden a correcciones o mejoras iniciales más que a un mantenimiento continuo a largo plazo. Además, el estudio detecta diferencias notables entre repositorios, lo que indica que no existe una práctica homogénea en la gestión de metadatos: algunos repositorios tienden a revisar y actualizar más sus registros, mientras que otros apenas los modifican una vez publicados.

En la discusión, el artículo plantea una reflexión crítica sobre el concepto de “permanencia” aplicado a los metadatos. Aunque estos son relativamente estables, no muestran una evolución sostenida que acompañe el ciclo de vida completo de los datos de investigación. Esto limita su potencial para reflejar nuevos usos, citas, relaciones o contextos científicos emergentes. El trabajo sugiere que, para mejorar la reutilización y el valor a largo plazo de los datos, sería necesario repensar las políticas y prácticas de mantenimiento de metadatos, promoviendo una actualización más activa y coherente.

El lector como héroe

«Borges inventa al lector como héroe a partir del espacio que se abre entre la letra y la vida. Y ese lector […] es uno de los personajes más memorables de la literatura contemporánea. El lector más creativo, más arbitrario, más imaginativo que haya existido desde don Quijote. Y el más trágico. En Borges ya no se trata de alguien que […] lee un libro sentado frente a una ventana. Se trata, en cambio, de alguien perdido en una biblioteca, que va de un libro a otro, que lee una serie de libros y no un libro aislado. Un lector disperso en la fluidez y el rastreo, que tiene todos los volúmenes a su disposición.»

Ricardo Piglia El último lector

Inteligencia artificial y huella ambiental

Crownhart, Casey. “In a First, Google Has Released Data on How Much Energy an AI Prompt Uses.” MIT Technology Review, 21 ago. 2025. https://www.technologyreview.com/2025/08/21/1122288/google-gemini-ai-energy/

Un análisis basado en un informe técnico de Google que desglosa, por primera vez con detalle, la huella ambiental de las consultas al sistema de inteligencia artificial Gemini.

Google reveló que una consulta de texto típica —evaluada por la mediana de uso, es decir, aquella que se sitúa en el centro de la distribución de todos los prompts— consume aproximadamente 0,24 vatios-hora (Wh) de electricidad, genera cerca de 0,03 gramos de dióxido de carbono equivalente (gCO₂e) y requiere alrededor de 0,26 mililitros de agua, lo que equivale a unas cinco gotas. Para ponerlo en perspectiva cotidiana, la compañía equiparó esa cifra energética con la que emplea encender una televisión durante menos de nueve segundos. Estas métricas son parte de una metodología “full stack” desarrollada por Google, que intenta medir no solo el consumo directo de los procesadores de IA, sino también el uso de energía en sistemas auxiliares, memoria, infraestructura en reposo y refrigeración.

Google además destacó que la eficiencia de Gemini ha mejorado de forma dramática en el último año: desde mayo de 2024 hasta mayo de 2025, el consumo energético por consulta se redujo 33 veces y la huella de carbono se redujo 44 veces, mientras que, paralelamente, la calidad de las respuestas del modelo fue incrementándose. Estos avances se atribuyen a mejoras tanto de software —optimización de los modelos y algoritmos— como de hardware e infraestructura en los centros de datos de Google. La divulgación de estos datos se presenta como un paso hacia una mayor transparencia en el sector tecnológico, dada la creciente preocupación global por el impacto ambiental de los grandes modelos de IA y el uso masivo de energía de los centros de datos que los soportan.

Sin embargo, este enfoque también ha generado debate entre expertos ambientales. Algunos especialistas señalan que las cifras oficiales de Google, aunque impresionantes, pueden quedar cortas si no consideran factores indirectos más amplios, como la energía consumida por la generación eléctrica o el impacto del entrenamiento de los modelos a gran escala, que históricamente ha requerido volúmenes de energía y recursos muchísimo mayores que la inferencia diaria. Además, la extrapolación del consumo por prompt individual a escala global —con miles de millones de interacciones diarias— subraya que incluso pequeños valores por consulta pueden traducirse en una carga energética significativa cuando se multiplican por volumen de uso. Estas discusiones ponen de relieve la complejidad de medir con precisión el impacto ecológico de las tecnologías de IA y la necesidad de métricas estandarizadas en toda la industria.

La radio de una generación

«En aquellos años, la radio era el único cordón umbilical con el exterior. Sintonizar ciertas emisoras era un acto de fe. No se trataba solo de música, se trataba de pertenecer a una sociedad secreta que compartía códigos, vinilos importados y una urgencia por vivir que no cabía en los telediarios oficiales. El locutor no era un busto parlante, era el chamán que te entregaba la llave de un mundo prohibido.»

Diego A. Manrique «Jinetes en la tormenta»

Los lectores puros y la lectura como una forma de vida

«El lector adicto, el que no puede dejar de leer, y el lector insomne, el que está siempre despierto, son representaciones extremas de lo que significa leer un texto, personificaciones narrativas de la compleja presencia del lector en la literatura. Los llamaría lectores puros; para ellos la lectura no es solo una práctica, sino una forma de vida. Muchas veces los textos han convertido al lector en un héroe trágico (y la tragedia tiene mucho que ver con leer mal), un empecinado que pierde la razón porque no quiere capitular en su intento de encontrar el sentido.»

Ricardo Piglia El último lector

La tecnología no es neutral

«La tecnología que mantiene internet funcionando no es neutral, y la que encontramos o instalamos en nuestros teléfonos móviles tampoco. En la última década, todas han evolucionado de una manera premeditada, con un objetivo muy específico: mantenerte pegado a la pantalla durante el mayor tiempo posible, sin que alcances nunca el punto de saturación».

Marta Peirano «El Enemigo Conoce el Sistema»