Cuando se invierte en bibliotecas la delincuencia tiende a disminuir

EveryLibrary. “Want Safer Neighborhoods? Invest in Libraries”, Medium, 18 de julio de 2025. https://medium.com/everylibrary/want-safer-neighborhoods-invest-in-libraries-8c5259ad32e2

Invertir en bibliotecas públicas contribuye directamente a la seguridad y la calidad de vida de los vecindarios, mostrando que cuando aumenta la financiación de las bibliotecas, tiende a disminuir la delincuencia y mejorar la percepción de seguridad en las comunidades.

Esta idea se basa en investigaciones académicas y datos empíricos que analizan no solo la relación entre recursos y crimen, sino también las funciones sociales más amplias que desempeñan las bibliotecas como espacios públicos abiertos, inclusivos y accesibles para todas las personas.

Un estudio citado en el texto, publicado en el Journal of Cultural Economics, examinó el impacto de la apertura de una nueva sucursal de biblioteca (Woodneath Public Library) en Kansas City, Missouri. Los investigadores compararon las tasas delictivas antes y después de su inauguración: aunque no todos los tipos de delitos disminuyeron, sí se observaron reducciones claras en categorías como el vandalismo, los robos y los allanamientos en las áreas más cercanas a la biblioteca. Esta evidencia sugiere que la presencia de una biblioteca puede influir positivamente en la seguridad del entorno inmediato, posiblemente debido a un aumento del tráfico peatonal, mejor iluminación urbana y una mayor atención policial en sus proximidades.

Además de la disminución de ciertos delitos, el artículo señala que las bibliotecas funcionan como espacios seguros donde las personas se sienten cómodas y protegidas. Según estudios mencionados, aproximadamente el 69 % de los estadounidenses considera que su biblioteca local es un lugar seguro para reunirse y pasar el tiempo, lo cual convierte a estas instituciones en refugios para personas que de otra forma podrían estar expuestas a entornos menos seguros. Esta percepción pública de seguridad refuerza el argumento de que las bibliotecas son más que centros de lectura: son puntos de encuentro comunitario con un papel cultural y social profundo.

El texto también señala que las bibliotecas ofrecen una amplia gama de servicios que contribuyen indirectamente a la seguridad y al bienestar comunitario, incluidos programas de aprendizaje de nuevas habilidades, oportunidades de conexión social, acceso a tecnología, actividades educativas y apoyo en momentos de crisis. Estas funciones hacen que las bibliotecas actúen como catalizadores de cohesión social, reduciendo factores asociados a la inseguridad como la exclusión, la falta de educación y la carencia de recursos.

La pieza concluye con una recomendación hacia líderes locales, legisladores y responsables de políticas públicas para que consideren los efectos positivos de las bibliotecas al decidir sobre su financiación, entendiendo que invertir en estas instituciones no solo fortalece la cultura y la educación, sino también la estabilidad y seguridad de los barrios. El artículo resalta que apoyar a las bibliotecas equivale a invertir en comunidades más resilientes, saludables y cohesionadas, especialmente en zonas de bajos ingresos donde estos efectos suelen ser más pronunciados.

Nuevo complemento de IA usa las reglas de detección de escritura de Wikipedia para ayudar a que el texto suene más humano

Ars Technica.New AI plugin uses Wikipedia’s AI writing detection rules to help it sound human”, publicado en enero de 2026. https://arstechnica.com/ai/2026/01/new-ai-plugin-uses-wikipedias-ai-writing-detection-rules-to-help-it-sound-human/

Un nuevo complemento de inteligencia artificial llamado Humanizer ha sido desarrollado para mejorar la calidad y naturalidad del texto generado por modelos de lenguaje, como Claude Code, ayudándoles a sonar más humano. Este complemento aprovecha una guía elaborada por voluntarios de Wikipedia, que durante años han catalogado las características que permiten identificar textos generados por IA.

La guía incluye una lista de “señales” o patrones típicos —como atribuciones vagas, formulaciones promocionales o frases genéricas frecuentes en contenido automatizado— que suelen aparecer en escritura artificial y facilitar su detección.

Humanizer funciona instruyendo al modelo de IA para evitar estas señales detectables, eliminando o reformulando frases específicas que Wikipedia ha identificado como indicativas de contenido generado por IA. Por ejemplo, frases que describen lugares con lenguaje excesivamente elogioso como “situado en la impresionante región…” se transforman en descripciones más simples y directas como “una localidad en la región de Gonder”. Asimismo, atribuciones imprecisas como “los expertos creen que…” se cambian por referencias concretas como “según una encuesta de 2019…”. Estos ajustes buscan hacer que el texto generado no solo pase desapercibido para los sistemas de detección, sino que también resulte más natural para los lectores humanos.

El creador de Humanizer, el desarrollador Siqi Chen, ha explicado que el complemento se actualizará automáticamente conforme Wikipedia revise y amplíe su guía de señales de escritura de IA, lo que permitirá que el modelo se adapte a cambios futuros en las formas en que se reconoce o intenta ocultar el texto automático. Esta iniciativa pone de aliviar un giro interesante en la dinámica entre detección y generación de contenido: herramientas diseñadas originalmente para identificar escritura de IA ahora se emplean para que esa escritura se parezca más a la humana, desdibujando las diferencias estilísticas que la detectan.

El fenómeno también plantea un debate más amplio sobre la utilidad y los límites de los detectores de escritura automática. A medida que las técnicas de generación de texto se vuelven más sofisticadas, las “señales” que antes delataban la autoría automática pueden perder eficacia, especialmente si se incorporan a los propios modelos de IA para evitarlas. Ya se ha observado que algunas empresas de IA ajustan sus sistemas para reducir características identificables —como el exceso de guiones largos— que los detectores suelen asociar con contenido generado por máquinas, lo que sugiere que la línea entre texto humano y automático podría volverse cada vez más difusa.

En conjunto, el desarrollo de Humanizer no solo representa una innovación técnica para hacer que los asistentes de IA generen textos más naturales, sino que también simboliza un punto de inflexión en la interacción entre la detección de IA y la generación de contenido: las mismas reglas que se usan para descubrir escritura automática ahora pueden transformar la escritura de IA para que sea menos detectable, anticipando un ciclo continuo de adaptación entre tecnologías de detección y de generación.

Silicon Valley construyó la IA comprando, escaneando y descartando millones de libros

Schaffer, Aaron; Oremus, Will y Tiku, Nitasha. “How Silicon Valley Built AI: Buying, Scanning & Discarding Millions of Books”, MSN (basado en Washington Post), 27 de enero de 2026. https://www.msn.com/en-us/technology/artificial-intelligence/how-silicon-valley-built-ai-buying-scanning-and-discarding-millions-of-books/ar-AA1V4aZv

En los últimos años, las grandes empresas de tecnología y startups de Silicon Valley han librado una competencia frenética por adquirir conjuntos masivos de datos textuales, especialmente libros, como materia prima para entrenar sus modelos de inteligencia artificial (IA).

Según documentos judiciales revelados en demandas por derechos de autor, compañías como Anthropic, Meta, Google y OpenAI emprendieron acciones a gran escala para obtener millones de títulos físicos y digitales con el objetivo de mejorar la capacidad de sus modelos de lenguaje para “entender” y “escribir bien”.

Un caso emblemático es el llamado Project Panama de Anthropic, descrito en documentos internos como un esfuerzo por comprar y escanear “todos los libros del mundo”. La compañía gastó decenas de millones de dólares comprando grandes lotes de libros, a menudo en lotes de decenas de miles, y contrató servicios profesionales para desencuadernar y escanear las páginas a gran velocidad. Después del escaneo, muchas de estas copias físicas fueron recicladas o descartadas, lo que ha generado preocupación entre autores y defensores del patrimonio cultural por la eliminación física de obras impresas.

Los detalles de Project Panama, inéditos hasta ahora, salieron a la luz en más de 4.000 páginas de documentos incluidos en una demanda por derechos de autor interpuesta por escritores contra Anthropic. La empresa, valorada por sus inversores en unos 183.000 millones de dólares, aceptó pagar 1.500 millones de dólares para cerrar el litigio en agosto. Sin embargo, la decisión de un juez federal de hacer públicos numerosos documentos del caso permitió conocer con mayor profundidad la intensidad con la que Anthropic persiguió la obtención de libros.

Estos nuevos archivos, junto con otros presentados en demandas similares contra empresas de inteligencia artificial, revelan hasta qué punto compañías tecnológicas como Anthropic, Meta, Google u OpenAI llegaron a extremos notables para reunir enormes volúmenes de datos con los que “entrenar” sus sistemas. En esa carrera acelerada, los libros fueron considerados un botín esencial. Así lo reflejan los registros judiciales: en enero de 2023, uno de los cofundadores de Anthropic sostenía que entrenar modelos con libros permitiría enseñarles “a escribir bien”, en lugar de limitarse a reproducir un “lenguaje de baja calidad propio de internet”. En un correo interno de Meta fechado en 2024, el acceso a grandes bibliotecas digitales se calificaba directamente como “imprescindible” para competir con otros actores del sector.

Sin embargo, los documentos sugieren que las empresas no consideraron viable solicitar autorización directa a autores y editoriales. En su lugar, según las acusaciones recogidas en los autos, Anthropic, Meta y otras compañías recurrieron a métodos de adquisición masiva sin conocimiento de los creadores, incluida la descarga de copias pirateadas.

Estos esfuerzos reflejan las tensiones legales y éticas detrás del entrenamiento de IA con datos culturales. Muchos autores y editoriales han emprendido demandas alegando que la adquisición y uso masivo de sus obras para entrenar modelos de IA se hizo sin permiso y constituye una violación de derechos de autor. A su vez, las empresas tecnológicas han argumentado que el uso es “transformador” y, en algunos fallos judiciales, se ha considerado legal bajo la doctrina de fair use (“uso justo”). No obstante, los documentos judiciales también han expuesto que algunas empresas, incluyendo Meta, consideraron o incluso utilizaron descargas masivas desde bibliotecas pirata en línea como LibGen para obtener copias digitales de libros sin pagar por ellos, lo que ha intensificado las críticas sobre prácticas poco transparentes.

En el caso de Meta, varios empleados expresaron internamente su inquietud ante la posibilidad de infringir la ley de derechos de autor al descargar millones de libros sin permiso. Aun así, un correo electrónico de diciembre de 2023 indicaba que la práctica había sido aprobada tras una “escalada a MZ”, en aparente referencia al consejero delegado Mark Zuckerberg. Meta declinó hacer comentarios al respecto.

Además de las cuestiones legales, expertos y críticos han señalado preocupaciones más amplias sobre el impacto cultural y social de estas prácticas. La destrucción física de libros tras su digitalización plantea preguntas sobre la preservación del patrimonio literario y el valor intrínseco de las obras impresas como registros culturales. Del mismo modo, la dependencia de datos extraídos de fuentes no autorizadas subraya la necesidad de un marco ético y regulador más robusto en torno al uso de contenidos creativos para construir inteligencias artificiales avanzadas.

Una biblioteca pública y una universitaria comparten su espacio y misión para ampliar el acceso y fortalecer el impacto comunitario

Jasper Love, Sage; Jangjou, Elmira; y Melissa Blankstein. Shared Space, Shared Mission: How the King Library Expands Access and Strengthens Community Impact. Ithaka S+R, 28 de enero de 2026. https://doi.org/10.18665/sr.32464

Texto completo

El documento aborda cómo dos instituciones bibliotecarias —una académica y otra pública— comparten un mismo edificio y recursos con el objetivo de ampliar el acceso a servicios, fortalecer los vínculos con la comunidad y satisfacer diversas necesidades de distintos públicos —desde estudiantes universitarios hasta habitantes de la ciudad con necesidades básicas o de aprendizaje.

El estudio Shared Space, Shared Mission examina la colaboración a largo plazo entre la San José State University (SJSU) y la San José Public Library (SJPL) mediante el modelo de biblioteca de uso conjunto conocido como Dr. Martin Luther King, Jr. Library.

El informe se basa en entrevistas con personales y líderes de ambas instituciones y presenta un análisis detallado de la evolución, gobernanza y operaciones de esta asociación. Se destaca la importancia de acuerdos de operación claras, estructuras de gobierno eficaces y comunicación constante para coordinar políticas, responsabilidades y servicios compartidos. Las entrevistas revelan que el trabajo colaborativo dentro de un espacio compartido permite crear una identidad conjunta, desarrollar programación cultural y educativa integrada y ofrecer recursos mejorados que ninguna de las dos bibliotecas podría proporcionar de forma independiente.

Además, la King Library se describe como un centro de servicios que va más allá de los libros y las colecciones. Ofrece apoyo para alfabetización digital, acceso a tecnología, programas culturales, cursos para adultos, iniciativas de salud y servicios de referencia para necesidades básicas como vivienda, empleo y asistencia social. Esta amplia gama de servicios ofrece un ejemplo de cómo las bibliotecas pueden funcionar como espacios de inclusión comunitaria y como nodos de redes de apoyo social.

El documento también identifica desafíos asociados con el modelo compartido: tensiones entre las necesidades específicas de estudiantes universitarios y de la comunidad en general, confusiones operativas debidas a diferentes políticas institucionales, y la necesidad de métricas compartidas para evaluar conjuntamente el impacto de la alianza. A pesar de estos retos, la misión compartida de maximizar recursos y ampliar el impacto social sigue guiando el trabajo colaborativo entre ambas instituciones.

La muerte de las revistas científicas

Beale, R. (2025). In Memoriam: The Academic Journal (preprint). arXiv:2512.23915v1. Recuperado de https://arxiv.org/html/2512.23915v1

Se trata de un ensayo reflexivo que traza la historia, evolución y final simbólico de la revista académica tradicional considerando su impacto profundo en la ciencia, la sociedad y la cultura académica moderna.

El texto empieza con una evocación de los orígenes de las publicaciones científicas en el siglo XVII, destacando el papel pionero del Journal des Sçavans y de Philosophical Transactions, que establecieron el formato y la intención de los primeros medios de difusión científica impulsados por académicos para académicos. En estas primeras etapas, las revistas eran herramientas para compartir descubrimientos y avanzar el conocimiento colectivo, libre de intereses comerciales predominantes.

Beale describe cómo las revistas académicas ingresaron a su “edad adulta”, abrazando el sistema de revisión por pares y consolidándose como guardián de la calidad científica. Sin embargo, con la entrada de grandes editoriales comerciales tras la Segunda Guerra Mundial, este modelo se transformó bajo una lógica capitalista: académicos que generaban contenido y revisión sin remuneración, mientras las editoriales recibian beneficios sustanciales al vender acceso a ese conocimiento. Esta etapa marcó una transición crucial desde el propósito original de difusión científica hacia un sistema en el que las publicaciones se convirtieron en métricas de prestigio y progreso profesional, impulsadas por la filosofía de “Publicar o Perecer”.

En el desarrollo de la “madurez” de las revistas científicas, el autor ilustra cómo la proliferación de indicadores cuantitativos (factor de impacto, índice h, etc.) y el énfasis en méritos numéricos distorsionaron el valor de la investigación, priorizando la cantidad sobre la calidad y debilitando prácticas fundamentales como la replicación de resultados. Este enfoque paradigmático condujo a la expansión de unidades mínimas publicables (MPU) y a prácticas que, aunque eficientes para avanzar en carreras académicas, erosionaron la esencia del método científico.

Beale también sitúa a las revistas académicas dentro del contexto de las transformaciones tecnológicas de finales del siglo XX y principios del XXI, señalando cómo servicios como arXiv y las iniciativas de acceso abierto retaron el dominio tradicional de las publicaciones impresas. Aunque estos “descendientes” surgieron con filosofías más abiertas, la presión institucional por métricas de prestigio a menudo relegó su valor dentro de la evaluación profesional.

Finalmente, el ensayo culmina con la “muerte” simbólica de las revistas científicas el 1 de enero de 2026 —una metáfora que representa el agotamiento del modelo tradicional frente a la proliferación de contenidos generados y compartidos a gran escala, en parte facilitados por herramientas de inteligencia artificial como ChatGPT que erosionan las barreras de entrada del proceso editorial clásico. Esta conclusión lleva al lector a meditar sobre el legado de las revistas: celebradas por su rol en la sistematización del conocimiento, pero también criticadas por cómo se distanciaron de sus ideales fundacionales para convertirse en engranajes de una maquinaria profesional y comercial que, según el autor, ya no puede sostener de manera íntegra la misión original de la comunicación científica

El libro está en mi mesa de noche

<<El libro está en mi mesa de noche y en mi cuarto de trabajo. Lo llevo conmigo cuando voy de un lado a otro de la casa, como el fumador que no se separa de los cigarros y el mechero, se angustia si no los encuentra a mano. Salgo a la calle y el libro va conmigo: en un bolsillo ancho del chaquetón en invierno, en la mochila en verano. Lo llevo para leer en el metro o en la sala de espera del dentista o en un banco de un parque un rato antes de llegar a una cita.>>

Antonio Muñoz Molina «El verano de Cervantes» (2025)

Laboratorios bibliotecarios y bibliotecaspúblicas: estudio de caso de su implantación enel contexto español.

Escuredo Sanz, Violeta. Laboratorios bibliotecarios y bibliotecas públicas: estudio de caso de su implantación en el contexto español. Trabajo de fin de grado, Universidad de Zaragoza, 2025.

Texto completo

El trabajo analiza cómo las bibliotecas públicas en España están evolucionando de ser meros depósitos de libros a convertirse en infraestructuras críticas para la comunidad, funcionando como espacios públicos de encuentro, convivencia e innovación social.

Ante un entorno de cambios tecnológicos constantes y presiones privatizadoras que amenazan su rol democrático, surge la necesidad de adoptar nuevos modelos de gestión. En este contexto, los laboratorios bibliotecarios aparecen como iniciativas impulsadas por profesionales con vocación social que buscan adaptar la institución a los tiempos actuales mediante la participación ciudadana y la co-creación.

El objetivo principal del trabajo es describir la evolución e implantación de estos laboratorios en el ámbito de las bibliotecas públicas españolas, caracterizando los proyectos generados y definiendo sus perspectivas de futuro. Para ello, la autora emplea una metodología cualitativa que incluye la búsqueda exhaustiva de fuentes científicas y «literatura gris», el diseño de una ficha técnica para parametrizar los datos de cada proyecto (indicando origen, agentes implicados y metodología) y la realización de entrevistas semiestructuradas a responsables de centros clave.

Marco teórico y antecedentes La investigación sitúa el origen de estos espacios en el movimiento de los living labs y la cultura maker surgida en la década de 2000. El concepto de «laboratorio bibliotecario» se define como un entorno de experimentación donde se prueban enfoques innovadores para mejorar servicios o fomentar la participación. Un factor determinante en España fue la crisis económica de 2008 y el movimiento de la «marea amarilla», que impulsó la necesidad de justificar la utilidad social de las bibliotecas con recursos limitados, evolucionando de un modelo transaccional (basado en el préstamo) a uno relacional (basado en la comunidad).

Estudio de casos en España El estudio se centra en cuatro proyectos fundamentales que han marcado la pauta en el territorio español:

  • The Library Living Lab (Barcelona): Pionero en integrar la participación ciudadana en la definición de retos tecnológicos y sociales.
  • BiblioLab (Barcelona): Un programa de la Red de Bibliotecas Municipales que fomenta la creatividad y el conocimiento compartido.
  • Medialab Tabakalera (San Sebastián): Incluye la biblioteca de creación «Ubik», centrada en el aprendizaje colaborativo y la experimentación con medios.
  • Proyecto LABBBS: Iniciativa impulsada por el Ministerio de Cultura para extender la metodología de laboratorios ciudadanos a nivel nacional.

El trabajo concluye que los laboratorios bibliotecarios actúan como aceleradores de la transformación de las bibliotecas, permitiendo que las personas pasen de ser consumidores pasivos a creadores activos. Estos espacios priorizan el proceso y el aprendizaje sobre el resultado final, sosteniendo el error como parte del crecimiento colectivo. A pesar de los desafíos presupuestarios y de personal, la investigación resalta que la colaboración entre instituciones y la documentación de procesos son claves para que estos proyectos sean replicables y sostenibles en el tiempo, fortaleciendo el valor de la biblioteca como «tercer lugar» esencial para la cohesión social.

Adopción de IA por parte de las pequeñas y medianas empresas

AI Adoption by Small and Medium‑Sized Enterprises: OECD Discussion Paper for the G7 — OECD Publishing, París, 9 diciembre 2025.

Texto completo

La adopción de la inteligencia artificial (IA) por parte de las pequeñas y medianas empresas (PYMES) tiene un enorme potencial para mejorar la productividad, la innovación y la competitividad empresarial, pero en la práctica su incorporación sigue siendo relativamente baja en comparación con otras tecnologías digitales y con las grandes empresas.

El informe examina la evidencia más reciente sobre la difusión de IA en las economías del G7, mostrando brechas persistentes entre PYMES y grandes empresas en términos de uso y sofisticación tecnológica. Aunque ha habido avances, muchas PYMES aún adoptan la IA de forma limitada o en aplicaciones poco complejas, lo que explica que los beneficios no se distribuyan de manera equitativa ni generalizada

Una de las aportaciones clave es una taxonomía de adopción de IA para PYMES que clasifica a las empresas según su madurez digital, la complejidad de los usos de IA y el alcance de esas aplicaciones. Esta clasificación ayuda a entender que no existe una sola trayectoria de adopción: algunas PYMES empiezan con herramientas simples (como automatización básica o análisis de datos) mientras que otras avanzan hacia aplicaciones más complejas como aprendizaje automático integrado en procesos de negocio.

El documento identifica cuatro factores habilitadores esenciales para que las PYMES puedan integrar con éxito tecnologías de IA:

  • Conectividad digital adecuada y acceso a datos.
  • Disponibilidad de datos, algoritmos y capacidad de cómputo.
  • Habilidades y competencias digitales en la fuerza laboral.
  • Financiación y recursos suficientes para invertir en tecnologías y capacitación.


Estos factores no solo facilitan la adopción técnica, sino que también influyen en la capacidad de las empresas para generar valor real a partir de la IA.

A través de casos de estudio en diferentes países del G7, el informe ilustra diversas rutas de adopción, desde estrategias impulsadas por sectores específicos hasta iniciativas públicas de apoyo. Estas experiencias demuestran que no existe un único modelo exitoso; las políticas que funcionan combinan apoyo financiero, formación, colaboración público‑privada y enfoques adaptados al contexto local de cada empresa

El informe concluye subrayando la necesidad de que los gobiernos aceleren la adopción de IA entre las PYMES mediante estrategias diferenciadas y políticas de apoyo que consideren las capacidades y necesidades específicas de estas empresas. La adopción de IA no solo puede impulsar la digitalización y la competitividad, sino también contribuir a un crecimiento económico más inclusivo si se superan las barreras estructurales que enfrentan las PYMES.

Las bibliotecas de Emory cancelan suscripciones a revistas de Elsevier debido al aumento de los costos

Goyal, Samara. “Emory Libraries Cancel Elsevier Journals Due to Rising Journal Costs.” The Emory Wheel, 21 de enero de 2026. https://www.emorywheel.com/article/2026/01/emory-libraries-cancel-elsevier-journals-due-to-rising-journal-costs

La decisión reciente de las bibliotecas de la Universidad de Emory en Atlanta, Estados Unidos, de reducir su acceso a las revistas académicas publicadas por Elsevier, uno de los mayores editores científicos del mundo.

La razón principal de esta medida fue el aumento continuo de los costos de suscripción, en un contexto de presupuesto universitario ajustado, en el que la institución no recibió financiación adicional para cubrir las alzas anuales. Según explicó la bibliotecaria y administradora universitaria Lisa Macklin, la falta de recursos obligó a cancelar parte de la colección para equilibrar las cuentas de la biblioteca, lo que permitió un ahorro de alrededor de 655 000 dólares para el sistema bibliotecario.

La reducción del acceso a los títulos de Elsevier fue el resultado de un proceso interno de evaluación en el cual bibliotecarios especializados y responsables de áreas temáticas revisaron datos de uso y costos, con la participación de profesores y estudiantes para priorizar las necesidades de la comunidad académica. Esto llevó a una colección más condensada, con 590 títulos seleccionados de Elsevier, que se considera que se ajustan mejor a los programas de investigación y enseñanza de Emory. La decisión forma parte de un patrón más amplio de tensiones entre bibliotecas académicas y grandes editoriales científicas, en un momento en que los costes de las revistas seriadas han crecido de manera sostenida, superando con frecuencia los presupuestos disponibles.

El artículo también contextualiza esta decisión dentro de las estrategias alternativas que la biblioteca está empleando para mitigar el impacto en los usuarios. Por ejemplo, recuerda que en 2024 se canceló un paquete de títulos de Wiley, y desde entonces la biblioteca ha ofrecido un servicio de entrega acelerada de artículos que permite a estudiantes y profesores solicitar artículos individuales pagando una tarifa fija menor al coste de una suscripción completa. Este enfoque, aunque no sustituye el acceso inmediato a todas las publicaciones, busca asegurar que los investigadores puedan obtener los materiales que necesitan de forma más eficiente que mediante préstamos interbibliotecarios tradicionales.

Además, el artículo recoge reflexiones de la comunidad universitaria sobre la evolución del acceso al conocimiento científico en la era digital. Autoridades académicas señalan que las bibliotecas se ven forzadas a equilibrar la disponibilidad de recursos para áreas con gran demanda y aquellas especializadas, mientras que la tecnología y nuevas herramientas, incluida la inteligencia artificial, están cambiando la manera en que se accede y utiliza la información académica. Estas variables plantean desafíos continuos para las políticas de colección y acceso en las bibliotecas universitarias, en medio de debates más amplios sobre modelos de publicación científica, acceso abierto y sostenibilidad económica de la comunicación académica.