¿Qué es la bibliomanía y por qué puede ser más importante ahora que nunca?

What Is Bibliomania and Why It May Be More Important Now Than Ever.” 1000 Libraries Magazine, accessed May 2026. https://magazine.1000libraries.com/what-is-bibliomania-and-why-it-may-be-more-important-now-than-ever/

Se explora el concepto de bibliomanía, entendida no solo como el amor por los libros, sino como una relación intensa y, en algunos casos, compulsiva con su acumulación. Parte de la distinción clásica entre bibliomanía y bibliophilia: mientras la bibliophilia se asocia con una pasión equilibrada por la lectura y el conocimiento, la bibliomanía puede implicar una relación obsesiva centrada en la posesión física de los libros más que en su lectura o uso intelectual.

El amor por los libros puede, con frecuencia, transformarse de un afecto a una devoción plena. Es tan común que incluso tenemos una palabra para ello: bibliomanía. Aunque suene a una especie de psicosis, en realidad es algo de lo que la mayoría somos culpables. La bibliomanía es, en esencia, el amor excesivo por los libros, y pese a lo que algunos puedan pensar, no es un defecto.Todos nosotros, reales o ficticios, tenemos nuestras dedicaciones, pasiones, aficiones y rituales. Entregarnos a la palabra escrita, a la adquisición y reflexión de ideas que encontramos en la literatura, es una devoción valorada a lo largo de la historia humana.

El texto sitúa este fenómeno en un contexto contemporáneo marcado por la sobreabundancia de información, el consumo digital y la pérdida de atención sostenida. En este escenario, la acumulación de libros —especialmente físicos— adquiere nuevos significados: ya no es solo una práctica de coleccionismo, sino también una forma de resistencia cultural frente a la inmediatez digital. Tener libros puede representar estabilidad, identidad intelectual o incluso refugio emocional en un entorno dominado por pantallas y contenidos efímeros.

Asimismo, el artículo señala que la bibliomanía no debe entenderse únicamente desde una perspectiva negativa o patológica. Aunque en casos extremos puede derivar en conductas de acumulación descontrolada, también puede reflejar una relación profunda con el conocimiento, la memoria cultural y la preservación del saber. En este sentido, se difumina la frontera entre el coleccionismo excesivo y la construcción de bibliotecas personales como espacios de identidad.

El texto también destaca el valor simbólico de los libros en la cultura contemporánea. En una época en la que los formatos digitales dominan el acceso a la información, el libro físico sigue siendo percibido como un objeto cargado de significado: materialidad, permanencia y conexión con el pasado. Esta dimensión contribuye a explicar por qué la acumulación de libros sigue siendo una práctica extendida, incluso cuando excede la capacidad real de lectura.

Y para concluir plantea que la bibliomanía puede interpretarse como un síntoma cultural más amplio: la necesidad de ordenar, conservar y apropiarse del conocimiento en un mundo saturado de información. Lejos de ser un fenómeno marginal, se presenta como una clave para entender nuestras formas actuales de relación con la lectura, la cultura escrita y la memoria.

Inteligencia artificial y sostenibilidad: retos y oportunidades para una computación responsable

Illustration of a sustainable community using AI, solar panels, wind turbines, and electric vehicles
A futuristic smart community leveraging AI for green solutions and renewable energy

Nishant, Rohit, Mike Kennedy y Jacqueline Corbett. “Artificial Intelligence for Sustainability: Challenges, Opportunities, and a Research Agenda.” International Journal of Information Management 53 (2020): 102104. https://doi.org/10.1016/j.ijinfomgt.2020.102104

El artículo sintetiza debates entre expertos, líneas de investigación emergentes y propuestas estratégicas sobre un tema de especial relevancia científica. En este caso, el foco se sitúa en la relación entre inteligencia artificial, infraestructuras digitales y sostenibilidad, una cuestión cada vez más central debido al crecimiento exponencial del uso de modelos avanzados y de la demanda energética asociada a los sistemas computacionales.

El artículo parte de una constatación clara: la expansión de la inteligencia artificial está generando beneficios notables en automatización, análisis de datos y apoyo a la toma de decisiones, pero también costes ambientales significativos. El entrenamiento de grandes modelos requiere enormes recursos de computación, centros de datos de alta capacidad y consumo intensivo de electricidad y agua. A ello se suman problemas como la obsolescencia acelerada del hardware, la extracción de minerales críticos y la huella ecológica derivada de cadenas globales de suministro tecnológicas. Por ello, los participantes del seminario sostienen que ya no basta con medir la precisión o velocidad de los sistemas; es imprescindible evaluar también su impacto material y energético.

Uno de los ejes principales del texto es la necesidad de desarrollar métricas comunes para una “IA sostenible”. Esto implica crear indicadores comparables sobre consumo energético, emisiones de carbono, eficiencia computacional, reutilización de modelos y coste social de despliegue. Sin estándares claros, resulta difícil comparar tecnologías o establecer políticas regulatorias eficaces. El informe subraya que muchas veces los avances en rendimiento se presentan sin transparencia suficiente sobre los recursos necesarios para alcanzarlos, lo que distorsiona la percepción de progreso tecnológico.

Otro aspecto destacado es la importancia de rediseñar tanto algoritmos como infraestructuras. El seminario propone impulsar modelos más pequeños y especializados cuando sean suficientes para una tarea concreta, técnicas de compresión y reutilización de parámetros, así como arquitecturas de hardware más eficientes. Del mismo modo, se plantea optimizar centros de datos mediante energías renovables, mejor refrigeración, gestión dinámica de cargas de trabajo y localización estratégica en zonas con menor impacto ambiental. La sostenibilidad, por tanto, no depende solo del software, sino de todo el ecosistema técnico que sostiene la inteligencia artificial.

El artículo también aborda la dimensión ética y política del problema. La concentración de capacidad computacional en unas pocas grandes corporaciones y países genera desigualdades de acceso al desarrollo de IA. Si solo actores con enormes recursos energéticos y financieros pueden competir, se amplían brechas científicas y económicas. Por ello, se plantea la necesidad de infraestructuras compartidas, cooperación internacional y políticas públicas que permitan democratizar el acceso a la computación avanzada sin reproducir monopolios tecnológicos.

El documento concluye que la sostenibilidad debe integrarse como criterio estructural en la investigación y evaluación de la inteligencia artificial. No se trata de frenar la innovación, sino de orientarla hacia modelos compatibles con límites ecológicos y con una distribución más justa de beneficios y costes. En esa visión, el futuro de la IA dependerá no solo de cuánto pueda hacer, sino de cómo, para quién y a qué precio ambiental lo haga.

Redefinir la publicación científica: por qué avanzamos más allá del artículo

Diagram showing knowledge ecosystems including living documents, multimedia narratives, augmented reality overlays, interactive explorations, and community dialogue.
Visualization of interconnected knowledge ecosystems transforming publishing beyond traditional articles.

Hrynaszkiewicz, Iain. “Redefining Publishing: Why We’re Moving Beyond the Article.” Research Information, October 2, 2025. Research Information

El artículo de Iain Hrynaszkiewicz plantea una crítica de fondo al modelo tradicional de comunicación científica, centrado casi exclusivamente en el artículo académico y en el prestigio de la revista donde se publica. Según el autor, este sistema ya no refleja cómo se produce realmente la ciencia contemporánea ni cómo debería evaluarse. La investigación actual es más colaborativa, abierta, interdisciplinar y distribuida en múltiples fases, mientras que los mecanismos de reconocimiento siguen premiando sobre todo el resultado final: el paper. Esta desconexión genera incentivos distorsionados y dificulta valorar contribuciones esenciales como los datos, el código, los protocolos, la mentoría o la ciencia en etapas tempranas.

Para explicar que el cambio es posible, el texto recuerda innovaciones previas que transformaron la comunicación académica. Entre ellas destacan los identificadores persistentes como el DOI, que estabilizaron las citas digitales; ORCID, que permite identificar autores de forma inequívoca; la taxonomía CRediT, que reconoce distintos tipos de contribución; y el auge de los preprints y de la compartición de datos. Todas estas herramientas surgieron para resolver carencias del sistema y prosperaron gracias a la cooperación entre editoriales, universidades, financiadores e infraestructuras técnicas. El mensaje central es que la evolución de la ciencia depende menos de actores aislados y más de consensos colectivos sostenidos en el tiempo.

En ese contexto, el autor presenta la iniciativa de PLOS para replantear el ecosistema editorial mediante un proyecto de dieciocho meses financiado por fundaciones filantrópicas. Su propuesta principal es el denominado knowledge stack o “pila de conocimiento”: un sistema donde los distintos productos de investigación —datos, software, métodos, hipótesis, resultados parciales, revisiones y artículos finales— sean visibles, enlazables, atribuibles y evaluables como partes de un mismo proceso. Esto supone pasar de una lógica centrada en un único documento final a otra basada en un registro completo y continuo de la actividad científica.

El artículo también subraya que la ciencia abierta no debe entenderse solo como una obligación normativa impuesta por agencias financiadoras, sino como una oportunidad estratégica para universidades y centros de investigación. Compartir métodos, datos y resultados mejora la transparencia, facilita la reproducibilidad y fortalece la integridad científica. Además, puede aumentar la visibilidad institucional, acelerar descubrimientos y favorecer la competitividad internacional. Desde esta perspectiva, abrir la ciencia no es solo una cuestión ética, sino también una ventaja organizativa y reputacional.

Otro aspecto relevante del texto es su mirada comparada sobre distintas regiones del mundo. El autor observa que Europa y Reino Unido avanzan más rápidamente en políticas de evaluación responsable y ciencia abierta, mientras que Asia y Norteamérica muestran progresos más desiguales o descentralizados. Aun así, en casi todos los contextos persiste la dependencia del artículo de revista como medida principal del mérito académico. Las inercias culturales, la presión competitiva por financiación y la dificultad de comparar disciplinas frenan reformas más profundas. Incluso quienes desean cambiar el sistema temen perjudicar a investigadores jóvenes si se apartan demasiado pronto de las reglas vigentes.

Finalmente, Hrynaszkiewicz concluye que el futuro de la publicación científica pasa por reconocer el conjunto del ciclo investigador y no solo su desenlace editorial. Un sistema más rico en metadatos, señales de impacto, trazabilidad de contribuciones y conexiones entre outputs permitiría premiar la colaboración, el riesgo intelectual, los resultados negativos y las prácticas responsables. No obstante, advierte que para lograr un cambio real se necesita adopción masiva: no basta con que una editorial innove, sino que deben sumarse financiadores, instituciones, infraestructuras y comunidades científicas de todo el mundo. En suma, el artículo defiende una transformación estructural del modelo académico, desde la cultura del paper hacia una ecología más abierta, justa y representativa del trabajo científico real.

44ª Feria Municipal del Libro de Salamanca 2026. Planeta Biblioteca 2026/05/10

44ª Feria Municipal del Libro de Salamanca 2026.

Planeta Biblioteca 2026/05/10

ESCUCHAR

Descargar

PROGRAMA DE LA FERIA

En el programa de radio, Enma García y Maribel Martín Rodrigo destacaron que la 44ª Feria Municipal del Libro convierte la Plaza Mayor de Salamanca, del 9 al 17 de mayo de 2026, en un gran punto de encuentro entre lectores, librerías, autores y ciudadanía. Explicaron el papel esencial de la Red de Bibliotecas Municipales en la coordinación general, desde la organización de casetas hasta la programación cultural y la biblioteca infantil al aire libre. Subrayaron el aumento de participación de librerías respecto al año anterior y la cuidada distribución de espacios para firmas, escenarios y actividades. También comentaron la presencia de autores reconocidos y propuestas escolares dirigidas a fomentar la lectura entre niños de Primaria. La feria incluirá conciertos y actuaciones musicales para ampliar su dimensión festiva y cultural

Uno de cada 277 artículos indexados en PubMed en 2026 muestra referencias fabricadas por una IA

Retraction Watch. “One in 277 PubMed-indexed Papers in 2026 Shows Fabricated References, Says Analysis.Retraction Watch, 7 de mayo de 2026. https://retractionwatch.com/2026/05/07/one-in-277-pubmed-indexed-papers-in-2026-shows-fabricated-references-says-analysis/

Un análisis reciente difundido por Retraction Watch advierte de un crecimiento muy acusado de las referencias bibliográficas falsas dentro de la literatura biomédica indexada en PubMed. El estudio, presentado en forma de carta en The Lancet, examinó cerca de 2,5 millones de artículos científicos y concluyó que las citas inventadas se han multiplicado por doce en apenas dos años.

Los investigadores detectaron que aproximadamente uno de cada 277 artículos publicados en las primeras siete semanas de 2026 incluía al menos una referencia a un trabajo inexistente. La comparación histórica muestra una escalada preocupante: en 2025 la proporción era de uno entre 458, mientras que en 2023 era de uno entre 2.828. Esto sugiere que el fenómeno no es marginal, sino creciente y sistemático.

El equipo estuvo liderado por Maxim Topaz, del Data Science Institute de la Universidad de Columbia. Para separar errores tipográficos o abreviaturas irregulares de verdaderas invenciones bibliográficas, los autores emplearon herramientas de inteligencia artificial capaces de contrastar títulos y registros reales. Esto permitió identificar con mayor precisión qué citas eran simplemente incorrectas y cuáles correspondían a documentos inexistentes.

Según el informe, el aumento más brusco comenzó a mediados de 2024, coincidiendo con la expansión masiva de herramientas de escritura asistida por IA generativa. El artículo relaciona este crecimiento con el uso inadecuado de modelos de lenguaje capaces de producir referencias aparentemente verosímiles, aunque inexistentes, si no se supervisan correctamente.

Las implicaciones son profundas para la comunicación científica. Las referencias falsas contaminan revisiones bibliográficas, dificultan la verificación de fuentes y erosionan la confianza en el sistema académico. El caso refuerza la necesidad de controles editoriales más estrictos, verificadores automáticos de citas y formación ética en el uso de IA para la redacción científica.

Presentación del disco «Nuestra Música, a Nuestro Ritmo» parte. Viviendo en la era pop 2026/05/08

Presentación del disco «Nuestra Música, a Nuestro Ritmo» parte I

Viviendo en la era pop 2026/05/08

ESCUCHAR


Descargar

La presentación en RADIO USAL de la primera parte del disco “Nuestra Música A Nuestro Ritmo” puso en valor la diversidad y vitalidad de la escena musical local, reuniendo canciones de 22 grupos salmantinos de estilos muy distintos. El recopilatorio muestra cómo conviven propuestas de rock, pop, rhythm’n’blues, metal, punk, indie, música instrumental y sonidos alternativos, ofreciendo una panorámica amplia del talento emergente y consolidado de la ciudad. En esta primera entrega se escucharon temas de bandas como Orca, Sin Sentido, Texas Resaca Blues, Doctor Pólvora, The Third Rule, Nadia Levinscaia, Old Virginia, FerCyborg & Otro Mundo Ensemble, The Black Chillies y Al Límite.

Opiniones del profesorado sobre la IA

The Chronicle of Higher Education. “Faculty Views on AI.” The Chronicle of Higher Education, consultado el 7 de mayo de 2026. The Chronicle of Higher Education

Texto completo

El informe presenta un panorama claro: la IA ya está transformando la enseñanza superior, pero su adopción está marcada por la tensión entre utilidad práctica y riesgo pedagógico. Los docentes valoran su capacidad para ahorrar tiempo, generar materiales y apoyar tareas rutinarias, pero temen que debilite el esfuerzo intelectual, favorezca el engaño y erosione competencias fundamentales. La conclusión implícita es que el problema no es solo tecnológico, sino estratégico: las universidades deberán decidir si la IA será un simple atajo operativo o una herramienta integrada críticamente dentro de un nuevo modelo educativo.

El informe Faculty Views on AI refleja una posición profundamente ambivalente del profesorado universitario ante la inteligencia artificial generativa. Por un lado, una mayoría reconoce que estas herramientas ya están siendo útiles para mejorar ciertos aspectos de la docencia; por otro, existe una preocupación muy fuerte por su impacto negativo en el aprendizaje, la ética académica y la falta de regulación institucional. El estudio combina datos de una encuesta de The Chronicle of Higher Education a 425 docentes en 2025 y otra de la American Association of Colleges and Universities (AAC&U) a 1.057 profesores de educación superior en 2025, lo que permite observar tendencias consolidadas en el ámbito universitario.

Uno de los datos más significativos es que el profesorado ya está incorporando la IA a su trabajo cotidiano. El 78 % afirma haber utilizado herramientas de IA para crear o editar textos, lo que indica que estas aplicaciones se están convirtiendo en asistentes habituales para redactar materiales, instrucciones o contenidos académicos. Además, el 55 % las ha empleado para crear o revisar cuestionarios, exámenes u otras evaluaciones, mientras que el 40 % dice haberlas usado para elaborar o modificar programas docentes (syllabi). También el 36 % las ha utilizado para crear o editar imágenes, señal de que la IA comienza a desempeñar un papel relevante en la producción de recursos visuales para las clases. Estos porcentajes muestran que, lejos de ser una novedad marginal, la IA ya forma parte de las prácticas docentes en muchas instituciones.

Sin embargo, junto a este uso creciente aparecen temores muy marcados sobre sus consecuencias educativas. El 90 % del profesorado considera que el uso de IA reducirá las capacidades de pensamiento crítico del alumnado, lo que revela una inquietud central: que los estudiantes deleguen procesos intelectuales complejos en la máquina y pierdan autonomía analítica. Asimismo, el 83 % cree que la IA disminuirá la capacidad de atención, reforzando la idea de que el acceso inmediato a respuestas puede fomentar hábitos de concentración superficial. Otro dato especialmente revelador es que el 78 % sostiene que el fraude académico o las trampas en el campus han aumentado desde que la IA se popularizó, lo que sitúa la integridad académica como una de las grandes preocupaciones actuales.

A estos temores se suma un problema institucional importante: la ausencia de normas claras. Más de seis de cada diez profesores afirman que sus universidades carecen de directrices claras sobre cómo debe usarse la IA por parte del profesorado. Esto genera incertidumbre y respuestas desiguales entre departamentos o facultades. En muchos casos, cada docente decide por su cuenta si la permite, la restringe o la integra, lo que produce incoherencia pedagógica y desconcierto entre los estudiantes. El informe subraya que las universidades necesitan definir con mayor claridad qué papel desean otorgar a estas tecnologías y comunicarlo de forma transparente a toda la comunidad académica.

Entre quienes todavía no utilizan IA para mejorar materiales docentes, las razones principales también resultan reveladoras. La objeción más citada son los problemas éticos, seguida de las dudas sobre si realmente ayuda a aprender mejor, las preocupaciones medioambientales y de sostenibilidad, y finalmente los temores relacionados con privacidad y derechos de autor. Esto demuestra que la resistencia no se debe únicamente a desconocimiento tecnológico, sino también a debates legítimos sobre valores, impacto social y calidad educativa.

El futuro del móvil: convergencia total entre teléfono, ordenador e identidad digital

Karr, Douglas. “The Future of Mobile: The Final Convergence of Personal and Business Computing.” Martech Zone, 29 de marzo de 2026. https://martech.zone/future-of-mobile/

En este ensayo prospectivo, se plantea una tesis contundente: el teléfono móvil está dejando de ser un dispositivo complementario para convertirse en el centro absoluto de la vida digital personal y profesional. Según el autor, nos encontramos al borde de una convergencia tecnológica en la que desaparecerá la separación entre smartphone, ordenador portátil, almacenamiento en la nube y estación de trabajo. El móvil no será ya una herramienta de comunicación, sino el único ordenador necesario para la mayoría de las personas.

Karr sostiene que el portátil tradicional representa una tecnología transitoria. Durante décadas simbolizó la movilidad profesional, pero pronto será sustituido por un ecosistema en el que el teléfono actúe como “cerebro” universal. El usuario llegará a una oficina, hotel, aeropuerto o espacio compartido y simplemente conectará inalámbricamente su móvil a pantallas, teclado y periféricos disponibles. No transportará archivos, no sincronizará dispositivos y no dependerá de estaciones de acoplamiento físicas. Su entorno de trabajo completo aparecerá de forma instantánea allí donde se siente.

Uno de los motores de esta transformación sería la mejora del hardware móvil. El artículo destaca avances en densidad energética de baterías, enormes capacidades de memoria y, sobre todo, nuevos diseños de chips centrados en inteligencia artificial. Frente al protagonismo histórico de la CPU, Karr subraya el ascenso de la NPU (Neural Processing Unit), especializada en ejecutar modelos de IA, tareas predictivas, procesamiento visual y optimización energética. Gracias a ello, un móvil podrá realizar trabajos que antes exigían ordenadores de sobremesa potentes.

El autor insiste en que la potencia futura no dependerá solo del dispositivo local, sino de la combinación entre procesamiento interno y computación al limite. En este modelo, el teléfono gestionará tareas inmediatas y sensibles a la latencia, mientras cargas pesadas se resolverán en nodos cercanos —servidores de edificio, redes urbanas o infraestructura 6G— devolviendo resultados casi en tiempo real. Así, el usuario percibirá una capacidad prácticamente ilimitada sin necesidad de equipos voluminosos.

Más allá del trabajo, el móvil se convertirá en interfaz universal con el mundo físico. Karr imagina experiencias de realidad aumentada en supermercados, concesionarios o comercios: el usuario enfocará un producto y recibirá datos nutricionales personalizados, alertas de alérgenos, comparativas de precios, historial de mantenimiento de un coche o proyecciones de coste futuro. El teléfono no solo mostrará información, sino que la interpretará según contexto, historial y preferencias personales.

Este escenario transformaría radicalmente el marketing. En lugar de publicidad intrusiva, emergería una lógica de marketing bajo demanda y basado en permiso. Si el usuario lo autoriza, su dispositivo negociará con tiendas y marcas ofertas relevantes en el momento preciso: herramientas para una reforma doméstica iniciada horas antes, descuentos sobre productos ya considerados o rutas personalizadas dentro de una tienda. La publicidad dejaría de interrumpir para convertirse en servicio contextual.

Otro punto relevante es la desaparición del problema clásico de la atribución multicanal. Hoy una persona puede descubrir un producto en el móvil, investigarlo en el portátil y comprarlo desde una tableta, fragmentando el seguimiento comercial. Si todo sucede en un solo dispositivo-identidad, el recorrido del cliente se vuelve lineal y trazable. Para Karr, ello permitiría presupuestos de marketing más eficientes y comprensión más exacta de qué acciones generan ventas reales.

El artículo también imagina un mundo crecientemente sin cables. Tecnologías como Wi-Fi 7, conexiones satelitales globales, transferencia inalámbrica avanzada y carga ambiental reducirían la necesidad de puertos físicos. Buscar enchufes o cobertura sería tan anacrónico como buscar cabinas telefónicas. La última barrera psicológica del móvil como ordenador —la ansiedad por batería— desaparecería progresivamente.

Desde el punto de vista económico, Karr prevé una reducción importante de costes empresariales. Las organizaciones dejarían de comprar portátiles caros para cada empleado y solo ofrecerían “cáscaras” de trabajo: pantallas, teclados y superficies inteligentes. El trabajador aportaría el “cerebro” en su bolsillo. Paralelamente, crecerían hubs de pantallas en cafeterías, aeropuertos, hoteles y espacios públicos, compatibles con cualquier entorno laboral.

En términos culturales, el texto sugiere que avanzamos desde una economía de posesión hacia una economía de acceso. Igual que hoy se accede a transporte o entretenimiento sin necesidad de poseer coche o DVD, también se accederá a potencia informática sin depender de un ordenador fijo. El móvil concentrará identidad, productividad, memoria y relaciones sociales en una única entidad portátil.

La escasez de discos duros para IA está haciendo que archivar Internet sea más caro y difícil.

Technician in data storage room with empty racks and out-of-stock signs showing hard drive shortage
A technician monitors critically low hard drive supplies affecting AI data storage and backup.

Culpepper, Sophie. “The AI Hard Drive Shortage Is Making It More Expensive and Harder to Archive the Internet.” Nieman Journalism Lab, 5 de mayo de 2026. https://www.niemanlab.org/reading/the-ai-hard-drive-shortage-is-making-it-more-expensive-and-harder-to-archive-the-internet/

Se recoge una investigación original de 404 Media, analiza una consecuencia poco visible del auge de la inteligencia artificial: la creciente escasez y encarecimiento de discos duros y sistemas de almacenamiento. La expansión de centros de datos dedicados a IA está absorbiendo enormes cantidades de hardware, lo que reduce la disponibilidad para otros sectores y eleva los precios. Esta situación afecta especialmente a instituciones cuya misión depende de almacenar grandes volúmenes de información, como archivos digitales, universidades, Wikipedia o coleccionistas de datos.

Uno de los principales perjudicados es Internet Archive, organización responsable de la Wayback Machine. Su fundador, Brewster Kahle, explicó que los discos de alta capacidad que suelen utilizar —de 28 a 30 TB— están agotados o se venden a precios muy elevados. La institución incorpora más de 100 terabytes diarios de nuevos materiales y mantiene más de 210 petabytes archivados, por lo que necesita renovar constantemente infraestructura. El incremento de costes supone una presión directa sobre su sostenibilidad financiera y operativa.

El problema también alcanza a la Wikimedia Foundation, que gestiona Wikipedia y otros proyectos abiertos. La fundación reconoce aumentos en memoria, discos y plazos de entrega de servidores, lo que obliga a replantear inversiones y extender la vida útil del equipamiento existente. Para organizaciones sin ánimo de lucro, estos cambios tienen un impacto especialmente grave, ya que cada decisión tecnológica compite con recursos destinados a contenidos, comunidad o desarrollo.

El reportaje señala además que varios fabricantes están priorizando a clientes corporativos vinculados a centros de datos. Western Digital habría comprometido gran parte de su inventario de 2026 con grandes compradores empresariales, mientras Micron decidió abandonar parte del mercado de consumo para concentrarse en segmentos más rentables relacionados con IA. Esto significa que usuarios comunes, pequeñas instituciones y archivistas independientes compiten en desventaja frente a gigantes tecnológicos con gran capacidad de compra.

Las comunidades de archivistas y usuarios especializados reflejan esta preocupación. En foros como Reddit, muchos participantes afirman haber detenido proyectos de respaldo o archivo debido a los precios disparados, mientras otros recurren a unidades usadas, discos antiguos o estrategias improvisadas de almacenamiento. Algunos incluso sugieren volver a tecnologías como cintas LTO, aunque estas presentan problemas de acceso rápido y latencia para servicios públicos en línea.

Más allá del coste económico, el artículo plantea una cuestión de fondo: la misma industria de IA que consume enormes cantidades de datos para entrenar modelos está dificultando materialmente la preservación de la memoria digital. Archivar internet requiere capacidad de almacenamiento constante, y si esa capacidad se vuelve inaccesible, parte del patrimonio digital contemporáneo corre riesgo de perderse. La paradoja es evidente: tecnologías que dependen del pasado digital pueden contribuir a borrar la posibilidad de conservarlo.

Library Technology Guides publica el Informe sobre sistemas bibliotecarios de 2026

Breeding, Marshall. “2026 Library Systems Briefing.” American Libraries Magazine, 5 de mayo de 2026. https://americanlibrariesmagazine.org/2026/05/05/2026-library-systems-briefing/

El Informe sobre sistemas bibliotecarios de 2026 muestra a unas bibliotecas inmersas en una transformación profunda. El desafío ya no consiste únicamente en informatizar procesos, sino en construir infraestructuras flexibles, seguras e inteligentes capaces de responder a nuevas formas de acceso al conocimiento. La tecnología se convierte así en una pieza estratégica para garantizar la relevancia futura de las bibliotecas en un entorno digital cada vez más exigente.

Library Technology Guides ha publicado el Informe sobre sistemas bibliotecarios de 2026, una de las referencias más relevantes para conocer la evolución tecnológica del sector bibliotecario internacional. El documento ofrece una panorámica detallada del mercado de software y plataformas utilizadas por bibliotecas públicas, universitarias, escolares y especializadas, analizando tendencias, movimientos empresariales, implantaciones y prioridades estratégicas. Más que un simple catálogo de productos, el informe actúa como termómetro del momento que atraviesan las bibliotecas en su proceso de transformación digital.

Uno de los aspectos centrales del informe es la constatación de que las bibliotecas continúan avanzando hacia entornos basados en la nube. Cada vez más instituciones sustituyen antiguos sistemas instalados en servidores locales por plataformas SaaS (Software as a Service), gestionadas por proveedores externos. Esta transición responde a varias razones: reducción de costes de mantenimiento, actualizaciones automáticas, mayor escalabilidad y mejora de la seguridad. Para muchas organizaciones, mantener infraestructuras propias resulta ya complejo y costoso, especialmente en un contexto de presupuestos ajustados y escasez de personal técnico especializado.

El informe también destaca la creciente influencia de la inteligencia artificial en el ecosistema bibliotecario. Los nuevos sistemas comienzan a incorporar herramientas de automatización para catalogación, generación de metadatos, análisis de colecciones, asistentes virtuales y mejora de los sistemas de descubrimiento. La IA se presenta como una oportunidad para aumentar la eficiencia operativa y mejorar la experiencia de usuario, aunque también surgen interrogantes relacionados con la transparencia algorítmica, la privacidad de los datos y la necesidad de supervisión profesional. Las bibliotecas valoran estas innovaciones, pero buscan aplicarlas con prudencia y criterios éticos.

Otro eje importante es la evolución de los sistemas integrados de gestión bibliotecaria (ILS) hacia plataformas de servicios bibliotecarios más amplias. Ya no basta con gestionar préstamos, catalogación o adquisiciones de manera aislada. Las bibliotecas necesitan soluciones capaces de integrar recursos impresos, colecciones electrónicas, repositorios institucionales, analíticas de uso, autenticación remota y servicios móviles. El informe muestra que la tendencia dominante es hacia ecosistemas unificados, donde diferentes módulos se comunican entre sí y permiten una administración más eficiente.

En el plano empresarial, el estudio refleja un mercado concentrado en grandes proveedores internacionales, pero con presencia significativa de proyectos de código abierto. Empresas consolidadas como Ex Libris, OCLC, EBSCO o Innovative mantienen posiciones fuertes, especialmente en grandes redes y universidades. Paralelamente, alternativas como Koha, Evergreen o FOLIO siguen creciendo entre instituciones que buscan flexibilidad, independencia tecnológica y control sobre sus desarrollos. Esto demuestra que el mercado no está cerrado y que existen modelos diversos según tamaño, presupuesto y estrategia institucional.

La experiencia del usuario aparece como una prioridad creciente. Los catálogos tradicionales resultan insuficientes frente a los estándares de usabilidad impuestos por buscadores y plataformas comerciales. Por ello, las bibliotecas demandan interfaces más intuitivas, búsquedas inteligentes, recomendaciones personalizadas, diseño adaptado a móviles y acceso simplificado a contenidos digitales. El informe subraya que el éxito de un sistema ya no depende solo de sus funciones internas, sino de la calidad de la interacción que ofrece al público.

Asimismo, el documento señala la importancia de la interoperabilidad y de los estándares abiertos. Las bibliotecas trabajan con múltiples herramientas simultáneamente —repositorios, plataformas de préstamo digital, gestores de aprendizaje, bases de datos académicas o sistemas de autenticación—, por lo que necesitan soluciones capaces de integrarse sin fricciones. Los proveedores que facilitan APIs robustas y compatibilidad con estándares internacionales parten con ventaja en las decisiones de contratación.