Archivo de la etiqueta: Datos

Tendencias y transformaciones en bibliotecas urbanas 2025

2025 Library Insights Report. Urban Libraries Council. November 2025.

Texto completo

2025 Library Insights Report de Urban Libraries Council ofrece una visión detallada de cómo evolucionan los usos, servicios y prioridades de las bibliotecas públicas urbanas de Estados Unidos y Canadá. Con datos aportados por 122 sistemas bibliotecarios —que representan más de 91 millones de habitantes y 2.307 sedes— el informe analiza tendencias clave en visitas presenciales, uso de espacios, programas, colecciones, personal y financiación.

El informe muestra que, aunque las visitas presenciales aún no recuperan los niveles de 2019, mantienen una tendencia sostenida de crecimiento durante tres años consecutivos, con un aumento del 9,8% entre 2023 y 2024. Las reservas de salas y el uso de recursos digitales experimentan incrementos aún mayores, del 25% y 14,8% respectivamente, confirmando un fuerte desplazamiento hacia servicios que combinan lo presencial con lo digital. En contraste, la circulación física de materiales se estabiliza e incluso registra un ligero descenso del 1,7%, lo que sugiere un cambio de preferencia hacia formatos electrónicos, especialmente e-books. Al mismo tiempo, por primera vez desde 2019, el uso de ordenadores vuelve a crecer, rompiendo una tendencia de fuertes descensos tras la pandemia.

El objetivo es proporcionar a las bibliotecas herramientas de planificación basadas en datos actuales y comparables, capaces de orientar decisiones estratégicas en un contexto social y tecnológico cambiante.

Los programas bibliotecarios continúan siendo un pilar vertebrador de la actividad: la oferta crece un 8% y la asistencia un 2,5% en 2024. Los programas prioritarios siguen siendo los orientados a primera infancia y edad escolar, que el 69% de las bibliotecas identifica como los más frecuentes y con mayor participación. Estas cifras reflejan la capacidad de las bibliotecas para adaptarse a las necesidades educativas y sociales de sus comunidades, ampliando temáticas, formatos y públicos.

El área de personal y presupuesto muestra, sin embargo, tensiones relevantes. A pesar de que los presupuestos crecieron un 5% en 2024, este aumento no alcanza a compensar la inflación. El número de empleados a tiempo completo se reduce un 3,6% respecto a 2023 y permanece un 8,2% por debajo de los niveles de 2019, incluso mientras la demanda de servicios aumenta. Esta brecha entre recursos humanos y necesidades de los usuarios es especialmente notable en bibliotecas que atienden a poblaciones menores de 250.000 habitantes, que sufren mayores caídas en personal y retrocesos en uso de e-recursos.

El informe también analiza tendencias por tamaño poblacional del área de servicio, mostrando que las bibliotecas que atienden a más de 950.000 habitantes registran los aumentos más significativos en visitas, uso digital, reservas de salas, oferta programática e incluso incidentes reportados. Por otra parte, continúa una fuerte inversión en infraestructura: un 17% de los sistemas inició nuevas construcciones en 2024, para un total de 29 nuevas sedes, pese al incremento de costes por metro cuadrado. Las proyecciones indican además que el crecimiento poblacional de aquí a 2030 implicará un aumento estimado del 5–7% en visitas, uso digital y demanda de espacios, así como la necesidad de presupuestos más elevados para mantener la calidad del servicio.

El informe propone líneas estratégicas para los próximos años: rediseñar espacios para usos flexibles y de alta demanda; reforzar la planificación de personal; reducir desigualdades entre sistemas grandes y pequeños; equilibrar el crecimiento digital con una oferta presencial significativa; y anticipar nuevas necesidades comunitarias como alfabetización en IA, espacios de trabajo flexible o programas de refuerzo educativo. El informe concluye que las bibliotecas urbanas siguen siendo infraestructuras sociales esenciales y altamente valoradas, capaces de innovar mientras mantienen su misión de acceso universal a la información y la cultura

OpenAI lanza World para verificar la identidad humana mediante el escaneo de iris y rostro a cambio de criptomonedas

Davis, Vicki. “How Do We Know Who’s Human? A New Tech Raises Big Questions.” 10 Minute Teacher Podcast, 3 de mayo de 2025. Podcast de audio. https://www.coolcatteacher.com/e898/

El 1 de mayo de 2025, Sam Altman (CEO de OpenAI y cofundador de este proyecto) lanzó oficialmente en Estados Unidos el programa World, anteriormente conocido como Worldcoin. Este proyecto consiste en instalar centros en seis ciudades estadounidenses (Los Ángeles, San Francisco, Atlanta, Nashville, Miami y Austin) donde se escanean los iris y rostros de las personas mediante dispositivos impulsados por inteligencia artificial.

A cambio del escaneo, se otorga a los usuarios una World ID, una especie de documento digital de identidad, junto con una pequeña cantidad de criptomonedas. Aunque puede parecer un incentivo atractivo, esta propuesta plantea cuestiones profundas sobre la privacidad, la ética digital y el uso de datos biométricos.

Davis explica que esta tecnología responde a tres necesidades emergentes: combatir el fraude de identidad (especialmente ante el auge de las deepfakes y las identidades sintéticas generadas por IA), verificar la edad para proteger a menores en línea (un campo en el que ya se están aplicando soluciones biométricas en países como Francia y Alemania) y garantizar que las personas que interactúan en sitios como Match.com sean reales. Esto último ha llevado a sospechas sobre por qué empresas como VISA o Match Group están involucradas en el proyecto. La autora subraya que detrás del discurso de anonimato de World hay una contradicción fundamental: si se requiere vincular una identidad digital a un perfil para eliminar fraudes, esa identidad ya no es verdaderamente anónima

Para la autora, este tema es una excelente oportunidad educativa. Plantea que la cobertura de esta noticia es un caso perfecto para enseñar alfabetización mediática, ya que existen versiones muy distintas del mismo hecho: algunos medios lo celebran como una forma de obtener criptomonedas fácilmente, mientras otros alertan sobre los riesgos para la privacidad. Davis invita a docentes, padres y estudiantes a reflexionar sobre la fiabilidad de las fuentes, los sesgos informativos y los intereses de las empresas tecnológicas. También propone usar un cartel y un documento descargable con preguntas críticas como herramientas didácticas para fomentar debates en el aula.

Davis es muy crítica con la forma en que muchas empresas, especialmente las tecnológicas, gestionan nuestros datos. Recuerda que “si algo es gratis, probablemente el producto eres tú”, y cita casos como el escaneo ocular en apps educativas, la recopilación de datos incluso en modo incógnito por parte de Google (que afronta una demanda multimillonaria) y el uso no ético del reconocimiento facial. A pesar de que World promete anonimato, su integración con empresas de citas y bancos plantea serias dudas sobre el control y uso de los datos biométricos. Además, solo el 24% de los estadounidenses confían en que las compañías tecnológicas usen sus datos de forma ética, y un 77% desconfía de los líderes de redes sociales, según encuestas citadas por la autora.

Este tipo de tecnologías y debates requieren una formación crítica que solo la educación puede ofrecer. Rechaza la idea de que la inteligencia artificial pueda sustituir la capacidad de análisis humano, y denuncia que quienes afirman no necesitar más educación porque “ChatGPT lo sabe todo” simplemente no entienden cómo funciona la IA ni por qué es peligrosa una confianza ciega en ella. En su opinión, el profesorado sigue siendo imprescindible para formar ciudadanos conscientes y capaces de pensar críticamente.

Una colación de defensores de la privacidad demanda al «Departamento de Eficiencia Gubernamental» (DOGE) y a Elon Musk por poner en peligro la intimidad de millones de personas

Electronic Frontier Foundation. «EFF Sues OPM, DOGE, and Musk for Endangering the Privacy of MillionsElectronic Frontier Foundation, 11 de febrero de 2025. https://www.eff.org/press/releases/eff-sues-opm-doge-and-musk-endangering-privacy-millions

La EFF y una coalición de defensores de la privacidad liderada por Lex Lumina han presentado una demanda solicitando a un tribunal federal que impida a la Oficina de Gestión de Personal (OPM) de Estados Unidos revelar información privada y sensible de millones de estadounidenses a Elon Musk y su «Departamento de Eficiencia Gubernamental» (DOGE).

Electronic Frontier Foundation (EFF) y una coalición de defensores de la privacidad acaban de presentar una demanda en la que solicitan a un tribunal federal que bloquee al Departamento de Eficiencia Gubernamental (DOGE) de Elon Musk el acceso a la información privada de millones de estadounidenses que almacena la Oficina de Gestión de Personal (OPM), y que elimine cualquier dato que se haya recopilado o eliminado hasta el momento. En la demanda también se nombra a la OPM y se pide al tribunal que impida que la OPM siga compartiendo datos con la DOGE.

Parte de la carta dice:

«Hola Partidario de la Libertad Digital:
No aceptaremos el saqueo descarado de los datos sensibles de millones de personas.

Nuestro caso es bastante sencillo: Los datos de la OPM son extraordinariamente sensibles, la OPM se los dio al DOGE, y esto viola la Ley de Privacidad de 1974.

Por tus derechos digitales,

Corynne McSherry
Directora Jurídica de la EFF»

Los registros de la OPM son una de las mayores, si no la mayor, recopilación de datos de empleados en los EE.UU. Con nuestro co-abogado Lex Lumina, State Democracy Defenders Fund, y Chandra Law Firm, representamos a empleados federales actuales y antiguos cuya privacidad ha sido violada.

Este enorme tesoro de información incluye datos demográficos privados e historiales laborales de prácticamente todos los empleados y contratistas federales actuales y anteriores, así como de los solicitantes de empleo federal. La semana pasada, un juez federal bloqueó temporalmente el acceso del DOGE a un sistema crítico de pagos del Tesoro de EE.UU. en virtud de una demanda similar. Estas violaciones de la privacidad de los datos no deben permitirse.

¿Y ahora qué?

La cuestión no es «qué pasa si estos datos caen en malas manos». Los datos ya han caído en manos equivocadas, según la ley, y deben salvaguardarse inmediatamente. Las violaciones de la privacidad de los estadounidenses se han producido en múltiples agencias, sin supervisión ni salvaguardias, y la EFF se complace en unirse a la brigada de demandas para proteger esta información crítica.

Esto es sólo el principio de lo que puede ser una lucha difícil. Pero la EFF no es ajena a los adversarios duros. Con el apoyo de nuestros miembros, hemos defendido los derechos de los usuarios de tecnología en cientos de casos para proteger su libertad en línea. Me enorgullece estar a tu lado por el futuro de la privacidad, la libertad de expresión y la creatividad.

Transparencia de los datos en los modelos LLM de Inteligencia Artificial

MIT News | Massachusetts Institute of Technology. «Study: Transparency Is Often Lacking in Datasets Used to Train Large Language Models», 30 de agosto de 2024. https://news.mit.edu/2024/study-large-language-models-datasets-lack-transparency-0830.

Un equipo de investigadores del MIT ha desarrollado una herramienta llamada Data Provenance Explorer para mejorar la transparencia en los conjuntos de datos utilizados para entrenar grandes modelos de lenguaje. Esta herramienta permite a los practicantes de IA seleccionar datos adecuados para su modelo, mejorando la precisión y reduciendo el sesgo.

Los investigadores analizaron más de 1,800 conjuntos de datos textuales y descubrieron que más del 70% carecían de información de licencia, mientras que alrededor del 50% contenían errores en los datos de origen. Esto plantea problemas éticos y legales, y puede afectar el rendimiento del modelo, ya que el uso de datos incorrectos o sesgados puede llevar a predicciones injustas.

Data Provenance Explorer genera resúmenes de los creadores, fuentes, licencias y usos permitidos de los conjuntos de datos, ayudando a los investigadores a tomar decisiones más informadas y mejorar la precisión de los modelos en situaciones reales, como evaluaciones de préstamos o consultas de clientes.

Además, el estudio reveló que la mayoría de los creadores de conjuntos de datos se concentran en el norte global, lo que podría limitar las capacidades de los modelos en otras regiones. Los investigadores también notaron un aumento en las restricciones de los conjuntos de datos creados entre 2023 y 2024, debido a preocupaciones sobre su uso comercial no intencionado.

Los investigadores planean expandir su análisis para incluir datos multimodales, como video y audio, y seguir colaborando con reguladores para mejorar la transparencia en el uso de datos.

La «fiebre del oro» de la IA por los datos de entrenamiento de chatbots podría quedarse sin texto escrito por humanos

AP News. «AI “gold Rush” for Chatbot Training Data Could Run out of Human-Written Text», 6 de junio de 2024. https://apnews.com/article/ai-artificial-intelligence-training-data-running-out-9676145bac0d30ecce1513c20561b87d.

Los sistemas de inteligencia artificial, como ChatGPT, dependen de grandes cantidades de texto escrito por humanos disponible en línea para mejorar su rendimiento. Sin embargo, un estudio de Epoch AI advierte que las empresas tecnológicas podrían agotar el suministro de estos datos públicos entre 2026 y 2032. Esta situación se compara con una «fiebre del oro» que podría dificultar el progreso continuo en el campo de la IA.

A corto plazo, empresas como OpenAI y Google están buscando asegurar fuentes de datos de alta calidad, incluso pagando por ellos, como es el caso de los datos provenientes de foros como Reddit y medios de comunicación. Sin embargo, a largo plazo, no habrá suficientes nuevos blogs, artículos de noticias y comentarios en redes sociales para sostener el desarrollo de la IA. Esto podría llevar a depender de datos sensibles considerados privados, como correos electrónicos o mensajes de texto, o recurrir a datos sintéticos generados por los propios chatbots, los cuales son menos confiables.

Algunos expertos, como Nicolas Papernot, creen que no es necesario seguir entrenando modelos cada vez más grandes, sino enfocarse en modelos más especializados. Además, existe preocupación por el uso de datos generados por IA para entrenar más IA, lo que podría llevar a la «degradación del rendimiento» o «colapso del modelo». Sitios como Reddit y Wikipedia, así como editores de noticias y libros, están reconsiderando cómo se utilizan sus datos. Wikipedia, por ejemplo, permite el uso de sus entradas por parte de empresas de IA, pero subraya la necesidad de mantener incentivos para la creación de contenido humano.

Sam Altman, CEO de OpenAI, mencionó que aunque se está experimentando con datos sintéticos, es crucial que estos sean de alta calidad para evitar ineficiencias en el entrenamiento de modelos de IA. En resumen, el campo de la inteligencia artificial enfrenta un posible agotamiento de textos escritos por humanos para el entrenamiento de sus modelos, lo que plantea importantes desafíos y la necesidad de buscar soluciones alternativas para mantener el progreso tecnológico.

El problema de privacidad de la inteligencia artificial generativa

Fried, Ina. «Generative AI Has a Growing Privacy Problem». Axios, 14 de marzo de 2024. https://www.axios.com/2024/03/14/generative-ai-privacy-problem-chatgpt-openai.

La privacidad se está convirtiendo en el próximo campo de batalla en el debate sobre la inteligencia artificial, incluso mientras continúan los conflictos sobre derechos de autor, precisión y sesgo.

Por qué es importante: Los críticos sostienen que los modelos de lenguaje grandes están recopilando y, frecuentemente, revelando información personal recopilada de toda la web, muchas veces sin el permiso de las personas involucradas.

El panorama general: Muchas empresas han empezado a desconfiar del uso de información patentada por parte de ejecutivos y empleados para consultar a ChatGPT y otros bots de inteligencia artificial, ya sea prohibiendo tales aplicaciones o optando por versiones pagas que mantienen la información comercial privada.

A medida que más personas utilizan la IA para buscar consejos sobre relaciones, información médica o asesoramiento psicológico, los expertos dicen que los riesgos para los individuos están aumentando. Las filtraciones de datos personales desde la IA pueden tomar varias formas, desde la divulgación accidental de información hasta la obtención de datos mediante esfuerzos deliberados para superar las protecciones.

La noticia destacada: Se han presentado varias demandas buscando el estatus de acción de clase en los últimos meses, alegando que Google, OpenAI y otros han violado las leyes federales y estatales de privacidad en la capacitación y operación de sus servicios de IA.

La FTC emitió una advertencia en enero de que las empresas tecnológicas tienen la obligación de cumplir con sus compromisos de privacidad mientras desarrollan modelos de IA generativa. «Con la IA, hay una gran fiebre por los datos, y estas empresas están recopilando cualquier dato personal que puedan encontrar en Internet,» dijo a Axios el profesor de derecho de la Universidad George Washington, Daniel J. Solove.

Los riesgos van mucho más allá de la simple divulgación de piezas discretas de información privada, argumenta Timothy K. Giordano, socio de Clarkson Law Firm, que ha presentado varios juicios por privacidad y derechos de autor contra empresas de IA generativa.

Entre líneas: Si bien la IA está creando nuevos escenarios, Solove señala que muchos de estos problemas de privacidad no son nuevos.

«Muchos de los problemas de IA son exacerbaciones de problemas existentes que la ley no ha tratado bien,» dijo Solove a Axios, señalando la falta de protecciones federales de privacidad en línea y los defectos en las leyes estatales que sí existen. «Si tuviera que calificarlas, serían como D y F», dijo Solove. «Son muy débiles.» El panorama general: Las capacidades únicas de la IA generativa plantean preocupaciones más grandes que la simple agregación común de información personal vendida y distribuida por corredores de datos.

Además de compartir datos específicos, las herramientas de IA generativa pueden establecer conexiones o inferencias (precisas o no), dijo Giordano a Axios.

Esto significa que las empresas tecnológicas ahora tienen, en palabras de Giordano, «un entendimiento escalofriantemente detallado de nuestra personalidad, suficiente para crear finalmente clones digitales y deepfakes que no solo se parecerían a nosotros, sino que también podrían actuar y comunicarse como nosotros».

Crear IA que respete la privacidad de los datos es complicado por cómo funcionan los sistemas de IA generativa.

Por lo general, se entrenan con conjuntos enormes de datos que dejan una especie de huella de probabilidad en el modelo, pero no guardan o almacenan los datos después. Eso significa que no se puede simplemente eliminar la información que se ha tejido. «No se puede desentrenar a la IA generativa,» dijo Grant Fergusson, un compañero del Electronic Privacy Information Center. «Una vez que el sistema ha sido entrenado en algo, no hay forma de revertirlo.»

Realidad: Muchos editores en línea y empresas de IA han agregado lenguaje que indica que los datos de los clientes pueden ser utilizados para entrenar modelos futuros.

En algunos casos, las personas tienen la opción de elegir no permitir que sus datos se utilicen para el entrenamiento de IA, aunque estas políticas varían y la configuración para compartir datos puede ser confusa y difícil de encontrar. Además, incluso cuando los usuarios ofrecen consentimiento, podrían estar compartiendo datos que podrían afectar la privacidad en línea de otros.

El otro lado: Un representante de OpenAI dijo a Axios que la empresa no busca datos personales para entrenar sus modelos y toma medidas para evitar que sus modelos revelen información privada o sensible. «Queremos que nuestros modelos aprendan sobre el mundo, no sobre individuos privados», dijo un portavoz de OpenAI a Axios. «También entrenamos a nuestros modelos para que se nieguen a proporcionar información privada o sensible sobre las personas». La empresa dijo que su política de privacidad describe opciones para que las personas eliminen cierta información y opten por no participar en el entrenamiento de modelos.

¿Qué sigue?: Los reguladores intentarán hacer cumplir las leyes de privacidad existentes en el nuevo ámbito de la IA, los legisladores propondrán nuevos proyectos de ley y los tribunales lidiarán con dilemas novedosos. Las empresas de IA podrían hacer más por sí mismas, pero Solove dijo que esperar que las empresas protejan la privacidad sin que se lo exija la ley probablemente sea poco realista. «Es como decirle a los tiburones: ‘Por favor, siéntense y usen cubiertos'», dijo Solove.

El NIST identifica tipos de ciberataques que manipulan el comportamiento de los sistemas de inteligencia artificial (IA)

«NIST Identifies Types of Cyberattacks That Manipulate Behavior of AI Systems». 2024. NIST, enero. https://www.nist.gov/news-events/news/2024/01/nist-identifies-types-cyberattacks-manipulate-behavior-ai-systems.

La publicación, una colaboración entre el gobierno, la academia y la industria, tiene la intención de ayudar a los desarrolladores y usuarios de IA a comprender los tipos de ataques que podrían esperar, junto con enfoques para mitigarlos, con la comprensión de que no hay una solución única.

Los sistemas de IA han permeado la sociedad moderna, trabajando en capacidades que van desde conducir vehículos hasta ayudar a los médicos a diagnosticar enfermedades o interactuar con clientes como chatbots en línea. Para aprender a realizar estas tareas, se entrenan con vastas cantidades de datos: un vehículo autónomo podría mostrar imágenes de carreteras con señales de tráfico, por ejemplo, mientras que un chatbot basado en un modelo de lenguaje grande (LLM) podría exponerse a registros de conversaciones en línea. Estos datos ayudan a la IA a predecir cómo responder en una situación dada.

Un problema importante es que los datos en sí mismos pueden no ser confiables. Sus fuentes pueden ser sitios web e interacciones con el público. Hay muchas oportunidades para que actores malintencionados corrompan estos datos, tanto durante el período de entrenamiento de un sistema de IA como después, mientras la IA continúa refinando sus comportamientos al interactuar con el mundo físico. Esto puede hacer que la IA se comporte de manera indeseable. Por ejemplo, los chatbots pueden aprender a responder con lenguaje abusivo o racista cuando se sortean cuidadosamente las protecciones mediante indicaciones maliciosas.

«En su mayor parte, los desarrolladores de software necesitan que más personas usen su producto para que pueda mejorar con la exposición», dijo Vassilev. «Pero no hay garantía de que la exposición sea buena. Un chatbot puede generar información negativa o tóxica cuando se le indica con un lenguaje cuidadosamente diseñado».

En parte porque los conjuntos de datos utilizados para entrenar una IA son demasiado grandes para que las personas los supervisen y filtren con éxito, todavía no hay una forma infalible de proteger la IA contra el desvío. Para ayudar a la comunidad de desarrolladores, el nuevo informe ofrece una visión de los tipos de ataques que podrían sufrir sus productos de IA y enfoques correspondientes para reducir el daño.

El informe considera los cuatro principales tipos de ataques: evasión, envenenamiento, privacidad y ataques de abuso. También los clasifica según múltiples criterios, como los objetivos y metas del atacante, las capacidades y el conocimiento.

  • Los ataques de evasión, que ocurren después de que se implementa un sistema de IA, intentan alterar una entrada para cambiar cómo el sistema responde a ella. Ejemplos incluirían agregar marcas a señales de alto para hacer que un vehículo autónomo las interprete como señales de límite de velocidad o crear marcas de carril confusas para hacer que el vehículo se desvíe de la carretera.
  • Los ataques de envenenamiento ocurren en la fase de entrenamiento al introducir datos corruptos. Un ejemplo sería deslizar numerosas instancias de lenguaje inapropiado en registros de conversaciones, para que un chatbot interprete estas instancias como parloteo lo suficientemente común como para usarlo en sus propias interacciones con clientes.

Los ataques de privacidad, que ocurren durante la implementación, son intentos de aprender información sensible sobre la IA o los datos en los que se entrenó para mal usarla. Un adversario puede hacerle numerosas preguntas legítimas a un chatbot y luego utilizar las respuestas para ingeniería inversa del modelo para encontrar sus puntos débiles o adivinar sus fuentes. Agregar ejemplos indeseados a esas fuentes en línea podría hacer que la IA se comporte de manera inapropiada, y hacer que la IA olvide esos ejemplos específicos no deseados después del hecho puede ser difícil.

Los ataques de abuso implican la inserción de información incorrecta en una fuente, como una página web o un documento en línea, que una IA luego absorbe. A diferencia de los ataques de envenenamiento mencionados anteriormente, los ataques de abuso intentan darle a la IA piezas incorrectas de información de una fuente legítima pero comprometida para cambiar el uso previsto del sistema de IA.

«La mayoría de estos ataques son bastante fáciles de llevar a cabo y requieren un conocimiento mínimo del sistema de IA y capacidades adversarias limitadas», dijo la coautora Alina Oprea, profesora en la Universidad Northeastern. «Los ataques de envenenamiento, por ejemplo, pueden llevarse a cabo controlando unas pocas docenas de muestras de entrenamiento, lo que sería un porcentaje muy pequeño de todo el conjunto de entrenamiento».

Los autores, que también incluyeron a los investigadores de Robust Intelligence Inc., Alie Fordyce e Hyrum Anderson, desglosan cada una de estas clases de ataques en subcategorías y agregan enfoques para mitigarlos, aunque la publicación reconoce que las defensas que los expertos en IA han ideado contra ataques adversarios hasta ahora son incompletas.

Los datos de los usuarios de la British Library robados en el ciberataque se ofrecen en un sitio de subastas en la dark web por 600.000 libras esterlinas

Lyon, J. (2023, noviembre 21). Data stolen from the British Library is being auctioned for bitcoin on the dark web. Protos. https://protos.com/data-stolen-from-the-british-library-is-being-auctioned-for-bitcoin-on-the-dark-web/

La British Library, se enfrenta a una crisis cibernética tras un ataque de ransomware. Aunque el edificio y los libros físicos permanecen, el acceso a la información y la conexión entre lectores y materiales se ha visto comprometida. Este incidente destaca la fragilidad de las instituciones que nos conectan y protegen, subrayando la importancia del trabajo que hacen posible.

En Halloween de 2023, la Biblioteca Británica (BL) de Londres sufrió un ciberataque masivo, que dejó su presencia en la web inexistente, su acceso a las colecciones desactivado e incluso su wifi colapsó. El ciberataque también puso en manos de un tercero los datos personales de los usuarios y del personal de la BL. Durante la última semana de noviembre, se presentaron imágenes de los datos robados para su subasta en la web oscura, a la venta a quien estuviera dispuesto a pagar 20 bitcoin, o unas 600.000 libras esterlinas. Al convertir la infraestructura digital de la biblioteca en una mercancía (en un mercado abierto, aunque oscuro), una «banda de ransomware» autodenominada Rhysida espera presionar a la Biblioteca Británica para que pague primero. Los datos privados, que incluyen detalles de pasaportes y documentos de empleo de HMRC. Según The Register, el grupo de ransomware detrás del ataque, Rhysida, ya ha recibido una oferta inicial de 20 bitcoins, con un valor aproximado de $745,000. TechCrunch también afirma que Rhysida amenazó con publicar los datos a menos que se pagara un rescate por parte de la Biblioteca Británica. Un asesor de ciberseguridad global de ESET le dijo a The Register que Rhysida probablemente «no ha recibido el rescate» y «ahora está llevando a cabo la siguiente fase del ataque amenazando con liberar los datos».

«Con solo 7 días en el reloj, aprovecha la oportunidad para ofertar por datos exclusivos, únicos e impresionantes», dice el anuncio de Rhysida. «Abre tus billeteras y prepárate para comprar datos exclusivos. Vendemos solo a una mano, sin revender, serás el único propietario».

La Biblioteca Británica reveló por primera vez las interrupciones a fines de octubre antes de confirmar que fue víctima de un ataque de ransomware el 14 de noviembre. El ataque causó varias interrupciones técnicas importantes, incluida la inutilización del sitio web de la biblioteca. Actualmente, el sitio aún está fuera de servicio, y la biblioteca está publicando actualizaciones en X (anteriormente Twitter).

Esta semana, afirmó: «No tenemos evidencia de que los datos de nuestros usuarios hayan sido comprometidos». Dijo que cualquier persona con una cuenta de la Biblioteca Británica que use una contraseña compartida con otras cuentas debería cambiar esa contraseña en todas partes.

El ataque de ransomware ha expuesto la vulnerabilidad de la institución y sus personas, quienes están dedicadas a proporcionar el derecho humano básico a la información. En última instancia, el incidente destaca que cualquier intento de cuantificar el valor del conocimiento en cualquier moneda, ya sea bitcoin u otra, fracasará. La historia sirve como recordatorio de la fragilidad de las instituciones que nos conectan y protegen, así como de la importancia del trabajo que hacen posible.

Prácticas de recopilación y análisis de datos en bibliotecas universitarias

Library Analytics Survey Among Academic Libraries 2021 Report

Texto completo

Encuesta de análisis de bibliotecas entre bibliotecas universitarias Informe 2021 Conozca las prácticas de recopilación y análisis de datos de 196 bibliotecas universitarias y universitarias. Este informe destaca las prácticas de gestión de datos actualmente vigentes y su impacto en el servicio bibliotecario. También se exploran las barreras para una gestión eficaz de los datos y el futuro del análisis bibliotecario.

Satisfacción con las Soluciones Existentes de Gestión de Datos

  • Del total de la muestra, casi el mismo porcentaje de encuestados se encuentran satisfechos con sus soluciones de gestión de datos que insatisfechos (satisfechos netos 29.1% frente a insatisfechos netos 28.1%). Un gran porcentaje, el 43%, no se encuentra ni satisfecho ni insatisfecho.
  • Los encuestados de escuelas más grandes son menos propensos a estar satisfechos, pero esto puede ser resultado de llegar a personal con menos familiaridad con la analítica de datos y que optaron por permanecer neutrales.
  • Los administradores tienen el grado más alto de insatisfacción neta con sus soluciones analíticas actuales (36%). El personal de servicios de apoyo en general tiene la mayor satisfacción neta, pero también tiene el mayor porcentaje de «muy insatisfechos» (6%).

Barreras para la Recopilación y Análisis de Datos

  • Las tres barreras más comunes para la recopilación de datos son la falta de tiempo (seleccionada por el 53%), la falta de personal (51%) y la falta de herramientas sólidas (46%). Justo por debajo del diez por ciento informa no tener barreras para la recopilación de datos.
  • Las barreras para el análisis de datos son ligeramente más prevalentes. Más de la mitad de las bibliotecas en la muestra nombraron estas tres como barreras para el análisis de datos en su institución: falta de tiempo (61%), falta de experiencia (54%) y falta de personal (52%).

Impacto de Recursos Adicionales en la Recopilación y Análisis de Datos

  • Al preguntar qué recursos adicionales podrían ayudarles a superar las barreras de gestión de datos, el tiempo y los recursos de personal surgieron como los dos que tendrían el impacto más significativo.


Dificultades Específicas en la Gestión de Datos

  • Los principales obstáculos para una gestión efectiva de datos son la recopilación de datos, la limpieza de datos y el aislamiento de datos.
  • Los administradores son los más propensos a seleccionar «Es difícil obtener datos», mientras que el personal de servicios de apoyo (que probablemente trabaje directamente con los datos) selecciona «es difícil limpiar los datos» con mayor frecuencia.
  • Para escuelas más grandes (con una matrícula de 10,000 o más), las dificultades para limpiar los datos y los datos aislados son obstáculos más grandes que la obtención de datos.

Otras Causas de Dificultades en la Realización de Análisis de Bibliotecas

  • La pérdida de conocimiento institucional debido a la rotación de personal ha sido un obstáculo significativo para la mitad de los encuestados (52%). Los cambios en los estándares (49%) y la falta de estudios longitudinales (42%) también han causado problemas significativos para las bibliotecas académicas.

Observaciones sobre las Herramientas Necesarias para una Gestión Efectiva de Datos

  • Dos tercios de los encuestados consideran que las herramientas necesarias para una gestión efectiva de datos son costosas.
  • Aunque se cree ampliamente que hay herramientas de gestión de datos disponibles en el mercado, el 58 por ciento de los encuestados siente que hay muy pocas herramientas disponibles para su uso en su biblioteca (y un porcentaje considerablemente mayor de administradores, el 73%).
  • El personal de servicios de apoyo tiende menos a sentir que no tienen la experiencia para usar las herramientas necesarias, en comparación con el 56% de la muestra total.

Valor y crecimiento del mercado de las revistas académicas de Acceso Abierto (OA) en 2023

Michael, Dan Pollock and Ann. «News & Views: Market Sizing Update 2023». Delta Think, 24 de octubre de 2023. https://deltathink.com/news-views-market-sizing-update-2023/.

Cada año, el Market Sizing de Delta Think analiza el valor del mercado de las revistas académicas de OA. Se trata de los ingresos generados por los proveedores o los costes incurridos por los compradores de contenidos.

Según estima la agencia el segmento de OA del mercado habrá crecido hasta algo más de 2.000 millones de dólares en 2022. Se trata de un fuerte crecimiento con respecto al año anterior, aunque es significativamente inferior al del año anterior. El mercado general de las revistas académicas apenas creció durante el mismo periodo.

Conclusiones principales

  • El mercado del OA creció hasta algo más de 2.000 millones de dólares en 2022.
    un crecimiento de algo más del 24% desde 2021. Esto supone aproximadamente dos tercios del crecimiento registrado en 2021.
  • El mercado total de revistas académicas creció un 0,4% en 2022, en comparación con su crecimiento a largo plazo de un solo dígito, entre el 2% y el 4%.
  • Dado el crecimiento excepcionalmente alto en 2020 y 2021, se esperaba una corrección en 2022.; sin embargo, el crecimiento de OA fue significativamente menor de lo que había sido anteriormente.

Tendencias

  • Se observa una ralentización del crecimiento en 2022, aunque los motores subyacentes del mercado siguen siendo fuertes.
  • El COVID-19 provocó un aumento significativo de la actividad editorial, mostrando volúmenes y tasas de crecimiento superiores a la media en 2020 y 2021.
  • El año pasado, los resultados de nuestra encuesta y los comentarios anecdóticos arrojaron mensajes contradictorios sobre las perspectivas para 2022. Muchos esperaban un crecimiento bajo en 2022, a medida que las cosas se corrigieran hacia las tendencias subyacentes. En efecto, 2022 registró un crecimiento notablemente inferior al del año anterior. Sin embargo, como el crecimiento subyacente de OA sigue siendo fuerte, las cifras de menor crecimiento de 2022 parecen elevadas si se toman de forma aislada.