Audible comenzará a generar réplicas de voces de narradores de audiolibros mediante IA

Carman, Ashley. «Audible to Start Generating AI Voice Replicas of Select Audiobook Narrators». BNN Bloomberg, 9 de septiembre de 2024. https://www.bnnbloomberg.ca/business/technology/2024/09/09/audible-to-start-generating-ai-voice-replicas-of-select-audiobook-narrators/.

Audible, la plataforma de audiolibros propiedad de Amazon, invitará a un grupo selecto de narradores de audiolibros con base en EE. UU. a entrenar inteligencia artificial con sus voces, para crear clones que podrán ser utilizados en la grabación de audiolibros.

Este esfuerzo, que comienza esta semana, tiene como objetivo agregar más audiolibros al servicio de manera rápida y económica, además de integrar a los narradores tradicionales en el mundo emergente de la automatización de audiolibros, un tema que hasta ahora ha sido visto con recelo por muchos.

El año pasado, Amazon ofreció a autores autopublicados en la tienda Kindle la opción de narrar sus obras con una «voz virtual» genérica, una iniciativa que ha sido popular. Hasta mayo, más de 40,000 libros en Audible habían hecho uso de esta tecnología.

En esta nueva fase, Audible incentivará a narradores profesionales a participar en el proceso. «Esta oferta beta permitirá a los participantes expandir sus capacidades de producción de audiolibros de alta calidad, generar nuevos negocios al tomar más proyectos simultáneamente y aumentar su potencial de ganancias», dijo la compañía en un comunicado en su blog.

Los narradores que elijan participar podrán crear réplicas de sus voces de forma gratuita y recibirán compensación por cualquier audiolibro creado con sus voces generadas por IA, con pagos basados en un modelo de reparto de regalías por título.

Audible busca aumentar el contenido exclusivo en su servicio. A pesar de las herramientas de voz virtual introducidas hace un año, el 96% de los títulos escritos autopublicados en Kindle Direct Publishing aún no tienen versión en audiolibro. Una mayor diversidad de voces podría mejorar estas cifras.

Una vez que un narrador apruebe el uso de su voz generada por IA para un trabajo específico, podrá editar la pronunciación y el ritmo utilizando herramientas de producción internas. Audible no usará las réplicas sin el permiso explícito del narrador.

«Los narradores seguirán manteniendo el control sobre los proyectos en los que desean participar, ya sea usando la réplica de su voz o una actuación en vivo, y seguirán siendo fundamentales en el proceso de producción», afirmó la compañía.

Términos bibliotecarios que los usuarios no entienden

McDonald, Courtney, y Nicole Trujillo. 2024. «Library Terms That Users (Don’t) Understand: A Review of the Literature from 2012-2021». College & Research Libraries 85 (6): 906. https://doi.org/10.5860/crl.85.6.906.

Este artículo compara la usabilidad de sitios web, específicamente la comprensión de términos bibliotecarios por parte de los usuarios, en 51 estudios originales entre 2012 y 2021

Naismith y Stein observaron en 1989 que la bibliotecología, como muchas profesiones, utiliza términos técnicos. Los profesionales de la información han desarrollado un «jergón bibliotecario» para describir operaciones, servicios y recursos, como «número de clasificación». Sin embargo, los usuarios a menudo no comprenden estos términos, lo que afecta negativamente su uso de los servicios.

John Kupersmith publicó en 2011 un documento con prácticas recomendadas para usar términos bibliotecarios, basado en investigaciones de usabilidad entre 1997 y 2011. Sus recomendaciones incluyen evitar términos confusos, usar lenguaje natural y ser consistentes. Aunque su trabajo sigue siendo útil, este artículo actualiza sus hallazgos al analizar estudios realizados entre 2012 y 2021. Se explora cómo la comprensión de términos por parte de los usuarios ha cambiado y se sugiere una nueva pauta, reconociendo el papel de los sitios web no bibliotecarios en la interacción de los usuarios con la terminología bibliotecaria.

En este estudio, se realizó una búsqueda en las bases de datos bibliográficas de ciencias de la información, LISTA y LISA, para identificar literatura profesional sobre la usabilidad en bibliotecas. Además, se utilizó Google Scholar para incluir literatura gris, como presentaciones y documentos no revisados por pares. La búsqueda se limitó a estudios realizados entre 2012 y 2021 en entornos en línea, para actualizar los hallazgos de Kupersmith.

Se recuperaron 1260 resultados, y tras eliminar duplicados, quedaron 978. Luego, se seleccionaron 51 artículos que cumplían los criterios, centrados en el comportamiento directo de los usuarios en la terminología en línea de bibliotecas. El análisis de los estudios incluyó la identificación de tareas o servicios de biblioteca, como bases de datos, navegación en sitios web, instrucción y préstamos.

¿Qué términos bibliotecarios comprenden los usuarios?

Se encontraron 41 términos comprendidos y 106 términos malentendidos. Los estudios tienden a destacar los términos confusos, ya que su objetivo principal es mejorar los sitios web de las bibliotecas. Los términos entendidos generalmente usaban un lenguaje natural y explicaban términos difíciles con texto adicional. Un tercer tema observado fue la consistencia y los estándares, lo que sugiere que los usuarios aplican comportamientos aprendidos en otros contextos. Términos como «Horas», «Servicios», y «Ayuda» fueron comprendidos, mientras que términos específicos de bibliotecas, como «pregunta a un bibliotecario» o «catálogo de la biblioteca», fueron comprendidos en menor medida.

Términos que los usuarios no entienden

Artículos, bases de datos y revistas: Los términos más incomprendidos fueron “revistas” (12 menciones), “artículos” (10) y “bases de datos” (10). Los estudios demostraron que los usuarios se confundían al buscar artículos y, a menudo, accedían a la lista de revistas electrónicas en lugar del servicio de descubrimiento principal, o no sabían que primero debían usar la pestaña de bases de datos para buscar artículos. Incluso al usar un sistema de descubrimiento, muchos usuarios aplicaban incorrectamente filtros de formato de revista, lo que les mostraba resultados de títulos de revistas en lugar de artículos.

Catálogos de bibliotecas y términos de circulación: Los términos relacionados con el catálogo y la circulación también resultaron confusos. Esto incluye el «catálogo de la biblioteca» y sus apodos, como “ROBCAT,” así como términos relacionados con funciones como “reserva,” “préstamo interbibliotecario” y “políticas de circulación.” El término “catálogo de la biblioteca” parece generar confusión debido a la creciente integración entre el catálogo y los servicios de descubrimiento. Además, los apodos locales para los catálogos de bibliotecas fueron poco efectivos para transmitir su función, y algunos investigadores recomendaron cambiar el nombre del catálogo a términos más simples como “libros” o “libros y medios.”

Préstamo interbibliotecario: El préstamo interbibliotecario fue particularmente difícil de entender. Los usuarios no lo distinguían de otros servicios como la solicitud de entrega o la reserva de libros. Los estudios sugerían combinar estos servicios en una página única para alinearse con las expectativas de los usuarios, quienes percibían el préstamo interbibliotecario como una forma de pedir algo que la biblioteca no tiene.

Asistencia en investigación: Los términos relacionados con la asistencia de los bibliotecarios también causaron confusión. Frases como “bibliotecario de referencia” o “especialista en público” no lograban transmitir a los usuarios que podían recibir ayuda de expertos en investigación. Además, los usuarios tenían dificultades para comprender el concepto de guías de investigación y cómo estas podían ayudarles. Algunos estudios sugirieron estrategias como usar nombres de cursos en los títulos de las guías, agruparlas bajo un encabezado común como “tutoriales,” o hacer que fueran más accesibles a través de búsquedas en Google para mejorar su uso.

La revisión de cincuenta y un artículos publicados entre 2012 y 2021 muestra que la jerga bibliotecaria sigue presentando desafíos para los usuarios. Muchos de los hallazgos coinciden con las observaciones originales de Kupersmith, pero también surgen nuevas perspectivas y complejidades que ayudan a los bibliotecarios a comprender mejor los matices a considerar al elegir la terminología en los sitios web de las bibliotecas.

Varios países, entre ellos la UE, EE.UU. y el Reino Unido, han firmado el primer tratado mundial sobre inteligencia artificial.

Framework Convention on Artificial Intelligence

Países de todo el mundo, incluidos EE. UU., Reino Unido y la UE, han firmado el primer tratado internacional sobre IA, legalmente vinculante, diseñado para garantizar que los sistemas de IA se alineen con los “derechos humanos, la democracia y el estado de derecho”.

El tratado de IA legalmente vinculante, denominado Framework Convention on Artificial Intelligence y en desarrollo desde 2019, fue elaborado por el Consejo de Europa (COE), una organización internacional de derechos humanos cuya función es defender los derechos humanos, la democracia y los sistemas legales de la UE.

E, tratado fue elaborado por los 46 estados miembros del Consejo de Europa, con la participación de países observadores como Canadá, Japón, México y EE. UU., así como varios estados no miembros, como Australia, Israel y Argentina. También participaron representantes de la sociedad civil, el mundo académico e industrias.

Incluye un conjunto de principios centrados en desarrollar sistemas de IA de manera transparente que protejan los datos personales, la dignidad humana y la democracia. Su objetivo principal es gestionar cualquier riesgo que la IA pueda representar para los derechos humanos y «llenar las lagunas legales que puedan surgir debido a los rápidos avances tecnológicos», al tiempo que se fomenta la innovación y el progreso.

Tres meses después de la firma del tratado, los gobiernos de los países firmantes estarán obligados a implementar salvaguardas y “adoptar o mantener medidas legislativas, administrativas u otras apropiadas” para alinearse con estos principios.

Principios Fundamentales:

El tratado establece que las actividades relacionadas con sistemas de IA deben cumplir con principios como:

  • Dignidad humana y autonomía
  • Igualdad y no discriminación
  • Protección de la privacidad y datos personales
  • Transparencia y supervisión
  • Responsabilidad
  • Innovación segura


Derechos procesales y salvaguardias

El tratado exige documentar y compartir información relevante sobre los sistemas de IA con las personas afectadas, para permitirles cuestionar las decisiones y el uso del sistema. También se establece que se debe proporcionar la posibilidad de presentar quejas ante autoridades competentes y ofrecer garantías procesales.

Gestión de Riesgos:

Los estados deben realizar evaluaciones de riesgo e impacto de los sistemas de IA sobre derechos humanos, democracia y estado de derecho, y tomar medidas preventivas. Las autoridades pueden imponer prohibiciones o moratorias sobre ciertas aplicaciones de IA consideradas riesgosas.

Aplicación del Tratado:

El tratado cubre el uso de IA tanto por autoridades públicas como por actores privados que actúen en su nombre. Los estados tienen flexibilidad para cumplir con las disposiciones del tratado respetando sus obligaciones internacionales.

Supervisión:

Se establece un mecanismo de seguimiento a través de la Conferencia de las Partes, compuesta por representantes oficiales que evaluarán la implementación del tratado y promoverán la cooperación con las partes interesadas, incluyendo audiencias públicas sobre la aplicación del tratado.

¿Cómo saber si lo que lees lo ha escrito una IA?

Peterson, Jake. «How to Tell If What You’re Reading Was Written By AI». Lifehacker, 12 de agosto de 2024. https://lifehacker.com/tech/how-to-tell-if-what-youre-reading-was-written-by-ai.

Desde que ChatGPT introdujo la IA generativa en 2022, ha quedado claro que ya no se puede confiar en que todo lo que lees fue escrito por un humano. La IA puede generar textos de manera rápida y convincente, pero ¿cómo puedes estar seguro de que no proviene de un algoritmo?

Aunque algunos han adoptado esta tecnología, otros la rechazan. Incluso medios como CNET y G/O Media han enfrentado críticas por publicar contenido generado por IA debido a su calidad deficiente.

Los modelos de lenguaje, como GPT, no son conscientes ni inteligentes; simplemente predicen secuencias de palabras basadas en grandes conjuntos de datos. No obstante, existen señales que pueden delatar un texto generado por IA.

  1. Uso de palabras y frases comunes: Las IA suelen repetir ciertas palabras como «explorar», «destacar» o «testimonio». Aunque son válidas, el uso frecuente de estas puede ser una señal de texto generado por IA.
  2. Estilo de escritura: La IA tiende a usar un lenguaje grandilocuente y repetitivo, con descripciones floridas que no suelen aportar profundidad a los argumentos.
  3. Verificación de hechos y corrección: La IA puede cometer errores al «alucinar» hechos, generando información incorrecta. Además, los textos de IA suelen ser perfectos en cuanto a gramática, lo cual puede ser otra señal.

Aunque existen detectores de textos generados por IA, no siempre son confiables. La mejor manera de identificar un texto escrito por IA sigue siendo el análisis detallado.

Los chatbots de IA siguen demasiado centrados en el inglés y en la cultura occidental

«Lost in translation: AI chatbots still too English-language centric, Stanford study finds | ZDNET». Accedido 6 de septiembre de 2024. https://www.zdnet.com/article/lost-in-translation-ai-chatbots-still-too-english-language-centric-stanford-study-finds/#ftag=RSSbaffb68.

Las soluciones de IA, incluidos los chatbots, pueden carecer de la diversidad global necesaria para atender a usuarios internacionales. Un estudio reciente de la Universidad de Stanford encontró que muchos de los grandes modelos de lenguaje actuales tienden a favorecer «valores y gustos centrados en Occidente».

La investigación dirigida por Diyi Yang, profesora asistente en Stanford y parte del Instituto de IA Centrada en el Ser Humano de Stanford (HAI), señalan que los intentos de «alinear» estos modelos con los valores de los usuarios a menudo fallan.

Aunque se realizan esfuerzos para adaptar los modelos a los usuarios previstos, esto puede introducir sesgos que comprometen la calidad de las respuestas de los chatbots. En teoría, la alineación debería ser universal y permitir que los modelos sean más útiles para una variedad de usuarios en todo el mundo. Sin embargo, los anotadores que adaptan conjuntos de datos en diferentes regiones pueden malinterpretar estos instrumentos.

El mercado global de chatbots de IA está en rápida expansión y se espera que alcance los 67 mil millones de dólares para 2033. Más del 50% de las empresas se espera que inviertan más en el desarrollo de chatbots que en aplicaciones móviles tradicionales. Sin embargo, muchos idiomas y comunidades siguen siendo desatendidos por estas tecnologías.

El estudio de Stanford también destacó que los modelos de lenguaje suelen estar basados en las preferencias de sus creadores, que generalmente provienen de países de habla inglesa. Los modelos deben reflejar el contexto social de las comunidades a las que sirven, lo que implica variaciones en gramática, temas y sistemas de valores.

Los investigadores recomiendan aumentar la conciencia sobre la diversidad global al:

  1. Reconocer que la alineación de los modelos no es una solución universal.
  2. Fomentar la transparencia en las decisiones de diseño de los modelos de lenguaje.
  3. Buscar conjuntos de datos multilingües para mejorar el rendimiento en diversas lenguas.
  4. Trabajar estrechamente con usuarios locales para superar las deficiencias culturales o lingüísticas.

Es fundamental realizar pruebas extensivas con usuarios locales antes de la implementación completa, y ofrecer opciones de selección de idioma para mejorar la experiencia del usuario.

El profesorado de enseñanza superior depende cada vez más del material didáctico digital

News, E. I. N., y Media Contact. «Survey Results Show U.S. Higher Ed Faculty Increasingly Reliant on Digital Course Materials». EIN News, 5 de septiembre de 2024. https://www.einnews.com/pr_news/740456548/survey-results-show-u-s-higher-ed-faculty-increasingly-reliant-on-digital-course-materials.

Texto completo

Tres cuartas partes del profesorado de educación superior en los EE. UU. imparten al menos un curso totalmente presencial, en comparación con el 40% que enseña completamente en línea o el 23% que combina componentes presenciales y en línea. Estos resultados provienen de la encuesta más reciente de Bay View Analytics, realizada a más de 3,400 docentes de educación superior en EE. UU.

Aunque la mayoría de los cursos son presenciales, esta proporción está muy por debajo del 96% del profesorado que enseñaba de manera completamente presencial antes de la pandemia de COVID-19. Esta relación entre cursos presenciales, en línea y combinados se ha mantenido sin cambios respecto al año pasado, representando una nueva normalidad en la educación superior. Los resultados de la encuesta también muestran que el uso de libros de texto y las percepciones sobre los materiales de cursos digitales frente a los impresos se mantuvieron estables en comparación con el año anterior, aunque hay una tendencia creciente hacia el uso de opciones de materiales digitales para los estudiantes. Casi todos los libros de texto requeridos se ofrecen en formato digital. Para el año académico 2023-24, solo el 8% de los cursos ofreció exclusivamente un libro de texto impreso, una disminución frente al 12% del año pasado y al 19% del año anterior.

Además, en 2023-24, más de la mitad del profesorado (56%) estaba al tanto de los recursos educativos abiertos (OER, por sus siglas en inglés), que son materiales de enseñanza y aprendizaje gratuitos para usar, adaptar y compartir. El 41% utilizó OER como material obligatorio o suplementario en sus cursos. Aunque la conciencia y el uso de los OER disminuyeron ligeramente en comparación con el año pasado, los niveles siguen siendo superiores o iguales a los observados hace dos años.

Manual de indización en OJS: Buenas prácticas para la región latinoamericana (2ª ed.)

Manual de indización en OJS: Buenas prácticas para la región latinoamericana, 2a. ed. Universidad Nacional Autónoma de México, 2024

Texto completo

En 2020, la Universidad Nacional Autónoma de México asumió como proyecto institucional la creación de un grupo de expertos en metadatos e interoperabilidad de revistas científicas, su objetivo: desarrollar las directrices que guiarían la indización a nivel artículo de la publicación periódica en toda Latinoamérica y el Caribe. Tras dos años de diagnósticos en torno a la situación de las revistas que se editan en la región, nació el Grupo de interoperabilidad y visibilidad para las revistas científicas latinoamericanas, conformado por ocho universidades pertenecientes a la Red de Macrouniversidades de América Latina y el Caribe.

Con la publicación de este Manual de indización en OJS: Buenas prácticas para la región latinoamericana, el Grupo ratifica su compromiso con la expansión y visibilidad de la ciencia que se produce en nuestra región, cuyo contenido comprende las especificaciones mínimas que todo equipo editorial debe tener en cuenta al momento de registrar los datos bibliográficos de cada artículo que será publicado a través de las plataformas Open Journal System (OJS). Para su elaboración, se han tenido en cuenta los OpenAIRE Guidelines for Literature Repositories v. 3, la versión consolidada de las ISBD: Descripción Bibliográfica Internacional Normalizada y el Manual de indización para las bases de datos CLASE y PERIÓDICA.

Las instrucciones contenidas en este manual buscan garantizar la calidad de los metadatos que serán depositados en los índices tradicionales como Web of Science y los de nueva generación, a saber: Dimensions o SciLit; así como en el distribuidor líder del DOI, Crossref. Se pone a disposición un manual sencillo, rápido de consultar y entender, por lo que las instrucciones son muy puntuales y se acompañan por ilustraciones que le muestran al indizador los espacios de la interfaz de OJS 3.0 (y versiones posteriores) donde se registran los metadatos.

Deseamos que este documento se convierta en una herramienta de amplia consulta en nuestra región, sea objeto de debates y mejoras y, sobre todo, que ayude a catapultar la presencia de nuestras revistas científicas en todo el espacio Web.

Transparencia de los datos en los modelos LLM de Inteligencia Artificial

MIT News | Massachusetts Institute of Technology. «Study: Transparency Is Often Lacking in Datasets Used to Train Large Language Models», 30 de agosto de 2024. https://news.mit.edu/2024/study-large-language-models-datasets-lack-transparency-0830.

Un equipo de investigadores del MIT ha desarrollado una herramienta llamada Data Provenance Explorer para mejorar la transparencia en los conjuntos de datos utilizados para entrenar grandes modelos de lenguaje. Esta herramienta permite a los practicantes de IA seleccionar datos adecuados para su modelo, mejorando la precisión y reduciendo el sesgo.

Los investigadores analizaron más de 1,800 conjuntos de datos textuales y descubrieron que más del 70% carecían de información de licencia, mientras que alrededor del 50% contenían errores en los datos de origen. Esto plantea problemas éticos y legales, y puede afectar el rendimiento del modelo, ya que el uso de datos incorrectos o sesgados puede llevar a predicciones injustas.

Data Provenance Explorer genera resúmenes de los creadores, fuentes, licencias y usos permitidos de los conjuntos de datos, ayudando a los investigadores a tomar decisiones más informadas y mejorar la precisión de los modelos en situaciones reales, como evaluaciones de préstamos o consultas de clientes.

Además, el estudio reveló que la mayoría de los creadores de conjuntos de datos se concentran en el norte global, lo que podría limitar las capacidades de los modelos en otras regiones. Los investigadores también notaron un aumento en las restricciones de los conjuntos de datos creados entre 2023 y 2024, debido a preocupaciones sobre su uso comercial no intencionado.

Los investigadores planean expandir su análisis para incluir datos multimodales, como video y audio, y seguir colaborando con reguladores para mejorar la transparencia en el uso de datos.

Clarivate lanza un asistente de investigación para Web of Science con IA Generativa

Web of Science Research Assistant

Ver video

El 4 de septiembre de 2024, Clarivate Plc lanzó el Web of Science Research Assistant, una herramienta impulsada por IA generativa. Esta herramienta permite a los investigadores encontrar artículos clave más rápidamente, gestionar tareas de investigación complejas y visualizar conexiones entre conceptos. Combina una interfaz de chat con el conocimiento acumulado durante 120 años en la colección Web of Science Core Collection.

Según Emmanuel Thiveaud, Vicepresidente Senior de Clarivate, esta herramienta va más allá del descubrimiento de contenido, mejorando la toma de decisiones y proporcionando una comprensión profunda de los campos de investigación. Fue desarrollada en colaboración con la comunidad investigadora para garantizar su calidad y precisión.

El Web of Science Research Assistant ofrece:

  • Búsquedas flexibles: permite realizar búsquedas en lenguaje natural en varios idiomas y descubrir conexiones entre artículos.
  • Tareas guiadas: sugiere cómo mejorar las tareas de investigación con funciones específicas como “Entender un tema” o “Revisión de literatura”.
  • Visualizaciones únicas: permite explorar mapas de tendencias y redes de co-citación.

Este asistente de investigación fue desarrollado en colaboración con bibliotecarios e investigadores y entró en fase de prueba en diciembre de 2023. Clarivate continuará trabajando con la comunidad para mejorar la herramienta.

Tendencias en bibliotecas IFLA 2024

Trend Report 2024: Survey Results
4 September 2024

PDF

El Informe de Tendencias 2024, la IFLA llevó a cabo una encuesta para recopilar perspectivas sobre los impactos de las tendencias identificadas y sus interconexiones. Los resultados de esta encuesta respaldarán la definición de escenarios en el informe completo.

Este informe presenta los resultados de la encuesta de IFLA sobre las tendencias identificadas en la Revisión de Literatura del Informe de Tendencias 2024. Destaca las perspectivas sobre los impactos de diversas tendencias en las sociedades, bibliotecas y la demanda de servicios bibliotecarios a nivel global, por región, nivel de experiencia y tipo de biblioteca. Además, resalta las conexiones más fuertes entre tendencias, especialmente en las prácticas de conocimiento cambiantes, tendencias tecnológicas, la renegociación de la confianza y la equidad digital.

Después de la publicación de la Revisión de Literatura del Informe de Tendencias, IFLA realizó una encuesta a través de listas de correo y redes sociales, con el objetivo de reflexionar sobre las tendencias presentadas y identificar las intersecciones entre ellas que la comunidad considera más probables.

La encuesta ayudará a desarrollar la siguiente fase del informe, que incluirá una serie de escenarios que establecen futuros potenciales para el conocimiento y la información, como base para preparar el futuro.

Las tendencias clave identificadas son:

Las personas buscan conexiones comunitarias, y los espacios para compartir son clave.

Las prácticas de conocimiento están cambiando, lo que ofrece tanto oportunidades como desafíos para la equidad en los sistemas de conocimiento.

La IA y otras tecnologías están transformando la sociedad y cómo creamos, compartimos y utilizamos la información.

La confianza está siendo renegociada, especialmente en los gobiernos y los medios de comunicación.

Las habilidades y capacidades se están volviendo más complejas, pero también esenciales.

Las tecnologías digitales y sus beneficios están distribuidos de manera desigual.

Los sistemas de información están utilizando más recursos, lo que impacta al planeta.

La encuesta estuvo abierta entre el 9 y el 29 de agosto de 2024 y se dividió en dos partes clave. La primera parte se centró en recopilar opiniones sobre cuán positivas o negativas serían las 7 tendencias para:

  1. La sociedad en su conjunto
  2. Las bibliotecas en general
  3. La biblioteca del propio encuestado
  4. La necesidad de las bibliotecas

El objetivo era captar el nivel de optimismo de los encuestados sobre las tendencias, que pueden tener tanto aspectos positivos como negativos. También se buscaba estimular la reflexión sobre la diferencia entre la situación macro (para la sociedad o las bibliotecas en general) y la situación más directa en la biblioteca del encuestado. Al preguntar sobre la necesidad de las bibliotecas, se pretendía entender cómo los encuestados prevén la evolución de la demanda de servicios bibliotecarios.

La segunda parte examinó, para cada tendencia considerada importante, qué tan fuerte era la relación con las otras tendencias. Esto ayudaría a identificar áreas interesantes para definir escenarios.

Además, se recopilaron datos sobre el tipo de encuestado (individuo, asociación/institución o unidad de IFLA), la región donde están ubicados, sus años de experiencia en el campo bibliotecario y el tipo de biblioteca donde trabajan. Esto permite explorar si las prioridades varían entre estos grupos.

En la mayoría de los casos, las preguntas se formularon utilizando una escala de muy positivo (5) a muy negativo (1), o de muy fuertemente conectado (4) a no conectado en absoluto (1). Los encuestados podían optar por no responder, y sus respuestas no fueron consideradas para no influir en los promedios utilizados.