Con las crecientes discusiones en torno a herramientas de inteligencia artificial generativa como ChatGPT, los bibliotecarios se enfrentan ahora a tecnologías de IA accesibles que los estudiantes están utilizando para facilitar sus tareas de investigación y redacción. Los marcos y estándares de alfabetización informacional han ayudado tradicionalmente a los bibliotecarios a planificar sus sesiones de instrucción; sin embargo, estas estructuras no abordan la IA. Han comenzado a surgir numerosos talleres liderados por bibliotecarios para ayudar a los estudiantes a crear indicaciones para chats, verificar la información proporcionada por ChatGPT y usar herramientas de IA de manera crítica. Aunque se ha iniciado cierta discusión sobre el Framework for Information Literacy de la ACRL y el lugar que ocupa la IA dentro de él, proponemos que se necesita un nuevo marco para abordar todas las complejidades de la inteligencia artificial. Este documento tiene como objetivo informar sobre entrevistas realizadas a bibliotecarios especializados en instrucción sobre alfabetización en IA. A partir del análisis de estas entrevistas, identificaremos los principales temas y preocupaciones relacionadas con la IA y desarrollaremos un marco sólido para la alfabetización en IA. Los lectores de este documento deberían obtener una mejor comprensión del papel de la alfabetización en IA dentro de la instrucción en alfabetización informacional y podrán utilizar una estructura rigurosa para planificar sus propias intervenciones.
Tras realizar 15 entrevistas a bibliotecarios de Canadá y Estados Unidos, los autores concluyeron que, aunque el 67 % de los bibliotecarios han enseñado contenido relacionado con IA en el último año, la mayoría no utilizó el Framework for Information Literacy in Higher Education de la ACRL para diseñar sus sesiones de instrucción. Además, los autores identificaron varias habilidades emergentes que otros marcos de alfabetización informacional no representan en detalle, como:
• La ingeniería de prompts, una entre muchas habilidades necesarias para usar herramientas de IA. • La evaluación crítica que va más allá de la autoridad y analiza aspectos éticos y sesgos. • La comprensión de las implicaciones éticas, como las relacionadas con el trabajo y el medio ambiente. • Nuevas formas de atribuir la creación y edición de contenido.
El marco propuesto para la alfabetización en IA se centrará en los siguientes aspectos:
Conocer los principios básicos de la IA.
Comprender las diferencias fundamentales entre los tipos de IA.
Experimentar con herramientas de IA.
Revisar los resultados y productos generados por las herramientas de IA.
Evaluar el impacto de la IA a escala social.
Participar activamente en el discurso sobre la IA.
En una era dominada por los videos cortos, las recomendaciones de influencers y la inspiración visual, los motores de búsqueda tradicionales ya no son los guardianes exclusivos de la información. Visual, auténtico y centrado en la comunidad: los hábitos de búsqueda de la Generación Z están transformando el descubrimiento en línea y la visibilidad de las marcas. Cuando un amante de la comida de la Generación Z busca el mejor restaurante de sushi en la ciudad, es más probable que recurra a TikTok en lugar de Google.
La Generación Z está transformando la forma en que se realiza la búsqueda y el descubrimiento de información en línea, alejándose de los motores de búsqueda tradicionales como Google para preferir plataformas visuales y comunitarias como TikTok, Pinterest e Instagram. Estos jóvenes, que han crecido en un entorno digital, buscan experiencias más inmediatas, auténticas y personalizadas, apoyándose en recomendaciones de influencers y contenido generado por usuarios para tomar decisiones sobre productos, servicios y lugares.
Plataformas como TikTok se destacan como motores de búsqueda visuales, donde los usuarios encuentran respuestas rápidas y originales a través de videos cortos, mientras que Pinterest ofrece inspiración visual en temas como moda, estilo de vida y bricolaje. Además, YouTube y Reddit están ganando popularidad como espacios para descubrimientos más profundos y detallados, gracias a su contenido auténtico y generado por la comunidad.
La búsqueda visual es clave para la Generación Z, que valora la inmediatez y la claridad que ofrecen los videos frente al texto. Esta generación también prioriza la autenticidad y la personalización, confiando en recomendaciones que se sienten como consejos de pares más que en mensajes publicitarios tradicionales. Plataformas como TikTok y Reddit prosperan en este entorno al facilitar contenido centrado en la comunidad, que aporta credibilidad y confianza.
Para adaptarse a estos cambios, las marcas deben diversificar sus estrategias de descubrimiento. Esto implica crear contenido nativo para redes sociales, colaborar con influencers que conecten genuinamente con sus audiencias y expandir sus campañas de publicidad en plataformas como YouTube y Pinterest. De esta forma, pueden captar la atención de un público cada vez más dinámico y fragmentado.
El futuro de la búsqueda está evolucionando hacia un enfoque más visual, auténtico y centrado en la comunidad. Las marcas que logren comprender y adaptarse a estos nuevos hábitos de descubrimiento estarán mejor posicionadas para alcanzar y conectar con la Generación Z en un panorama digital en constante cambio.
A medida que avanzamos hacia 2025, el sector bibliotecario sigue experimentando una rápida evolución. El informe Future of Libraries analiza las transformaciones que las bibliotecas están llevando a cabo para adaptarse a las necesidades cambiantes de la sociedad.
El informe, basado en una encuesta global a más de 400 profesionales de bibliotecas, ofrece una visión rica sobre cómo se están preparando las bibliotecas para enfrentar estos desafíos y oportunidades, y tiene como objetivo Inspirar y guiar a los profesionales en la gestión de bibliotecas dentro de un panorama en constante cambio.
Tendencias principales destacadas en el informe:
Accesibilidad e inclusividad
Preservación cultural e intelectual compartida
Estrategias integrales de sostenibilidad
Empoderamiento cívico y alfabetización mediática
Herramientas digitales y formación
Desarrollo de la fuerza laboral
Accesibilidad e inclusividad
Las bibliotecas están evolucionando hacia centros de aprendizaje accesibles e inclusivos, adaptando tanto sus espacios físicos como su programación para comunidades diversas. Esto incluye diseño centrado en las personas, herramientas como lectores de pantalla y traducción en lengua de señas, y la integración de principios de equidad, diversidad e inclusión (EDI) en sus estrategias. Ejemplos como el rediseño de la sucursal Cossitt en Memphis demuestran cómo la colaboración comunitaria puede transformar espacios para empoderar a los usuarios y generar impacto económico. Para lograrlo, las bibliotecas deben ir más allá de declaraciones simbólicas, adoptando acciones concretas que promuevan un cambio sostenible y equitativo.
2. Preservación cultural e intelectual compartida
Las bibliotecas del futuro priorizarán la preservación cultural e intelectual compartida, involucrando a las comunidades en la gestión y conservación de su patrimonio. El uso de tecnologías digitales facilitará esta tarea, pero será clave adoptar enfoques decoloniales, como involucrar a comunidades indígenas en decisiones sobre conservación, acceso y clasificación. Ejemplos como el sistema de clasificación Brian Deer en la Universidad de Columbia Británica demuestran cómo los sistemas inclusivos y culturalmente adecuados pueden respetar las identidades y protocolos comunitarios. Las bibliotecas deben facilitar diálogos respetuosos y actuar como guardianes responsables de materiales sensibles.
3. Estrategias integrales de sostenibilidad
Las bibliotecas se posicionarán como líderes en sostenibilidad holística, integrando esfuerzos ambientales con justicia social, igualdad y bienestar comunitario. Más allá de diversificar ingresos, se alinearán con los Objetivos de Desarrollo Sostenible (ODS) de la ONU, adoptando estrategias que consideren a las personas, la prosperidad y el planeta. A través de enfoques locales, actuarán como laboratorios vivos, promoviendo prácticas sostenibles y fomentando el aprendizaje colectivo. La construcción de bibliotecas verdes y la sostenibilidad arquitectónica serán pilares clave en este esfuerzo.
4. Empoderamiento cívico y alfabetización mediática
Las bibliotecas se consolidarán como espacios neutrales para el empoderamiento cívico y la alfabetización mediática, fomentando la democracia y combatiendo la desinformación. Su credibilidad las posiciona como lugares inclusivos que reúnen a personas de diversas perspectivas y trasfondos. En un contexto de polarización social y algoritmos que refuerzan creencias, las bibliotecas ofrecen contenido confiable que promueve decisiones críticas informadas. Además, enfrentan el desafío y la oportunidad de abordar los riesgos asociados con las redes sociales y la seguridad en internet, posicionándose como guardianas de información relevante y controlada.
5. Herramientas digitales y formación
Las bibliotecas se consolidarán como portales clave para la tecnología y la formación, facilitando el acceso a herramientas avanzadas como la inteligencia artificial y blockchain. Ofrecerán recursos de aprendizaje asistidos por IA y podrán actuar como centros de prueba. Además, las alianzas con organizaciones externas permitirán superar barreras tecnológicas, como en casos donde bibliotecas apoyan a emprendedores locales con mentorías y formación técnica. Estas iniciativas refuerzan su rol como espacios accesibles y de apoyo en la adopción de nuevas tecnologías.
6. Desarrollo de la fuerza laboral
Las bibliotecas deben seguir invirtiendo en el desarrollo de sus equipos, cuyo rol ha evolucionado para incluir tareas como gestión tecnológica y social media. Es clave ofrecer oportunidades de capacitación para adaptarse a cambios tecnológicos, ambientales y sociales, además de fomentar su crecimiento personal y profesional. El 61% de las bibliotecas planea implementar programas de formación este año, mientras que otras priorizan mejorar beneficios y salarios. También se busca rediseñar los espacios de trabajo para fomentar la creatividad y la innovación en sus equipos.
Hulbert, Ioana G., Deirdre Harkins, and Mark McBride. «Charting the Course: Case Studies in OER Sustainability.» Ithaka S+R . Last Modified 22 January 2025.
Un estudio financiado por la Fundación William y Flora Hewlett evaluó el impacto y la implementación de programas de REA en instituciones públicas de educación superior en Estados Unidos. La investigación abordó cuatro preguntas clave:
¿Qué importancia se da a la sostenibilidad de los REA en las instituciones de educación superior?
¿Qué características comparten las iniciativas exitosas de REA?
¿Cómo pueden las instituciones pasar de proyectos piloto a una adopción más amplia de REA?
¿Qué factores favorecen o dificultan la sostenibilidad de las iniciativas?
El estudio incluyó una revisión de la literatura existente y 12 entrevistas con líderes de REA en cuatro estados, identificando los siguientes hallazgos clave:
No hay un modelo único de sostenibilidad: La mayoría de las iniciativas dependen significativamente, a veces exclusivamente, de financiamiento estatal. Algunas agencias estatales actúan como coordinadoras, mientras que otras funcionan como entidades de financiamiento y supervisión.
Alineación con prioridades institucionales: Los programas de REA prosperan cuando se integran con objetivos institucionales más amplios, como equidad, acceso e innovación educativa, y no solo como herramientas de ahorro.
Rol central de las bibliotecas: Los bibliotecarios lideran frecuentemente las iniciativas locales de REA, participan en comités estatales y proporcionan apoyo especializado, incluso profesionalizando este rol en algunos casos.
Áreas de mejora en el uso de REA: Aunque estudiantes y profesores tienen opiniones positivas sobre los REA, persisten desafíos como:
Clarificar si los REA deben ser de bajo o nulo costo.
Marcar cursos que usan REA.
Estandarizar la organización y el acceso a los REA.
Mejorar la calidad de REA en ciertas disciplinas.
Incentivar a los docentes para compartir sus REA creados.
Diversidad y compromiso estudiantil: Adaptar los materiales a las identidades y experiencias de los estudiantes fomenta su sentido de pertenencia y su participación activa en el aprendizaje.
Este enfoque integral busca garantizar la sostenibilidad y maximizar el impacto de los programas de REA en la educación superior.
Francisco Javier Martín Prieto presenta El viaje de Marcelo, una obra híbrida que combina elementos de cuento real, relato fantástico, ensayo novelado y tratado breve. El libro es un alegato en favor de la vida que invita a reflexionar sobre cómo vivimos y actuamos, además de ser una advertencia para no dejar sueños sin cumplir antes de llegar al final del camino. La entrevista aborda temas como su trayectoria literaria, las inspiraciones para la obra, y el proceso de escritura. También se destacan las influencias de su formación filosófica, la relevancia de los sueños, y los temas de memoria y tiempo en la vejez.
Ayer 21 de enero de 2025, Trump rescindió la Orden Ejecutiva 14084 de Biden, que promovía las artes, las humanidades y los servicios de museos y bibliotecas. Esta medida es el primer paso para desmantelar el Instituto de Servicios de Museos y Bibliotecas (IMLS) y eliminar el financiamiento federal para bibliotecas. La acción pone en riesgo el acceso equitativo a los servicios culturales y educativos.
El 21 de enero de 2025, se se informó que una de las primeras acciones de Donald Trump tras asumir nuevamente la presidencia fue anular la Orden Ejecutiva 14084 de Joe Biden, titulada «Promoviendo las Artes, las Humanidades y los Servicios de Museos y Bibliotecas». Esta orden, implementada por Biden, tenía como objetivo apoyar la economía creativa y cultural de Estados Unidos, promoviendo la «equidad, accesibilidad y oportunidades para todos los estadounidenses», con un enfoque en cómo las artes, las humanidades y los servicios de museos y bibliotecas pueden ayudar a las personas a alcanzar su máximo potencial.
La decisión de Trump de revocar esta orden es vista como un primer paso hacia la desmantelación de la Institute of Museum and Library Services (IMLS), la agencia federal encargada de proporcionar fondos y apoyo a museos y bibliotecas en todo el país. La IMLS ha sido fundamental en el financiamiento de proyectos y programas que ayudan a las bibliotecas a ofrecer servicios gratuitos y accesibles a comunidades de todo tipo, especialmente en áreas rurales o desatendidas.
Al eliminar este tipo de apoyo, los críticos temen que la revocación de esta orden y la reducción de la financiación federal puedan tener un impacto negativo en la accesibilidad de los servicios bibliotecarios y culturales, limitando el acceso de la población a recursos educativos esenciales y afectando negativamente a las comunidades más vulnerables.
Jones, Nicola. «AI Hallucinations Can’t Be Stopped — but These Techniques Can Limit Their Damage.» Nature 637, no. 778–780 (2025). https://doi.org/10.1038/d41586-025-00068-5
Los desarrolladores tienen trucos para evitar que la inteligencia artificial (IA) invente cosas, pero los modelos de lenguaje grande (LLM, por sus siglas en inglés) todavía luchan por decir la verdad, toda la verdad y nada más que la verdad.
Es bien sabido que todos los tipos de IA generativa, incluidos los grandes modelos de lenguaje (LLM) que hay detrás de los chatbots de IA, se inventan cosas. Esto es a la vez un punto fuerte y un punto débil. Es la razón de su célebre capacidad inventiva, pero también significa que a veces confunden verdad y ficción, insertando detalles incorrectos en frases aparentemente objetivas. «Parecen políticos», dice Santosh Vempala, informático teórico del Georgia Institute of Technology de Atlanta. Tienden a «inventarse cosas y estar totalmente seguros pase lo que pase».
Cuando el informático Andy Zou investiga sobre inteligencia artificial (IA), suele pedir a un chatbot que le sugiera lecturas de fondo y referencias. Pero esto no siempre sale bien. «La mayoría de las veces me da autores distintos de los que debería, o a veces el artículo ni siquiera existe», dice Zou, estudiante de posgrado en la Universidad Carnegie Mellon de Pittsburgh, Pensilvania.
El problema concreto de las referencias científicas falsas está muy extendido. En un estudio realizado en 2024, varios chatbots cometieron errores entre el 30% y el 90% de las veces en las referencias, equivocándose al menos en dos de los casos: el título del artículo, el primer autor o el año de publicación. Los chatbots vienen con etiquetas de advertencia que indican a los usuarios que comprueben dos veces cualquier cosa importante. Pero si las respuestas de los chatbots se toman al pie de la letra, sus alucinaciones pueden provocar graves problemas, como en el caso de 2023 de un abogado estadounidense, Steven Schwartz, que citó casos legales inexistentes en una presentación judicial tras utilizar ChatGPT.
Dado que las alucinaciones de la IA son fundamentales para el funcionamiento de los LLM, los investigadores afirman que eliminarlas por completo es imposible. Sin embargo, científicos como Zou están trabajando en formas de hacer que las alucinaciones sean menos frecuentes y menos problemáticas, desarrollando una serie de trucos que incluyen la comprobación externa de los hechos, la autorreflexión interna o incluso, en el caso de Zou, la realización de «escáneres cerebrales» de las neuronas artificiales de un LLM para revelar patrones de engaño.
Zou y otros investigadores afirman que éstas y otras técnicas emergentes deberían ayudar a crear chatbots que mientan menos o que, al menos, puedan ser inducidos a revelar cuándo no están seguros de sus respuestas. Pero algunos comportamientos alucinatorios podrían empeorar antes de mejorar.
Básicamente, los LLM no están diseñados para arrojar datos. Más bien componen respuestas que son estadísticamente probables, basándose en patrones de sus datos de entrenamiento y en el posterior ajuste mediante técnicas como la retroalimentación de evaluadores humanos. Aunque el proceso de entrenamiento de un LLM para predecir las siguientes palabras probables de una frase se conoce bien, su funcionamiento interno preciso sigue siendo un misterio, admiten los expertos. Tampoco está claro cómo se producen las alucinaciones.
Una de las causas es que los LLM funcionan comprimiendo los datos. Durante el entrenamiento, estos modelos exprimen las relaciones entre decenas de billones de palabras en miles de millones de parámetros, es decir, las variables que determinan la fuerza de las conexiones entre neuronas artificiales. Por tanto, es inevitable que pierdan algo de información cuando construyan las respuestas, es decir, que vuelvan a expandir esos patrones estadísticos comprimidos. «Sorprendentemente, siguen siendo capaces de reconstruir casi el 98% de lo que se les ha enseñado, pero en el 2% restante pueden equivocarse por completo y dar una respuesta totalmente errónea», afirma Amr Awadallah, cofundador de Vectara, una empresa de Palo Alto (California) que pretende minimizar las alucinaciones en la IA generativa.
Algunos errores se deben simplemente a ambigüedades o equivocaciones en los datos de entrenamiento de una IA. Una respuesta infame en la que un chatbot sugería añadir pegamento a la salsa de la pizza para evitar que el queso se deslizara, por ejemplo, se remontó a una publicación (presumiblemente sarcástica) en la red social Reddit.
Los estudios han demostrado que los modelos más recientes son más propensos a responder a una consulta que a evitar responderla, y por tanto son más «ultracrepidarios», o sea, más proclives a hablar fuera de su ámbito de conocimiento, lo que da lugar a errores. Otra categoría de error se produce cuando un usuario escribe hechos o suposiciones incorrectos en las preguntas. Como los chatbots están diseñados para producir una respuesta que se ajuste a la situación, pueden acabar «siguiéndole el juego» a la conversación.
¿Cuál es la gravedad del problema de las alucinaciones? Los investigadores han desarrollado diversas métricas para hacer un seguimiento del problema. Vipula Rawte, que está realizando su doctorado sobre comportamientos alucinatorios de IA en la Universidad de Carolina del Sur en Columbia, por ejemplo, ha ayudado a crear un Índice de Vulnerabilidad a las Alucinaciones, que clasifica las alucinaciones en seis categorías y tres grados de gravedad. Un esfuerzo independiente y abierto ha compilado una tabla de clasificación de alucinaciones, alojada en la plataforma HuggingFace, para seguir la evolución de las puntuaciones de los bots en varios puntos de referencia comunes.
Vectara tiene su propia tabla de clasificación que analiza el sencillo caso de un chatbot al que se le pide que resuma un documento, una situación cerrada en la que es relativamente fácil contar alucinaciones. El esfuerzo muestra que algunos chatbots confabulan hechos hasta en un 30% de los casos, inventándose información que no está en el documento dado. Pero, en general, las cosas parecen mejorar. Mientras que el GPT-3.5 de OpenAI tenía una tasa de alucinación del 3,5% en noviembre de 2023, en enero de 2025, el modelo posterior GPT-4 de la empresa obtuvo un 1,8% y su o1-mini LLM sólo un 1,4% (véase «Los mayores mentirosos»).
No confíes, verifica. Hay muchas formas sencillas de reducir las alucinaciones. Un modelo con más parámetros que ha sido entrenado durante más tiempo tiende a alucinar menos, pero esto es caro computacionalmente e implica compensaciones con otras habilidades del chatbot, como la capacidad de generalizar8. El entrenamiento con conjuntos de datos más grandes y limpios ayuda, pero hay límites en cuanto a los datos disponibles.
Los desarrolladores también pueden utilizar un sistema independiente, que no haya sido entrenado del mismo modo que la IA, para contrastar la respuesta de un chatbot con una búsqueda en Internet. El sistema Gemini de Google, por ejemplo, tiene una opción para el usuario llamada «respuesta de doble comprobación», que resalta partes de la respuesta en verde (para mostrar que ha sido verificada por una búsqueda en Internet) o en marrón (para contenido controvertido o incierto). Esto, sin embargo, es caro computacionalmente y lleva tiempo, dice Awadallah. Y estos sistemas siguen alucinando, dice, porque Internet está lleno de datos erróneos.
Lo más desconcertante de los chatbots es que pueden parecer tan seguros cuando se equivocan. A menudo no hay pistas obvias para saber cuándo un chatbot está especulando alocadamente fuera de sus datos de entrenamiento. Los chatbots no tienen una memoria perfecta y pueden recordar cosas mal. «Eso nos pasa a nosotros, y es razonable que también le ocurra a una máquina», dice Vempala.
Ai2 ScholarQA, una herramienta experimental basada en inteligencia artificial para facilitar las revisiones de literatura científica. Desarrollada por el Instituto Allen para la Inteligencia Artificial (Ai2), esta herramienta permite a los investigadores formular preguntas científicas que requieren la comparación y el resumen de múltiples documentos. Ai2 ScholarQA utiliza un modelo avanzado de IA, Claude Sonnet 3.5, y un corpus de artículos de acceso abierto para proporcionar respuestas detalladas y contextualizadas. Aunque la herramienta puede ser menos coherente en algunos casos debido a su enfoque en la evidencia, busca mejorar la eficiencia en las revisiones de literatura. Ai2 planea abrir el código fuente de la funcionalidad principal y continuar explorando formas de personalizar y mejorar el apoyo a la investigación científica con IA.
Enrique Muriel-Torrado, doctor en Documentación por la Universidad de Granada, ha desarrollado su carrera en Brasil, motivado por las oportunidades de investigación y el interés en distintas culturas académicas. Especializado en vigilancia tecnológica y gestión de la información, ha observado diferencias en la aplicación de tecnologías entre España y Brasil. Enrique destaca los avances recientes en herramientas digitales que mejoran la eficiencia en la investigación. Considera la vigilancia tecnológica crucial para anticipar tendencias, lo que ha aplicado exitosamente en proyectos de I+D+i, enfrentando desafíos como la rápida evolución tecnológica. Además, predice que la inteligencia artificial será clave en el futuro de la gestión de la información.
El informe de GSMA «State of Mobile Internet Connectivity 2024» revela que, aunque el acceso a internet móvil sigue creciendo globalmente, 3.45 mil millones de personas (43% de la población mundial) aún no lo utilizan. Si bien 4.6 mil millones de personas (57% de la población) ya usan internet móvil, el crecimiento de nuevos usuarios ha disminuido. La brecha de uso es más amplia que la de cobertura, con 3.1 mil millones de personas viviendo en áreas con cobertura pero sin utilizar internet móvil, principalmente debido a la falta de dispositivos asequibles y habilidades digitales.
La región menos conectada es África Subsahariana, con solo el 27% de la población utilizando servicios de internet móvil. Se estima que cerrar esta brecha de uso aportaría 3.5 billones de dólares al PIB global entre 2023 y 2030, beneficiando principalmente a los países de ingresos bajos y medios. Para lograr un acceso universal, se necesitan 418 mil millones de dólares en infraestructura.
Las principales barreras en los países de ingresos bajos y medios incluyen la asequibilidad de dispositivos y la falta de habilidades digitales, afectando especialmente a los más pobres. A pesar de los avances, persisten preocupaciones sobre seguridad, costos y experiencia de conectividad. GSMA enfatiza la necesidad de colaboración entre gobiernos, operadores móviles y organizaciones internacionales para superar estas barreras y promover una inclusión digital significativa.
El último informe describe la brecha general de conectividad, que es la combinación de las brechas de uso y cobertura, y sus hallazgos incluyen:
4.6 mil millones de personas (57% de la población mundial) ahora usan internet móvil en sus propios dispositivos.
350 millones de personas (4% de la población mundial) viven en áreas remotas sin redes de internet móvil (la brecha de cobertura).
3.1 mil millones de personas (39% de la población mundial) viven en áreas con cobertura de internet móvil, pero no lo utilizan (la brecha de uso). La brecha de uso es nueve veces mayor que la brecha de cobertura.
La región menos conectada a nivel global es África Subsahariana, donde solo el 27% de la población utiliza servicios de internet móvil, lo que deja una brecha de cobertura del 13% y una brecha de uso del 60%.