Cómo los padres gestionan el tiempo frente a pantallas de sus hijos

Pew Research Center. How Teens and Parents Approach Screen Time. Pew Research, 2025

El estudio de Pew Research analiza las actitudes y comportamientos respecto al uso de pantallas entre adolescentes (13 a 17 años) y sus padres en Estados Unidos. Para ello, encuestaron a 1 453 adolescentes y sus padres entre el 26 de septiembre y el 23 de octubre de 2023, usando muestras ponderadas para ser representativas por edad, género, etnia e ingresos.

Desde YouTube hasta smartphones y tablets, la tecnología forma parte de la vida de los niños. Los chatbots de IA también forman parte de esta dinámica. Si bien los padres se esfuerzan por gestionar el tiempo de pantalla, el 42 % afirma que podría hacerlo mejor.

Los resultados muestran que la mayoría de los padres están preocupados por el impacto del tiempo de pantalla en la salud física, mental y social de sus hijos. Sin embargo, también reconocen los beneficios educativos y de entretenimiento que ofrecen las tecnologías digitales.

Uno de los hallazgos principales es que el 66 % de los padres afirman establecer límites claros sobre el tiempo que sus hijos pueden dedicar a pantallas, especialmente a videojuegos y redes sociales. No obstante, existe una notable variabilidad según la edad de los niños: los padres de adolescentes son menos estrictos que los de niños pequeños. Además, un 54 % de los padres confiesa que sus hijos superan ocasionalmente esos límites, lo que refleja la dificultad de mantener el control constante en un entorno tecnológico cada vez más ubicuo.

El informe también destaca el papel de los dispositivos móviles: el 80 % de los niños mayores de 10 años posee o utiliza habitualmente un teléfono inteligente. Muchos padres se muestran ambivalentes ante ello: por un lado, valoran la posibilidad de mantenerse en contacto; por otro, les preocupa la exposición a contenidos inapropiados y la dependencia digital. En respuesta, algunos adoptan medidas como el control parental, la supervisión de redes sociales o la limitación del acceso nocturno a los dispositivos.

En cuanto a la percepción general, el 72 % de los padres considera que la tecnología digital es una herramienta esencial para el aprendizaje, pero el 61 % teme que esté afectando negativamente la atención y las habilidades sociales de los niños. La mayoría coincide en que enseñar un uso equilibrado y responsable es tan importante como establecer límites temporales.

Una revisión sistemática de la literatura sobre la alfabetización en inteligencia artificial generativa en la enseñanza

Joonhyeong Park. A systematic literature review of generative artificial intelligence (GenAI) literacy in schools, Computers and Education: Artificial Intelligence, 2025,

Texto completo

Este estudio realiza una revisión sistemática de la literatura sobre la inteligencia artificial generativa (Generative AI, GenAI), con especial énfasis en su dimensión ética y en las oportunidades y desafíos asociados a su adopción en distintos ámbitos. Se parte de la idea de que, aunque el discurso ético sobre la inteligencia artificial ha crecido recientemente, las investigaciones específicas sobre GenAI están dispersas entre dominios y a menudo carecen de un marco integrado que aborde los retos propios de los modelos generativos. La revisión abarca publicaciones entre 2021 y 2025 y busca identificar patrones, vacíos y tendencias emergentes en torno al uso responsable de GenAI.

Uno de los hallazgos principales es que los estudios existentes tienden a enfocarse en problemas particulares —como sesgos, desinformación o privacidad—, pero sin ofrecer una visión holística de las interacciones entre estos desafíos ni proponer marcos éticos unificados específicos para GenAI. También se observa una escasez de recomendaciones políticas bien fundamentadas basadas en evidencia sistemática, lo que dificulta la regulación y orientación normativas del despliegue ético de estas tecnologías.

En cuanto a las oportunidades, el artículo destaca que GenAI puede facilitar la innovación, la inclusión y la gobernanza responsable si se aprovecha con criterios éticos y conscientes del contexto sectorial. Por ejemplo, puede servir para apoyar la generación de contenido, la personalización o el descubrimiento de conocimiento, siempre que se establezcan salvaguardas claras. Sin embargo, los desafíos son múltiples: la autoría incierta de las creaciones generadas, la responsabilidad en caso de daños, la transparencia en los procesos internos, el riesgo de sesgos ocultos y la diseminación de información incorrecta o manipulada son temas que requieren un tratamiento más riguroso.

El apéndice del estudio presenta un análisis detallado de 51 investigaciones revisadas sistemáticamente sobre la alfabetización en inteligencia artificial generativa (GenAI). La mayoría de los estudios se centraron en el ámbito de la educación superior, aunque también se incluyeron experiencias en educación primaria y secundaria. En cuanto al enfoque metodológico, predominaron los estudios cuantitativos, seguidos de los mixtos y, en menor medida, los cualitativos. Aproximadamente dos tercios de las investigaciones no implementaron intervenciones directas, mientras que el resto aplicó programas formativos o talleres experimentales con herramientas de IA generativa. Los dominios académicos abordados fueron variados: desde la escritura, la alfabetización digital y las disciplinas STEM, hasta el turismo, la salud o la educación moral.

En términos de competencias en alfabetización GenAI, los resultados globales muestran un panorama desigual. Casi todos los estudios (el 92,2 %) evidencian que los participantes poseen una comprensión general adecuada de lo que es la GenAI y cómo funciona, pero solo algo más de la mitad (54,9 %) demuestran capacidad para usarla de manera efectiva. Un 66,7 % de los trabajos reflejan cierto desarrollo en la evaluación e integración crítica de los resultados generados, mientras que la misma proporción (54,9 %) aborda explícitamente cuestiones éticas relacionadas con su uso. En cuanto a las actitudes, el 82,3 % de los estudios señala que los estudiantes mantienen una disposición positiva y entusiasta hacia la IA generativa, especialmente cuando perciben beneficios tangibles para el aprendizaje.

El contenido de las investigaciones muestra que los estudiantes suelen utilizar la GenAI principalmente para tareas de redacción, generación de ideas, traducción, programación y resolución de problemas académicos, valorando su capacidad para ahorrar tiempo y mejorar la productividad. No obstante, muchos presentan dificultades para evaluar críticamente los resultados y carecen de conocimientos sólidos sobre ingeniería de prompts, lo que limita la eficacia de sus interacciones con las herramientas. La comprensión ética y técnica también resulta limitada: persisten dudas sobre la fiabilidad de los resultados, la privacidad de los datos, los sesgos algorítmicos y la autoría de los contenidos generados.

Los estudios que aplicaron intervenciones o programas educativos muestran mejoras significativas en la capacidad de análisis crítico, la confianza en el uso de la tecnología y la conciencia ética. Se observa que la exposición guiada a la GenAI, junto con la reflexión sobre su uso, potencia la comprensión de sus limitaciones y fortalece la responsabilidad digital. Por el contrario, en contextos donde la IA se usa sin orientación pedagógica, tienden a reproducirse usos superficiales o poco críticos, basados en la confianza excesiva en la herramienta.

Finalmente, el artículo subraya lagunas metodológicas, conceptuales y empíricas en la literatura. Plantea que futuros estudios deberían desarrollar marcos éticos específicos para GenAI, profundizar en estudios empíricos del impacto en contextos reales, y generar guías y políticas fundamentadas que orienten su uso responsable. En resumen, esta revisión sistemática contribuye a organizar el conocimiento disperso sobre GenAI en el ámbito ético y ofrece una base desde la cual avanzar hacia un uso más consciente y regulado de estas tecnologías.

La censura de libros en Estados unidos podría estar generando un efecto contrario al deseado

Zeisler, A. (2025, 6 de octubre). The dumbing down of America, one banned book at a time. Salon. https://www.salon.com/2025/10/06/the-dumbing-down-of-america-one-banned-book-at-a-time

Se aborda el creciente fenómeno de la censura en las bibliotecas escolares de EE. UU., destacando cómo las prohibiciones de libros se han convertido en una práctica sistemática respaldada por grupos de presión financiados por la derecha.

A pesar de que la mayoría de los estadounidenses se oponen a estas prohibiciones, los esfuerzos por restringir el acceso a libros que abordan temas de raza, identidad de género y sexualidad continúan en aumento. Zeisler señala que, en el ciclo escolar 2024–25, se registraron 6.870 libros prohibidos en 23 estados y 87 distritos escolares públicos, según el informe de PEN America. Estos datos evidencian una tendencia preocupante hacia la normalización de la censura en el ámbito educativo.

La autora también critica la administración de Trump 2.0 por revertir políticas federales que protegían el acceso a libros en las escuelas y por eliminar agencias clave como la Corporación para la Difusión Pública y el Instituto de Servicios de Museos y Bibliotecas. Zeisler describe este fenómeno como un «Ed Scare» (miedo educativo), una referencia a la era del macartismo, y advierte que la censura no solo limita el acceso a la información, sino que también busca moldear la educación hacia una forma de adoctrinamiento ideológico.

A pesar de la creciente presión, el artículo destaca que muchos jóvenes están redescubriendo los libros prohibidos como una forma de resistencia, lo que sugiere que la censura podría estar generando un efecto contrario al deseado. Zeisler concluye que la lucha por la libertad de acceso a la información es esencial para la democracia y la educación crítica en los Estados Unidos.

Impulso europeo a los datos abiertos y su continuidad en el programa Digital Europe

European Health and Digital Executive Agency; European Commission (2025). Public open data: CEF Telecom projects at a glance. Publications Office of the European Union. ISBN 978-92-95239-44-9.

Texto completo

Se ofrece una visión general de los proyectos de datos públicos abiertos financiados en el marco del programa CEF Telecom (2014-2020) y los sectores o ámbitos en los que se desarrolló cada proyecto, mostrando algunos proyectos y su impacto. Además, esta ficha informativa tiene por objeto describir cómo el programa Europa Digital tomó el relevo y apoya los espacios comunes europeos de datos. Los datos públicos abiertos son un servicio que facilita y armoniza el acceso a conjuntos de datos creados y gestionados por organismos públicos de toda la UE. El objetivo general es la mejora de las infraestructuras de servicios digitales y el desarrollo de productos y servicios de información basados en la reutilización y la combinación de datos en poder de actores públicos y comerciales de toda la UE. Los datos públicos son toda la información que los organismos públicos producen, recopilan o pagan. Esta información es importante para su reutilización en nuevos productos y servicios. Al abrir los datos públicos, se promovió la participación de los ciudadanos y los expertos en la vida política y social.

¿Está la IA erosionando silenciosamente nuestra capacidad de pensar? Y cómo los libros pueden salvarla.

Is AI Quietly Eroding Our Ability to Think? And How Books Can Save It.” Magazine – 1000 Libraries, 8 de septiembre de 2025. https://magazine.1000libraries.com/is-ai-quietly-eroding-our-ability-to-think-and-how-books-can-save-it/

El uso excesivo de la inteligencia artificial (IA) para responder preguntas y sintetizar información puede debilitar nuestra capacidad de pensamiento crítico. Según el autor, cuando confiamos en IA para procesar, analizar y explicar datos en lugar de hacerlo nosotros mismos, perdemos la oportunidad de profundizar en el razonamiento, cuestionar suposiciones o generar nuevas ideas.

La corteza prefrontal, o el área del cerebro necesaria para la toma de decisiones, la resolución de problemas y la regulación emocional, está mucho más desarrollada en los humanos que en los animales. Es el factor distintivo, la diferencia, y significa que somos los pensadores críticos más destacados del mundo.

976 / 5.000

La inteligencia artificial se ha convertido en una especie de fantasma, una palabra de moda que circula en redes sociales e internet. ChatGPT, en particular, ha sido noticia tras su lanzamiento al público. La gente ve el servicio como una oportunidad: puede planificar vacaciones, ayudarte a emprender y a gestionar un sistema legal complejo. ChatGPT es inteligente, si por inteligente nos referimos a que tiene acceso a más información de la que el cerebro humano puede procesar, y es capaz de dar respuesta a casi todo. ¿Suena a sueño, verdad?

Como cualquier otra parte del cuerpo, el cerebro es un músculo que necesita ser ejercitado y desarrollado. Necesitamos aprender a usarlo; requiere ejercicio y desafío. El problema que se pronostica con la IA es que podría erosionar nuestras habilidades de pensamiento crítico. Esto no es solo una hipótesis; estudios recientes han confirmado que una mayor dependencia de la IA está relacionada con una disminución de las habilidades de pensamiento crítico.

La situación empeora cuando pensamos en las generaciones más jóvenes, que se han vuelto especialmente dependientes de la tecnología. Sí, ChatGPT puede encontrarte excelentes restaurantes en Roma, pero también puede ayudarte con tus deberes, decirte si deberías romper con tu marido y pensar por ti sin tener la experiencia ni los matices necesarios para darte respuestas críticas.

No se trata de ser derrotistas; no es un tema sin esperanza. Por supuesto, la IA puede usarse como herramienta si se maneja correctamente. Pero lo más importante es que existe una actividad que puede combatir esta descarga cognitiva y obligarnos a, de forma gratificante, ejercitar un poco nuestro cerebro: la lectura.

Para contrarrestar esa erosión intelectual, el texto aboga por la lectura de libros como práctica que restaura y fortalece la mente humana. Leer exige tiempo, concentración, reflexión, confrontar ideas complejas y construir conexiones propias entre conceptos —actividades que la IA no “realiza” de la misma forma. En ese sentido, el autor sostiene que los libros funcionan como entrenamiento mental, ofreciendo resistencia cognitiva frente a la facilidad con la que la IA puede ofrecer respuestas rápidas y superficiales.

El artículo también sugiere que este no debe pensarse como un conflicto total entre IA y lectura, sino como una relación equilibrada: usar la IA para asistir nuestra curiosidad, pero no delegar el pensamiento. Así, el enfoque sería emplear estas herramientas como punto de partida, mientras el lector mantiene el rol activo de interpretar, cuestionar y extender. Al final, el texto propone que preservar una cultura de lectura consciente es una de las formas más contundentes de proteger nuestra autonomía intelectual en la era digital.

Las bibliotecas no pueden recuperar sus libros prestados debido a los aranceles de Trump

Maiberg, Emanuel. “Libraries Can’t Get Their Loaned Books Back Because of Trump’s Tariffs.” 404 Media, 6 de octubre de 2025 https://www.404media.co/libraries-cant-get-their-loaned-books-back-because-of-trumps-tariffs/?ref=daily-stories-newsletter

Muchas bibliotecas universitarias de Estados Unidos se enfrentan a un problema inesperado: no pueden recuperar los libros que habían prestado a instituciones de otros países. La causa está en las tarifas impuestas durante la administración de Donald Trump, que eliminaron la exención aduanera conocida como “de minimis” para los envíos internacionales de bajo valor.

Hasta entonces, los libros prestados —que no implicaban compraventa ni beneficios económicos— podían circular libremente entre países, pero con la nueva normativa, cualquier paquete que entre en Estados Unidos puede ser objeto de aranceles y requerimientos aduaneros.

Como consecuencia, muchas empresas de mensajería han dejado de aceptar estos envíos, y los libros quedan bloqueados en aduanas o incluso perdidos en almacenes. En algunos casos, las bibliotecas extranjeras han renunciado a devolver los ejemplares, mientras que otras han suspendido por completo sus servicios de préstamo con instituciones estadounidenses. El artículo menciona ejemplos como el de la Universidad de Yale, donde los responsables del préstamo interbibliotecario relatan las dificultades diarias para rastrear los libros y resolver los trámites aduaneros.

La situación preocupa al mundo académico porque el intercambio internacional de libros y materiales es esencial para la investigación y el acceso al conocimiento. Las redes de préstamo entre bibliotecas eran un ejemplo de cooperación global, ahora interrumpido por políticas comerciales ajenas al ámbito educativo. Ante este panorama, asociaciones profesionales como la American Library Association (ALA) están elaborando guías para ayudar a los bibliotecarios a identificar los envíos como préstamos sin valor comercial y así intentar evitar los aranceles, aunque las soluciones siguen siendo parciales y complejas.

Academ-AI es un proyecto que detecta posibles casos de uso no declarado de inteligencia artificial en artículos científicos y ponencias

Academ-AI

https://www.academ-ai.info/

Academ-AI es un proyecto dedicado a detectar casos sospechosos de uso no declarado de inteligencia artificial en la literatura académica. Su objetivo es identificar artículos publicados en revistas científicas o presentados en congresos que contengan fragmentos de texto con rasgos característicos de los modelos de lenguaje, pero en los que no se haya reconocido explícitamente el uso de estas herramientas.

La iniciativa busca llamar la atención sobre un fenómeno cada vez más común en la comunicación científica y fomentar una mayor transparencia editorial. El proyecto recopila ejemplos de textos en los que se observan expresiones o estructuras típicas de la escritura generada por IA, como frases genéricas, repeticiones innecesarias o giros lingüísticos impropios del estilo académico. En cada caso, se muestran los fragmentos sospechosos y se explica por qué podrían haber sido producidos por un modelo de lenguaje. La página invita además a investigadores, revisores y lectores a colaborar enviando nuevos ejemplos o sugerencias para ampliar la base de datos.

Academ-AI solo incluye artículos de revistas y ponencias de conferencias, dejando fuera otros formatos como libros, capítulos o preprints. El sitio organiza los casos documentados y ofrece una visión general de la extensión del fenómeno, que afecta a publicaciones de distintos campos del conocimiento y niveles de prestigio.

Aunque el propio proyecto reconoce que algunos textos pueden haber sido incluidos por error, su principal contribución es poner de relieve los riesgos que implica la falta de transparencia en el uso de la inteligencia artificial en la escritura científica. Academ-AI actúa así como una herramienta de vigilancia ética y como un recordatorio de la necesidad de reforzar las políticas editoriales que garanticen la autenticidad y la integridad del trabajo académico.

La IA reúne a los vivos con los fallecidos para un último adiós que alivie la despedida final

La inteligencia artificial (IA) está permitiendo a las personas crear videos de despedida que reúnen a los vivos con los fallecidos, ofreciendo una forma de cierre emocional.

Los vídeos generados por IA son uno de los aspectos más controvertidos del auge de la IA generativa. Desde violaciones de derechos de autor y desinformación hasta la desorganización digital de internet, hay muchos motivos para ser cautelosos. Pero también parece haber algunos resquicios de esperanza.

En Rusia, por ejemplo, familiares de soldados caídos en el conflicto con Ucrania están utilizando servicios de IA para generar videos que los muestran reunidos con sus seres queridos. Estos videos, que incluyen recreaciones digitales del fallecido y audios generados por IA basados en grabaciones proporcionadas por amigos y familiares, permiten escenas como abrazos o despedidas simbólicas. En los videos, la recreación digital de un soldado fallecido puede ser subiendo las escaleras al cielo, abrazando a un familiar o besando a su pareja. Los clips de audio también se generan mediante IA, basándose en las grabaciones proporcionadas por amigos y familiares.

En algunos casos, sin embargo, los familiares y seres queridos también buscan compañía. Para ello, contratan a empresas para que creen un chatbot de IA o un avatar digital basado en la memoria y las características de una persona en particular. La comunidad científica se ha referido a este cambio tecnocultural como «bots muertos» y también ha alertado sobre sus riesgos.

Estos videos de despedida, que atraen millones de visualizaciones, están vinculados a un proyecto social llamado «Encuentro Final» en la plataforma rusa de redes sociales VK o VKontakte. El costo de estos videos varía entre 20 y 80 dólares, dependiendo de la duración y personalización. «Mediante redes neuronales y una edición cuidadosa, recreamos el momento del reencuentro y los lanzamos al cielo», afirma el anuncio de una empresa rusa compartido en Telegram.

Para algunos, como Yelena Kirghizova, viuda de un oficial cuyo cuerpo nunca fue recuperado, estos videos ofrecen una forma de cierre emocional. La falta de información sobre el paradero de los soldados caídos ha sido una preocupación persistente, y estas representaciones digitales proporcionan una sensación de despedida simbólica.

Aunque la IA ofrece nuevas formas de lidiar con la pérdida, también plantea preguntas éticas y emocionales. La capacidad de la IA para recrear a personas fallecidas plantea interrogantes sobre el consentimiento, la autenticidad y el impacto emocional en los sobrevivientes. Este fenómeno destaca la creciente intersección entre la tecnología y las experiencias humanas más profundas.

La propagación de información falsa generada por chatbots de Inteligencia Artificial se ha duplicado en un año

Sadeghi, McKenzie. AI False Information Rate Nearly Doubles in One Year. NewsGuard, 4 de septiembre de 2025. https://www.newsguardtech.com/wp-content/uploads/2025/09/August-2025-One-Year-Progress-Report-3.pdf

Texto completo

Un informe de NewsGuard, compartido con Axios el 4 de septiembre de 2025, revela que la tasa de propagación de información falsa por parte de chatbots populares se ha duplicado en el último año, pasando del 18% al 35% en respuestas a preguntas sobre temas de actualidad.

Este aumento coincide con actualizaciones realizadas por los desarrolladores de inteligencia artificial que han ampliado las capacidades de los chatbots, permitiéndoles responder a más solicitudes y acceder a información en tiempo real desde la web.

El estudio de NewsGuard se basa en su AI False Claims Monitor, una herramienta que mide cómo los modelos de IA manejan afirmaciones demostrablemente falsas sobre temas controvertidos. Los investigadores probaron diez herramientas de IA líderes utilizando solicitudes de la base de datos de False Claim Fingerprints de NewsGuard, que contiene afirmaciones falsas ampliamente difundidas en línea. Los resultados mostraron que la información falsa aumentó significativamente en las respuestas a preguntas sobre noticias, con modelos como Inflection y Perplexity produciendo las tasas más altas de afirmaciones falsas.

En 2024, la mayoría de los chatbots estaban programados con más cautela, rechazando preguntas sobre noticias y política o negándose a responder cuando no conocían la respuesta. Sin embargo, este año, los chatbots respondieron al 100% de las solicitudes, lo que, según NewsGuard, ha llevado a una mayor amplificación de falsedades durante eventos de noticias de última hora. Además, aunque los chatbots ahora citan fuentes en sus respuestas, estas referencias no garantizan la calidad de la información, ya que a veces se extraen de fuentes poco confiables o se confunden publicaciones establecidas con imitaciones de propaganda rusa.

NewsGuard también señaló que la creciente polarización política en Estados Unidos complica la creación de chatbots que proporcionen respuestas «neutrales» que satisfagan a todos los usuarios. La tendencia de los desarrolladores de IA a maximizar ganancias puede llevar a la evolución de modelos de IA en direcciones partidistas, adaptándose a las inclinaciones políticas de los usuarios.

Manual del bibliotecario verde: sinfonía en sostenibilidad

European Bureau of Library, Information and Documentation Associations (EBLIDA). The Green Librarian Handbook: Symphony in Sustainability Major. Septiembre de 2025. https://eblida.org/wp-content/uploads/2025/09/ELAN-The-Green-Librarian-2025.pd

Green Librarian Handbook representa un paso significativo hacia la integración de la sostenibilidad en la misión y operaciones de las bibliotecas europeas. Al proporcionar marcos prácticos y estrategias adaptables, EBLIDA y ELAN buscan empoderar a las bibliotecas para que desempeñen un papel activo en la construcción de comunidades más sostenibles y resilientes.

Green Librarian Handbook, publicado por EBLIDA en septiembre de 2025, es una guía estratégica diseñada para capacitar a las bibliotecas europeas en la promoción de la sostenibilidad. Esta publicación forma parte del proyecto ELAN (European Library Associations Network), cofinanciado por la Unión Europea, y tiene como objetivo fortalecer la capacidad de las asociaciones bibliotecarias para apoyar a las bibliotecas en áreas clave como la acción climática, la inclusión social, la transición digital y la defensa de la democracia.

Publicación elaborada por Marta Isabel García Rodríguez, Belén Lapardina Bernús, David Mercadal Cuesta, Alfonso Peña Rotella y Rosario Toril Moreno, de la Asociación RECIDA, profesionales de información y documentación ambiental y EBLIDA /ELAN (European Bureau of Library, Information and Documentation Associations / European Library Associations Network), y cofinanciada por la Unión Europea

El manual adopta un enfoque denominado “Sinfonía en Sostenibilidad Mayor”, que integra las dimensiones ambiental, social y económica de la sostenibilidad en la práctica bibliotecaria. Ofrece marcos conceptuales, ejemplos prácticos y herramientas para que las bibliotecas puedan incorporar prácticas sostenibles en su gestión diaria, desde la adquisición de recursos hasta la programación de servicios comunitarios.

Como parte del proyecto ELAN, se realizó en primavera de 2025 una encuesta inicial para evaluar la capacidad y confianza de las asociaciones bibliotecarias en Europa para apoyar a las bibliotecas en estas áreas clave. Los resultados sirvieron de base para el desarrollo de recursos y actividades que respondan a las necesidades identificadas, incluyendo estrategias de acción climática, inclusión social, transición digital y defensa de la democracia.

Además del manual, ELAN está creando recursos adicionales, como herramientas en línea, documentos de posición y sesiones de aprendizaje entre pares, con el fin de apoyar la implementación de prácticas sostenibles en las bibliotecas. Se organizan eventos y actividades que fomentan el intercambio de buenas prácticas y promueven la colaboración entre bibliotecas de distintos países.