Archivo de la etiqueta: Desinformación

Políticas gubernamentales de Estados Unidos han eliminado el acceso a información científica sobre el clima y la han reemplazado con desinformación

Cell, Kate. 2025. «Disinformation Undermines Our Right to ScienceUnion of Concerned Scientists Blog. https://blog.ucs.org/kate-cell/disinformation-undermines-our-right-to-science/.

El texto parte de un informe reciente de la UNESCO sobre tendencias globales en la libertad de expresión y desarrollo de medios, destacando especialmente la problemática de la desinformación climática. La autora señala que, hacia finales de 2025, determinadas políticas gubernamentales en Estados Unidos han eliminado el acceso a información científica sobre el clima, la han reemplazado con desinformación

La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) publicó su informe cuatrienal sobre Tendencias Mundiales en la Libertad de Expresión y Desarrollo de los Medios. Lo que sigue es una versión ligeramente adaptada de la contribución sobre desinformación climática.

A medida que la Tierra continúa calentándose [principalmente debido a la actividad humana] y los impactos en nuestro clima se vuelven cada vez más severos, la ciencia que busca advertirnos y orientarnos está siendo silenciada. Líderes globales poderosos y grandes corporaciones ignoran o niegan la ciencia en un intento deliberado de engañar al público y retrasar la acción urgente necesaria para proteger la habitabilidad del planeta.

En el articulo se analiza cómo la desinformación climática socava el derecho colectivo al conocimiento científico y a la toma de decisiones basada en evidencia. Según la autora, políticas gubernamentales recientes en Estados Unidos han limitado el acceso público a información científica sobre el clima, reemplazándola por narrativas sesgadas o desinformación. Esto afecta evaluaciones oficiales, como la National Climate Assessment, y disminuye la confianza en los científicos, poniendo en riesgo la acción frente al cambio climático.

Cell destaca que, aunque los efectos del cambio climático están bien documentados, existen poderosas fuerzas políticas y corporativas que niegan o manipulan la información científica para retrasar medidas urgentes. La autora señala casos recientes en los que se ha distorsionado información sobre olas de calor extremas, afectando la percepción pública y la preparación frente a eventos climáticos que ponen en riesgo la vida de millones de personas. Además, se ha limitado el acceso a recursos oficiales, obligando a investigadores y ciudadanos a buscar información en fuentes independientes o archivos previos.

La desinformación no solo tiene consecuencias sociales, sino también científicas y económicas. Los datos indican un aumento significativo de la mortalidad por calor extremo en las últimas décadas, y estudios económicos muestran pérdidas vinculadas a las emisiones de industrias específicas. A pesar de la solidez de la evidencia científica, estas campañas buscan debilitar la autoridad de los expertos y retrasar la adopción de políticas efectivas (Cell, 2025).

La autora identifica a la industria de los combustibles fósiles y a sus aliados políticos como los principales impulsores de esta desinformación. Documentos históricos muestran que estas industrias tenían conocimiento del cambio climático décadas atrás, pero eligieron estrategias de negación y manipulación para proteger sus intereses económicos. Entre las tácticas empleadas se incluyen la exageración de incertidumbres científicas, el financiamiento de estudios cuestionables, el acoso a científicos y la manipulación de funcionarios gubernamentales. Investigaciones realizadas por la Union of Concerned Scientists y otros organismos demuestran que la industria de los combustibles fósiles ha utilizado todas las tácticas del manual de desinformación:

  • Contratar a un científico que utilizaba métodos desacreditados y no revelaba la financiación de la industria.
  • Generar dudas exagerando las incertidumbres de la ciencia del cambio climático y dirigiéndose a profesores y estudiantes.
  • Acosar a los científicos climáticos.
  • Comprar credibilidad.

Además, las plataformas digitales juegan un papel crucial en la difusión de desinformación, muchas veces de forma indirecta al priorizar contenido que genera mayor interacción y publicidad. Esto amplifica la exposición de la sociedad a narrativas falsas o engañosas sobre el cambio climático, incluyendo teorías conspirativas y ataques a políticas de mitigación. La influencia de estas prácticas también afecta a instituciones científicas, limitando financiamiento, debilitando agencias regulatorias y generando presión sobre investigadores, lo que repercute en la comunicación científica y en la implementación de políticas basadas en evidencia.

Fake News: ¿Cuál es el daño? Repensando los efectos reales de la desinformación

Cunliffe-Jones, Peter. Fake News – What’s the Harm? Open Access Monograph. University of Westminster Press, 2024.

Texto completo

PDF

ePub

En Fake News – What’s the Harm?, Peter Cunliffe-Jones, periodista y fundador de Africa Check, sostiene que desde el estallido global de preocupación por la desinformación en 2016, el debate público y académico se ha apoyado en suposiciones erróneas sobre la naturaleza, el alcance y los efectos reales de las llamadas “fake news”. A partir de un análisis exhaustivo de 250 estudios de caso recopilados durante cuatro años, el autor propone una revisión profunda del concepto de “information disorder”, argumentando que la narrativa dominante suele simplificar un fenómeno complejo y multifacético.

El libro plantea cuatro ideas clave para periodistas, verificadores, responsables políticos y plataformas digitales. Primero, Cunliffe-Jones insiste en que el desorden informativo no puede reducirse únicamente a la desinformación: intervienen también la mala información, el contenido mal contextualizado, la manipulación interesada y, en ocasiones, errores no intencionados que circulan tanto en ámbitos digitales como fuera de ellos. Segundo, destaca que la desinformación no es un problema exclusivamente online; por el contrario, en muchos contextos —sobre todo en países del Sur Global— la transmisión oral, las creencias locales y la comunicación en espacios presenciales pueden causar daños equiparables o incluso mayores que los provocados por los contenidos digitales virales.

En tercer lugar, el autor subraya que la desinformación que afecta a los responsables políticos puede ser tan peligrosa como la que circula entre el público. Políticos, legisladores y autoridades pueden tomar decisiones erróneas si reciben información falsa o distorsionada, lo que genera consecuencias sociales y económicas de gran alcance. Esto rompe con la idea convencional de que el principal riesgo recae únicamente en la ciudadanía desinformada. Por último, Cunliffe-Jones propone un modelo práctico para que verificadores, investigadores y plataformas puedan distinguir entre afirmaciones falsas que tienen un potencial real de causar consecuencias perjudiciales y aquellas que, aunque incorrectas, apenas generan efectos tangibles. Este marco busca ayudar a priorizar recursos, mejorar intervenciones y equilibrar la lucha contra la desinformación con la defensa de la libertad de expresión.

La obra ha sido ampliamente elogiada por especialistas internacionales en periodismo y estudios sobre medios. Lucas Graves destaca que ofrece un nuevo marco explicativo capaz de superar los debates repetitivos sobre el “pánico moral” en torno a las fake news. Masato Kajimoto subraya que el libro avanza hacia una visión más matizada y sistemática del problema, mientras que Herman Wasserman resalta su valor para investigadores, activistas y legisladores, especialmente por su perspectiva histórica y su atención al contexto africano.

Cunliffe-Jones, con décadas de experiencia como reportero y con un papel fundamental en el desarrollo del movimiento de verificación de datos —incluida su participación en el Código de Principios de la IFCN—, ofrece aquí una reflexión sólida, crítica y constructiva. Su enfoque combina análisis riguroso, ejemplos reales y recomendaciones concretas, convirtiendo esta obra en un aporte clave para comprender y enfrentar el impacto social de la desinformación contemporánea.

En las elecciones de Georgia a Nueva York, los deepfakes hechos con IA están dirigiendo el discurso político y la percepción de los votantes.

Hurt, Davina, y Ann Skeet. “AI fuels a new wave of political lies.” Salon, 29 noviembre 2025.

Texto completo

La inteligencia artificial está siendo usada para generar “deepfakes” y contenido político engañoso que distorsiona la realidad en campañas electorales recientes en Estados Unidos. Un ejemplo citado es un anuncio en la carrera al Senado por Georgia en el que la campaña del candidato republicano Mike Collins difundió un vídeo en el que aparecía el senador demócrata Jon Ossoff supuestamente diciendo que no le importaban los granjeros porque “solo había visto una granja en Instagram” — una frase que Ossoff nunca pronunció.

El texto señala que, aunque la sátira política siempre ha existido (por ejemplo en caricaturas), la IA borra la frontera entre ficción y realidad de una forma sin precedentes: las falsedades generadas por IA pueden parecer auténticas, con imagen y voz convincente, lo que las hace aún más peligrosas cuando son usadas por los propios actores políticos.

Además, el artículo advierte que este tipo de contenido —cuando se difunde desde cuentas oficiales o con aspecto institucional— degrada el debate democrático, al transformar opiniones o propaganda en “evidencia visual” aparentemente real. Bajo esa lógica, la IA no solo ayuda a mentir, sino a construir una “realidad alternativa” destinada a manipular percepciones colectivas, socavando la confianza pública en los procesos políticos.

Finalmente, los autores exhortan a la necesidad de marcos regulatorios y éticos claros que exijan transparencia en el uso de IA en campañas políticas, de modo que la manipulación mediática deje de ser una estrategia con potencial de dañar la democracia

Guía para abordar los deepfakess en las escuelas : kit de herramientas

Future of Privacy Forum. A School Administrator’s Guide to Addressing Deepfakes: Problem of Practice Toolkit. Issue Brief: Education. 2025

Texto completo

Este kit de herramientas, publicado por el Future of Privacy Forum, está diseñado para guiar a los administradores escolares en la identificación, respuesta y mitigación de los daños potenciales que representan los deepfakes.

Los deepfakes son medios sintéticos realistas (imágenes, videos, audio o texto) creados o manipulados con inteligencia artificial (IA) que pueden hacer que las personas parezcan decir o hacer cosas que no hicieron. El documento establece que la IA generativa presenta desafíos éticos y de seguridad significativos para las escuelas, ya que se puede utilizar para difundir desinformación, perpetrar fraudes y acosar a estudiantes y personal, socavando la confianza. Además, se señala que los deepfakes impactan y dañan de manera desproporcionada a ciertos grupos demográficos, lo que puede resultar en un aumento del acoso y la hipersexualización.

El kit de herramientas recomienda que los distritos realicen una Autoevaluación de Preparación para identificar su nivel actual de preparación. Para ello, deben revisar y actualizar sus políticas existentes (como las de bullying, acoso, Título IX y uso de tecnología) para abordar explícitamente los deepfakes y el abuso sexual basado en imágenes. Es crucial que los líderes escolares revisen las leyes estatales y locales relativas a la posesión y distribución de Imágenes Íntimas No Consensuadas (NCII) y Material de Abuso Sexual Infantil (CSAM) para asegurar el cumplimiento. También se enfatiza la necesidad de contar con políticas que reconozcan que la detección confiable de deepfakes es difícil debido a las limitaciones de las tecnologías de detección.

Se anima a los distritos a desarrollar un programa de capacitación para educar a estudiantes, padres y personal sobre las implicaciones de privacidad, los impactos socioemocionales, el riesgo desproporcionado para ciertos grupos y las posibles consecuencias del mal uso de los deepfakes. Además, el kit incluye Escenarios de práctica (como un incidente de deepfake de desnudez de un estudiante y un incidente generado por un empleado) para facilitar discusiones críticas.

La guía concluye con la importancia de establecer un equipo de respuesta a incidentes claramente definido y protocolos de comunicación para garantizar la privacidad y la integridad de la investigación, y para utilizar métodos de justicia restaurativa para reparar el daño causado al individuo objetivo y a la comunidad en general







.

Rage bait “contenido que provoca indignación” palabra del año para Oxford 2025

Oxford ha elegido rage bait como la Palabra del Año 2025. El término ha adquirido relevancia en un contexto marcado por disturbios sociales, debates sobre la regulación del contenido en línea y una creciente preocupación por el bienestar digital.

Según los expertos, su uso refleja un cambio más profundo en la forma en que hablamos sobre la atención —cómo se capta y cómo se ofrece— y sobre el compromiso y la ética en los entornos digitales.

Los datos lingüísticos muestran que el uso de rage bait se ha triplicado en los últimos doce meses. Aunque está formado por dos palabras, Oxford aclara que no se trata de una trampa lingüística, ya que la Palabra del Año puede ser tanto un término simple como una expresión considerada una unidad de significado.

Rage bait combina rage (rabia o estallido violento de ira) y bait (cebo o bocado atractivo). Ambas palabras existen desde el inglés medio. Aunque guarda cierta relación con clickbait, el concepto de rage bait se centra específicamente en provocar enfado, discordia y polarización.

La aparición de rage bait como término independiente demuestra la flexibilidad del inglés para unir palabras ya establecidas y crear expresiones nuevas que capturan fenómenos actuales. En este caso, el término refleja un rasgo característico del mundo digital contemporáneo y de las dinámicas que moldean nuestra comunicación en línea.

¡Ten cuidado! ¡No te dejes engañar! Proyecto de alfabetización informacional para combatir la desinformación en la educación

Lopes, Carlos, Maria Luz Antunes, y Tatiana Sanches. 2025. Be Careful! Não te deixes enganar! Projeto de literacia no combate à desinformação no ensino superior. Lisboa: Edições ISPA. http://hdl.handle.net/10400.12/13586

El proyecto BE CAREFUL! tiene como finalidad fortalecer la alfabetización informacional en el ámbito de la educación superior para enfrentar el fenómeno creciente de la desinformación. Parte del reconocimiento de que los estudiantes interactúan cada día con sistemas de información y algoritmos complejos, que pueden reforzar la propagación de contenidos engañosos si no se manejan con pensamiento crítico. El documento subraya la responsabilidad colectiva de comprender cómo se produce, circula y utiliza la información, especialmente en entornos académicos.

La propuesta se sustenta en el Marco de la ACRL para la Alfabetización Informacional en la Educación Superior, adaptado al contexto portugués. El proyecto desarrolla seis grandes áreas de competencia: evaluar la autoridad y credibilidad de las fuentes, comprender la creación de información como un proceso, reconocer el valor de la información, investigar desde el cuestionamiento, establecer un diálogo académico ético y sostenible y realizar búsquedas estratégicas en entornos cada vez más complejos. Cada apartado combina definiciones, retos asociados al uso de la Inteligencia Artificial y las habilidades que los estudiantes e investigadores deben adquirir.

Uno de los ejes principales del proyecto es la reflexión sobre la Inteligencia Artificial, que transforma la forma en que se produce y se consume la información. El documento señala riesgos como la difusión de contenidos sesgados, la generación de textos y referencias falsos, la confusión entre autoría humana y artificial y la posibilidad de reproducir prejuicios presentes en los datos de entrenamiento. A la vez, promueve un uso ético, transparente y crítico de estas herramientas, invitando a explicar cuándo han sido utilizadas y a verificar siempre la fiabilidad de los resultados generados por la IA.

El proyecto propone además diversas estrategias educativas: lectura lateral, uso de herramientas de verificación (CRAAP, RADAR, PILS), análisis comparado de fuentes, debates guiados sobre la IA, construcción de preguntas de investigación y prácticas de citación y referencia que respeten la integridad académica. Se destaca el papel esencial de las bibliotecas y de sus profesionales como agentes formadores en estas competencias, promoviendo cursos, talleres y acciones colaborativas.

En conjunto, el proyecto BE CAREFUL! pretende reforzar la integridad académica, el pensamiento crítico y las prácticas de Ciencia Abierta. Su impacto se orienta a crear comunidades universitarias más preparadas para navegar en entornos informativos complejos, evaluar la fiabilidad del conocimiento y tomar decisiones fundamentadas, contribuyendo así a reducir la vulnerabilidad frente a la desinformación.

Los desafíos de las bibliotecas en un contexto marcado por la desinformación, la posverdad y el creciente aislamiento social con Sara Martínez Cardama. Planeta biblioteca 2025/11/14

Los desafíos de las bibliotecas en un contexto marcado por la desinformación, la posverdad y el creciente aislamiento social con Sara Martínez Cardama

Planeta biblioteca 2025/11/14

ESCUCHAR

Descargar

La entrevista con la profesora e investigadora Sara Martínez Cardama explora los desafíos más urgentes que enfrentan las bibliotecas públicas en un contexto marcado por la desinformación, la posverdad y el creciente aislamiento social derivado de la vida digital. Martínez Cardama analiza cómo estas problemáticas impactan en el trabajo cotidiano de los profesionales de la información y subraya la necesidad de reforzar la esfera pública a través de espacios seguros, críticos y participativos.

Destaca la importancia de que las bibliotecas desarrollen programas sólidos de alfabetización mediática e informacional, priorizando competencias como la evaluación crítica de fuentes, la verificación de datos y la gestión ética de la información. También ofrece su visión sobre la “postneutralidad” en bibliotecas, defendiendo un rol más activo en la defensa de derechos democráticos y en la lucha contra las noticias falsas, donde las herramientas de fact-checking aportan, pero no sustituyen, el pensamiento crítico.

Además, pone en valor la investigación cualitativa para comprender mejor los fenómenos sociales, así como los proyectos intergeneracionales que fortalecen la cohesión comunitaria. Aborda los dilemas éticos del advocacy bibliotecario y reflexiona sobre la evolución de las bibliotecas en países donde se han cerrado centros juveniles y bibliotecas públicas, como Reino Unido.

Finalmente, plantea los nuevos valores que las bibliotecas deben asumir en la era digital: compromiso social, responsabilidad informativa, apertura, cuidado comunitario y un papel activo en la reconstrucción de la esfera pública.

Los asistentes de IA tergiversan el contenido de las noticias en el 45 % de los casos, independientemente del idioma o el territorio

European Broadcasting Union & British Broadcasting Corporation. (2025, octubre 16). News Integrity in AI Assistants. International study on AI assistants and news content

Texto completo

Toolkit

Se analiza el desempeño de los asistentes de inteligencia artificial al responder consultas sobre noticias en 14 idiomas y 18 países. Se evaluaron más de 3 000 respuestas generadas por plataformas como ChatGPT, Microsoft Copilot, Google Gemini y Perplexity. Periodistas y expertos examinaron su exactitud, atribución de fuentes, diferenciación entre hechos y opiniones, y la calidad del contexto proporcionado.

Los resultados revelan un panorama preocupante: aproximadamente el 45 % de las respuestas contenían errores graves y el 81 % presentaba algún tipo de deficiencia. Los fallos más comunes fueron la atribución falsa o inexistente de fuentes (en torno al 31 %) y la inexactitud factual, incluyendo información obsoleta o inventada (cerca del 20 %).

El informe indica que el asistente de Google, Gemini, obtuvo el rendimiento más bajo, con problemas importantes en hasta el 72-76 % de sus respuestas. Además, se constató que estas deficiencias no dependen del idioma ni del país, sino que se reproducen de forma sistémica y generalizada en distintos entornos culturales y lingüísticos.

Los investigadores alertan de los riesgos que implica que los asistentes de IA se conviertan en una fuente de información de noticias para el público, ya que algunos usuarios ya los usan como sustituto de los motores de búsqueda tradicionales. Esta tendencia podría afectar la confianza pública, la calidad informativa y la participación democrática.

Finalmente se dan una serie de recomendaciones dirigidas a desarrolladores, medios y organismos reguladores: mejorar la transparencia en la citación de fuentes, distinguir claramente entre hechos y opiniones, actualizar los contenidos con mayor rapidez y establecer sistemas de monitoreo continuo sobre la calidad informativa de las respuestas generadas por la inteligencia artificial.

La propagación de información falsa generada por chatbots de Inteligencia Artificial se ha duplicado en un año

Sadeghi, McKenzie. AI False Information Rate Nearly Doubles in One Year. NewsGuard, 4 de septiembre de 2025. https://www.newsguardtech.com/wp-content/uploads/2025/09/August-2025-One-Year-Progress-Report-3.pdf

Texto completo

Un informe de NewsGuard, compartido con Axios el 4 de septiembre de 2025, revela que la tasa de propagación de información falsa por parte de chatbots populares se ha duplicado en el último año, pasando del 18% al 35% en respuestas a preguntas sobre temas de actualidad.

Este aumento coincide con actualizaciones realizadas por los desarrolladores de inteligencia artificial que han ampliado las capacidades de los chatbots, permitiéndoles responder a más solicitudes y acceder a información en tiempo real desde la web.

El estudio de NewsGuard se basa en su AI False Claims Monitor, una herramienta que mide cómo los modelos de IA manejan afirmaciones demostrablemente falsas sobre temas controvertidos. Los investigadores probaron diez herramientas de IA líderes utilizando solicitudes de la base de datos de False Claim Fingerprints de NewsGuard, que contiene afirmaciones falsas ampliamente difundidas en línea. Los resultados mostraron que la información falsa aumentó significativamente en las respuestas a preguntas sobre noticias, con modelos como Inflection y Perplexity produciendo las tasas más altas de afirmaciones falsas.

En 2024, la mayoría de los chatbots estaban programados con más cautela, rechazando preguntas sobre noticias y política o negándose a responder cuando no conocían la respuesta. Sin embargo, este año, los chatbots respondieron al 100% de las solicitudes, lo que, según NewsGuard, ha llevado a una mayor amplificación de falsedades durante eventos de noticias de última hora. Además, aunque los chatbots ahora citan fuentes en sus respuestas, estas referencias no garantizan la calidad de la información, ya que a veces se extraen de fuentes poco confiables o se confunden publicaciones establecidas con imitaciones de propaganda rusa.

NewsGuard también señaló que la creciente polarización política en Estados Unidos complica la creación de chatbots que proporcionen respuestas «neutrales» que satisfagan a todos los usuarios. La tendencia de los desarrolladores de IA a maximizar ganancias puede llevar a la evolución de modelos de IA en direcciones partidistas, adaptándose a las inclinaciones políticas de los usuarios.

De que manera los bibliotecarios escolares en Escocia abordan los problemas de la desinformación y la información errónea

Chartered Institute of Library and Information Professionals in Scotland (CILIPS). Tackling Misinformation and Disinformation for Scottish School Librarians Project Report. Liderado por Bruce Ryan, Edinburgh Napier University. CILIPS Research Fund, 2025

Texto completo

Los bibliotecarios escolares en Escocia ya realizan un esfuerzo significativo para abordar la desinformación, su capacidad para hacerlo de manera eficaz se ve seriamente limitada por carencias estructurales y de reconocimiento institucional. El informe insiste en que, para que puedan desempeñar plenamente su papel, es imprescindible darles apoyo sostenido, recursos adecuados, oportunidades de formación y un marco de colaboración estable con el resto de la comunidad educativa.

El estudio, realizado durante la primera mitad de 2025, examina las prácticas actuales, las barreras que encuentran los profesionales y las recomendaciones que podrían mejorar su labor en un contexto donde no existe una legislación específica que regule las bibliotecas escolares. Esta ausencia de normativa hace que la relevancia del bibliotecario dependa en gran medida de las decisiones de cada centro educativo, del apoyo del profesorado y del liderazgo institucional.

En cuanto a las prácticas que ya se llevan a cabo, los bibliotecarios intervienen tanto de forma directa, respondiendo a consultas puntuales sobre desinformación, como indirectamente, mediante clases, charlas y actividades de alfabetización informacional. Sin embargo, el informe señala que las peticiones explícitas de ayuda sobre desinformación no son frecuentes, y cuando aparecen provienen sobre todo de los estudiantes. Este hecho refuerza la idea de que, aunque existe un problema real de exposición a información falsa, todavía falta consolidar un marco educativo que reconozca y potencie el papel de los bibliotecarios como agentes clave en la formación crítica de los alumnos.

Las barreras identificadas se relacionan principalmente con la falta de tiempo, presupuesto y recursos, factores que impiden llevar a cabo de forma sistemática programas de educación en desinformación. A ello se suma la insuficiencia de apoyo por parte del liderazgo escolar y de los profesores, lo cual limita la integración de estas prácticas en el currículo oficial. En muchos casos, además, las propias instalaciones físicas de las bibliotecas escolares no son adecuadas para desempeñar las funciones de enseñanza, consulta y reflexión necesarias en este ámbito.

El informe destaca también el deseo de los bibliotecarios de recibir formación especializada que les permita actualizar sus competencias frente a la desinformación y la información errónea. Esta formación debería estar disponible tanto para bibliotecarios como para asistentes de biblioteca, y sería más efectiva si estuviera integrada dentro de los programas de desarrollo profesional docente. Asimismo, se plantea la necesidad de fortalecer la colaboración entre bibliotecarios y profesores, desde la etapa de formación inicial de estos últimos, de manera que la educación en torno a la desinformación no dependa de iniciativas aisladas sino que forme parte de la enseñanza sistemática.

Las recomendaciones apuntan a que se reconozca oficialmente que los estudiantes enfrentan problemas de desinformación y que los bibliotecarios poseen competencias valiosas para afrontarlos. Para ello es necesario otorgarles tiempo, presupuesto y un lugar claro en el marco educativo. Además, se sugiere mejorar las oportunidades de colaboración con los docentes, integrando a los bibliotecarios en las revisiones curriculares, y ampliar la oferta de formación continua en alfabetización mediática e informacional. También se subraya la importancia de mejorar las instalaciones físicas de las bibliotecas, con el fin de que puedan cumplir su función pedagógica y social de manera más efectiva.