Archivo de la etiqueta: Directrices

La inteligencia artificial en la publicación académica: un estudio sobre las directrices y políticas de las revistas de Biblioteconomía y Documentación


Gao, W., Liu, G., Huang, M. B., & Yao, H. (2025). AI in Scholarly Publishing: A Study on LIS Journals’ Guidelines and PoliciesInternational Journal of Librarianship10(2), 85–100. https://doi.org/10.23974/ijol.2025.vol10.2.419

Se investiga el panorama actual de las directrices y políticas relacionadas con el uso de inteligencia artificial generativa en revistas del ámbito de la Bibliotecología y Ciencias de la Información (LIS).

En un contexto en el que herramientas como ChatGPT se han popularizado para realizar tareas como corrección gramatical, análisis estadístico o redacción de manuscritos, los autores destacan preocupaciones éticas sobre autoría, derecho de autor, reproducibilidad y transparencia en la investigación

Mediante un enfoque metodológico descriptivo, se revisaron las normas editoriales de un conjunto de revistas LIS seleccionadas a partir de la lista de Nixon y se aplicaron estadísticas básicas para comparar revistas con y sin políticas explícitas sobre IA generativa.

Los resultados revelan que, de las 45 revistas estudiadas, 31 (69 %) incluyen algún tipo de declaración sobre el uso de IA en sus directrices. La mayoría exige a los autores declarar el uso de estas herramientas, y algunas (16) extienden regulaciones también a editores y revisores, incluyendo prohibiciones como el uso de manuscritos en sistemas de IA externos.

Además, se observa una carencia notable de tales políticas en revistas de acceso abierto, lo que plantea riesgos en cuanto a la calidad editorial y la proliferación de prácticas predatorias. Los autores concluyen subrayando la necesidad de estandarizar las declaraciones sobre el uso de IA generativa para fortalecer la integridad del proceso de publicación académica.

Revisión de las Directrices de la IFLA sobre recursos audiovisuales

 IFLA Guidelines for Audiovisual Resources. IFLA, 2025 (versión provisional)

El grupo de trabajo AVMS de IFLA ha lanzado una revisión mundial para recoger comentarios sobre las IFLA Guidelines for Audiovisual Resources actualizadas en 2025. Se invita a la comunidad a opinar sobre la claridad del lenguaje, la estructura y el propósito del documento. Los comentarios deben enviarse antes del 19 de mayo de 2025, especificando el nombre y la afiliación institucional. El objetivo es asegurar que las pautas sean accesibles y útiles para diversas comunidades. Para más detalles, puedes consultar el enlace proporcionado por IFLA.

Con el fin de comprender plenamente el propósito y el alcance de la revisión, se invita a los encuestados a leer la Declaración de intenciones publicada en esta página: Declaración de Edición Statement IFLA Guidelines AV Resources – Google Docs

Se agradecen los comentarios sobre los siguientes temas:

¿Cree que el lenguaje del documento es fácil de entender desde el punto de vista de un hablante no nativo de inglés?
¿Cree que la estructura del documento es clara y coherente?
¿Considera que la finalidad del documento está claramente expuesta?
¿Le ha resultado útil la declaración de intenciones a la hora de evaluar el documento?
Una vez aprobado, ¿cómo le gustaría que la IFLA comunicara el documento en el futuro?
Enviando las respuestas por correo electrónico en un documento PDF o MS Word adjunto a: helene.brousseau@concordia.ca .

Aunque se prefiere el inglés, también se aceptan comentarios en francés y alemán.

Guía para Bibliotecas Universitarias Chilenas. Principios Fundamentales

Guía para bibliotecas universitarias chilenas. Principios fundamentales. Versión
2024
/ Consejo de Rectoras y Rectores de Universidades Chilenas. -1a.ed.- Santiago,
Chile: Consejo de Rectoras y Rectores de Universidades Chilenas, Comisión Permanente
Asesora de Bibliotecas y Documentación, 2024.

Texto completo

Guía para Bibliotecas Universitarias Chilenas. Principios Fundamentales (Versión 2024), elaborada por la CABID Comisión Permanente Asesora de Bibliotecas y Documentación del Consejo de Rectoras y Rectores de las Universidades Chilenas (CRUCH)

La Guía para Bibliotecas Universitarias Chilenas: Principios Fundamentales, presentada en esta edición 2024, ha sido diseñada para proporcionar una guía que defina el rol que las bibliotecas académicas desempeñan en su contribución a la misión de la universidad, así como su integración en los procesos de enseñanza, aprendizaje, investigación, publicación y vinculación con la comunidad, en un entorno global y digital altamente dinámico y en un contexto social y económico cada vez más exigente.

En este marco, la Comisión Permanente Asesora de Bibliotecas y Documentación (CABID) llevó a cabo una investigación sobre las principales tendencias en bibliotecas universitarias, en la educación superior y en los procesos de acreditación. Además, se revisaron estándares internacionales, resultando los Standards for Libraries in Higher Education de la Asociación Norteamericana de Bibliotecas Académicas y de Investigación (ACRL) en su versión 2018 y las normas ISO 11.620:2014, ISO 2789:2013 e ISO 16439:2014 como los referentes principales para esta nueva edición.

Se trata de una adaptación de ACRL Standards for Libraries in Higher Education, versión 2018, a la realidad nacional. Para la elaboración de este documento, la Comisión Permanente Asesora de Bibliotecas y Documentación (CABID) ha logrado un consenso que permite integrar las diversas realidades a nivel nacional, con el fin de proporcionar a las instituciones de educación superior principios, indicadores de desempeño, recomendaciones de datos y evidencias a considerar, así como indicadores que orienten y guíen las acciones de la biblioteca universitaria. Todo ello desde una perspectiva multidimensional, enfocada en el usuario, la calidad y la mejora continua, con una visión innovadora y de futuro.

El presente documento constituye una actualización de la versión de 2020 y está estructurado en torno a doce principios. Esta edición incorpora un nuevo principio relacionado con la inclusión en bibliotecas académicas. Cada principio se vincula con un número determinado de indicadores de desempeño y recomendaciones sobre datos y evidencias a considerar para medir el éxito, impacto o valor. Estos principios están destinados a ser expectativas aplicables a todo tipo de bibliotecas académicas. No obstante, cada biblioteca debe responder a su población de usuarios y a su entorno institucional únicos.

Directrices para académicos buscan reducir los riesgos éticos en el uso de IA generativa

Drew, Liam. «Guidelines for Academics Aim to Lessen Ethical Pitfalls in Generative-AI Use». Nature, 22 de mayo de 2024. https://doi.org/10.1038/d41586-024-01543-1.

Investigadores del Reino Unido están desarrollando un nuevo conjunto de herramientas para ayudar a los académicos a utilizar la inteligencia artificial generativa (IA generativa) de manera más ética.

Wendy Moncur, investigadora en ciberseguridad de la Universidad de Strathclyde en Glasgow, lidera este proyecto. La falta de orientación en el uso de herramientas de IA generativa ha llevado a Moncur y su equipo a considerar la necesidad de un conjunto de directrices que aborden las fortalezas y amenazas de estas tecnologías.

El proyecto se centra en los problemas que pueden surgir cuando se utilizan herramientas de IA generativa, como ChatGPT de OpenAI y Gemini de Google, para analizar y procesar información personal de voluntarios en estudios. Moncur y su equipo están utilizando herramientas de IA generativa para crear materiales educativos basados en las historias de los participantes, pero se preocupan por el riesgo de que la información anonimizada pueda ser reidentificada y distorsionada por la IA.

Las inquietudes de Moncur la llevaron a colaborar con científicos informáticos y un académico en derecho para desarrollar soluciones. Financiado por el Centro Nacional de Investigación del Reino Unido sobre Privacidad, Reducción de Daños e Influencia Adversarial en Línea, el proyecto de diez meses busca crear directrices para investigadores y comités de ética universitarios, con fecha de finalización en agosto.

El proyecto tiene tres objetivos principales: abordar la falta de experiencia en la identificación de riesgos de privacidad, cumplir con los requisitos de gestión de datos en la investigación del Reino Unido y mitigar los riesgos legales para las instituciones que utilizan IA generativa para procesar datos de participantes.

El equipo está realizando una revisión de la literatura y planea entrevistar a académicos en comités de ética para desarrollar una herramienta que analice fortalezas, debilidades, oportunidades y amenazas, y que esté disponible en línea de forma gratuita.

Robert Davison, científico de sistemas de información en la Universidad de la Ciudad de Hong Kong, apoya estos esfuerzos y advierte contra la normalización del uso de IA generativa sin la debida atención ética. Moncur y sus colegas apuntan a los comités de ética universitarios como el primer paso para establecer normas éticas robustas en el uso de esta tecnología.

Plan de Acción EDUCAUSE 2024: Políticas y directrices de AI

EDUCAUSE. «2024 EDUCAUSE Action Plan: AI Policies and Guidelines». Accedido 26 de mayo de 2024. https://www.educause.edu/research/2024/2024-educause-action-plan-ai-policies-and-guidelines.

El Estudio del Panorama de la IA 2024 de EDUCAUSE, basado en una encuesta a más de 900 profesionales de tecnología en educación superior, reveló brechas significativas en las políticas y directrices relacionadas con la IA en la educación superior

«Solo el 23% de los encuestados indicó que su institución tiene políticas de uso aceptable relacionadas con la IA ya implementadas, y casi la mitad (48%) de los encuestados no estuvo de acuerdo o estuvo en desacuerdo en que su institución tiene políticas y directrices adecuadas para permitir una toma de decisiones ética y efectiva sobre el uso de la IA».

Más de un año después del «renacimiento de la IA» que revolucionó las expectativas dentro y fuera del aula, la mayoría de las instituciones aún están intentando ponerse al día y establecer políticas y directrices que ayuden a sus líderes, personal, profesores y estudiantes a utilizar estas nuevas y poderosas tecnologías de manera efectiva y segura.

Afortunadamente, las instituciones no necesitan empezar desde cero en el desarrollo de sus políticas y directrices de IA. Gracias al trabajo de Cecilia Ka Yuk Chan y WCET, las instituciones cuentan con una base sobre la cual construir, un marco de políticas que abarca la gobernanza institucional, las operaciones y la pedagogía. Este marco ayuda a garantizar que las políticas y directrices relacionadas con la IA aborden de manera integral aspectos críticos de la vida y el funcionamiento institucional:

Gobernanza incluye la gestión de datos, la evaluación del uso de la IA en toda la institución, la promoción y el monitoreo del uso de la IA por parte de profesores y personal (incluida la investigación), el acceso inclusivo y equitativo, la propiedad intelectual y el uso de la IA para prácticas de promoción, tenencia y recontratación.

Operaciones abarca el desarrollo profesional (capacitación y apoyo), el desarrollo y mantenimiento de la infraestructura para la IA, y la revisión y recomendación de la implementación de la IA para mejorar las prácticas operativas.

Pedagogía incluye la integridad académica, las prácticas de evaluación, la comunicación clara a los estudiantes sobre las expectativas de la IA, el desarrollo de competencias y habilidades en IA para la preparación laboral, la comprensión del sesgo algorítmico, la interacción regular y sustantiva, y la accesibilidad del aprendizaje.

Con este marco como telón de fondo, se desarrolló este plan de acción convocando a un panel de profesionales de tecnología en educación superior para proponer posibles acciones que las instituciones podrían tomar en los próximos dos años para comenzar a establecer políticas y directrices efectivas de IA. Se pidió a los panelistas que revisaran el contenido del Plan de Acción de Horizon 2023 de EDUCAUSE: IA Generativa, reflexionando específicamente sobre el «futuro preferido» descrito en este informe, y que enumeraran los posibles impactos de las políticas y directrices de IA en individuos, unidades, instituciones y colaboraciones entre instituciones. Luego se les pidió a los panelistas que consideraran las acciones que podrían ayudar a los interesados en la educación superior a navegar tanto las políticas y directrices de IA existentes como las nuevas.

En comparación con la línea de tiempo de diez años que normalmente se utiliza para el trabajo de previsión, la ventana de dos años permitió a los panelistas reflexionar sobre los desafíos y oportunidades mucho más inmediatos para la planificación y toma de decisiones del presente. Las capacidades y necesidades de la IA están evolucionando rápidamente, y los líderes de la educación superior deben tomar medidas ahora. Delineando acciones que pueden aprovechar las políticas y directrices existentes o ayudarnos a crear nuevas, el panel ha comenzado a trazar un camino a seguir para la práctica de la IA en la educación superior que esperamos encuentre perspicaz, relevante y accionable.

EDUCAUSE y la Cooperativa WICHE para Tecnologías Educativas (WCET) colaboraron en la planificación y recopilación de datos para este plan de acción.

Aprovechando Políticas y Directrices Existentes

Muchas instituciones ya tienen políticas, directrices y procesos que, aunque no específicos para la IA, podrían estar relacionados o ser aplicables a herramientas y prácticas de IA. En lugar de «reinventar la rueda» creando un conjunto completamente nuevo de políticas y directrices, los líderes de estas instituciones podrían centrarse en comprender cómo aprovechar mejor los recursos y apoyos existentes. Las siguientes acciones recomendadas pueden ayudar a los interesados institucionales a construir sobre lo que ya existe:

Acciones Individuales

  • Familiarizarse con herramientas comunes de IA.
  • Ser buenos administradores de los datos institucionales y las directrices existentes.
  • Desarrollar la alfabetización individual en IA.

Acciones Departamentales o de Unidad

  • Aclarar qué políticas departamentales o de unidad existentes se aplican a la IA y cuáles no.
  • Desarrollar un lenguaje estándar para múltiples tipos de uso de IA en los cursos.
  • Crear oportunidades de colaboración para descubrir qué funciona y qué no.

Acciones Institucionales

  • Formar comités interfuncionales y comunidades de práctica para evaluar y mejorar las prácticas de IA.
  • Ampliar la formación profesional existente para incluir capacitación en IA para todo el personal docente, administrativo y estudiantil.
  • Mapear las políticas y directrices de IA a la misión, valores y estrategias existentes de la institución.

Acciones Multiinstitucionales

  • Colaborar para crear un entendimiento común de las implicaciones potenciales de las regulaciones estatales/federales.
  • Desarrollar criterios de evaluación que puedan añadirse a los recursos existentes.
  • Colaborar con instituciones pares para revisar y comparar políticas y procedimientos de IA.

Creación de Nuevas Políticas y Directrices

Aunque los recursos y apoyos existentes pueden ayudar con algunas necesidades relacionadas con la IA, las tecnologías y prácticas de IA incipientes pueden presentar desafíos novedosos que las políticas y directrices existentes simplemente no abordan. En estos casos, las instituciones pueden necesitar crear nuevas políticas y directrices y establecer nuevas estructuras y apoyos para ayudar a los interesados a navegar estas aguas inexploradas. Las siguientes acciones recomendadas pueden ayudar a los interesados institucionales a saber por dónde empezar cuando tienen una hoja en blanco frente a ellos:

Acciones Individuales

  • Incorporar las voces y perspectivas de los estudiantes al desarrollar nuevas políticas y directrices.
  • Recomendar escenarios o problemas para los que se necesita orientación adicional sobre IA.
  • Ser transparentes y abiertos sobre el uso de IA para generar conversación, incluyendo la documentación de casos de uso nuevos y emergentes.

Acciones Departamentales o de Unidad

  • Revisar regularmente los programas académicos y cursos para determinar dónde debe mejorarse y apoyarse el uso de IA y/o la alfabetización.
  • Desarrollar nuevas colaboraciones para romper barreras.
  • Establecer políticas y procedimientos claros para temas relacionados con la tenencia y promoción de IA.

Acciones Institucionales

  • Garantizar el acceso equitativo a herramientas de IA en todo el campus.
  • Contratar líderes y/o personal específicamente encargado de dirigir la IA para la institución.
  • Crear una estructura de gobernanza de IA de alto nivel (fuera de TI), incluyendo auditorías regulares.

Acciones Multiinstitucionales

  • Construir marcos compartidos para evaluar productos y modelos de IA internos y de proveedores.
  • Aprovechar la comunidad de educación superior y los estándares de cumplimiento comunes para presionar a los proveedores de soluciones de IA para que satisfagan las necesidades de la educación superior.
  • Lanzar iniciativas interinstitucionales para avanzar en las políticas y estándares de IA.

Directrices para corregir y verificar problemas de accesibilidad en los libros electrónicos

Accessible Backlist Ebooks Laboratory (ABE Lab).

En los últimos años, la accesibilidad digital ha adquirido una importancia significativa, especialmente con la inminente entrada en vigor de la Directiva 2019/882, también conocida como Acta Europea de Accesibilidad (AEA). Los libros electrónicos entran en el ámbito de aplicación de esta directiva, por lo que es crucial que los editores garanticen la accesibilidad en toda su oferta digital. Aunque algunas editoriales han empezado a producir libros electrónicos accesibles desde el nacimiento, sigue siendo difícil resolver los problemas de accesibilidad en los títulos de la lista de títulos ya publicados.

Aquí es donde entran en juego diversas herramientas y soluciones, desde programas y plataformas hasta aplicaciones basadas en la nube y API. El objetivo de estas herramientas es transformar los libros electrónicos inaccesibles en versiones accesibles, adaptándolas a la legislación europea y a las normas internacionales de accesibilidad.

El proyecto ABE Lab

El objetivo principal del proyecto ABE Lab es proporcionar directrices a las editoriales europeas para impulsar la remediación de los libros electrónicos de su backlist. Como parte de esta iniciativa, el equipo del ABE Lab investigó y probó exhaustivamente diversas herramientas de remediación disponibles en el mercado.

Las directrices del ABE Lab para los productores de herramientas ofrecen conocimientos valiosos y pautas de alto nivel basadas en los hallazgos del equipo. Creado como un recurso para los productores y desarrolladores de herramientas, delinea los requisitos clave necesarios para procesos efectivos de correción. Permite a los desarrolladores evaluar independientemente sus herramientas de remediación, mejorarlas mediante la integración de nuevas funciones y diseñar nuevas herramientas que ofrezcan las funcionalidades y el soporte necesarios para producir libros electrónicos completamente accesibles a partir de versiones no accesibles. En general, estas directrices tienen como objetivo mejorar el soporte de las herramientas para los operadores humanos para agilizar la remediación con simplicidad e intuición.

Puntos clave del documento:

El documento aborda tres aspectos principales:

  • Pautas de alto nivel que destacan la importancia de encontrar, corregir y verificar problemas de accesibilidad en los libros electrónicos y discuten la funcionalidad requerida para abordar de manera efectiva los problemas de accesibilidad más comunes.
  • Información que los productores y desarrolladores deben proporcionar sobre su herramienta para permitir que los clientes tomen la decisión correcta;
  • Una lista de verificación diseñada para evaluar las características de remediación de las herramientas, que abarca metadatos, recursos gráficos, aspectos estilísticos, contenido textual, estructura del documento, navegación y contenido disperso para EPUB y PDF.

Las Directrices para productores de herramientas de remediación están disponibles en línea y se pueden descargar desde la sección de Entregables del sitio web del ABE Lab.

Se alienta a los interesados y desarrolladores a aprovechar este recurso para mejorar las funcionalidades de su software y aplicaciones de remediación.

Directrices sobre donaciones a bibliotecas

Donaciones para las Colecciones: Directrices para las Bibliotecas / Kay Ann Cassell,
Sharon Johnson, Judith Mansfield y Sha Li Zhang para la Sección de Adquisiciones y
Desarrollo de Colecciones de la IFLA. La Haya, IFLA Headquarters, 2010. – 23 pp. 30 cm.- (IFLA Professional Report: 121) Spanish translation of IFLA Professional Report 112
ISBN 978-90-77897-43-0 ISSN 0168-1931

Texto completo

Las donaciones son un componente importante de las actividades para la construcción de colecciones en las bibliotecas. El enfoque de estas directrices o lineamientos se refiere exclusivamente a las donaciones para los acervos de colecciones de las bibliotecas ya sean solicitadas activamente o adquiridas pasivamente. Se recomienda que las bibliotecas establezcan procesos claros para el manejo y evaluación de las donaciones en concordancia con su política para estas. Ello proporcionará claridad entre el personal de la biblioteca y los donadores, reducirá exponerse a riesgos y demandas potenciales y asegurar que las oportunidades futuras asociadas con las colecciones adquiridas para el acervo de la biblioteca sean utilizadas al máximo.

La UNESCO moviliza a los ministros de Educación de todo el mundo para dar una respuesta coordinada al ChatGPT

«AI: UNESCO Mobilizes Education Ministers from around the World for a Co-Ordinated Response to ChatGPT | UNESCO». Accedido 29 de mayo de 2023.

Ver artículo

En respuesta a la rápida aparición de nuevas y potentes herramientas generativas de IA, la UNESCO celebró la primera reunión mundial de Ministros de Educación para explorar las oportunidades, los retos y los riesgos inmediatos y de largo alcance que las aplicaciones de la IA plantean a los sistemas educativos. Más de 40 ministros compartieron sus planteamientos políticos y sus planes sobre la mejor manera de integrar estas herramientas en la educación. Durante el debate en línea del 25 de mayo de 2023, la UNESCO presentó una hoja de ruta sobre la IA generativa y la educación, que incluye un diálogo abierto entre múltiples partes interesadas.

Durante el debate surgieron algunas preocupaciones comunes, entre ellas cómo adaptar los sistemas educativos a las perturbaciones que la IA generativa está provocando rápidamente, cómo integrar la IA generativa en los planes de estudio, los métodos de enseñanza y los exámenes, y cómo mitigar los defectos inherentes a estas tecnologías, entre ellos la capacidad de cometer errores manifiestos y producir información sesgada.

El debate ministerial puso de manifiesto que los gobiernos de todo el mundo están formulando respuestas políticas adecuadas en este panorama en rápida evolución, desarrollando o perfeccionando las estrategias nacionales sobre IA, sobre protección de datos y otros marcos normativos.

Sólo el 10% de las escuelas y universidades disponen de orientaciones formales sobre IA

Una nueva encuesta mundial realizada por la UNESCO en más de 450 escuelas y universidades ha revelado que menos del 10% han desarrollado políticas institucionales y/o directrices formales sobre el uso de aplicaciones de IA generativa. Los resultados ilustran que una respuesta inmediata a la repentina aparición de estas potentes aplicaciones de IA generativa que pueden producir creaciones escritas y visuales supone un reto para las instituciones.

Se destacó el papel vital que desempeñan los profesores en esta nueva era como facilitadores del aprendizaje. Pero los profesores necesitan orientación y formación para hacer frente a estos retos.

Directrices políticas y marco de competencias de la UNESCO

La UNESCO seguirá dirigiendo el diálogo mundial con los responsables políticos, los socios de EdTech, el mundo académico y la sociedad civil. La Organización está elaborando directrices políticas sobre el uso de la inteligencia artificial generativa en la educación y la investigación, así como marcos de competencias en materia de inteligencia artificial para estudiantes y docentes de la enseñanza escolar. Estas directrices se presentarán durante la Semana del Aprendizaje Digital, que tendrá lugar en la Sede de la UNESCO en París del 4 al 7 de septiembre de 2023.

La UNESCO posee una experiencia única, gracias a su mandato en materia de educación y ciencias. En los últimos años, la Organización ha liderado una reflexión mundial sobre los Futuros de la Educación, y también ha establecido el primer marco normativo mundial para la ética de la inteligencia artificial, adoptado unánimemente por sus 193 Estados Miembros en noviembre de 2021.

Directrices de digitalización de imágenes de FADGI 3a. ed. 2023

Technical Guidelines for Digitizing Cultural Heritage Materials. Federal Agencies Digital Guidelines Initiative (FADGI) Still Image Working Group

Texto completo

Ver anteriores ediciones

Federal Agencies Digital Guidelines Initiative (FADGI) Still Image Working Group ha finalizado la tercera edición de sus influyentes Technical Guidelines for Digitizing Cultural Heritage Materials. En junio de 2022, el grupo de trabajo publicó una versión preliminar de las directrices en el sitio web de la FADGI para que el público la revisara y comentara.

El grupo de trabajo recibió docenas de comentarios y preguntas sobre la versión preliminar durante el periodo de comentarios públicos. Una vez cerrado el periodo de comentarios en agosto de 2022, el grupo de trabajo dedicó varios meses a realizar revisiones adicionales para mejorar la Tercera Edición en respuesta a la recepción pública del borrador. La versión final se publicó el 10 de mayo de 2023.

Esta última edición amplía y revisa el contenido incluido en ediciones anteriores de las Directrices publicadas en 2010 y 2016. Las Directrices incluyen información sobre los cuatro componentes de un programa de obtención de imágenes conforme a los FADGI: parámetros técnicos de obtención de imágenes, mejores prácticas, evaluación de la conformidad de las imágenes digitales y personal profesional (nuevo en esta edición de las Directrices).

Inclusión de alumnos con discapacidad: directrices sobre el paso urgente a la enseñanza en línea y a distancia

«The inclusion of learners with disabilities: guidelines on emergency movement to online and distance learning – UNESCO Biblioteca Digital, 2022. Accedido 17 de marzo de 2023. https://unesdoc.unesco.org/ark:/48223/pf0000380661.

El documento aborda el movimiento de emergencia hacia un aprendizaje en línea y a distancia que sea inclusivo para los alumnos con discapacidad con vistas a contribuir a la aplicación de los artículos pertinentes (9, 21 y 24) de la Convención de las Naciones Unidas sobre los Derechos de las Personas con Discapacidad (2006) para apoyar el acceso a oportunidades de aprendizaje de calidad para las personas con discapacidad y el acceso a la información y el conocimiento utilizando soluciones inclusivas, Su objetivo es promover las acciones concretas para la inclusión sistemática y la convencionalización de los aspectos de accesibilidad a través de soluciones abiertas (Recursos Educativos Abiertos – REA, Software Libre y de Código Abierto – FOSS, y Acceso Abierto a la Información Científica – (OA), en la Enseñanza Abierta y a Distancia (EAD). Este documento aborda el aprendizaje abierto y a distancia (AAD) en una variedad de entornos en los que la educación y el aprendizaje están cada vez más mediados por la tecnología, ya sea completamente a distancia o en un marco mixto cada vez más frecuente en el que los estudiantes utilizan la tecnología parte del tiempo.