Archivo de la categoría: Alfabetización informacional

Marco integral para la alfabetización en inteligencia artificial (IA) de EDUCAUSE

Kassorla, Michelle, Maya Georgieva y Allison Papini. «Defining AI Literacy for Higher Education.» EDUCAUSE, 17 de octubre de 2024. https://www.educause.edu/content/2024/ai-literacy-in-teaching-and-learning/defining-ai-literacy-for-higher-education

Se presenta un marco integral para la alfabetización en inteligencia artificial (IA) en la educación superior, denominado ALTL (AI Literacy in Teaching and Learning). Este marco busca equipar a estudiantes, docentes y personal administrativo con las competencias necesarias para interactuar de manera efectiva y ética con las tecnologías de IA en contextos académicos y profesionales.

La alfabetización en IA se define como la comprensión de los fundamentos de cómo funciona la IA, la evaluación crítica de la aplicación de herramientas de IA en la enseñanza, la investigación y la gestión de prioridades educativas, y el mantenimiento de una vigilancia constante para proteger contra sesgos, mal uso y mala aplicación de estos modelos poderosos. Además, exige un compromiso con el uso ético, asegurando que las herramientas de IA se apliquen de manera transparente y responsable, con conciencia de sus impactos sociales

El informe desglosa esta definición en cuatro áreas clave:

  1. Técnica: Comprensión técnica de cómo funciona la IA.
  2. Evaluativa: Evaluación crítica de las aplicaciones y resultados de las herramientas de IA, con énfasis en el desarrollo de herramientas robustas de evaluación del impacto de la IA.
  3. Práctica: Aplicación, integración y gestión efectivas de las herramientas de IA en la enseñanza, la investigación y la administración educativa.
  4. Ética: Formulación y aplicación de estrategias institucionales para salvaguardar contra sesgos y el mal uso o mala aplicación de las tecnologías de IA

Cada institución puede priorizar estas áreas según sus objetivos específicos. Además, se destaca la importancia de fomentar una alfabetización en IA tanto técnica como práctica entre estudiantes, docentes y administración. Este cambio requiere una reevaluación de los planes de estudio en todas las disciplinas, no solo en ciencias de la computación y campos relacionados, para garantizar que los graduados estén equipados con las habilidades de alfabetización en IA requeridas en un mundo cada vez más integrado por la IA

Marco de alfabetización en IA del Consejo de Educación Digital

Digital Education Council. 2025. “Digital Education Council AI Literacy Framework.” Digital Education Council, 3 de marzo de 2025. https://www.digitaleducationcouncil.com/post/digital-education-council-ai-literacy-framework

El marco planteado por el Digital Education Council adopta un enfoque centrado en las personas, destacando la importancia de habilidades humanas como el pensamiento crítico, la creatividad y la inteligencia emocional como base para una alfabetización adecuada en IA

A través de cinco dimensiones clave, el marco estructura la alfabetización en IA en dos niveles: una formación general básica para todos y una versión más especializada adaptable a diferentes disciplinas y contextos legales.

Este recurso está pensado especialmente para instituciones de educación superior, ya que ofrece directrices claras y estructuradas para integrar competencias fundamentales en IA y diseñar aplicaciones específicas según distintas áreas académicas.

Se trata de una guía estructurada en cinco dimensiones de alfabetización, cada una con tres niveles de competencia:

Dimensión 1, Comprensión de la IA y los Datos, empieza con la toma de conciencia sobre IA y datos, avanza hacia su uso en acción y culmina con su optimización. Esta dimensión busca que los individuos pasen de reconocer la existencia y función básica de la IA a ser capaces de mejorar y optimizar sistemas basados en IA.

Dimensión 2, Pensamiento Crítico y Juicio, plantea una evolución desde cuestionar la salida de la IA hasta desafiarla. Se promueve así una actitud crítica frente a los resultados generados por sistemas de IA, desarrollando habilidades para evaluar su calidad, sesgos o implicaciones.

Dimensión 3, Uso Ético y Responsable, aborda la comprensión y aplicación de prácticas responsables en el uso de IA. Parte del reconocimiento de riesgos, pasa por aplicar principios éticos y concluye con la capacidad de configurar entornos que garanticen un uso responsable.

Dimensión 4, Enfoque Humano, Inteligencia Emocional y Creatividad, subraya la importancia de mantener la centralidad del ser humano en la interacción con la IA. Se inicia con la conciencia sobre dicha interacción, se impulsa el uso de la IA como herramienta colaborativa, y finalmente se busca desarrollar prácticas centradas en las personas.

Dimensión 5, Conocimiento del Dominio, integra la IA en el contexto profesional. Comienza con una conciencia aplicada de la IA, progresa hacia su aplicación en entornos laborales concretos y culmina con el liderazgo estratégico, es decir, la capacidad de guiar decisiones y procesos mediante el uso inteligente de la IA.

En esencia, el modelo del Consejo busca que las universidades desarrollen programas educativos que combinen formación técnica con habilidades humanas esenciales, facilitando así que estudiantes y docentes adquieran una base sólida para interactuar con herramientas de IA y aplicar dichos conocimientos de forma contextualizada.

Marco de competencias en inteligencia artificial (IA) para estudiantes

UNESCO. AI competency framework for students París: UNESCO, 2024. https://unesdoc.unesco.org/ark:/48223/pf0000391105

La UNESCO ha elaborado un Marco de competencias en inteligencia artificial (IA) para estudiantes con el objetivo de orientar a los sistemas educativos en todo el mundo hacia una formación que prepare a los jóvenes para vivir, trabajar y tomar decisiones en una sociedad cada vez más influenciada por esta tecnología.

El documento parte de un enfoque centrado en el ser humano, es decir, considera que la IA debe estar al servicio de las personas y no al revés. Por eso, no se trata solo de enseñar cómo funciona esta tecnología, sino también de desarrollar una comprensión crítica y ética de su impacto en la sociedad.

Uno de los aspectos más destacados del marco es la dimensión ética. La UNESCO subraya la necesidad de que los estudiantes comprendan los principios fundamentales que deben guiar el desarrollo y uso de la inteligencia artificial, como la equidad, la transparencia, la inclusión, la privacidad y la rendición de cuentas. Se promueve la reflexión sobre los dilemas que pueden surgir en su uso —por ejemplo, la discriminación algorítmica o la vigilancia masiva—, para formar ciudadanos capaces de actuar con responsabilidad.

Elementos clave del marco

  1. Enfoque centrado en el ser humano
    Busca empoderar a los estudiantes para que comprendan su rol y capacidades frente a la IA, promoviendo un uso consciente y crítico .
  2. Competencia ética
    Incluye la conciencia sobre los valores, los derechos, la privacidad y la responsabilidad al usar la IA, subrayando la importancia de la transparencia y la equidad .
  3. Conocimiento técnico y aplicaciones
    Considera esencial que los estudiantes adquieran una comprensión básica de los conceptos de IA, sus posibilidades, limitaciones y aplicaciones en distintos ámbitos .
  4. Diseño de sistemas de IA
    Promueve habilidades de pensamiento creativo y resolución de problemas, incluida la capacidad de colaborar en el diseño de soluciones basadas en IA .

Además de los aspectos éticos, el marco incluye también competencias técnicas básicas, como el conocimiento de cómo se recopilan y procesan los datos, qué son los algoritmos, cómo se entrenan los modelos de IA y cuáles son sus aplicaciones en distintos contextos. No se espera que todos los estudiantes se conviertan en programadores, pero sí que adquieran un entendimiento general que les permita interactuar de forma informada y segura con estas tecnologías.

Otro componente importante es el diseño y la resolución de problemas. Se fomenta que los estudiantes desarrollen habilidades creativas y de pensamiento crítico para utilizar la IA como herramienta para resolver retos reales, ya sea en el ámbito escolar, comunitario o global. Esto incluye la capacidad de trabajar en equipo, analizar datos, proponer soluciones innovadoras y evaluar los resultados con criterio.

En conjunto, el marco propuesto por la UNESCO se dirige a responsables educativos, diseñadores de currículo y docentes, y pretende servir como base para integrar estas competencias en los programas escolares. La idea es que la enseñanza de la IA no se limite a una materia técnica aislada, sino que se incorpore de manera transversal en distintas asignaturas y niveles educativos. Así, los estudiantes no solo aprenderán qué es la inteligencia artificial, sino también cómo convivir con ella de forma ética, crítica y constructiva.

¿Es la alfabetización en IA el caballo de Troya de la alfabetización informacional?

Chen, Zhuo, Nathan Kelber y Ruby MacDougall. 2025. “Is AI Literacy the Trojan Horse to Information Literacy? Insights from our AI Literacy Cohort Workshops.” Ithaka S+R, 10 de junio de 2025. https://sr.ithaka.org/blog/is-ai-literacy-the-trojan-horse-to-information-literacy/

El texto explora cómo la alfabetización en inteligencia artificial (IA) puede transformarse en una vía estratégica para enriquecer la alfabetización informacional tradicional dentro del ámbito académico

Un marco de alfabetización (Literacy Framework) es un conjunto estructurado de conceptos, habilidades, competencias y valores que sirven como guía para enseñar y desarrollar una forma específica de alfabetización. Aunque el término «alfabetización» solía referirse solo a la capacidad de leer y escribir, hoy se aplica a muchos otros ámbitos, como la alfabetización digital, informacional, mediática, científica… o, como en este caso, la alfabetización en inteligencia artificial (AI Literacy).

El estudio se basa en talleres realizados en abril de 2025, donde participaron bibliotecarios y docentes de 45 instituciones de educación superior, como parte del proyecto “Integrating AI Literacy into the Curricula”

Durante las sesiones, se confrontaron marcos conceptuales existentes: el ACRL (Association of College & Research Libraries) centrado en la alfabetización informacional, y varios marcos de alfabetización en IA más pragmáticos (UNESCO, Choice 360, Educause, Digital Education Council). Se observó que los marcos tradicionales son más conceptuales y modulados, mientras que los de IA adoptan enfoques secuenciales y aplicados, lo que facilita su integración curricular

Los distintos marcos de alfabetización en IA coinciden en la necesidad de dotar a los ciudadanos —especialmente a estudiantes y profesionales del ámbito educativo— de competencias que les permitan comprender, usar, evaluar y reflexionar críticamente sobre la inteligencia artificial. Aunque cada marco responde a su contexto institucional y geográfico, comparten una estructura organizada en torno a dimensiones o competencias clave.

En primer lugar, muchos marcos giran en torno a tres grandes ejes: la comprensión técnica (cómo funciona la IA), la dimensión ética y crítica (identificación de sesgos, impactos sociales, privacidad), y la aplicación práctica (uso responsable y efectivo de herramientas de IA). Por ejemplo, tanto el marco de la Universidad de Adelaida como el de Educause y el de la UNESCO incluyen estas tres dimensiones, si bien con distintos niveles de profundidad y enfoque. El marco de la UNESCO es particularmente exhaustivo, al dividir las competencias en cuatro dimensiones (ética, técnica, diseño de sistemas y mentalidad humanista) y establecer niveles progresivos: comprender, aplicar y crear.

El marco de ACRL (Association of College and Research Libraries), aunque no está centrado específicamente en IA, ofrece una estructura conceptual sobre la alfabetización informacional que ha influido en otros marcos como el de Choice360. Este último adapta los principios de ACRL para entornos donde la IA ya forma parte del proceso de búsqueda, evaluación y producción de información académica.

Por su parte, marcos como el del Digital Education Council y el del World Economic Forum adoptan una visión más global y orientada al desarrollo de ciudadanía digital, el pensamiento computacional y las habilidades para el siglo XXI, incorporando la IA como herramienta clave en el desarrollo económico y social. En este sentido, coinciden con el enfoque de Educause, que además integra competencias para distintos actores de la educación superior: estudiantes, docentes y personal técnico.

Los marcos centrados en bibliotecas, como AI Literacy: A Guide for Academic Libraries (Lo, 2023) y el de la Universidad de Adelaida, tienen un enfoque más operativo y cercano a la práctica profesional, diseñados para ayudar a bibliotecarios a enseñar o guiar en el uso de IA en contextos académicos. Estos marcos suelen ser más concisos, pero incluyen ejemplos, buenas prácticas y estrategias de implementación.

Las principales diferencias entre estos marcos se relacionan con el nivel de detalle, el público destinatario (desde estudiantes de primaria hasta personal universitario), y la orientación institucional (educativa, bibliotecaria o política). Algunos, como el de la UNESCO o Educause, son más prescriptivos y completos; otros, como el de ACRL o el de Lo, permiten una mayor flexibilidad e interpretación local.

Todos estos marcos ofrecen una base sólida y complementaria para abordar la alfabetización en inteligencia artificial. Todos reconocen la importancia de desarrollar una comprensión profunda y crítica de la IA, más allá del simple uso técnico de las herramientas, fomentando una ciudadanía digital ética, inclusiva y preparada para los desafíos del presente y del futuro. La combinación de elementos de estos marcos puede ser especialmente útil para diseñar programas educativos o bibliotecarios adaptados a diferentes contextos.

Uno de los hallazgos más relevantes surgió cuando un participante definió la alfabetización en IA como “un cubo bajo el paraguas de la alfabetización informacional”. Este concepto propone que la IA no solo está contenida dentro de la alfabetización informacional, sino que moldea y modifica su paradigma, recordando que detrás de toda tecnología hay supuestos culturales, técnicos y éticos que requieren una evaluación crítica.

Los participantes destacaron que ambos marcos comparten el énfasis en el pensamiento crítico sobre la información. No obstante, las prácticas de alfabetización en IA demandan además una capacidad técnica mínima y una comprensión ética más profunda: es necesario comprender cómo los sistemas generan información, reconocer sus sesgos y limitaciones, y evaluar fuentes con conciencia tecnológica .

También se identificaron brechas en los marcos: la alfabetización en IA suele centrarse únicamente en la IA generativa, ignorando otros tipos de IA; además, se utilizan términos como “ética” de manera vaga sin esclarecer a quién se aplican los principios. El ritmo acelerado del desarrollo tecnológico exige marcos educativos más dinámicos y actualizables .

De este modo, el artículo concluye que la alfabetización en IA podría actuar como una especie de “caballo de Troya” dentro de la alfabetización informacional: aporta una capa adicional que exige un enfoque más técnico, crítico y contextualizado. Esto representa una oportunidad para modernizar los programas curriculares, impulsar colaboraciones entre bibliotecas, centros educativos y docentes, y preparar a estudiantes y académicos para abordar la complejidad actual de la cultura informativa .

Integración de la AI en los planes de estudios

Chen, Zhuo, Nathan Kelber y Ruby MacDougall. 2025. “Applying AI Literacy to Student and Faculty Persons.” Ithaka S+R Blog, 10 de junio de 2025. https://sr.ithaka.org/blog/applying-ai-literacy-to-student-and-faculty-personas/.

En mayo de 2025, Ithaka S+R organizó los primeros talleres del proyecto “Integrating AI Literacy in the Curricula”, en colaboración con bibliotecarios y docentes de 45 instituciones educativas de nivel superior. El objetivo fue vincular la alfabetización en inteligencia artificial (IA) con los marcos tradicionales de alfabetización informacional y generar herramientas prácticas para su implementación académica

Durante la primera sesión, los participantes analizaron marcos teóricos y definiciones existentes sobre IA y alfabetización informacional. En la segunda, se formaron grupos que trabajaron a partir de uno de seis personas predefinidos (tres perfiles de estudiantes: universitario, posgrado y adulto; y tres perfiles docentes: humanista, científico social y natural), para explorar sus riesgos, beneficios y necesidades específicas relacionadas con la IA

Dos ejemplos representativos surgieron:

  • Callie, estudiante de 38 años de fisioterapia en línea, necesita acceso a herramientas de IA relevantes, formación práctica y certificaciones para destacar en el ámbito laboral de la salud. Sin embargo, su falta de experiencia con IA implica riesgos como el uso inapropiado de datos o el incumplimiento de normativas de privacidad (HIPAA). Los participantes definieron su alfabetización en IA como “comprender la IA, reconocer casos adecuados de uso y evaluar su repercusión en la preparación profesional”
  • Sue, profesora de sociología reacia al uso de IA frente a la presión institucional, podría centrarse únicamente en detectar trampas estudiantiles. Los participantes la instaron a reorientar su enfoque: en lugar de buscar mecanismos de detección, desarrollar ejemplos positivos de uso docente, construir políticas institucionales y comprender las limitaciones de las herramientas. Su definición se formuló como “tener acceso a modelos de IA bien integrados en el aula y conocer los límites de los detectores”

Al final, los facilitadores sintetizaron las ideas en común y alentaron a las instituciones a profundizar en las prioridades identificadas para impulsar la alfabetización en IA. Ithaka S+R continuará diseñando instrumentos cualitativos para recoger experiencias de estudiantes y docentes, con el fin de desarrollar soluciones tangibles adaptadas a sus necesidades.

Este enfoque centrado en personas evidencia una necesidad de diseñar definiciones flexibles y relevantes de alfabetización en IA, que respondan a disciplinas, niveles de experiencia y roles institucionales. El proyecto reconoce el potencial transformador de integrar la IA de forma ética y contextualizada en entornos educativos reales.

GLAT: herramienta para evaluar la alfabetización en inteligencia artificial generativa

Yueqiao Jin, Roberto Martinez-Maldonado, Dragan Gašević, Lixiang Yan, GLAT: The generative AI literacy assessment test, Computers and Education: Artificial Intelligence,
Volume 9, 2025, 10 de junio de 2025. https://www.sciencedirect.com/science/article/pii/S2666920X25000761

Se presenta «GLAT: The Generative AI Literacy Assessment Test» una herramienta para el desarrollo y validación del rendimiento para medir la alfabetización en inteligencia artificial generativa (GenAI).

Esta prueba, denominada GLAT, fue diseñada para evaluar la capacidad de los individuos para utilizar herramientas de GenAI de manera efectiva y ética, abordando la creciente necesidad de evaluar habilidades en un entorno digital cada vez más automatizado.

La investigación destaca que, a pesar del aumento en el uso de tecnologías de GenAI, existe una falta de herramientas estandarizadas para medir la competencia en este ámbito. GLAT se diferencia de las evaluaciones tradicionales al centrarse en tareas prácticas que simulan escenarios reales donde los usuarios deben interactuar con sistemas de GenAI, evaluando su capacidad para generar, analizar y aplicar contenido de manera crítica.

Además, el estudio valida la fiabilidad y validez del GLAT a través de pruebas empíricas, demostrando que la herramienta es efectiva para medir la alfabetización en GenAI en diversos grupos demográficos. Los resultados sugieren que el GLAT puede ser una herramienta valiosa para instituciones educativas, organizaciones y gobiernos que buscan evaluar y mejorar las competencias digitales relacionadas con la inteligencia artificial generativa.

GLAT es una solución innovadora para abordar la necesidad urgente de evaluar la alfabetización en GenAI, proporcionando una base para el desarrollo de políticas educativas y formativas que promuevan el uso responsable y competente de las tecnologías de inteligencia artificial generativa

Las bibliotecas impulsan la educación para el desarrollo sostenible

Hauke, P., Mocatta, A., & Pun, P. N. I. (Eds.). Libraries Driving Education for Sustainable Development. De Gruyter, 2025

Texto completo

El libro hace referencia al programa de Educación para el Desarrollo Sostenible (EDS) para 2030 de la UNESCO, destacando su importancia como marco global que promueve la integración de los principios del desarrollo sostenible en todos los niveles y contextos educativos. En este sentido, se subraya el papel fundamental que desempeñan las bibliotecas —y en particular las bibliotecas verdes y sostenibles— como instituciones clave de aprendizaje a lo largo de la vida y como aliadas estratégicas en la implementación de dicha agenda.

Las bibliotecas no solo proporcionan acceso a la información, sino que también actúan como centros de participación comunitaria, reflexión crítica y acción transformadora en favor de la sostenibilidad. Por ello, el texto apoya que merecen un reconocimiento destacado como espacios educativos no formales que contribuyen activamente a los objetivos de desarrollo sostenible y respaldan las políticas de sostenibilidad impulsadas por los gobiernos nacionales y locales.

En consonancia con la Declaración de Berlín sobre Educación para el Desarrollo Sostenible y el programa EDS 2030 de la UNESCO, el libro pone especial atención en enfoques pedagógicos innovadores y en proyectos educativos informales desarrollados y ofrecidos por bibliotecas verdes. Estas iniciativas abarcan desde talleres de sensibilización medioambiental hasta programas de alfabetización ecológica, pasando por acciones de co-creación con la comunidad orientadas a promover prácticas sostenibles. De este modo, se evidencia cómo las bibliotecas pueden ser agentes de cambio en la construcción de sociedades más justas, resilientes y comprometidas con el futuro del planeta.

¿Por que los modelos de IA nos conducen a reforzar lo que ya creemos?

Eugina Leung, The Scientific Reason Why ChatGPT Leads You Down Rabbit Holes,” CNET, 10 de junio de 2025, https://www.cnet.com/tech/services-and-software/the-scientific-reason-why-chatgpt-leads-you-down-rabbit-holes/

El artículo cuenta por qué herramientas como ChatGPT pueden llevar a los usuarios a profundizar en líneas de pensamiento cada vez más específicas, a veces hasta puntos extremos o sesgados, en lo que comúnmente se conoce como “caer en un sesgo o bucle de confirmación” digital.

El sesgo de confirmación (también llamado sesgo confirmatorio) es una tendencia psicológica que lleva a las personas a buscar, interpretar y recordar información de manera que confirme sus propias creencias y expectativas preexistentes, mientras ignoran o desestiman información que las contradiga.

Según Leung, este comportamiento no se debe únicamente al diseño del modelo de lenguaje, sino a un patrón compartido con los motores de búsqueda y otras herramientas digitales: las personas tienden a confirmar sus creencias iniciales. Esto se traduce en que, cuando un usuario realiza una consulta a ChatGPT, lo hace ya desde una postura determinada. Por ejemplo, si alguien sospecha que cierto alimento es dañino, probablemente formulará su pregunta de forma que ya presupone esa posibilidad. El sistema, a su vez, genera respuestas que encajan con esa narrativa, confirmando la suposición en lugar de cuestionarla.

Esta interacción desencadena un bucle de retroalimentación. Cuanto más pregunta el usuario en esa dirección, más contenido relacionado obtiene, lo que le lleva a profundizar aún más en esa perspectiva. Este proceso es lo que se conoce como “cascada de profundidad” y puede dar lugar a una especie de efecto túnel, donde se van perdiendo matices, dudas o puntos de vista alternativos. En el caso de temas sensibles como la política, la salud, las creencias personales o las teorías de la conspiración, este efecto puede ser especialmente problemático, ya que facilita la consolidación de ideas erróneas o distorsionadas.

Uno de los elementos clave de este fenómeno es la forma en que los modelos responden a las preguntas: su diseño se basa en ofrecer respuestas que parezcan relevantes, coherentes y satisfactorias según el contexto de la conversación. Sin embargo, esto no siempre equivale a una respuesta imparcial o equilibrada. En muchos casos, el sistema simplemente sigue la lógica del usuario y refuerza su hipótesis, en lugar de introducir elementos de contraste o una visión crítica.

Aunque el artículo no presenta una solución definitiva, sí deja entrever algunas estrategias útiles para contrarrestar este efecto. En primer lugar, es esencial que los usuarios sean conscientes de sus propios sesgos y del modo en que estos influyen en la formulación de preguntas. También se sugiere que se practique la variación intencional de las consultas, explorando diferentes formas de abordar un mismo tema. Finalmente, se menciona la posibilidad de diseñar modelos que incluyan mecanismos para ofrecer perspectivas alternativas o advertencias sobre posibles sesgos presentes en la conversación.

En conclusión, ChatGPT tiene una base científica y psicológica sólida. La tendencia humana a buscar confirmación de nuestras ideas, unida al diseño de las respuestas generadas por IA, puede llevarnos a reforzar creencias sin darnos cuenta. Este descubrimiento invita tanto a usuarios como a desarrolladores a promover un uso más consciente, crítico y equilibrado de estas herramientas.

Guía inicial de la IFLA sobre inteligencia artificial en bibliotecas: oportunidades, riesgos y recomendaciones

International Federation of Library Associations and Institutions (IFLA). 2025. IFLA Entry Point to Libraries and AI. The Hague: IFLA, June 10, 2025.

Texto completo

«IFLA Entry Point to Libraries and AI», publicada el 10 de junio de 2025, es una guía breve y práctica diseñada para ayudar a profesionales de bibliotecas a reflexionar sobre las oportunidades, beneficios y riesgos éticos que plantea la inteligencia artificial (IA) en sus servicios. No pretende reemplazar un instrumento de decisión, sino ser una herramienta introductoria: ofrece preguntas —no respuestas— para promover el debate y la evaluación contextuada.

La Inteligencia Artificial (IA) ofrece un potencial significativo para apoyar los valores fundamentales de las bibliotecas, como el acceso equitativo a la información y la creación de conocimiento. Sin embargo, también es una tecnología controvertida, con desarrollos actuales que plantean preocupaciones éticas y sociales.

La IFLA utiliza el término IA en sentido amplio, abarcando desde tecnologías conocidas (como OCR, traducción automática, análisis de datos) hasta modelos generativos recientes. La guía reconoce que, si bien muchas ya forman parte del ecosistema bibliotecario, el público y los debates suelen centrarse en herramientas más novedosas como los grandes modelos de lenguaje.

La guía forma parte de una serie temática (2025‑2026), alineada con el Código de Ética de la IFLA y otros documentos. La organización se compromete a actualizarla regularmente, reflejando los rápidos cambios en el ámbito de la IA . En la misma, IFLA enfatiza el deber profesional de garantizar que los beneficios de la IA —por ejemplo, en términos de acceso al conocimiento y eficiencia operativa— se obtengan de forma responsable, equitativa y sostenible. Asimismo, alerta sobre el potencial generador de daños, evitando que la “hiperexcitación tecnológica” opaque soluciones más simples, justas y asequibles.

Identifica múltiples aplicaciones útiles para las bibliotecas, entre ellas:

  • Digitalización masiva (textos, archivos visuales, grabados).
  • Creación de metadatos a escala.
  • Sistemas de recomendación y personalización.
  • Resúmenes automatizados, análisis de datos, traducciones y chatbots.
  • Soporte en tareas profesionales internas (p. ej., redacción de informes)

Aunque el documento alerta también sobre 14 riesgos clave, como:

  • Concentración de poder en empresas tecnológicas y carreras de IA desreguladas
  • Sobrehype y casos de uso poco relevantes o ineficaces.
  • Información inexacta o desactualizada, con invención de fuentes.
  • Sesgos heredados de datos de entrenamiento.
  • Pérdida de diversidad cultural y lingüística.
  • Desinformación y censura.
  • Brecha digital y acceso desigual.
  • Opacidad, falta de explicabilidad y responsabilidad.
  • Privacidad y seguridad de los datos de usuarios.
  • Propiedad intelectual y derechos de autor, especialmente por el scraping de datos.
  • Falta de consulta a las partes interesadas.
  • Reducción de autonomía humana y dependencia tecnológica.
  • Desplazamiento laboral y explotación de trabajadores precarios.
  • Impacto ambiental por consumo energético y agua en centros de datos.

Además, Incluye 14 preguntas orientadoras (por ejemplo: ¿son los beneficios justificables?, ¿es equitativo el acceso?, ¿se protege la privacidad?, ¿quién es responsable ante errores?, ¿cómo se involucra a la comunidad?). Están concebidas para estructurar debates, talleres o análisis internos

Se presentan escenarios prácticos para ilustrar cómo aplicar estas preguntas en situaciones reales: uso interno por parte del personal, apoyo a la creación de metadatos, elección de proveedores externos, entre otros. Estos ayudan a traducir preguntas abstractas en decisiones tangibles.

Y propone diferentes niveles de acción

La IFLA propone seis niveles de acción:

  1. Desarrollar o licenciar herramientas de IA.
  2. Contribuir a la creación y entrenamiento de modelos en interés público.
  3. Guiar a usuarios en el uso responsable de IA.
  4. Incluir alfabetización en IA dentro de la alfabetización digital.
  5. Asesorar internamente respecto a políticas de IA.
  6. Abogar por un uso ético y regulado de la IA en la sociedad

Desafíos y desigualdades que enfrenta la alfabetización en inteligencia artificial (IA) en el ámbito universitario

Chen, Zhuo; Nathan Kelber; y Ruby MacDougall. “The Divided State of AI in Higher Education.Ithaka S+R (blog), 9 de junio de 2025. https://sr.ithaka.org/blog/the-divided-state-of-ai-in-higher-education/

El artículo expone cómo la alfabetización en inteligencia artificial en la educación superior está fragmentada entre disciplinas, generaciones y políticas institucionales. Muchas universidades carecen de estrategias coherentes, con recursos distribuidos de forma desigual y enfoques que priorizan al profesorado sobre el estudiantado. Ante esta división, el proyecto “Integrating AI Literacy into the Curricula” busca desarrollar un marco común que unifique criterios y fomente una implementación equitativa.

Se analiza los desafíos y desigualdades que enfrenta la alfabetización en inteligencia artificial (IA) en el ámbito universitario. Señalan que esta alfabetización no sigue un patrón uniforme: mientras algunas instituciones ofrecen programas e iniciativas formales, otras no cuentan con talleres ni formación sistemática. Además, existen marcadas diferencias según el campo académico—las ramas de ciencias y negocios adoptan la IA con mayor rapidez, mientras que las humanidades mantienen una postura más reservada—y según la generación docente, donde el profesorado joven se muestra más receptivo frente al escepticismo del profesorado con mayor trayectoria

Otra división clave es la disparidad entre los enfoques institucionales: no hay una política común sobre qué implica la alfabetización en IA ni cómo integrarla en los planes de estudio. En muchas universidades, los recursos y los programas relacionados con IA están aislados entre bibliotecas, centros de enseñanza e informática, sin una estrategia cohesiva a nivel campus . Esto contrasta con la presión comercial, pues muchos centros tienen acceso a herramientas IA antes incluso de formar al personal o establecer estándares.

El informe destaca también que las formaciones en IA están más orientadas al profesorado que al estudiantado. En algunas universidades, los profesores pueden utilizar IA libremente en su labor, mientras que los estudiantes apenas tienen permiso para hacerlo, y cuando lo tienen, depende del criterio individual del docente. Además, no existen buenas prácticas estandarizadas para guiar su integración en la enseñanza .

Como respuesta, Ithaka S+R ha lanzado el proyecto “Integrating AI Literacy into the Curricula”, que ha convocado a 45 instituciones para abordar estas divisiones colaborativamente. En la reunión inicial (abril de 2025), participantes identificaron las brechas existentes y comenzaron a compartir soluciones, aunque todavía no existe un modelo unificado. El objetivo es construir un marco compartido de alfabetización en IA que supere las diferencias disciplinarias, generacionales y organizativas