Archivo de la categoría: Alfabetización informacional

El 70 % de los adolescentes en Estados Unidos han utilizado alguna herramienta de inteligencia artificial generativa

Common Sense Media. The Dawn of the AI Era: Teens, Parents, and Generative AI. San Francisco: Common Sense Media, 2024.

Texto completo

El informe revela que aproximadamente el 70 % de los adolescentes en Estados Unidos han utilizado alguna herramienta de inteligencia artificial generativa, como ChatGPT o DALL·E. Estas tecnologías se emplean principalmente para ayudar en tareas escolares, especialmente para generar ideas o traducir contenidos. Sin embargo, solo el 37 % de los padres son conscientes del uso que sus hijos hacen de estas herramientas, lo que evidencia una desconexión significativa entre adolescentes y adultos en cuanto al conocimiento y manejo de la IA.

En cuanto a las políticas escolares, el estudio destaca que muchas escuelas aún no cuentan con normativas claras sobre el uso de la IA generativa. Un 37 % de los adolescentes reportan que en sus escuelas no existen reglas definidas al respecto, mientras que el 42 % de los docentes suelen prohibir su uso. Por otro lado, el 87 % de los padres han oído hablar de estas tecnologías, pero muchos desconocen cómo y cuándo sus hijos las utilizan.

El informe también muestra diferencias en el uso de la IA entre grupos raciales. Los adolescentes afroamericanos y latinos tienden a utilizar una gama más amplia de funciones de la IA en comparación con sus compañeros blancos. Además, los padres de adolescentes afroamericanos suelen tener una visión más positiva respecto al impacto de estas tecnologías en la educación y en el desarrollo de habilidades. No obstante, se observa que los adolescentes afroamericanos tienen más probabilidades de que sus trabajos sean erróneamente identificados como generados por IA, lo que plantea preocupaciones sobre posibles sesgos en los sistemas de detección.

Otro aspecto importante es que los adolescentes que participan en discusiones en el aula sobre la inteligencia artificial tienen una percepción más crítica y equilibrada de sus ventajas y desventajas. Estos jóvenes suelen verificar con mayor frecuencia la precisión del contenido generado por IA y reflexionan sobre cómo esta tecnología podría influir en sus futuras carreras profesionales.

Finalmente, el informe propone recomendaciones para distintos actores. A los padres se les sugiere informarse y dialogar con sus hijos sobre los beneficios y riesgos de la IA. A los educadores se les aconseja desarrollar políticas claras para su uso en el aula y promover debates críticos. A los responsables políticos se les insta a crear directrices que fomenten un uso ético y equitativo de la IA en la educación, garantizando que ningún grupo quede en desventaja.

Impacto de la inteligencia artificial en la vida escolar: datos, riesgos y recomendaciones

Laird, Elizabeth, Madeliene Dwyer y Hugh Grant‑Chapman. Off Task: EdTech Threats to Student Privacy and Equity in the Age of AI. Washington, DC: Center for Democracy & Technology, septiembre de 2023. https://cdt.org/wp-content/uploads/2023/09/091923-CDT-Off-Task-web.pdf

El informe analiza críticamente cómo las tecnologías educativas (edtech), especialmente aquellas impulsadas por inteligencia artificial, están afectando la privacidad y la equidad en el entorno escolar estadounidense. A través de encuestas a estudiantes, familias y docentes de secundaria, se identifica un uso creciente de herramientas de filtrado de contenido, monitoreo estudiantil y plataformas de IA generativa, sin una reflexión adecuada sobre sus implicaciones éticas, sociales y pedagógicas.

Uno de los principales hallazgos es la falta de participación de las comunidades educativas en la toma de decisiones sobre estas tecnologías. Muchos estudiantes y padres expresan preocupación por su uso, pero apenas una minoría ha sido consultada o informada sobre su implementación. Además, el profesorado ha recibido escasa formación, lo que limita su capacidad para aplicar estas herramientas de forma crítica y justa. Esta falta de transparencia y educación crea un entorno donde las decisiones técnicas se imponen sin diálogo, debilitando la confianza en el sistema educativo.

El informe subraya también cómo el filtrado de contenido, aunque pensado para proteger a los estudiantes, a menudo bloquea información legítima y relevante para su aprendizaje. Esto se vuelve especialmente preocupante cuando los filtros restringen temas vinculados a la identidad racial, el género o la orientación sexual, reproduciendo sesgos y excluyendo a estudiantes LGBTQ+ o pertenecientes a minorías. Así, estas herramientas pueden actuar como formas digitales de censura o exclusión.

Resultados:

62 % de los estudiantes y 73 % de los padres/madres están preocupados por el uso de edtech, pero:

Solo 38 % de los estudiantes y 31 % de los padres/madres afirman haber sido consultados por sus escuelas sobre el uso de estas tecnologías.

Casi el 100 % de las escuelas utilizan sistemas de filtrado web.

71 % de los estudiantes informan que estos filtros dificultan sus tareas escolares.

41 % de estudiantes LGBTQ+ reportan tener más dificultades que sus compañeros para acceder a información relevante para su identidad.

39 % de estudiantes afroamericanos afirman que los filtros bloquean contenidos sobre historia o cultura negra.

58 % de los estudiantes han usado herramientas de IA generativa al menos una vez.

24 % han sido sancionados por su uso.

57 % de los docentes no han recibido ninguna formación sobre estas tecnologías.

37 % no sabe si su escuela tiene políticas sobre IA generativa.

Solo 34 % de los docentes han recibido formación sobre privacidad digital en el último año.

El 52 % de los docentes afirman que les cuesta confiar en el trabajo de los estudiantes desde que se empezó a usar IA generativa.

Por otro lado, el monitoreo digital de la actividad estudiantil —incluso fuera del horario escolar y en dispositivos personales— está en aumento. Este tipo de vigilancia genera consecuencias graves: sanciones disciplinarias desproporcionadas, denuncias a las autoridades e incluso situaciones en las que estudiantes LGBTQ+ han sido “sacados del armario” sin su consentimiento. Las medidas de vigilancia no solo afectan la privacidad, sino también el bienestar emocional y la seguridad de los estudiantes más vulnerables.

El uso de inteligencia artificial generativa, como ChatGPT, ha crecido rápidamente en los entornos escolares, pero sin preparación institucional. La mayoría del profesorado no ha recibido formación sobre su uso ni conoce las políticas escolares al respecto. Esto ha llevado a que muchos estudiantes sean sancionados por utilizar estas herramientas, aunque no existan normas claras que regulen su aplicación. Al mismo tiempo, los docentes expresan preocupación por la pérdida de confianza en el trabajo autónomo del alumnado, lo que genera tensiones en la relación educativa.

El informe advierte que estas tecnologías afectan de forma desproporcionada a estudiantes con discapacidades, de bajos ingresos o pertenecientes a colectivos marginados, amplificando desigualdades estructurales. Por ello, no se trata únicamente de un problema de privacidad, sino de una cuestión de derechos civiles y justicia educativa. CDT concluye con una serie de recomendaciones urgentes: establecer marcos normativos claros, formar adecuadamente al personal docente, y garantizar la participación significativa de estudiantes y familias en todas las decisiones relacionadas con la tecnología en las aulas.

Recomendaciones:

Incluir a estudiantes y familias en la toma de decisiones sobre EdTech

  • Involucrar activamente a las comunidades escolares en la evaluación, selección y supervisión de las tecnologías utilizadas en clase.
  • Fomentar la transparencia sobre las herramientas empleadas y sus finalidades.

Revisar políticas de filtrado de contenido

  • Asegurar que los filtros no limiten el acceso a información educativa legítima, especialmente en temas de identidad, salud mental o justicia social.
  • Evitar que los filtros reproduzcan sesgos discriminatorios.

Limitar el monitoreo estudiantil

  • Establecer políticas claras sobre qué se monitorea, cuándo, cómo y por qué.
  • Asegurar que el monitoreo no continúe fuera del horario escolar ni en dispositivos personales sin consentimiento informado.

Crear políticas claras sobre el uso de IA generativa

  • Proporcionar directrices coherentes y accesibles para el alumnado y profesorado sobre cómo se puede o no utilizar la inteligencia artificial generativa.
  • Integrar estas políticas en los planes pedagógicos.

Formar al profesorado

  • Ofrecer formación continua sobre privacidad digital, equidad tecnológica y uso ético de la inteligencia artificial.

Cómo las bibliotecas pueden apoyar a los jóvenes en la era de la IA

Tanzi, Nick. 2025. “Building a Future‑Ready Generation: How Libraries Can Support Youth in the Age of AI.” LinkedIn, May 21, 2025. Publicado en The Digital Librarian. https://www.linkedin.com/pulse/building-future-ready-generation-how-libraries-can-support-nick-tanzi-mviye/

Tanzi subraya que la IA está integrada en casi todos los aspectos de la vida de los niños: desde recomendaciones de YouTube Kids, asistentes de escritorio como CoPilot, sistemas móviles como Apple Intelligence o Gemini, hasta redes sociales con Meta AI. Cita un informe de Common Sense Education según el cual el 70 % de los adolescentes ha usado algún tipo de IA generativa; sin embargo, solo el 37 % de los padres era consciente de ello. Además, el 60 % de los estudiantes dice que su escuela no tiene normas sobre IA, o no las conocen.

Se advierte que el acceso generalizado sin regulación ni comprensión adecuada genera riesgos: chatbots han sido asociados a autolesiones, dependencia y consejos de salud peligrosos. Según el informe “Off Task” de 2023, el 45 % de estudiantes de secundaria ha recurrido a IA generativa para cuestiones personales o de salud mental

Tanzi sostiene que es responsabilidad de las bibliotecas “llenar los vacíos de conocimiento” mediante la construcción de una alfabetización en IA—es decir, “habilidades que permitan entender, evaluar y usar críticamente sistemas de IA en un mundo digital”. Es clave involucrar a padres y cuidadores, demistificar la IA, promover seguridad digital y enseñar a identificar y analizar outputs generados por IA. También recomienda curar recursos didácticos para programas o referencias, mencionando sitios como Common Sense y News Literacy Project

Por ello el personal bibliotecario debe colaborar activamente con los distritos escolares. Es importante entender si existen políticas formales sobre IA (por ejemplo, Northport-East Northport o Downingtown), qué herramientas están aprobadas académicamente, y si se exige que los estudiantes revelen el uso de IA. Esta colaboración permite a las bibliotecas apoyar eficazmente la investigación y enseñar técnicas de búsqueda y «prompting», respetando las regulaciones y la posible necesidad de consentimiento paterno

Inteligencia artificial y educación: orientaciones para responsables políticos

Miao, F., & Holmes, W. (2021). Artificial Intelligence and Education: Guidance for Policy-makers. Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO). https://unesdoc.unesco.org/ark:/48223/pf0000376709

El informe de la UNESCO ofrece una guía integral para que los responsables políticos comprendan y gestionen la integración de la inteligencia artificial (IA) en la educación. Destaca tanto las oportunidades como los riesgos asociados al uso de la IA en el ámbito educativo, con el objetivo de garantizar una implementación ética, inclusiva y equitativa.

Contenido clave:

  • Definición y tecnologías de la IA: Se exploran las bases de la IA, incluyendo sus definiciones, técnicas y tecnologías subyacentes.
  • Tendencias emergentes y su impacto: Se analizan las tendencias actuales en el uso de la IA en la educación y sus implicaciones para la enseñanza y el aprendizaje.
  • Preparación para convivir con la IA: Se discute cómo los sistemas educativos pueden preparar a los individuos para vivir y trabajar en un entorno influenciado por la IA.
  • Aplicaciones de la IA en la educación: Se presentan ejemplos de cómo la IA puede mejorar la educación, desde la personalización del aprendizaje hasta la automatización de tareas administrativas.
  • Desafíos y recomendaciones: Se identifican los principales desafíos en la implementación de la IA en la educación y se ofrecen recomendaciones concretas para que los responsables políticos diseñen políticas y programas adaptados a sus contextos locales.

Este informe es una herramienta esencial para los responsables políticos que buscan integrar la IA de manera efectiva y ética en los sistemas educativos, con miras a avanzar hacia el Objetivo de Desarrollo Sostenible 4 (Educación de calidad para todos).

Las bibliotecas impulsan la educación para el desarrollo sostenible

IFLA. “Call for Book Chapters — ‘Libraries Driving Education for Sustainable Development’.” IFLA News, 20 de agosto de 2023

Descargar

Las bibliotecas, especialmente las bibliotecas verdes y sostenibles, merecen un reconocimiento destacado como instituciones de aprendizaje y socios impulsores activos de la Educación para el Desarrollo Sostenible y que apoyan los esfuerzos de sostenibilidad de sus gobiernos.

El libro hace referencia al programa educativo EDS para 2030 de la UNESCO. En línea con la Declaración de Berlín sobre la EDS y el programa de la UNESCO, el libro se centra en enfoques innovadores y proyectos de educación informal, creados e impartidos por bibliotecas verdes y sostenibles. Las bibliotecas impulsan la Educación para el Desarrollo Sostenible

El proyecto está alineado con el Programa de Educación para el Desarrollo Sostenible de la UNESCO y busca visibilizar el papel de las bibliotecas—públicas, escolares, académicas, etc.—como actoras fundamentales en la educación para la sostenibilidad. A través de experiencias e iniciativas innovadoras, se quiere demostrar cómo las bibliotecas contribuyen directamente a la consecución de los Objetivos de Desarrollo Sostenible (ODS) de la ONU .

El volumen recolectará capítulos que analicen distintos ámbitos:

  1. El papel transformador de las bibliotecas en el entorno educativo sostenible.
  2. Proyectos de educación ambiental, cambio climático, economía circular y ciudadanía científica.
  3. Servicios educativos dedicados a grupos vulnerables: infancia, mujeres, minorías, etc.
  4. Espacios seguros e inclusivos para la formación en competencias útiles para combatir la pobreza

Marco de alfabetización en Inteligencia Artificial de la Biblioteca de la Universidad de Adelaida

University of Adelaide Library. Artificial Intelligence Literacy Framework. Adelaide: University of Adelaide, 2024. https://www.adelaide.edu.au/library/library-services/services-for-teaching-staff/artificial-intelligence-literacy-framework

La Biblioteca de la Universidad de Adelaida ha lanzado el “Artificial Intelligence Literacy Framework” (AILF), un marco diseñado para ofrecer a los estudiantes las competencias necesarias para navegar ética y responsablemente en el mundo de la inteligencia artificial.

En un entorno en el que la IA permea múltiples disciplinas y sectores, el AILF busca dotar a los usuarios de habilidades para reconocer, comprender, usar, evaluar y reflexionar críticamente sobre diversas aplicaciones de IA.

El marco fue desarrollado entre febrero y mayo de 2024 por un equipo interdisciplinario de la biblioteca con académicos, profesionales y estudiantes, junto con una revisión de literatura académica reciente en alfabetización en IA

El AILF se estructura en cuatro dimensiones clave, cada una orientada a distintos aspectos del desarrollo de la competencia en IA:

  1. Reconocer y Comprender: Los estudiantes aprenderán conceptos esenciales como terminología básica (p. ej., machine learning, IA generativa), tipos de IA, diferencias entre algoritmos convencionales e IA, funcionamiento básico de modelos, historia de la IA y su diversidad de aplicaciones
  2. Usar y Aplicar: Se busca que los estudiantes sepan construir prompts eficaces, seleccionar herramientas según el contexto, cumplir con políticas de integridad académica, documentar su uso de IA conforme a estilos de referencia, y comprender impactos derivados del uso de estas tecnologías
  3. Evaluar y Criticar: Esta dimensión promueve la capacidad de comparar diferentes modelos, detectar errores o sesgos, evaluar la calidad de los datos de entrenamiento, prever riesgos, y argumentar de forma informada sobre los beneficios y los desafíos que la IA puede presentar
  4. Reflexionar y Respetar: Incluye competencias éticas como el reconocimiento de derechos de autor, la privacidad, la responsabilidad en el uso de IA, y la consideración de aspectos sociales, económicos, culturales y ambientales vinculados a estas tecnologías

Como complemento, la biblioteca ofrece recursos como la guía “How do I?” sobre IA y webinars como el “Masterclass in generative AI” para apoyar la formación en estas dimensiones

Este marco permite que las instituciones integren un programa de alfabetización en IA estructurado, desde el conocimiento fundamental hasta la evaluación crítica y la reflexión ética, fortaleciendo la preparación de los estudiantes para un futuro marcado por la inteligencia artificial.

Alfabetización en IA: una guía para bibliotecas universitarias

Lo, Leo S. 2025. AI Literacy: A Guide for Academic Libraries. University of New Mexico – Digital Repository. https://digitalrepository.unm.edu/cgi/viewcontent.cgi?article=1211&context=ulls_fsp

El documento propone un enfoque integral para fomentar la alfabetización en inteligencia artificial (IA) desde el ámbito de las bibliotecas universitarias.

En un mundo cada vez más influido por algoritmos, asistentes virtuales y herramientas basadas en IA, el autor subraya la necesidad de que los estudiantes, docentes y personal universitario comprendan no solo cómo funcionan estas tecnologías, sino también sus implicaciones sociales, éticas y prácticas. Las bibliotecas, tradicionalmente espacios de acceso abierto al conocimiento, están en una posición única para liderar esta formación crítica.

El marco planteado por Leo S. Lo se estructura en torno a cinco componentes esenciales. El primero es el conocimiento técnico, que implica familiarizarse con conceptos clave como aprendizaje automático, algoritmos, redes neuronales y procesamiento del lenguaje natural. El segundo componente es la conciencia ética, que se centra en los desafíos que presenta la IA, como los sesgos algorítmicos, la opacidad en los procesos automatizados, la privacidad de los datos y la rendición de cuentas en el desarrollo y uso de estas herramientas.

El tercer componente es el pensamiento crítico, considerado esencial para evaluar los resultados producidos por sistemas de IA. Aquí se destaca la importancia de cuestionar la precisión, la fuente y la posible manipulación de la información generada. En cuarto lugar se encuentran las habilidades prácticas, es decir, la capacidad para usar herramientas como ChatGPT, asistentes de escritura, generadores de imágenes o sistemas de recomendación de manera efectiva, con un entendimiento adecuado de sus limitaciones. Por último, el marco incorpora la reflexión sobre el impacto social de la IA, invitando a analizar cómo estas tecnologías afectan el empleo, la toma de decisiones públicas, la educación y la equidad social.

Cinco componentes:

  1. Conocimientos técnicos:
    • Comprensión de conceptos básicos de IA como aprendizaje automático, algoritmos y redes neuronales.
    • Exploración de cómo funcionan estas tecnologías “tras bambalinas” .
  2. Conciencia ética:
    • Identificación de problemas relacionados con sesgos algorítmicos, privacidad y transparencia.
    • Reflexión sobre la responsabilidad de quienes desarrollan y aplican IA .
  3. Pensamiento crítico:
    • Evaluación rigurosa de resultados generados por IA.
    • Detección de errores, manipulación o respuestas engañosas .
  4. Habilidades prácticas:
    • Uso eficaz de herramientas como ChatGPT, MidJourney y otras aplicaciones de IA.
    • Desarrollo de competencias para formular buenos prompts y manejar herramientas con propiedad
  5. Impacto social:
    • Análisis de cómo la IA transforma el tejido social, el empleo, la participación ciudadana y la sostenibilidad.
    • Implicaciones para la equidad y el bienestar humano .

Desde esta perspectiva, las bibliotecas universitarias deben posicionarse no solo como centros de acceso a tecnología, sino como espacios educativos y de reflexión crítica. Pueden liderar talleres, cursos, guías y debates interdisciplinarios que ayuden a sus comunidades a adoptar una actitud informada, ética y responsable frente al uso de la IA. El artículo concluye que fomentar esta alfabetización no solo empodera a los usuarios, sino que también fortalece el rol social y educativo de las bibliotecas en el siglo XXI.

Marco integral para la alfabetización en inteligencia artificial (IA) de EDUCAUSE

Kassorla, Michelle, Maya Georgieva y Allison Papini. «Defining AI Literacy for Higher Education.» EDUCAUSE, 17 de octubre de 2024. https://www.educause.edu/content/2024/ai-literacy-in-teaching-and-learning/defining-ai-literacy-for-higher-education

Se presenta un marco integral para la alfabetización en inteligencia artificial (IA) en la educación superior, denominado ALTL (AI Literacy in Teaching and Learning). Este marco busca equipar a estudiantes, docentes y personal administrativo con las competencias necesarias para interactuar de manera efectiva y ética con las tecnologías de IA en contextos académicos y profesionales.

La alfabetización en IA se define como la comprensión de los fundamentos de cómo funciona la IA, la evaluación crítica de la aplicación de herramientas de IA en la enseñanza, la investigación y la gestión de prioridades educativas, y el mantenimiento de una vigilancia constante para proteger contra sesgos, mal uso y mala aplicación de estos modelos poderosos. Además, exige un compromiso con el uso ético, asegurando que las herramientas de IA se apliquen de manera transparente y responsable, con conciencia de sus impactos sociales

El informe desglosa esta definición en cuatro áreas clave:

  1. Técnica: Comprensión técnica de cómo funciona la IA.
  2. Evaluativa: Evaluación crítica de las aplicaciones y resultados de las herramientas de IA, con énfasis en el desarrollo de herramientas robustas de evaluación del impacto de la IA.
  3. Práctica: Aplicación, integración y gestión efectivas de las herramientas de IA en la enseñanza, la investigación y la administración educativa.
  4. Ética: Formulación y aplicación de estrategias institucionales para salvaguardar contra sesgos y el mal uso o mala aplicación de las tecnologías de IA

Cada institución puede priorizar estas áreas según sus objetivos específicos. Además, se destaca la importancia de fomentar una alfabetización en IA tanto técnica como práctica entre estudiantes, docentes y administración. Este cambio requiere una reevaluación de los planes de estudio en todas las disciplinas, no solo en ciencias de la computación y campos relacionados, para garantizar que los graduados estén equipados con las habilidades de alfabetización en IA requeridas en un mundo cada vez más integrado por la IA

Marco de alfabetización en IA del Consejo de Educación Digital

Digital Education Council. 2025. “Digital Education Council AI Literacy Framework.” Digital Education Council, 3 de marzo de 2025. https://www.digitaleducationcouncil.com/post/digital-education-council-ai-literacy-framework

El marco planteado por el Digital Education Council adopta un enfoque centrado en las personas, destacando la importancia de habilidades humanas como el pensamiento crítico, la creatividad y la inteligencia emocional como base para una alfabetización adecuada en IA

A través de cinco dimensiones clave, el marco estructura la alfabetización en IA en dos niveles: una formación general básica para todos y una versión más especializada adaptable a diferentes disciplinas y contextos legales.

Este recurso está pensado especialmente para instituciones de educación superior, ya que ofrece directrices claras y estructuradas para integrar competencias fundamentales en IA y diseñar aplicaciones específicas según distintas áreas académicas.

Se trata de una guía estructurada en cinco dimensiones de alfabetización, cada una con tres niveles de competencia:

Dimensión 1, Comprensión de la IA y los Datos, empieza con la toma de conciencia sobre IA y datos, avanza hacia su uso en acción y culmina con su optimización. Esta dimensión busca que los individuos pasen de reconocer la existencia y función básica de la IA a ser capaces de mejorar y optimizar sistemas basados en IA.

Dimensión 2, Pensamiento Crítico y Juicio, plantea una evolución desde cuestionar la salida de la IA hasta desafiarla. Se promueve así una actitud crítica frente a los resultados generados por sistemas de IA, desarrollando habilidades para evaluar su calidad, sesgos o implicaciones.

Dimensión 3, Uso Ético y Responsable, aborda la comprensión y aplicación de prácticas responsables en el uso de IA. Parte del reconocimiento de riesgos, pasa por aplicar principios éticos y concluye con la capacidad de configurar entornos que garanticen un uso responsable.

Dimensión 4, Enfoque Humano, Inteligencia Emocional y Creatividad, subraya la importancia de mantener la centralidad del ser humano en la interacción con la IA. Se inicia con la conciencia sobre dicha interacción, se impulsa el uso de la IA como herramienta colaborativa, y finalmente se busca desarrollar prácticas centradas en las personas.

Dimensión 5, Conocimiento del Dominio, integra la IA en el contexto profesional. Comienza con una conciencia aplicada de la IA, progresa hacia su aplicación en entornos laborales concretos y culmina con el liderazgo estratégico, es decir, la capacidad de guiar decisiones y procesos mediante el uso inteligente de la IA.

En esencia, el modelo del Consejo busca que las universidades desarrollen programas educativos que combinen formación técnica con habilidades humanas esenciales, facilitando así que estudiantes y docentes adquieran una base sólida para interactuar con herramientas de IA y aplicar dichos conocimientos de forma contextualizada.

Marco de competencias en inteligencia artificial (IA) para estudiantes

UNESCO. AI competency framework for students París: UNESCO, 2024. https://unesdoc.unesco.org/ark:/48223/pf0000391105

La UNESCO ha elaborado un Marco de competencias en inteligencia artificial (IA) para estudiantes con el objetivo de orientar a los sistemas educativos en todo el mundo hacia una formación que prepare a los jóvenes para vivir, trabajar y tomar decisiones en una sociedad cada vez más influenciada por esta tecnología.

El documento parte de un enfoque centrado en el ser humano, es decir, considera que la IA debe estar al servicio de las personas y no al revés. Por eso, no se trata solo de enseñar cómo funciona esta tecnología, sino también de desarrollar una comprensión crítica y ética de su impacto en la sociedad.

Uno de los aspectos más destacados del marco es la dimensión ética. La UNESCO subraya la necesidad de que los estudiantes comprendan los principios fundamentales que deben guiar el desarrollo y uso de la inteligencia artificial, como la equidad, la transparencia, la inclusión, la privacidad y la rendición de cuentas. Se promueve la reflexión sobre los dilemas que pueden surgir en su uso —por ejemplo, la discriminación algorítmica o la vigilancia masiva—, para formar ciudadanos capaces de actuar con responsabilidad.

Elementos clave del marco

  1. Enfoque centrado en el ser humano
    Busca empoderar a los estudiantes para que comprendan su rol y capacidades frente a la IA, promoviendo un uso consciente y crítico .
  2. Competencia ética
    Incluye la conciencia sobre los valores, los derechos, la privacidad y la responsabilidad al usar la IA, subrayando la importancia de la transparencia y la equidad .
  3. Conocimiento técnico y aplicaciones
    Considera esencial que los estudiantes adquieran una comprensión básica de los conceptos de IA, sus posibilidades, limitaciones y aplicaciones en distintos ámbitos .
  4. Diseño de sistemas de IA
    Promueve habilidades de pensamiento creativo y resolución de problemas, incluida la capacidad de colaborar en el diseño de soluciones basadas en IA .

Además de los aspectos éticos, el marco incluye también competencias técnicas básicas, como el conocimiento de cómo se recopilan y procesan los datos, qué son los algoritmos, cómo se entrenan los modelos de IA y cuáles son sus aplicaciones en distintos contextos. No se espera que todos los estudiantes se conviertan en programadores, pero sí que adquieran un entendimiento general que les permita interactuar de forma informada y segura con estas tecnologías.

Otro componente importante es el diseño y la resolución de problemas. Se fomenta que los estudiantes desarrollen habilidades creativas y de pensamiento crítico para utilizar la IA como herramienta para resolver retos reales, ya sea en el ámbito escolar, comunitario o global. Esto incluye la capacidad de trabajar en equipo, analizar datos, proponer soluciones innovadoras y evaluar los resultados con criterio.

En conjunto, el marco propuesto por la UNESCO se dirige a responsables educativos, diseñadores de currículo y docentes, y pretende servir como base para integrar estas competencias en los programas escolares. La idea es que la enseñanza de la IA no se limite a una materia técnica aislada, sino que se incorpore de manera transversal en distintas asignaturas y niveles educativos. Así, los estudiantes no solo aprenderán qué es la inteligencia artificial, sino también cómo convivir con ella de forma ética, crítica y constructiva.