Archivo de la etiqueta: Estudiantes

El uso de ChatGPT no garantiza una comprensión profunda del aprendizaje

Hughes, Owen. 2025. “Students Using ChatGPT Beware: Real Learning Takes Legwork, Study Finds.” The Register, November 3, 2025. https://www.theregister.com/2025/11/03/chatgpt_real_understanding/

Una investigación académica publicada en PNAS Nexus que pone de manifiesto los efectos del uso de modelos de lenguaje como ChatGPT en los procesos de aprendizaje.

Según el estudio, que involucró a más de 10 000 participantes en una serie de experimentos, las personas que utilizaron resúmenes generados por IA para estudiar temas específicos desarrollaron una comprensión superficial de los contenidos, produjeron menos hechos concretos y tendieron a replicar información similar a la de otros usuarios que también dependieron de herramientas automatizadas. Por contraste, quienes recurrieron a búsquedas tradicionales en la web tuvieron que interactuar más activamente con fuentes diversas, lo que favoreció una comprensión más profunda y duradera del material.

Los investigadores destacaron que los modelos de lenguaje grande (LLM) como ChatGPT son eficaces para generar respuestas fluidas rápidamente, pero este beneficio puede resultar contraproducente para el aprendizaje real si reemplaza por completo el esfuerzo que requiere recopilar y sintetizar información por cuenta propia. En los experimentos, algunos grupos de participantes vieron exactamente los mismos hechos presentados de distinto modo: un grupo a través de un único resumen de IA y otro mediante enlaces a múltiples artículos web. Los resultados mostraron que quienes usaron IA dedicaron menos tiempo a explorar las fuentes originales, se implicaron menos en el proceso y escribieron consejos para otros con menos datos y menor variedad de contenidos.

El artículo también resalta cómo una investigación complementaria con 1 500 nuevos participantes evaluó la calidad de los consejos derivados del aprendizaje con IA frente al aprendizaje tradicional: los consejos basados en IA fueron considerados menos informativos y de menor confianza, y las personas manifestaron menor disposición a seguirlos. Esto sugiere que el uso excesivo de resúmenes automatizados no solo afecta la comprensión individual, sino también la percepción de utilidad y veracidad del contenido generado por IA

Otro punto importante es la advertencia de los autores de que esta dinámica puede conducir a una “deshabilitación” de habilidades cognitivas básicas, especialmente entre estudiantes jóvenes que pueden depender cada vez más de accesos rápidos a información generada por IA. Si bien los investigadores no rechazan el uso de LLM como herramientas educativas, subrayan con fuerza que deben utilizarse como complemento y no sustituto del esfuerzo intelectual activo. Según ellos, la verdadera comprensión se construye mediante la interacción directa con múltiples fuentes, la reflexión crítica y la síntesis propia de información, algo que los resúmenes automatizados no pueden reemplazar.

Finalmente, el artículo vincula estas conclusiones con preocupaciones más amplias sobre la confianza en herramientas de IA: investigaciones previas han encontrado que chatbots populares a veces malinterpretan o distorsionan contenidos periodísticos, lo que refuerza la necesidad de que los usuarios mantengan un enfoque crítico y verifiquen activamente las respuestas que reciben

Los puntajes de lectura de los estudiantes en las pruebas estandarizadas aumentan gracias a la colaboración con la biblioteca pública

VanOstrand, Melea. “IPS says students’ reading scores on standardized test rise with Library Link.” WISH‑TV, 13 noviembre 2025

Texto completo

Las Escuelas Públicas de Indianápolis registraron un aumento del 10.2% en el nivel de competencia en el examen estatal estandarizado IREAD del año escolar 2024-2025. Solo en tercer grado, los índices de competencia se dispararon casi un 70%. Los educadores afirman que esto se debe a la colaboración con la Biblioteca Pública de Indianápolis.

el distrito Indianapolis Public Schools (IPS) ha experimentado un aumento significativo en los resultados de lectura —un 10,2 % de incremento en las puntuaciones del examen IREAD en el curso 2024‑2025— gracias a su colaboración con Indianapolis Public Library (IndyPL). Este sistema compartido permite a los alumnos acceder a más de 2,3 millones de títulos y pedir prestados libros de cualquiera de las bibliotecas del consorcio, con un notable aumento en préstamos: entre agosto y septiembre, los estudiantes de IPS retiraron más de 36 .800 libros, un incremento del 34 %.

Según responsables del distrito escolar y maestros, este mayor acceso a libros ha sido crucial: muchos profesores integran en sus clases libros tomados del sistema compartido, y los alumnos encuentran variedad —desde novelas gráficas hasta ficción serial o no ficción narrativa—, lo que incentiva su interés por la lectura. La iniciativa forma parte del plan “Rebuilding Stronger” de IPS, que ha renovado sus centros de medios y bibliotecas escolares para hacerlos más atractivos y funcionales, con la meta de fomentar el hábito lector y mejorar competencias básicas.

El resultado —el repunte en las puntuaciones del IREAD— sugiere una fuerte correlación entre la ampliación del acceso a libros físicos/digitales y el rendimiento en lectura. La experiencia de IPS refuerza la idea de que facilitar recursos bibliográficos y promover la lectura desde temprana edad puede tener un impacto claro en la alfabetización y el éxito escolar.

Uso inteligente de la IA para docentes y estudiantes

Victorino Guzmán, Jorge Enrique, y Mary Lee Berdugo Lattke. Uso inteligente de la IA para docentes y estudiantes. Bogotá: Ediciones Universidad Central, 2024

Texto completo

El libro aborda cómo docentes y estudiantes pueden integrar la inteligencia artificial (IA) de manera ética y eficaz en los procesos educativos. Parte de la idea de que la IA no es solo una herramienta tecnológica, sino una oportunidad para repensar prácticas pedagógicas y transformar la enseñanza y el aprendizaje.

Explora estrategias para diseñar actividades didácticas que incorporen la IA de forma inteligente: no solo para automatizar tareas, sino para fomentar la creatividad, el pensamiento crítico y la resolución de problemas. Además, se destaca la importancia de formar tanto a profesores como a estudiantes en competencias relacionadas con la IA: saber usarla, entender sus limitaciones, y reflexionar sobre sus implicaciones éticas.

El texto también analiza escenarios reales y posibles desafíos del uso de la IA en la educación, como la desigualdad en el acceso a la tecnología, riesgos de dependencia o de desinformación generada por herramientas automatizadas. Propone soluciones institucionales y pedagógicas para mitigar esos riesgos, como la capacitación docente, políticas institucionales claras y el diseño de entornos de aprendizaje adaptativos.

Finalmente, el libro subraya el carácter transformador de la IA en la educación, pero lo sitúa dentro de una visión humanista: la IA debe usarse como un complemento que potencie la labor docente y el aprendizaje, no como un sustituto del conocimiento o del diálogo pedagógico.

Código de conducta para estudiantes propuesto por Harvard para la IA

Harvard University and metaLAB (at) Harvard. Proposed Harvard AI Code of Conduct. Cambridge, MA: Harvard University, July 2023. Accessed [día mes año]. https://aicodeofconduct.mlml.io/assets/files/ai_code_of_conduct.pdf

Proposed Harvard AI Code of Conduct está centrada en el uso de herramientas de IA generativa por estudiantes en tareas académicas. Esta no plantea una prohibición general, sino que apuesta por políticas específicas por curso.

Harvard propone que el uso de la IA en educación no sólo sea visto como una amenaza, sino como una oportunidad para repensar qué y cómo enseñamos: qué habilidades tienen mayor valor en un mundo donde la IA hace ciertas tareas tradicionalmente académicas.

“Proposed Harvard AI Code of Conduct” es un documento elaborado en 2023 con el propósito de guiar el uso responsable de herramientas de inteligencia artificial generativa dentro del ámbito académico de la Universidad de Harvard. Su objetivo no es imponer una prohibición general, sino establecer principios flexibles que permitan a cada profesor definir su propia política sobre el uso de la IA en sus cursos, con el apoyo institucional necesario para garantizar coherencia, ética e integridad académica.

El texto parte de la idea de que la IA ya forma parte de la vida académica y profesional, por lo que el enfoque adecuado no es evitarla, sino aprender a convivir con ella y a utilizarla con responsabilidad. Para ello, se propone que cada curso de Harvard cuente con una política escrita que indique claramente a los estudiantes qué usos de la IA están permitidos, cuáles están restringidos y cómo afectará su utilización a la evaluación del aprendizaje. Estas políticas deben revisarse periódicamente, dado el rápido avance de la tecnología.

El documento recomienda que las normas sobre IA se integren dentro del código de honor académico y se gestionen en colaboración con órganos como el Harvard College Honor Council. Se insiste en que las políticas deben distinguir entre distintos tipos de herramientas —por ejemplo, modelos de lenguaje o generadores de imágenes— y que no se deben usar detectores automáticos de texto generado por IA como única prueba en casos de posible infracción, ya que su fiabilidad es limitada. Además, se subraya la importancia de ofrecer materiales educativos que ayuden a profesores y estudiantes a comprender tanto las capacidades como los riesgos de estas herramientas.

El código incluye también una serie de plantillas diseñadas para facilitar la implementación de políticas claras en cada asignatura. Entre ellas, se propone exigir que los estudiantes reconozcan y citen explícitamente el uso de herramientas de IA en sus trabajos académicos, explicando cómo las han empleado y evaluado los resultados obtenidos. También se ofrecen cuatro niveles de política posibles, que van desde la autorización total del uso de IA (con la obligación de citarla) hasta su prohibición completa, pasando por modalidades intermedias en las que su uso está permitido solo en fases específicas del trabajo o bajo indicaciones concretas del docente.

En conjunto, el código de conducta propuesto por Harvard busca equilibrar la innovación con la integridad. Promueve una cultura académica que fomente la experimentación y el pensamiento crítico, pero dentro de un marco ético y transparente. Su espíritu es preparar a la comunidad universitaria para un futuro en el que la inteligencia artificial será una herramienta habitual, ayudando a que profesores y estudiantes aprendan no solo a usarla, sino también a cuestionarla, evaluarla y citarla de manera adecuada.

Este enfoque puede servir como referencia útil para otras instituciones educativas —incluidas las bibliotecas universitarias— que deseen desarrollar sus propias guías o programas de alfabetización en IA, especialmente en temas relacionados con la citación, la autoría, la integridad académica y la educación ética en entornos digitales.

Los puntos principales del Proposed Harvard AI Code of Conduct son:

  1. No prohíbe la IA, sino que promueve su uso responsable y regulado por curso.
  2. Integra el uso de la IA dentro del código de honor académico de Harvard.
  3. Exige que cada asignatura defina y comunique su política sobre IA por escrito.
  4. Distingue entre tipos de herramientas (texto, imagen, código, etc.).
  5. Desaconseja usar detectores de IA como única prueba de infracción.
  6. Obliga a reconocer y citar cualquier uso de herramientas de IA.
  7. Ofrece cuatro niveles de política: permitido, parcial, autorizado o prohibido.
  8. Promueve la formación ética y técnica sobre IA para estudiantes y docentes.
  9. Recomienda revisar y actualizar las políticas periódicamente.
  10. Fomenta una cultura de transparencia, responsabilidad y pensamiento crítico ante la IA.

El uso de la IA en escuelas se vincula con efectos negativos en los estudiantes

Center for Democracy & Technology. “CDT Survey Research Finds Use of AI in K-12 Schools Connected to Negative Effects on Students.” October 8 2025.

Texto completo

Diapositivas

Una encuesta realizada por el Center for Democracy & Technology (CDT) revela que el empleo de herramientas de inteligencia artificial (IA) en escuelas de enseñanza primaria y secundaria (K-12) se ha normalizado, pero al mismo tiempo está asociado con una serie de efectos negativos en los estudiantes.

La investigación abarcó la experiencia de maestros, estudiantes y padres durante el curso 2024-2025 y muestra que el 85 % de los docentes y el 86 % de los estudiantes informaron haber usado herramientas de IA.

Entre los hallazgos más relevantes destaca que aproximadamente la mitad de los estudiantes dijeron sentirse menos conectados con sus maestros como consecuencia del uso de IA en el aula. Asimismo, un porcentaje significativo de estudiantes admitió haber usado chatbots o herramientas de IA para apoyo emocional, salud mental o incluso como forma de escape de la realidad; de hecho, uno de cada cinco manifestó que él o alguien que conoce había mantenido una relación romántica con una IA.

El estudio también pone de relieve que, mientras el despliegue de la IA en entornos escolares crece, la formación de los maestros, las políticas escolares y las salvaguardas de bienestar estudiantil no lo hacen al mismo ritmo. Solo el 11 % de los docentes declararon haber recibido formación específica sobre cómo responder ante un uso problemático de la IA por parte del alumnado. El informe advierte que el desequilibrio entre adopción tecnológica y preparación institucional puede potenciar riesgos como brechas en la conexión socioemocional entre alumno y profesor, debilitamiento de habilidades clave como el pensamiento crítico o la escritura, y una mayor vulnerabilidad ante el mal uso de herramientas de IA.

El documento de la CDT subraya que, si bien la adopción de IA en las aulas ofrece oportunidades —por ejemplo, para personalizar el aprendizaje o apoyar la enseñanza—, también conlleva desafíos considerables. Estos incluyen la posibilidad de que los estudiantes desarrollen vínculos más fuertes con máquinas que con sus educadores, que su sentido de pertenencia o interacción humana se debilite y que la institución educativa pierda parte de su función formativa y relacional. El informe concluye que, para que la IA contribuya realmente al aprendizaje sin comprometer el bienestar emocional y social de los estudiantes, es imprescindible que las escuelas acompañen su implementación con políticas claras, formación docente, supervisión ética y un enfoque centrado en el alumnado.

Resultados clave del estudio del Center for Democracy & Technology (CDT):

  1. Alta adopción de la IA en las aulas:
    El 85 % de los docentes y el 86 % de los estudiantes afirmaron haber utilizado herramientas de inteligencia artificial durante el curso 2024-2025. Esto demuestra una integración rápida y generalizada de la IA en el entorno educativo K-12.
  2. Impacto negativo en las relaciones humanas:
    Aproximadamente la mitad de los estudiantes manifestó sentirse menos conectado con sus maestros debido al uso de la IA en clase. La tecnología, aunque útil para ciertas tareas, parece estar debilitando los lazos interpersonales y la comunicación directa entre educadores y alumnos.
  3. Uso emocional y social de la IA:
    Un número considerable de estudiantes reconoció emplear chatbots y asistentes de IA como apoyo emocional o para gestionar su salud mental. De manera preocupante, uno de cada cinco estudiantes declaró que él o alguien que conoce había mantenido una relación romántica con una IA, lo que refleja una sustitución parcial de vínculos humanos por relaciones digitales.
  4. Déficit de formación docente:
    Solo el 11 % de los profesores indicó haber recibido formación específica sobre cómo manejar los problemas derivados del uso de IA en el aula. Esta falta de preparación dificulta que las escuelas puedan responder de manera efectiva a los retos éticos, psicológicos y pedagógicos asociados a la IA.
  5. Desequilibrio entre innovación y bienestar:
    El estudio advierte que la adopción tecnológica supera ampliamente la capacidad institucional para proteger el bienestar estudiantil. Esto puede conducir a una pérdida de habilidades esenciales —como el pensamiento crítico, la escritura o la interacción social— y aumentar la dependencia emocional hacia sistemas automatizados.
  6. Necesidad de políticas claras y enfoque humano:
    El CDT concluye que la IA solo podrá ser beneficiosa si se implementa dentro de un marco ético y pedagógico sólido. Es imprescindible acompañar su uso con programas de alfabetización digital, guías de protección emocional y políticas que prioricen el desarrollo humano por encima de la eficiencia tecnológica.

La Universidad de York impulsa un plan de mejora de las competencias sobre investigación de los estudiantes ante los retos de la IA

York Libraries launch new curriculum to strengthen student research skills.” 26 de septiembre de 2025. York Libraries https://www.library.yorku.ca/web/blog/2025/09/26/york-libraries-launch-new-curriculum-to-strengthen-student-research-skills/

Las bibliotecas de la Universidad de York han lanzado un nuevo currículo de cuatro módulos para mejorar las competencias investigadoras de los estudiantes. El programa combina teoría y práctica en la búsqueda, evaluación y uso ético de la información. Su objetivo es preparar a los alumnos para afrontar los retos del entorno digital y la influencia de la inteligencia artificial.

En respuesta al cambiante panorama digital y al creciente papel de la inteligencia artificial, las bibliotecas de la Universidad de York han creado un nuevo plan formativo denominado “Think, Research, Create: Introduction to Library Research”. Se trata de una serie de cuatro módulos en línea dirigida especialmente a estudiantes de pregrado, diseñada para reforzar habilidades esenciales de investigación como la búsqueda de información, la cita, y la evaluación crítica de fuentes.

El currículo fue desarrollado por un equipo de bibliotecarios en colaboración con áreas de aprendizaje estudiantil, con el objetivo de que los alumnos comprendan la complejidad del entorno informativo contemporáneo, donde abundan la desinformación, los sesgos y la proliferación de contenidos digitales. Cada taller de noventa minutos aborda un tema clave —desde la formulación de preguntas de investigación hasta la producción ética de contenido— e incluye actividades prácticas, debates y ejercicios interactivos.

Este enfoque representa un cambio respecto al método tradicional, consistente en presentaciones únicas y breves dentro de clases universitarias, que a juicio de los responsables resultaba insuficiente para dotar a los estudiantes de competencias sólidas. Además, los talleres están abiertos a estudiantes de distintos cursos, y para los niveles superiores se planean adaptaciones disciplinarias específicas en años posteriores. La iniciativa pretende no solo formar investigadores más competentes, sino también contrarrestar los desafíos epistemológicos que plantea la abundancia de información en la era de la IA.

Inteligencia artificial: guía para estudiantes 2025

Elon University, y Association of American Colleges and Universities. 2025. IA: guía para estudiantes. Segunda publicación. Elon University / AAC&U.

Texto completo

La guía presentada busca preparar al alumnado para desenvolverse en un mundo cada vez más transformado por la inteligencia artificial (IA), muchas veces de formas poco visibles o no del todo comprendidas. Plantea que el conocimiento de esta tecnología no solo constituye una ventaja, sino una necesidad fundamental en el ámbito académico, profesional y ciudadano. Su propósito es dotar a los estudiantes de herramientas para un uso responsable, fomentar la evaluación crítica de las capacidades y limitaciones de la IA, y promover la participación informada en los debates acerca de su desarrollo y su impacto en la sociedad.

Se trata de la segunda entrega de la serie IA: guía para estudiantes, elaborada por la Universidad de Elon en colaboración con la Asociación Americana de Colegios y Universidades. Esta iniciativa surge en respuesta a la declaración «El papel esencial de la educación superior en la preparación de la humanidad para la revolución de la inteligencia artificial», presentada en el Foro para la Gobernanza de Internet de las Naciones Unidas celebrado en Kioto en 2023. En línea con dicha declaración, la guía insiste en que la educación superior tiene la misión de promover una comprensión del desarrollo responsable de la IA, concebida como un instrumento para ampliar y fortalecer las capacidades humanas, y no como un sustituto de ellas.

¿Cómo se adaptan a la IA los estudiantes y profesores de todo el mundo?

Aguilar, Stephen J., Benjamin Nye, William Swartout, Andrea Macias, Yuqing Xing, and Rosie Le Xiu. 2025. “How Students and Teachers Worldwide Are Adapting to AI.” EdArXiv. August 25. doi:10.35542/osf.io/wr6n3_v2

El informe analiza cómo estudiantes y docentes de distintas partes del mundo están adaptándose al uso de la inteligencia artificial generativa (GenAI) en educación. Desde la irrupción de herramientas como ChatGPT, Claude o Copilot, la enseñanza y el aprendizaje han experimentado transformaciones significativas. Los autores exploran tanto las oportunidades que estas tecnologías ofrecen para el apoyo académico como los riesgos que plantean para la integridad educativa y el pensamiento crítico.

El primer estudio se centra en más de 1.000 estudiantes universitarios de Estados Unidos y examina cómo buscan ayuda a través de GenAI. Se diferencian dos patrones: la búsqueda instrumental, orientada a comprender y aprender, y la búsqueda ejecutiva, enfocada en obtener respuestas rápidas con el mínimo esfuerzo. Los resultados muestran que la confianza en la propia competencia académica y en la búsqueda en internet reduce la dependencia de la IA, mientras que la confianza en el contenido generado por ella incrementa el uso ejecutivo. La actitud de los profesores es clave: cuando animan a usar la IA de forma reflexiva, los estudiantes tienden a hacerlo con fines de aprendizaje.

El segundo estudio presenta la herramienta ABE (AI for Brainstorming and Editing), diseñada para fomentar la reflexión y la revisión en el proceso de escritura. A diferencia de sistemas que generan textos completos, ABE guía a los estudiantes mediante actividades estructuradas —como fortalecer tesis, considerar contraargumentos o mejorar conclusiones—, lo que promueve la escritura como un proceso de pensamiento crítico. Los participantes valoraron especialmente la posibilidad de recibir retroalimentación personalizada y de ampliar perspectivas.

El tercer estudio recoge las percepciones de más de 1.500 docentes de cinco países (Estados Unidos, India, Qatar, Colombia y Filipinas). Aunque muchos reconocen el potencial de la IA para automatizar tareas y personalizar el aprendizaje, persisten preocupaciones sobre plagio, pérdida de creatividad y falta de apoyo institucional. El uso frecuente de estas herramientas sigue siendo limitado, lo que revela una brecha entre el conocimiento de la IA y su aplicación práctica en el aula.

En conjunto, el informe subraya la necesidad de una integración intencional y ética de la IA en la educación. Recomienda alentar un uso instrumental que potencie el aprendizaje, diseñar herramientas con andamiajes pedagógicos, ofrecer formación específica para los docentes y abordar la equidad en el acceso y uso de estas tecnologías.

La IA está haciendo que leer libros parezca obsoleto y los estudiantes tienen mucho que perder

Baron, Naomi S. – “AI Is Making Reading Books Feel Obsolete – and Students Have a Lot to Lose.The Conversation, August 14, 2023. https://theconversation.com/ai-is-making-reading-books-feel-obsolete-and-students-have-a-lot-to-lose-262680

El artículo aborda cómo la inteligencia artificial está cambiando la forma en que los estudiantes interactúan con la lectura y el aprendizaje.

«Se está gestando una tormenta perfecta para la lectura. La inteligencia artificial (IA) ha llegado en un momento en el que tanto los niños como los adultos ya dedicaban menos tiempo a leer libros que en un pasado no muy lejano. Como lingüista, estudio cómo la tecnología influye en la forma en que las personas leen, escriben y piensan. Esto incluye el impacto de la IA, que está cambiando drásticamente la forma en que las personas se relacionan con los libros u otros tipos de escritos, ya sea por obligación, para investigar o por placer. Me preocupa que la IA esté acelerando un cambio continuo en el valor que las personas otorgan a la lectura como actividad humana».

Naomi S. Barón

La autora, profesora y experta en educación, señala que las herramientas de IA, como los resúmenes automáticos y los asistentes de escritura, están reduciendo la necesidad de leer libros completos. Esto puede llevar a una comprensión superficial de los contenidos y a una pérdida de habilidades críticas como el análisis profundo y la reflexión personal.

Además, se destaca que la dependencia de la IA para tareas académicas puede disminuir la capacidad de los estudiantes para desarrollar habilidades cognitivas esenciales, como la concentración sostenida y el pensamiento crítico. La autora advierte que esta tendencia podría tener consecuencias a largo plazo en la formación intelectual de las nuevas generaciones.

Por último, se sugiere que, aunque la IA puede ser una herramienta útil, no debe reemplazar la experiencia de lectura profunda y reflexiva que los libros ofrecen. Se hace un llamado a equilibrar el uso de la tecnología con métodos tradicionales de aprendizaje para preservar el desarrollo cognitivo integral de los estudiantes.

Este análisis invita a reflexionar sobre cómo la tecnología está transformando la educación y la importancia de mantener prácticas que fomenten el pensamiento crítico y la comprensión profunda.

Empoderando a los estudiantes para la era de la IA: un marco de alfabetización en IA para la educación primaria y secundaria

OCDE y Comisión Europea. 2025. Empowering Learners for the Age of AI: An AI Literacy Framework for Primary and Secondary Education. Borrador, mayo de 2025. https://ailiteracyframework.org/wp-content/uploads/2025/05/AILitFramework_ReviewDraft.pdf

Texto completo

Informe publicado en mayo de 2025 como borrador conjunto de la Comisión Europea y la OCDE, con la colaboración de organizaciones como Code.org y una red internacional de expertos. Su objetivo es ofrecer un marco estructurado para la enseñanza de la alfabetización en inteligencia artificial (IA) en la educación primaria y secundaria.

Esta iniciativa responde a la necesidad urgente de preparar a los estudiantes para convivir con tecnologías basadas en IA, no solo como usuarios, sino como ciudadanos críticos y responsables en un mundo digital en constante transformación.

El marco parte del hecho de que los jóvenes ya están expuestos a la IA en su vida diaria, aunque en la mayoría de los casos no aprenden sobre ella de manera formal en la escuela. Se propone, por tanto, una definición amplia de alfabetización en IA que incluye conocimientos técnicos, habilidades transferibles y actitudes fundamentales. Esta alfabetización permite al alumnado comprender cómo funciona la IA, utilizarla de manera crítica y creativa, tomar decisiones informadas sobre su uso, y reflexionar sobre sus implicaciones éticas, sociales y culturales.

La estructura del marco se articula en torno a cuatro dominios clave. El primero, «Engaging with AI», se centra en el reconocimiento de la presencia de la IA, su funcionamiento y la evaluación de sus resultados. El segundo, «Creating with AI», se orienta al uso creativo y ético de la IA en tareas de comunicación, arte, resolución de problemas y producción de contenidos. El tercero, «Managing AI», invita a reflexionar sobre el papel humano en la toma de decisiones apoyadas por IA, promoviendo un uso consciente y deliberado. El cuarto y más avanzado, «Designing AI», fomenta la exploración de cómo se diseñan los sistemas de IA, la importancia de los datos y el impacto social de esas decisiones.

Cada dominio se desglosa en competencias específicas, un total de 22, que integran conocimientos, habilidades y actitudes, y se acompañan de ejemplos prácticos adaptados tanto a educación primaria como secundaria. Estos escenarios muestran cómo abordar la IA en distintas asignaturas sin necesidad de recursos tecnológicos complejos, apostando por una enseñanza transversal y contextualizada.

Además, el marco destaca contenidos transversales como el pensamiento crítico, la creatividad, la colaboración, la empatía o la responsabilidad social, los cuales son considerados esenciales para una ciudadanía activa en la era digital. El documento también resalta la importancia de formar al profesorado y dotarlo de materiales y guías que faciliten la implementación del marco en contextos educativos diversos.

El borrador fue presentado el 22 de mayo de 2025 y ha sido abierto a consulta pública hasta el 31 de agosto del mismo año. Se espera que la versión final se publique en 2026, acompañada de recursos pedagógicos complementarios. Esta propuesta no solo busca transformar el currículo, sino también ofrecer una herramienta de política educativa capaz de guiar decisiones a nivel nacional e internacional sobre la inclusión de la IA en la educación formal.