Archivo de la etiqueta: Enseñanza

La IA saca sobresaliente en los exámenes de Derecho

Sloan, Karen. “Artificial Intelligence Is Now an A+ Law Student, Study Finds.” Reuters, 5 de junio de 2025. https://www.reuters.com/legal/legalindustry/artificial-intelligence-is-now-an-law-student-study-finds-2025-06-05/.

Un estudio reciente realizado por la Universidad de Maryland ha revelado que la última generación de inteligencia artificial generativa, específicamente el modelo o3 de OpenAI, es capaz de obtener calificaciones sobresalientes en los exámenes finales de la Facultad de Derecho Francis King Carey. Este modelo alcanzó calificaciones que van desde A+ hasta B en ocho exámenes de primavera evaluados por profesores de la universidad. Estas calificaciones representan una mejora significativa en comparación con versiones anteriores de ChatGPT, que en estudios previos habían obtenido calificaciones de B, C e incluso D en exámenes similares realizados en 2022 y 2023.

A diferencia de ChatGPT, que genera respuestas de manera inmediata en función de las consultas del usuario, o3 es un modelo de razonamiento. Esto significa que evalúa internamente las preguntas, genera respuestas tentativas y múltiples enfoques, y luego produce el texto final tras un proceso de revisión. Este enfoque le permite abordar problemas legales complejos con mayor precisión y coherencia.

Los resultados obtenidos por o3 en áreas como Derecho Constitucional, Responsabilidad Profesional y Propiedad, donde obtuvo A+, son indicativos de su capacidad para comprender y aplicar principios legales de manera efectiva. Sin embargo, en áreas como Derecho Penal y Procedimientos Penales, donde obtuvo A-, B+ y B, se observan ciertas limitaciones que podrían reflejar la complejidad inherente a estos campos del derecho.

Este avance sugiere que la inteligencia artificial generativa está acercándose al rendimiento de los estudiantes de derecho de alto nivel. No obstante, se destaca que, aunque o3 muestra un rendimiento impresionante, aún existen áreas en las que la intervención humana sigue siendo esencial para garantizar la interpretación adecuada de matices legales y contextuales

Aprender para el futuro: educación y competencias esenciales en la era de la inteligencia artificial

Carlos Hervás-Gómez, María Dolores Díaz Noguera, María de los Ángeles Domínguez González, Fulgencio Sánchez Vera y Antonio Luque de la Rosa, coords. Aprender para el futuro: Educación y competencias esenciales en la era de la inteligencia artificial (Madrid: Dykinson, 2025).

Texto completo

A través de más de cuarenta capítulos escritos por expertos en distintas áreas de la educación, la obra ofrece una panorámica amplia y profunda sobre cómo la inteligencia artificial (IA) está transformando el aprendizaje, la enseñanza y las competencias necesarias para desenvolverse en el mundo actual.

Uno de los principales focos del libro es la educación superior, donde se analizan experiencias concretas del uso de herramientas como ChatGPT y otras aplicaciones de IA en la enseñanza universitaria. Se examinan tanto las percepciones del alumnado como las posibilidades de personalizar el aprendizaje, fomentar la escritura creativa o realizar tareas de traducción y análisis automatizados. Además, se presta atención a los dilemas éticos y a la necesidad de preparar a los estudiantes para un uso crítico de estas tecnologías.

El libro también recoge un variado repertorio de metodologías activas potenciadas por la IA. Se exploran estrategias innovadoras como el aula invertida, la gamificación, el uso de mesas interactivas en anatomía o las “escape rooms” virtuales como parte del proceso formativo. La IA se presenta en estos casos como una herramienta que, bien utilizada, puede mejorar la participación del alumnado, enriquecer el contenido y apoyar la evaluación formativa.

Otro apartado esencial se centra en la figura del profesorado. Se destaca la importancia de formar a los docentes en habilidades digitales, incluyendo la ingeniería de prompts, el liderazgo pedagógico en entornos digitales y la actitud frente a los cambios tecnológicos. La obra subraya que, aunque la IA ofrece enormes posibilidades, es imprescindible que los educadores mantengan el control ético y pedagógico sobre su implementación.

Asimismo, se abordan temas relacionados con la personalización del aprendizaje, el pensamiento crítico y el desarrollo de competencias transversales. Se analizan experiencias que van desde la enseñanza de gramática con IA hasta proyectos de ciencias sociales que buscan cultivar la conciencia crítica del alumnado. También se exploran iniciativas en educación STEAM, donde la IA contribuye a motivar al alumnado en contextos científicos y técnicos.

El impacto de la IA sobre el futuro profesional de los estudiantes también ocupa un lugar importante. El libro plantea cómo preparar a los jóvenes para un mundo laboral mediado por algoritmos, automatización y nuevas demandas de cualificación. Se incluyen estudios sobre la educación secundaria, la formación docente inicial, la autopercepción profesional y las respuestas institucionales ante las inteligencias artificiales generativas.

Por último, la obra se cierra con una serie de investigaciones centradas en contextos educativos diversos: la enseñanza de lenguas extranjeras, la educación musical, la interculturalidad, el e-learning en la universidad o la salud mental del profesorado en áreas como la Educación Física. Estos capítulos muestran que el debate sobre la IA en la educación no es exclusivo de los entornos universitarios, sino que afecta a todas las etapas educativas y a múltiples dimensiones de la experiencia formativa.

AI4K12: Una Iniciativa Integral para la Enseñanza de la Inteligencia Artificial en la Educación Primaria y Secundaria

AI4K12. (s.f.). AI for K–12 Initiative. https://ai4k12.org/

Poster español

Recursos

Actividades

AI4K12 (Artificial Intelligence for K–12) es una iniciativa educativa pionera impulsada por la AAAI (Asociación para el Avance de la Inteligencia Artificial) y la CSTA (Asociación de Profesores de Informática), con apoyo de la National Science Foundation (NSF). Su objetivo principal es introducir de manera progresiva y rigurosa la inteligencia artificial en la educación primaria y secundaria en Estados Unidos. Para lograrlo, desarrolla directrices nacionales, mantiene un repositorio cuidadosamente seleccionado de recursos didácticos y promueve una comunidad activa de docentes, investigadores y desarrolladores enfocados en la enseñanza de la IA a estudiantes desde edad temprana hasta el último año de instituto (AI4K12, s.f.).

El núcleo conceptual de AI4K12 se articula en torno a las «Cinco Grandes Ideas» sobre la inteligencia artificial, que buscan facilitar la comprensión de este campo complejo en niveles escolares. Estas ideas son: (1) percepción (cómo las máquinas detectan y comprenden el mundo a través de sensores); (2) representación y razonamiento (cómo los agentes inteligentes modelan su entorno y toman decisiones); (3) aprendizaje (cómo los sistemas mejoran con la experiencia, mediante el aprendizaje automático); (4) interacción natural (la capacidad de comunicarse con los humanos de manera efectiva, usando lenguaje, voz, etc.); y (5) impacto social (el análisis ético y social del uso de la IA). Estas ideas amplían las competencias del pensamiento computacional e incorporan dimensiones éticas y sociales fundamentales (AI4K12, s.f.).

Para facilitar la enseñanza de estas ideas, AI4K12 ha diseñado una serie de progresiones por niveles educativos: K–2 (infantil), 3–5 (primaria baja), 6–8 (primaria alta y primeros años de secundaria), y 9–12 (bachillerato). Estas progresiones permiten adaptar los conceptos y habilidades de la IA a las capacidades cognitivas y madurez de los estudiantes según su edad. Las directrices están en constante revisión y se ofrecen como borradores para consulta pública, fomentando así una construcción colectiva del currículo (AI4K12, s.f.).

En cuanto a los recursos didácticos, AI4K12 pone a disposición del profesorado un directorio extenso y curado de materiales: desde demos interactivos (como simuladores de cadenas de Markov, reconocimiento facial o análisis de espectrogramas), hasta guías de actividades, libros, módulos curriculares y cursos en línea. Muchos de estos recursos están adaptados a contextos escolares, son gratuitos y están diseñados con una filosofía de “caja transparente” (“glass-box”), que permite a los estudiantes ver y comprender cómo funciona la IA, en lugar de tratarla como una “caja negra” de resultados misteriosos (AI4K12, s.f.).

El sitio también ofrece múltiples vías para la participación: los docentes pueden contribuir con recursos, asistir a talleres estatales de planificación curricular en IA o integrarse a la red de AI4K12 para recibir noticias, participar en encuentros virtuales y colaborar con otros profesionales. La comunidad de AI4K12 tiene presencia en plataformas como YouTube y mantiene una comunicación constante mediante boletines informativos (AI4K12, s.f.).

En definitiva, AI4K12 constituye una propuesta educativa integral y actualizada para incorporar la inteligencia artificial en el aula desde edades tempranas. Su enfoque equilibrado entre teoría, práctica y ética permite a los estudiantes no solo entender qué es la IA, sino también reflexionar sobre su impacto en la sociedad y en sus propias vidas. Esta iniciativa representa un paso esencial para preparar a las nuevas generaciones para un mundo cada vez más mediado por tecnologías inteligentes.

El 93% de los estudiantes usa herramientas de Inteligencia artificial

Kelly, Rhea. 2025. “Survey: Student AI Use on the Rise.” Campus Technology, 25 de junio de 2025. https://campustechnology.com/articles/2025/06/25/survey-student-ai-use-on-the-rise.aspx.

El estudio confirma que la inteligencia artificial se ha convertido en una herramienta habitual en la vida académica de muchos estudiantes. Aun así, su integración plantea desafíos importantes que deben abordarse desde las instituciones educativas, fomentando un uso crítico, ético y estratégico.

Un reciente estudio llevado a cabo por Microsoft en colaboración con PSB Insights revela que el uso de inteligencia artificial (IA) entre estudiantes estadounidenses está creciendo rápidamente. Según la encuesta, publicada por Campus Technology el 25 de junio de 2025, el 93 % de los estudiantes mayores de 16 años ha utilizado alguna vez herramientas de IA en sus estudios. Este dato indica una integración casi universal de estas tecnologías en la vida académica, una cifra que ha aumentado significativamente en comparación con el año anterior.

El informe también muestra un incremento notable en la frecuencia de uso. El 42 % de los encuestados afirma utilizar IA al menos semanalmente, mientras que un 30 % la emplea diariamente. Esto representa un aumento de 26 puntos porcentuales en el grupo que la usa con frecuencia y una disminución de 20 puntos entre quienes nunca la han utilizado, lo que evidencia una adopción acelerada y progresiva de la IA en entornos educativos.

Los fines para los que los estudiantes utilizan la IA son variados. La mayoría recurre a ella para generar ideas iniciales o ayudarles a comenzar tareas (37 %), para resumir información (33 %) o para obtener respuestas rápidas (33 %). Otros la emplean como herramienta de retroalimentación preliminar (32 %), como medio de aprendizaje personalizado (30 %) o para mejorar su escritura (28 %). Además, se valora su utilidad para crear materiales visuales, desarrollar habilidades para el futuro, completar tareas enteras o simplemente para liberar tiempo y cuidar del bienestar personal. Estas cifras muestran que los estudiantes no solo utilizan la IA como ayuda puntual, sino también como un recurso para el aprendizaje autónomo, la organización y la creatividad.

Lluvia de ideas y arranque de tareas: 37 %
Resúmenes de información: 33 %
Obtener respuestas rápidamente: 33 %
Retroalimentación inicial: 32 %
Aprendizaje personalizado: 30 %
Mejora de escritura: 28 %
Diseño visual para presentaciones: 25 %
Desarrollo de habilidades futuras: 22 %
Realización completa de tareas: 22 %
Fomento de la creatividad: 21 %
Liberar tiempo para aprendizaje o bienestar: 21 %
Apoyo al bienestar personal: 19 %

Sin embargo, el uso creciente de la IA también viene acompañado de preocupaciones. Un 33 % teme ser acusado de hacer trampa o plagio; un 30 % se preocupa por volverse demasiado dependiente de estas herramientas; y un 28 % teme recibir información inexacta o engañosa. También surgen inquietudes sobre la pérdida de oportunidades valiosas de aprendizaje (24 %) y sobre los posibles dilemas éticos y de autonomía (24 %). Estos datos indican que, si bien los beneficios son evidentes, los estudiantes no son ingenuos frente a los riesgos que conlleva esta tecnología.

Acusaciones de plagio o trampa: 33 %
Dependencia excesiva de la IA: 30 %
Información inexacta o desinformación: 28 %
Pérdida de aspectos significativos del aprendizaje: 24 %
Cuestiones éticas y autonómicas: 24 %

La formación en competencias digitales, el establecimiento de políticas claras y el acompañamiento docente serán claves para equilibrar los beneficios de la IA con una educación significativa y responsable.

Vuelta a los exámenes a mano ante el temor al uso indebido de la inteligencia artificial

Cohen, Ben. 2025. “They Were Every Student’s Worst Nightmare. Now Blue Books Are Back.” The Wall Street Journal, 23 de mayo de 2025. https://www.wsj.com/business/chatgpt-ai-cheating-college-blue-books-5e3014a6.

Las universidades estadounidenses están reintroduciendo los tradicionales «blue books» (cuadernos azules) para los exámenes presenciales como respuesta al creciente uso de herramientas de inteligencia artificial, como ChatGPT, en prácticas de plagio académico.

El regreso a los exámenes escritos a mano como respuesta al temor por el uso indebido de la inteligencia artificial (IA) es un fenómeno cada vez más común en universidades y centros educativos. La preocupación principal radica en que los estudiantes puedan apoyarse en herramientas de IA para obtener respuestas rápidas y completas, lo que podría afectar la evaluación real de sus conocimientos y habilidades.

Las herramientas de IA generativa permiten a los estudiantes generar ensayos y resolver problemas complejos sin necesidad de comprender el contenido, lo que ha generado preocupaciones sobre la integridad académica. Algunos educadores consideran que los exámenes escritos a mano en clase, utilizando los blue books, son una forma efectiva de garantizar la autenticidad del trabajo estudiantil. Sin embargo, este enfoque ha sido criticado por su falta de accesibilidad y por no abordar las causas subyacentes del uso de IA en el ámbito académico. Por ejemplo, en Estados Unidos, universidades como la de Florida y la de Texas han observado un aumento en la venta de los tradicionales «blue books», cuadernos utilizados para escribir exámenes a mano, como resultado de esta política

Además, la implementación de estas tecnologías plantea cuestiones éticas relacionadas con la privacidad y la autonomía de los estudiantes. Investigaciones han señalado que el uso de sistemas de monitoreo en línea puede percibirse como una forma de vigilancia intrusiva, lo que podría afectar la confianza de los estudiantes en el sistema educativo.

En respuesta a estas preocupaciones, algunas universidades están revisando sus políticas de supervisión de exámenes y explorando alternativas menos invasivas. Por ejemplo, la Universidad de Reading en el Reino Unido ha decidido alejarse de los exámenes en línea no supervisados y está desarrollando evaluaciones que incluyen la aplicación práctica de conocimientos en entornos del mundo real.

Aunque las tecnologías de IA ofrecen una herramienta potencial para garantizar la integridad académica, su implementación debe equilibrarse cuidadosamente con la protección de la privacidad y los derechos de los estudiantes. Es esencial que las instituciones educativas consideren estos aspectos al adoptar nuevas tecnologías de supervisión.

En este contexto, es esencial encontrar un equilibrio que permita aprovechar las ventajas de la IA en la educación sin comprometer la integridad del aprendizaje y la evaluación. Esto implica no solo implementar medidas como los exámenes escritos a mano, sino también promover el uso ético de la tecnología, desarrollar herramientas de detección de plagio basadas en IA y fomentar habilidades críticas y analíticas en los estudiantes que les permitan utilizar la tecnología de manera responsable y efectiva.

Manual para la elaboración de proyectos de integración curricular

CID – Centro de Investigación y Desarrollo. (2025). Manual para la elaboración de proyectos de integración curricular (1ª ed.). Biblioteca Ciencia Latina.

Texto completo

El manual, editado en su primera versión del año 2025 por el Centro de Investigación y Desarrollo (CID), propone una guía detallada para diseñar e implementar proyectos de integración curricular, desde la idea inicial hasta su evaluación y cierre . Su objetivo central es ofrecer a docentes y equipos educativos una estructura organizada, didáctica y contextualizada para armonizar distintas áreas del conocimiento en torno a un proyecto común.

En la introducción, el texto plantea la importancia de la integración curricular como herramienta para conectar saberes y hacerlos más significativos, relevantes y adaptados a las realidades escolares. Se enfatiza el paso del enfoque tradicional por asignaturas hacia uno más holístico y centrado en problemáticas reales del entorno educativo .

A lo largo de los capítulos se describen con claridad las fases del proyecto:

  1. Planificación inicial: se identifican propósitos, diagnóstico de contexto, selección de temas y definición de objetivos.
  2. Diseño de la metodología: se recomienda la formulación de preguntas de proyecto, selección de herramientas y criterios de evaluación.
  3. Ejecución: se guían estrategias para integrar asignaturas, actividades colaborativas, recursos materiales y adaptaciones didácticas según diversidad.
  4. Cronograma y distribución de tareas: se visualiza en una programación temporal clara, incluyendo responsabilidades de docentes, estudiantes y comunidad.
  5. Evaluación: se proponen indicadores, instrumentos (rúbricas, registros, encuestas) y momentos para monitorear el progreso y hacer ajustes.

El manual integra herramientas prácticas como matrices de planificación, ejemplos de proyectos interdisciplinares y modelos de cronogramas, facilitando su uso en distintos niveles educativos y contextos escolares. Se incluyen asimismo orientaciones para adaptar contenidos a la realidad local y atender la diversidad, fomentando una educación inclusiva y equitativa.

Por último, el manual destaca la importancia de involucrar a toda la comunidad educativa: docentes de distintas áreas, autoridades, estudiantes y familias. Subraya la necesidad de consenso y trabajo colaborativo, así como de recursos humanos y materiales bien definidos. La rúbrica de evaluación propuesta permite asegurar que los objetivos previstos se cumplen y sirve de base para una mejora continua.

El 70 % de los adolescentes en Estados Unidos han utilizado alguna herramienta de inteligencia artificial generativa

Common Sense Media. The Dawn of the AI Era: Teens, Parents, and Generative AI. San Francisco: Common Sense Media, 2024.

Texto completo

El informe revela que aproximadamente el 70 % de los adolescentes en Estados Unidos han utilizado alguna herramienta de inteligencia artificial generativa, como ChatGPT o DALL·E. Estas tecnologías se emplean principalmente para ayudar en tareas escolares, especialmente para generar ideas o traducir contenidos. Sin embargo, solo el 37 % de los padres son conscientes del uso que sus hijos hacen de estas herramientas, lo que evidencia una desconexión significativa entre adolescentes y adultos en cuanto al conocimiento y manejo de la IA.

En cuanto a las políticas escolares, el estudio destaca que muchas escuelas aún no cuentan con normativas claras sobre el uso de la IA generativa. Un 37 % de los adolescentes reportan que en sus escuelas no existen reglas definidas al respecto, mientras que el 42 % de los docentes suelen prohibir su uso. Por otro lado, el 87 % de los padres han oído hablar de estas tecnologías, pero muchos desconocen cómo y cuándo sus hijos las utilizan.

El informe también muestra diferencias en el uso de la IA entre grupos raciales. Los adolescentes afroamericanos y latinos tienden a utilizar una gama más amplia de funciones de la IA en comparación con sus compañeros blancos. Además, los padres de adolescentes afroamericanos suelen tener una visión más positiva respecto al impacto de estas tecnologías en la educación y en el desarrollo de habilidades. No obstante, se observa que los adolescentes afroamericanos tienen más probabilidades de que sus trabajos sean erróneamente identificados como generados por IA, lo que plantea preocupaciones sobre posibles sesgos en los sistemas de detección.

Otro aspecto importante es que los adolescentes que participan en discusiones en el aula sobre la inteligencia artificial tienen una percepción más crítica y equilibrada de sus ventajas y desventajas. Estos jóvenes suelen verificar con mayor frecuencia la precisión del contenido generado por IA y reflexionan sobre cómo esta tecnología podría influir en sus futuras carreras profesionales.

Finalmente, el informe propone recomendaciones para distintos actores. A los padres se les sugiere informarse y dialogar con sus hijos sobre los beneficios y riesgos de la IA. A los educadores se les aconseja desarrollar políticas claras para su uso en el aula y promover debates críticos. A los responsables políticos se les insta a crear directrices que fomenten un uso ético y equitativo de la IA en la educación, garantizando que ningún grupo quede en desventaja.

Impacto de la inteligencia artificial en la vida escolar: datos, riesgos y recomendaciones

Laird, Elizabeth, Madeliene Dwyer y Hugh Grant‑Chapman. Off Task: EdTech Threats to Student Privacy and Equity in the Age of AI. Washington, DC: Center for Democracy & Technology, septiembre de 2023. https://cdt.org/wp-content/uploads/2023/09/091923-CDT-Off-Task-web.pdf

El informe analiza críticamente cómo las tecnologías educativas (edtech), especialmente aquellas impulsadas por inteligencia artificial, están afectando la privacidad y la equidad en el entorno escolar estadounidense. A través de encuestas a estudiantes, familias y docentes de secundaria, se identifica un uso creciente de herramientas de filtrado de contenido, monitoreo estudiantil y plataformas de IA generativa, sin una reflexión adecuada sobre sus implicaciones éticas, sociales y pedagógicas.

Uno de los principales hallazgos es la falta de participación de las comunidades educativas en la toma de decisiones sobre estas tecnologías. Muchos estudiantes y padres expresan preocupación por su uso, pero apenas una minoría ha sido consultada o informada sobre su implementación. Además, el profesorado ha recibido escasa formación, lo que limita su capacidad para aplicar estas herramientas de forma crítica y justa. Esta falta de transparencia y educación crea un entorno donde las decisiones técnicas se imponen sin diálogo, debilitando la confianza en el sistema educativo.

El informe subraya también cómo el filtrado de contenido, aunque pensado para proteger a los estudiantes, a menudo bloquea información legítima y relevante para su aprendizaje. Esto se vuelve especialmente preocupante cuando los filtros restringen temas vinculados a la identidad racial, el género o la orientación sexual, reproduciendo sesgos y excluyendo a estudiantes LGBTQ+ o pertenecientes a minorías. Así, estas herramientas pueden actuar como formas digitales de censura o exclusión.

Resultados:

62 % de los estudiantes y 73 % de los padres/madres están preocupados por el uso de edtech, pero:

Solo 38 % de los estudiantes y 31 % de los padres/madres afirman haber sido consultados por sus escuelas sobre el uso de estas tecnologías.

Casi el 100 % de las escuelas utilizan sistemas de filtrado web.

71 % de los estudiantes informan que estos filtros dificultan sus tareas escolares.

41 % de estudiantes LGBTQ+ reportan tener más dificultades que sus compañeros para acceder a información relevante para su identidad.

39 % de estudiantes afroamericanos afirman que los filtros bloquean contenidos sobre historia o cultura negra.

58 % de los estudiantes han usado herramientas de IA generativa al menos una vez.

24 % han sido sancionados por su uso.

57 % de los docentes no han recibido ninguna formación sobre estas tecnologías.

37 % no sabe si su escuela tiene políticas sobre IA generativa.

Solo 34 % de los docentes han recibido formación sobre privacidad digital en el último año.

El 52 % de los docentes afirman que les cuesta confiar en el trabajo de los estudiantes desde que se empezó a usar IA generativa.

Por otro lado, el monitoreo digital de la actividad estudiantil —incluso fuera del horario escolar y en dispositivos personales— está en aumento. Este tipo de vigilancia genera consecuencias graves: sanciones disciplinarias desproporcionadas, denuncias a las autoridades e incluso situaciones en las que estudiantes LGBTQ+ han sido “sacados del armario” sin su consentimiento. Las medidas de vigilancia no solo afectan la privacidad, sino también el bienestar emocional y la seguridad de los estudiantes más vulnerables.

El uso de inteligencia artificial generativa, como ChatGPT, ha crecido rápidamente en los entornos escolares, pero sin preparación institucional. La mayoría del profesorado no ha recibido formación sobre su uso ni conoce las políticas escolares al respecto. Esto ha llevado a que muchos estudiantes sean sancionados por utilizar estas herramientas, aunque no existan normas claras que regulen su aplicación. Al mismo tiempo, los docentes expresan preocupación por la pérdida de confianza en el trabajo autónomo del alumnado, lo que genera tensiones en la relación educativa.

El informe advierte que estas tecnologías afectan de forma desproporcionada a estudiantes con discapacidades, de bajos ingresos o pertenecientes a colectivos marginados, amplificando desigualdades estructurales. Por ello, no se trata únicamente de un problema de privacidad, sino de una cuestión de derechos civiles y justicia educativa. CDT concluye con una serie de recomendaciones urgentes: establecer marcos normativos claros, formar adecuadamente al personal docente, y garantizar la participación significativa de estudiantes y familias en todas las decisiones relacionadas con la tecnología en las aulas.

Recomendaciones:

Incluir a estudiantes y familias en la toma de decisiones sobre EdTech

  • Involucrar activamente a las comunidades escolares en la evaluación, selección y supervisión de las tecnologías utilizadas en clase.
  • Fomentar la transparencia sobre las herramientas empleadas y sus finalidades.

Revisar políticas de filtrado de contenido

  • Asegurar que los filtros no limiten el acceso a información educativa legítima, especialmente en temas de identidad, salud mental o justicia social.
  • Evitar que los filtros reproduzcan sesgos discriminatorios.

Limitar el monitoreo estudiantil

  • Establecer políticas claras sobre qué se monitorea, cuándo, cómo y por qué.
  • Asegurar que el monitoreo no continúe fuera del horario escolar ni en dispositivos personales sin consentimiento informado.

Crear políticas claras sobre el uso de IA generativa

  • Proporcionar directrices coherentes y accesibles para el alumnado y profesorado sobre cómo se puede o no utilizar la inteligencia artificial generativa.
  • Integrar estas políticas en los planes pedagógicos.

Formar al profesorado

  • Ofrecer formación continua sobre privacidad digital, equidad tecnológica y uso ético de la inteligencia artificial.

Inteligencia artificial y educación: orientaciones para responsables políticos

Miao, F., & Holmes, W. (2021). Artificial Intelligence and Education: Guidance for Policy-makers. Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO). https://unesdoc.unesco.org/ark:/48223/pf0000376709

El informe de la UNESCO ofrece una guía integral para que los responsables políticos comprendan y gestionen la integración de la inteligencia artificial (IA) en la educación. Destaca tanto las oportunidades como los riesgos asociados al uso de la IA en el ámbito educativo, con el objetivo de garantizar una implementación ética, inclusiva y equitativa.

Contenido clave:

  • Definición y tecnologías de la IA: Se exploran las bases de la IA, incluyendo sus definiciones, técnicas y tecnologías subyacentes.
  • Tendencias emergentes y su impacto: Se analizan las tendencias actuales en el uso de la IA en la educación y sus implicaciones para la enseñanza y el aprendizaje.
  • Preparación para convivir con la IA: Se discute cómo los sistemas educativos pueden preparar a los individuos para vivir y trabajar en un entorno influenciado por la IA.
  • Aplicaciones de la IA en la educación: Se presentan ejemplos de cómo la IA puede mejorar la educación, desde la personalización del aprendizaje hasta la automatización de tareas administrativas.
  • Desafíos y recomendaciones: Se identifican los principales desafíos en la implementación de la IA en la educación y se ofrecen recomendaciones concretas para que los responsables políticos diseñen políticas y programas adaptados a sus contextos locales.

Este informe es una herramienta esencial para los responsables políticos que buscan integrar la IA de manera efectiva y ética en los sistemas educativos, con miras a avanzar hacia el Objetivo de Desarrollo Sostenible 4 (Educación de calidad para todos).

Integración de la AI en los planes de estudios

Chen, Zhuo, Nathan Kelber y Ruby MacDougall. 2025. “Applying AI Literacy to Student and Faculty Persons.” Ithaka S+R Blog, 10 de junio de 2025. https://sr.ithaka.org/blog/applying-ai-literacy-to-student-and-faculty-personas/.

En mayo de 2025, Ithaka S+R organizó los primeros talleres del proyecto “Integrating AI Literacy in the Curricula”, en colaboración con bibliotecarios y docentes de 45 instituciones educativas de nivel superior. El objetivo fue vincular la alfabetización en inteligencia artificial (IA) con los marcos tradicionales de alfabetización informacional y generar herramientas prácticas para su implementación académica

Durante la primera sesión, los participantes analizaron marcos teóricos y definiciones existentes sobre IA y alfabetización informacional. En la segunda, se formaron grupos que trabajaron a partir de uno de seis personas predefinidos (tres perfiles de estudiantes: universitario, posgrado y adulto; y tres perfiles docentes: humanista, científico social y natural), para explorar sus riesgos, beneficios y necesidades específicas relacionadas con la IA

Dos ejemplos representativos surgieron:

  • Callie, estudiante de 38 años de fisioterapia en línea, necesita acceso a herramientas de IA relevantes, formación práctica y certificaciones para destacar en el ámbito laboral de la salud. Sin embargo, su falta de experiencia con IA implica riesgos como el uso inapropiado de datos o el incumplimiento de normativas de privacidad (HIPAA). Los participantes definieron su alfabetización en IA como “comprender la IA, reconocer casos adecuados de uso y evaluar su repercusión en la preparación profesional”
  • Sue, profesora de sociología reacia al uso de IA frente a la presión institucional, podría centrarse únicamente en detectar trampas estudiantiles. Los participantes la instaron a reorientar su enfoque: en lugar de buscar mecanismos de detección, desarrollar ejemplos positivos de uso docente, construir políticas institucionales y comprender las limitaciones de las herramientas. Su definición se formuló como “tener acceso a modelos de IA bien integrados en el aula y conocer los límites de los detectores”

Al final, los facilitadores sintetizaron las ideas en común y alentaron a las instituciones a profundizar en las prioridades identificadas para impulsar la alfabetización en IA. Ithaka S+R continuará diseñando instrumentos cualitativos para recoger experiencias de estudiantes y docentes, con el fin de desarrollar soluciones tangibles adaptadas a sus necesidades.

Este enfoque centrado en personas evidencia una necesidad de diseñar definiciones flexibles y relevantes de alfabetización en IA, que respondan a disciplinas, niveles de experiencia y roles institucionales. El proyecto reconoce el potencial transformador de integrar la IA de forma ética y contextualizada en entornos educativos reales.