Archivo de la categoría: Alfabetización informacional

La revolución de las cualificaciones y el futuro del aprendizaje y los ingresos

The Skills Revolution and the Future of Learning and Earning. McKinsey, 2024

Texto completo

El informe analiza cómo la tecnología está transformando el trabajo y la necesidad de adaptar la educación y la formación profesional para asegurar un crecimiento inclusivo y sostenible. Destaca que tanto los sectores público como privado juegan un papel fundamental en crear empleos sustentables, cerrar las brechas de habilidades y garantizar que el crecimiento impulsado por la tecnología beneficie a todos.

El informe identifica ocho hallazgos clave para el futuro de la educación:

  1. Cambio de ocupaciones: A medida que se despliega la automatización, millones de trabajadores deberán cambiar de ocupación.
  2. Aumento de habilidades sociales, emocionales y digitales: La demanda de estas habilidades seguirá creciendo.
  3. La importancia de la formación continua: La experiencia laboral es crucial para el valor del capital humano.
  4. Educación combinada: Tecnologías que mejoran la conectividad y el aprendizaje a ritmo propio están ganando relevancia.
  5. Educación infantil temprana: Las inversiones en esta etapa son esenciales y tienen un alto retorno de inversión.
  6. Educación primaria y secundaria (K-12): Hay un enfoque creciente en incluir habilidades futuras en el currículo.
  7. Educación superior: Se está moviendo hacia un enfoque basado en habilidades, con microcredenciales que preparan a los estudiantes para el mundo laboral.
  8. Desarrollo de habilidades en el trabajo: Las empresas pueden enfocarse más en habilidades que en títulos, adoptando una mentalidad de “incubadora de talentos”.

El informe resalta la urgencia de invertir en la transformación educativa para que el crecimiento impulsado por la tecnología sea inclusivo y equitativo.

Cómo las universidades están reinventando el aprendizaje en un mundo de IA

The Chronicle of Higher Education. «How Colleges Are Reimagining Learning in an AI World», 3 de octubre de 2024. https://www.chronicle.com/article/the-future-is-hybrid.

Se analiza cómo las universidades están adaptándose al creciente papel de la inteligencia artificial (IA) en la educación. En lugar de ver la IA como una herramienta que sustituya el esfuerzo humano, algunos educadores, como Dan Myers y Anne Murdaugh de Rollins College, están integrando la IA como un apoyo para mejorar el aprendizaje.

En sus cursos, pidieron a los estudiantes que usaran herramientas como Claude y Copilot para proyectos de investigación, documentando cada paso en diarios que incluían los prompts y respuestas de IA, junto con sus reflexiones sobre el proceso. Los estudiantes encontraron útil la IA en etapas de brainstorming y esquematización, aunque preferían escribir por su cuenta, revelando la necesidad de trabajo independiente en ciertos aspectos como la revisión de literatura.

Este enfoque marca un cambio hacia una colaboración consciente con la IA, lo que podría permitir a los estudiantes aprender de manera más eficaz en vez de delegar el trabajo. Myers subraya que el desafío no es rediseñar drásticamente el currículo, sino encontrar los puntos estratégicos donde cada estudiante pueda desarrollar habilidades fundamentales en IA.

Mientras que algunos profesores temen el impacto de la IA en la educación, Myers y Murdaugh argumentan que el pensamiento crítico y el manejo de información, habilidades esenciales para la IA, son precisamente aquellas en las que las universidades ya destacan. De hecho, varias instituciones están buscando incorporar la «alfabetización en IA» en los planes de estudio. Sin embargo, esto no es sencillo: encuestas recientes muestran que aunque muchos estudiantes ya usan la IA para buscar información o hacer resúmenes, la mayoría de los profesores todavía no se sienten capacitados para aplicarla en su enseñanza.

Organizaciones como WGU Labs y la American Association of Colleges and Universities (AAC&U) están trabajando para reducir la incertidumbre en torno a la IA en la educación, proporcionando ejemplos prácticos y programas de capacitación. De hecho, la AAC&U ha lanzado un instituto de siete meses sobre IA, pedagogía y currículum, en el que participan equipos de 123 universidades que buscan integrar la IA de manera ética y efectiva.

Para instituciones más pequeñas como Berry College, la adopción de la IA incluye decisiones éticas y de privacidad, pues quieren educar a sus estudiantes en el uso crítico de la IA sin depender en exceso de detectores de IA, que podrían generar desconfianza. Mientras tanto, en universidades grandes como la Universidad de Michigan y Yale, se están desarrollando plataformas propias que permiten a los estudiantes y profesores experimentar con chatbots y otras herramientas de IA dentro de entornos protegidos. Esto asegura privacidad y brinda igualdad de oportunidades a estudiantes que de otra forma no podrían acceder a versiones avanzadas de herramientas como ChatGPT.

Universidades como Carnegie Mellon han comenzado a financiar experimentos para probar el impacto de la IA en el aula, explorando si esta mejora la capacidad de los estudiantes para generar ideas y defender argumentos. Algunos profesores también están explorando el desarrollo de tutores de IA para apoyar el aprendizaje autodirigido, lo que permite a los estudiantes trabajar a su propio ritmo y con acceso continuo a un «instructor» que no se frustra.

Sin embargo, los desafíos son significativos, pues la IA plantea dilemas sobre cómo y hasta qué punto se deben adaptar los programas de estudio. Mientras que algunos educadores ven en la IA una oportunidad para dedicar más tiempo a problemas complejos en clase, otros temen que se convierta en una distracción o en una solución demasiado fácil. Las universidades están comenzando a ver a la IA no solo como una herramienta auxiliar, sino como una tecnología fundamental que redefine la experiencia educativa, exigiendo un equilibrio entre innovación y cautela en su implementación.

¿Podemos confiar en las búsquedas web con Inteligencia Artificial?

Bains, Callum. «The Chatbot Optimisation Game: Can We Trust AI Web Searches?» The Guardian, 3 de noviembre de 2024. https://www.theguardian.com/technology/2024/nov/03/the-chatbot-optimisation-game-can-we-trust-ai-web-searches.

El artículo «The Chatbot Optimisation Game: Can We Trust AI Web Searches?» publicado en The Guardian, analiza cómo los chatbots de inteligencia artificial (IA) eligen y presentan la información en las búsquedas en línea y cuestiona la confiabilidad de estas respuestas.

Investigadores de la Universidad de California en Berkeley encontraron que los chatbots actuales dependen excesivamente de la relevancia superficial de la información, priorizando textos con lenguaje técnico o palabras clave sin evaluar su confiabilidad. Esto significa que tienden a pasar por alto aspectos que normalmente consideraríamos para verificar la veracidad, como referencias científicas o lenguaje imparcial.

El concepto de «optimización de motores generativos» fue introducido el año pasado, indicando que el uso de un lenguaje autoritativo y referencias (incluso si son incorrectas o irrelevantes) podría aumentar la visibilidad en las respuestas de los chatbots hasta en un 40%. Sin embargo, estas conclusiones son tentativas y los algoritmos de selección de los chatbots aún son difíciles de manipular con reglas claras.

El uso de chatbots también plantea un dilema existencial en internet: a diferencia de los motores de búsqueda tradicionales, los chatbots solo mencionan unas pocas fuentes en sus respuestas, lo que beneficia a un grupo reducido de sitios y deja prácticamente invisibles a otros, afectando su tráfico significativamente.

Además, los investigadores de Harvard han demostrado que, más allá de la GEO, es posible manipular directamente las respuestas de los chatbots con “secuencias de texto estratégicas”. Estas secuencias, que parecen cadenas de caracteres sin sentido, en realidad están diseñadas mediante algoritmos que hacen que los chatbots generen respuestas específicas. Esto podría permitir que ciertos productos o contenidos logren más visibilidad en las respuestas de los chatbots, independientemente de su calidad o confiabilidad.

Este tipo de manipulación plantea riesgos evidentes para los usuarios, quienes podrían ver productos o información en el chatbot sin saber que fueron posicionados mediante técnicas de manipulación. Aunque en el futuro los LLMs (modelos de lenguaje de IA) podrían fortalecerse contra estos ataques, los investigadores señalan que los métodos de manipulación también están en constante evolución, por lo que los desafíos de control seguirán presentes.

Otro problema que el artículo resalta es el llamado “dilema de la respuesta directa”, un concepto desarrollado por el investigador Martin Potthast y su equipo. Este dilema surge cuando los chatbots presentan una única respuesta a una pregunta, lo cual puede llevar a que los usuarios acepten esa respuesta sin buscar otros puntos de vista o fuentes. Esto plantea el riesgo de que los usuarios perciban la respuesta del chatbot como la verdad única, sin considerar otras perspectivas o matices que podrían ser importantes en temas complejos.

Con la introducción de resúmenes de IA en los motores de búsqueda, Google lanzó la campaña «Let Google do the searching for you» («Deja que Google haga la búsqueda por ti»), lo cual sugiere que estos resúmenes optimizan el proceso de búsqueda. Sin embargo, este tipo de automatización podría perjudicar a aquellos usuarios que buscan información imparcial y precisa, ya que los chatbots, al ser susceptibles a manipulaciones, no siempre pueden garantizar que la información proporcionada sea confiable.

En resumen, el artículo advierte sobre los desafíos éticos y prácticos que implica la creciente dependencia de chatbots generativos para obtener información en línea. Si bien pueden hacer las búsquedas más rápidas y cómodas, los riesgos de manipulación y la falta de una supervisión clara en la selección de información hacen que esta tecnología aún esté lejos de ser una fuente autoritativa y confiable para temas complejos.

Alfabetizaciones Digitales Críticas: un recurso de acceso abierto diseñado para apoyar tanto a profesionales de la información como a educadores.

#DLFteach Toolkit Volume 4: Critical Digital Literacies” DLF’s Digital Library Pedagogy Group, 2024

Texto completo


Volume 1 #DLFteach Toolkit 1.0
#DLFteach Toolkit

Volume 2: Lesson Plans on Immersive Pedagogy#DLFteach Toolkit

Volume 3: Lesson Plans for Literacy and Competency Driven Digital Scholarship Instruction#DLFteach Toolkit

Volume 4: Critical Digital

Con un enfoque temático en las alfabetizaciones digitales críticas, este volumen ofrece planes de lecciones y materiales didácticos adaptables que ayudan a los estudiantes a desarrollar las habilidades necesarias para consumir y crear información en un entorno digital, así como el pensamiento crítico necesario para comprender y cuestionar los sistemas de información y sus estructuras de poder subyacentes. Destaca tanto los resultados basados en habilidades como el pensamiento contextual, revelando las desigualdades y sesgos estructurales de muchas herramientas digitales.

Los instructores que utilicen este toolkit aprenderán estrategias para promover la inclusión, la accesibilidad y la pedagogía digital en sus prácticas de enseñanza, ayudando a los estudiantes a interactuar de manera reflexiva con las tecnologías emergentes y a desarrollar estrategias para corregir las desigualdades de uso e impacto.

Cada lección incluye objetivos de aprendizaje, preparación y un esquema de la sesión. Materiales adicionales, como diapositivas, guías, evaluaciones y conjuntos de datos, están disponibles en el repositorio DLF OSF y enlazados desde cada lección.

Hacia una IA ética y justa en la investigación educativa

Barnes, T., Danish, J., Finkelstein, S., Molvig, O., Burriss, S., Humburg, M., Reichert, H., Limke, A. Toward Ethical and Just AI in Education Research. Community for Advancing Discovery Research in Education (CADRE). Education Development Center, 2024

Texto completo

El documento «Toward Ethical and Just AI in Education Research» discute el creciente uso de la inteligencia artificial en la educación, particularmente en las áreas de ciencia, tecnología, ingeniería y matemáticas (STEM). Los avances en la investigación y desarrollo de inteligencia artificial en educación (AIED) están transformando la enseñanza y el aprendizaje, generando una mezcla de entusiasmo y preocupación.

Los autores, miembros de la Community for Advancing Discovery Research in Education (CADRE), reconocen que, aunque la AI tiene el potencial de revolucionar la educación, también puede perpetuar sesgos existentes y afectar negativamente la práctica educativa. Este informe es el primero de una serie de tres que aborda enfoques éticos en la investigación y aplicación de la AIED en STEM, impulsado por la necesidad de considerar cuidadosamente cómo se diseñan y utilizan estas tecnologías.

Los investigadores subrayan la importancia de adoptar políticas que prioricen la ética, la equidad y la justicia en el desarrollo de tecnologías AIED en educación K-12. En este sentido, proponen un marco ético y herramientas que fomentan la reflexión continua y la comunicación para mejorar la investigación y el desarrollo inclusivos y equitativos.

Además, hacen hincapié en que las tecnologías AI reflejan tanto los sesgos intencionados como los no intencionados de sus diseñadores y de la sociedad. Por lo tanto, abogan por un enfoque integral que incorpore principios éticos establecidos, lo que permitirá que las buenas intenciones de los investigadores y desarrolladores se traduzcan en decisiones de diseño positivas y en la creación de productos tecnológicos inclusivos.

Un sitio web de noticias impulsado por IA acusa accidentalmente de asesinato al fiscal del distrito

«AI-Powered News Site Accidentally Accuses District Attorney of Murder», Futurism. 18 de octubre de 2024. https://futurism.com/ai-accuses-district-attorney-of-murder.

Un controvertido sitio de noticias local impulsado por inteligencia artificial, Hoodline San José, cometió un grave error al acusar accidentalmente a un fiscal del distrito de asesinato. Un artículo publicado por este medio, que forma parte de una red de sitios de noticias locales en EE. UU., tenía el impactante título: «FISCAL DEL CONDADO DE SAN MATEO ACUSADO DE ASESINATO EN MEDIO DE LA BÚSQUEDA DE LOS RESTOS DE LA VÍCTIMA». Sin embargo, la realidad es que, aunque hubo un asesinato, el fiscal no fue el autor; simplemente había presentado cargos contra el verdadero sospechoso.

El error se originó cuando el sistema de inteligencia artificial de Hoodline interpretó incorrectamente un tuit de la oficina del fiscal del distrito de San Mateo, que anunciaba que un hombre local había sido acusado de asesinato. La IA distorsionó la información de tal manera que hizo parecer que el propio fiscal había cometido el crimen. Este tipo de acusaciones, sobre todo contra un funcionario público, es de suma gravedad en el periodismo.

Después de que el sitio fue señalado por Techdirt, se publicó una nota del editor que intentó explicar el error como un «error tipográfico» que cambió el significado del contenido y creó confusión entre el fiscal y el acusado, que son personas diferentes. Este incidente pone en tela de juicio la promesa de Hoodline de que su contenido editorial cuenta con un nivel significativo de supervisión humana, dado que el sitio utiliza abiertamente inteligencia artificial para generar «noticias» de manera sintética.

Además, el artículo firmado por Eileen Vargas, una de las muchas identidades de reporteros generadas por IA del sitio. Esta práctica ha sido objeto de crítica por pretender mostrar una diversidad racial que no refleja la realidad de la industria periodística, que es mayoritariamente blanca y masculina.

El error también podría tener implicaciones para Google, ya que la acusación falsa apareció en su sección de noticias. La situación plantea preguntas sobre cuánta libertad debería darse a un sitio de noticias que claramente carece de estándares editoriales y si se puede confiar en los algoritmos para filtrar contenido generado por IA.

Lo que queda claro es que errores como este, que un periodista humano bajo un proceso editorial adecuado probablemente no cometería, podrían volverse más comunes a medida que los editores deleguen el control a sistemas de IA económicos y poco supervisados.

El potencial de la IA generativa y la detección, la disciplina y la desconfianza

Dwyer, M. ; Laird, E. Up in the Air Educators Juggling the Potential of Generative AI with Detection, Discipline, and Distrust. e Center for Democracy & Technology (CDT), 2024

Texto completo

Desde finales del curso 2022-23, los educadores han tenido una experiencia distinta con la inteligencia artificial generativa (IA). Las escuelas han aprovechado para reorganizarse y adaptarse tras la rápida aparición de ChatGPT el año anterior. El Centro para la Democracia y la Tecnología (CDT) realizó una encuesta en noviembre y diciembre de 2023 a maestros de secundaria para entender cómo interactúan con esta tecnología y qué apoyo reciben.

En agosto de 2023, el Centro para la Democracia y la Tecnología (CDT) realizó una encuesta para examinar las experiencias y opiniones de maestros, estudiantes y padres sobre varios aspectos de la tecnología, incluida la IA generativa, durante el año escolar 2022-23. Luego, entre noviembre y diciembre de 2023, CDT patrocinó una encuesta dirigida a maestros para analizar cambios en el uso reportado de IA generativa y evaluar el apoyo y la orientación que los maestros están recibiendo por parte de sus escuelas o distritos en el año escolar 2023-24. Para ello, se llevaron a cabo entrevistas en línea a 460 maestros de 6.º a 12.º grado realizadas entre noviembre y diciembre de 2023.

El estudio reveló avances y desafíos:

  • Mayor familiaridad y formación: Aunque ha aumentado el uso de IA generativa y las políticas escolares, persisten riesgos. A muchos maestros les falta orientación sobre el uso responsable por parte de los estudiantes y cómo detectar trabajos generados por IA.
  • Dependencia de herramientas de detección de IA: Los maestros confían cada vez más en estas herramientas, a pesar de que son poco efectivas. Esto podría afectar negativamente a los estudiantes.
  • Aumento en la disciplina estudiantil: Más estudiantes están siendo castigados por el uso de IA, con un riesgo mayor para estudiantes marginados.
  • Desconfianza hacia los estudiantes: Los maestros, especialmente en escuelas que prohíben la IA, siguen siendo más desconfiados respecto a la integridad académica de los estudiantes, lo que también ha resultado en más sanciones disciplinarias.

Las escuelas han avanzado significativamente en la creación de políticas y en proporcionar orientación a los docentes sobre el uso de la IA generativa en un corto periodo. En el año escolar anterior, muchas escuelas aún estaban desorientadas y rezagadas en cuanto a la implementación de normativas sobre IA generativa, y muchos maestros informaban que sus instituciones no tenían políticas claras al respecto. Sin embargo, en el año escolar 2023-24, más docentes reportan que sus escuelas han adoptado políticas y procedimientos, además de ofrecer mayor capacitación y apoyo en relación con el uso de estas herramientas.

  • 80% de los docentes han recibido capacitación formal sobre políticas de uso de IA generativa, un aumento de 37 puntos porcentuales respecto al año pasado.
  • 85% de los maestros afirman que sus escuelas tienen una política que permite o prohíbe el uso de herramientas de IA generativa, como ChatGPT, para tareas escolares, y 71% de ellos indican que es la primera vez que se implementa dicha política en sus instituciones.
  • Las políticas que permiten el uso de IA generativa para tareas casi se han duplicado en comparación con el año anterior (del 31% al 60%).
  • Además, 72% de los maestros afirman que las escuelas han solicitado su opinión sobre las políticas de uso de IA generativa en el aula, un porcentaje superior al de otras tecnologías escolares.

Los maestros se están volviendo cada vez más dependientes de las herramientas de detección de contenido generativo de IA sancionadas por las escuelas, lo cual es problemático ya que investigaciones indican que estas herramientas no son consistentemente efectivas para diferenciar entre texto generado por IA y escrito por humanos. Además, la mayoría de los docentes no han recibido orientación sobre cómo actuar si sospechan que un estudiante ha utilizado IA de manera inapropiada.

  • 68% de los maestros informan que utilizan regularmente una herramienta de detección de contenido de IA, lo que representa un aumento de 30 puntos porcentuales en comparación con el año pasado.
  • Solo 25% de los docentes se sienten muy efectivos a la hora de discernir si los trabajos fueron creados por IA o por los estudiantes mismos.
  • El uso de herramientas de detección sancionadas por las escuelas ha aumentado: 78% de los maestros informan que su escuela respalda alguna herramienta de este tipo, en comparación con el 43% del año pasado.

Esta situación genera preocupación, especialmente por el aumento en las sanciones disciplinarias hacia los estudiantes, que será tratado en la si

El aumento en el uso de la IA generativa ha generado un incremento en las sanciones disciplinarias hacia los estudiantes, en parte debido a la falta de capacitación docente y a la creciente dependencia de herramientas de detección de IA, que a menudo son ineficaces. Desde el año escolar pasado, las sanciones por el uso de IA generativa han aumentado un 16%, alcanzando al 64% de los estudiantes sancionados en el ciclo 2023-2024.

  • Herramientas de detección de IA: El uso regular de estas herramientas por los maestros está vinculado a un mayor número de sanciones. Un 72% de los maestros que las usan regularmente informan sobre estudiantes que han enfrentado consecuencias negativas.
  • Desigualdades en la disciplina: Estudiantes que dependen de dispositivos proporcionados por la escuela, así como aquellos de comunidades marginadas (negros, hispanos, rurales y de bajos ingresos), enfrentan mayor riesgo de sanciones.
  • Estudiantes con discapacidades: Los alumnos con planes IEP o 504 reportan un uso más frecuente de IA generativa, lo que, combinado con el mayor uso de herramientas de detección por parte de maestros de educación especial, aumenta el riesgo de acciones disciplinarias para estos estudiantes.

El aumento de estas sanciones plantea preocupaciones sobre las consecuencias educativas negativas, especialmente para poblaciones vulnerables.

Construyendo una cultura de alfabetización en inteligencia artificial generativa en la enseñanza de lenguas, literatura y escritura

Working Paper 1: Overview of the Issues, Statement of Principles, and Recommendations

Working Paper 2: Generative AI and Policy Development: Guidance from the MLA-CCCC Task Force

Working Paper 3: Building a Culture for Generative AI Literacy in College Language, Literature, and Writing

MLA 2024

Este documento de trabajo sostiene que los educadores deben aprovechar su experiencia colectiva para influir en el uso de la IA generativa, tanto en su campo profesional como en la sociedad en general. Esto se debe a que estas herramientas tienen un impacto significativo en nuestras actividades cívicas, culturales y económicas.

Este documento de trabajo argumenta que los educadores deben utilizar su experiencia colectiva para influir en el uso de la inteligencia artificial (IA) generativa, tanto en sus áreas profesionales como en la sociedad, dada la significativa influencia que estas herramientas tienen en nuestras actividades cívicas, culturales y económicas. Sin embargo, también se señala el riesgo de que al crear tales documentos, se estén limitando alternativas al consentir en lugar de resistir. Dado que la tecnología ya está presente, es esencial ofrecer perspectivas equilibradas sobre los riesgos y beneficios asociados a la IA generativa.

A medida que se concluye el trabajo en este documento en el verano de 2024, se observa que empresas como Apple y Google están integrando tecnologías de IA generativa en sus plataformas. Esto indica que la IA está lo suficientemente integrada en el ámbito educativo como para impactar la alfabetización de diversas maneras. Se definen varios términos relacionados con la IA, como IA artificial (que hace predicciones basadas en modelos estadísticos), IA generativa (que produce texto o imágenes a partir de un aviso del usuario) y modelos de lenguaje de gran tamaño (que generan texto utilizando cálculos estadísticos).

Se enfatiza que, aunque las herramientas de IA generativa parecen funcionar de manera casi mágica, son, en realidad, impulsadas por datos y algoritmos. Aunque pueden producir textos que parecen humanos, estas herramientas carecen de comprensión real y, a menudo, reproducen sesgos presentes en los datos con los que fueron entrenadas. Por lo tanto, es fundamental que los educadores mantengan una supervisión crítica sobre el uso de estas tecnologías, ya que la percepción de «inteligencia» en la IA puede crear expectativas irreales.

Dado que la IA generativa se está integrando en servicios y aplicaciones cotidianas, es urgente centrarse en la alfabetización en IA generativa. Este documento promueve que la alfabetización en IA debe centrarse en dos objetivos: el acceso a «lenguajes en evolución» en diferentes contextos y el desarrollo de marcos críticos que ayuden a imaginar mejores «futuros sociales». Se propone que la alfabetización en IA abarca no solo la fluidez técnica, sino también la capacidad crítica, creativa y comunitaria en relación con estas herramientas.

En cuanto a los estudiantes, se destaca la necesidad de estrategias prácticas para utilizar la IA generativa, entender cómo esta puede influir en sus expectativas de rendimiento y en la calidad de la educación que recibirán. La alfabetización en IA debe incluir la capacidad de diseñar o criticar herramientas, así como cuestionar la ética y eficacia de su uso.

Adolescentes, padres y la adopción de la IA generativa en casa y en la escuela

The Dawn of the AI Era: Teens, Parents, and the Adoption of Generative AI at Home and School. Common Sense, 2024

Descargar

El informe titulado The Dawn of the AI Era: Teens, Parents, and the Adoption of Generative AI at Home and School, publicado el 18 de septiembre de 2024, aborda el impacto de la inteligencia artificial generativa en la educación, especialmente desde la llegada de ChatGPT en 2022. Desde entonces, las escuelas han estado en el centro del debate sobre el uso de AI, con los estudiantes siendo pioneros en su aplicación para tareas escolares. A medida que los líderes educativos consideran cómo esta tecnología puede transformar el aprendizaje en el aula, se vuelve crucial entender cómo los jóvenes la adoptan en comparación con sus padres.

El informe destaca que los adolescentes están adoptando rápidamente la inteligencia artificial generativa, de manera similar a cómo se integró el uso de las redes sociales en sus vidas. La mayoría de los jóvenes utilizan estas herramientas principalmente para el trabajo escolar. Sin embargo, existe una desconexión significativa entre padres e hijos en este aspecto: muchos padres no están al tanto de que sus hijos utilizan la inteligencia artificial generativa. Se estima que siete de cada diez jóvenes han usado al menos un tipo de herramienta de AI generativa, lo que indica un uso generalizado que podría no ser evidente para los adultos a su alrededor.

Siete de cada diez adolescentes de entre 13 y 18 años afirman haber utilizado al menos un tipo de herramienta de inteligencia artificial generativa. Los motores de búsqueda con resultados generados por IA y los chatbots son considerablemente más populares que las herramientas que generan imágenes y videos. Al igual que con el crecimiento acelerado de las redes sociales, la adopción de herramientas de IA generativa entre los adolescentes ha sido rápida. A diferencia de otras tecnologías digitales, el uso de la IA generativa—que incluye motores de búsqueda con resultados generados por IA, chatbots y generadores de texto, así como generadores de imágenes y videos—es consistente en adolescentes de todas las edades, géneros y orígenes raciales y étnicos.

Los datos específicos son los siguientes:

  • El 56% de los adolescentes dice haber utilizado motores de búsqueda con resultados generados por IA, como Bing, Google SGE o Brave Summarizer.
  • El 51% ha utilizado chatbots o generadores de texto, como ChatGPT, Google Gemini o My AI de Snap.
  • El 34% ha utilizado generadores de imágenes, como DALL-E, Photoshop AI o Bing Image Creator.
  • El 22% de los adolescentes ha utilizado generadores de video IA, como Midjourney, Stable Diffusion o Google VideoPoet.

Las escuelas están teniendo dificultades para mantenerse al día con las implicaciones que estas tecnologías tienen sobre la enseñanza y el aprendizaje. La rapidez con que los estudiantes adoptan estas herramientas está superando la capacidad de las instituciones educativas para implementar políticas efectivas que aborden sus riesgos y beneficios.

Los adolescentes utilizan la inteligencia artificial generativa para una variedad de propósitos, siendo la ayuda con las tareas escolares el más común. En una encuesta, el 53% de los jóvenes afirmó usar IA generativa para recibir apoyo en sus deberes, mientras que el 42% la emplea para combatir el aburrimiento y el 41% para traducir de un idioma a otro.

La encuesta abarcó 14 actividades diferentes, clasificadas en dos categorías: actividades formales o educativas y actividades personales. Las actividades formales incluyen resumir o traducir contenido, crear imágenes o videos, generar ideas, ayudar con las tareas y redactar documentos, correos electrónicos y código. La mayoría de estas actividades son realizadas por aproximadamente un tercio a la mitad de los adolescentes, excepto la escritura de código, que solo ha sido utilizada por alrededor del 12%.

Dos de cada cinco adolescentes (40%) informan haber utilizado inteligencia artificial generativa para tareas escolares, con una división casi equitativa entre aquellos que lo hacen con el permiso de sus profesores y aquellos que no. Aunque el 70% de los adolescentes afirma usar IA generativa, solo un menor porcentaje la emplea específicamente para trabajos escolares.

  • El 40% de los adolescentes indica que ha utilizado IA generativa para ayudar con sus tareas, mientras que el 60% dice nunca haberlo hecho.
  • Además, los adolescentes latinos son más propensos a afirmar que han utilizado IA generativa para sus tareas escolares en comparación con sus compañeros blancos (45% frente a 36%).

Entre los adolescentes que han utilizado inteligencia artificial generativa para tareas escolares, el 63% afirma haber empleado chatbots o generadores de texto, mientras que un poco más de la mitad (57%) ha utilizado motores de búsqueda con resultados generados por IA. Los adolescentes que recurren a estas herramientas para apoyar su trabajo escolar utilizan diferentes tipos de sistemas:

  • 63% han usado chatbots o generadores de texto.
  • 57% han utilizado motores de búsqueda con resultados generados por IA.
  • 23% han recurrido a generadores de imágenes para sus tareas.
  • 13% han utilizado generadores de video para la escuela.

La mayoría de los padres no están al tanto del uso que sus hijos adolescentes hacen de la inteligencia artificial generativa. Entre los padres cuyos hijos informaron haber utilizado al menos una plataforma de IA generativa, solo el 37% pensaba que su hijo ya había utilizado dicha tecnología. Aproximadamente uno de cada cuatro (23%) de estos padres cree que su hijo no ha utilizado ninguna de estas plataformas, mientras que el 39% no está seguro de si su hijo ha usado estas herramientas.

Aproximadamente 6 de cada 10 adolescentes informan que su escuela no tiene reglas sobre cómo se puede usar la inteligencia artificial generativa o que no están seguros de si existen dichas reglas. Esto indica que muchas escuelas y maestros pueden no haber comunicado claramente o implementado políticas sobre el uso de IA generativa.

Entre los adolescentes que dijeron que sus profesores habían hablado sobre permitir o restringir el uso de IA generativa, el 29% mencionó que al menos un maestro había utilizado software para detectar el uso de IA en los escritos de los estudiantes. Aunque estas herramientas no siempre son precisas, algunos docentes dependen de ellas.

Los hallazgos incluyen:

  • El 10% de todos los adolescentes afirma que al menos un maestro ha marcado su trabajo como generado por IA cuando no era así.
  • Aproximadamente el 70% de los jóvenes cuya tarea fue marcada por un profesor también tuvo su trabajo sometido a software de detección de IA, mientras que el 27% indica que su trabajo no fue sometido.

Uno de los hallazgos más significativos del informe es la importancia de establecer canales de comunicación abiertos entre jóvenes, padres, cuidadores y educadores. Estos diálogos pueden influir en cómo tanto los jóvenes como sus padres perciben las oportunidades y los peligros que presenta la inteligencia artificial generativa en la educación. Fomentar una comunicación fluida puede no solo ayudar a crear políticas más consistentes en las aulas, sino también a educar a los jóvenes sobre las implicaciones de estas tecnologías.

El informe concluye que para preparar a los jóvenes para un futuro donde la inteligencia artificial tendrá un papel central, es fundamental promover una comprensión más profunda de sus capacidades y limitaciones. Alentar un diálogo abierto sobre el uso de la inteligencia artificial generativa puede ser clave para maximizar sus beneficios en el ámbito educativo y minimizar sus riesgos.

Buenas Prácticas en Educación en Prisiones de la Unesco

Prison Education Case Studies. Unesco, 2025

Ver

El Instituto de la UNESCO para el Aprendizaje a lo Largo de Toda la Vida (UIL) ha lanzado una colección en línea de prácticas innovadoras en educación en prisiones, presentada en la Conferencia Internacional de Educación en Prisiones en Montreal (16-18 de octubre de 2024). La colección incluye 16 estudios de caso que destacan iniciativas exitosas en bibliotecas carcelarias, promoviendo el derecho al aprendizaje continuo para las personas encarceladas.

Actualmente, unos 11 millones de personas están privadas de libertad en todo el mundo, muchas sin acceso a la educación. Investigaciones muestran que la educación en prisiones reduce la reincidencia al dotar a los internos de habilidades que mejoran sus oportunidades de reintegración. Además, disminuye la violencia en las cárceles y apoya el desarrollo personal.

Los estudios de caso, que abarcan países como Chile e Indonesia, incluyen programas innovadores que enseñan competencias digitales, ecológicas y emprendedoras, así como el fomento de la alfabetización. La colección destaca el impacto de estos programas y testimonios personales que ilustran el poder transformador de la educación en prisiones.