Archivo de la etiqueta: Enseñanza

Los detectores de IA acusan falsamente a los alumnos de hacer trampas con graves consecuencias

«AI Detectors Falsely Accuse Students of Cheating—With Big Consequences». Bloomberg.com.18 de octubre de 2024. https://www.bloomberg.com/news/features/2024-10-18/do-ai-detectors-work-students-face-false-cheating-accusations.

Un estudio revela que alrededor de dos tercios de los profesores utilizan regularmente herramientas para detectar contenido generado por IA. Este uso extendido puede llevar a que incluso pequeñas tasas de error se traduzcan en un gran número de acusaciones falsas.

Desde el lanzamiento de ChatGPT hace casi dos años, las escuelas han implementado diversas herramientas de detección para identificar contenido escrito por IA. Los mejores detectores de redacciones con IA son muy precisos, pero no son infalibles. Businessweek probó dos de los principales servicios -GPTZero y Copyleaks- en una muestra aleatoria de 500 redacciones de solicitudes universitarias enviadas a la Universidad A&M de Texas en el verano de 2022, poco antes del lanzamiento de ChatGPT, garantizando así que no habían sido generadas por IA. Los ensayos se obtuvieron a través de una solicitud de registros públicos, lo que significa que no formaban parte de los conjuntos de datos con los que se entrenan las herramientas de IA. Businessweek descubrió que los servicios marcaban falsamente entre el 1% y el 2% de los ensayos como probablemente escritos por IA, y en algunos casos afirmaban tener una certeza cercana al 100%.

Incluso una tasa de error tan pequeña como puede acumularse rápidamente, dado el gran número de trabajos que los estudiantes realizan cada año, con consecuencias potencialmente devastadoras para los estudiantes que son falsamente marcados. Al igual que ocurre con las acusaciones más tradicionales de engaño y plagio, los estudiantes que utilizan IA para hacer sus deberes tienen que rehacer sus tareas y se enfrentan a suspensos y períodos de prueba.

Los más vulnerables a acusaciones erróneas son aquellos que escriben de manera más genérica, como estudiantes no nativos en inglés o aquellos con estilos de escritura más mecánicos. Moira Olmsted, una estudiante de 24 años, fue acusada de utilizar IA para un trabajo en línea en la Universidad Central Methodist, lo que le valió una calificación de cero. La acusación se basó en un detector de IA que había marcado su trabajo como posiblemente generado por inteligencia artificial, a pesar de su estilo de escritura, influenciado por su trastorno del espectro autista. Aunque logró que la calificación fuera cambiada, recibió una advertencia de que futuras detecciones similares serían tratadas como plagio.

Un estudio realizado en 2023 por investigadores de la Universidad de Stanford descubrió que los detectores de IA eran «casi perfectos» cuando comprobaban redacciones escritas por estudiantes de octavo curso nacidos en EE.UU., pero marcaban más de la mitad de las redacciones escritas por estudiantes no nativos de inglés como generadas por IA. Turnitin, una popular herramienta de detección de IA ha declarado que tiene una tasa de falsos positivos del 4% al analizar frases. Turnitin se negó a poner su servicio a disposición para realizar pruebas. En una entrada del blog 2023, la Universidad de Vanderbilt, una de las principales escuelas que desactivaron el servicio de detección de IA de Turnitin por motivos de precisión, señaló que, de lo contrario, cientos de trabajos de estudiantes habrían sido marcados incorrectamente durante el curso académico como escritos en parte por IA. Las empresas de detección de IA insisten en que sus servicios no deben tratarse como juez, jurado y verdugo, sino como un dato para ayudar a informar y orientar a los profesores.

Businessweek también descubrió que los servicios de detección de IA a veces pueden ser engañados por herramientas automatizadas diseñadas para hacer pasar la escritura de IA por humana. Esto podría dar lugar a una carrera armamentística que enfrentara a una tecnología contra otra, dañando la confianza entre educadores y estudiantes con escasos beneficios educativos.

OpenAI ha anunciado recientemente que no lanzará una herramienta para detectar escritos generados por IA, en parte debido a preocupaciones sobre su impacto negativo en ciertos grupos, incluidos los estudiantes que hablan inglés como segunda lengua. Aunque algunas instituciones están reconsiderando el uso de detectores de IA, muchos colegios todavía confían en ellos. Startups de detección de IA han atraído inversiones significativas desde 2019, lo que refleja el aumento del uso de estas tecnologías. Sin embargo, la ansiedad y paranoia en el aula persisten, ya que los estudiantes dedican tiempo a defender la integridad de su trabajo y temen el uso de herramientas de asistencia de escritura comunes.

A pesar de que algunas empresas de detección de IA afirman tener tasas de error bajas, la presión sobre los estudiantes para evitar ser acusados de hacer trampa ha llevado a algunos a modificar sus trabajos, lo que, en muchos casos, ha empeorado su calidad. La situación ha provocado que algunos estudiantes eliminen herramientas como Grammarly de sus dispositivos por miedo a ser marcados como autores de contenido generado por IA. Bloomberg descubrió que utilizar Grammarly para «mejorar» una redacción o «hacer que suene académica» convertirá un trabajo que había pasado de estar escrito al 100% por humanos a estar escrito al 100% por IA.

Educadores y estudiantes consideran que el sistema actual es insostenible, dada la tensión que crea y el hecho de que la IA está aquí para quedarse. Algunos profesores prefieren confiar en su intuición y mantener un diálogo abierto con los estudiantes en lugar de depender de herramientas de detección.

Construyendo una cultura de alfabetización en inteligencia artificial generativa en la enseñanza de lenguas, literatura y escritura

Working Paper 1: Overview of the Issues, Statement of Principles, and Recommendations

Working Paper 2: Generative AI and Policy Development: Guidance from the MLA-CCCC Task Force

Working Paper 3: Building a Culture for Generative AI Literacy in College Language, Literature, and Writing

MLA 2024

Este documento de trabajo sostiene que los educadores deben aprovechar su experiencia colectiva para influir en el uso de la IA generativa, tanto en su campo profesional como en la sociedad en general. Esto se debe a que estas herramientas tienen un impacto significativo en nuestras actividades cívicas, culturales y económicas.

Este documento de trabajo argumenta que los educadores deben utilizar su experiencia colectiva para influir en el uso de la inteligencia artificial (IA) generativa, tanto en sus áreas profesionales como en la sociedad, dada la significativa influencia que estas herramientas tienen en nuestras actividades cívicas, culturales y económicas. Sin embargo, también se señala el riesgo de que al crear tales documentos, se estén limitando alternativas al consentir en lugar de resistir. Dado que la tecnología ya está presente, es esencial ofrecer perspectivas equilibradas sobre los riesgos y beneficios asociados a la IA generativa.

A medida que se concluye el trabajo en este documento en el verano de 2024, se observa que empresas como Apple y Google están integrando tecnologías de IA generativa en sus plataformas. Esto indica que la IA está lo suficientemente integrada en el ámbito educativo como para impactar la alfabetización de diversas maneras. Se definen varios términos relacionados con la IA, como IA artificial (que hace predicciones basadas en modelos estadísticos), IA generativa (que produce texto o imágenes a partir de un aviso del usuario) y modelos de lenguaje de gran tamaño (que generan texto utilizando cálculos estadísticos).

Se enfatiza que, aunque las herramientas de IA generativa parecen funcionar de manera casi mágica, son, en realidad, impulsadas por datos y algoritmos. Aunque pueden producir textos que parecen humanos, estas herramientas carecen de comprensión real y, a menudo, reproducen sesgos presentes en los datos con los que fueron entrenadas. Por lo tanto, es fundamental que los educadores mantengan una supervisión crítica sobre el uso de estas tecnologías, ya que la percepción de «inteligencia» en la IA puede crear expectativas irreales.

Dado que la IA generativa se está integrando en servicios y aplicaciones cotidianas, es urgente centrarse en la alfabetización en IA generativa. Este documento promueve que la alfabetización en IA debe centrarse en dos objetivos: el acceso a «lenguajes en evolución» en diferentes contextos y el desarrollo de marcos críticos que ayuden a imaginar mejores «futuros sociales». Se propone que la alfabetización en IA abarca no solo la fluidez técnica, sino también la capacidad crítica, creativa y comunitaria en relación con estas herramientas.

En cuanto a los estudiantes, se destaca la necesidad de estrategias prácticas para utilizar la IA generativa, entender cómo esta puede influir en sus expectativas de rendimiento y en la calidad de la educación que recibirán. La alfabetización en IA debe incluir la capacidad de diseñar o criticar herramientas, así como cuestionar la ética y eficacia de su uso.

Adolescentes, padres y la adopción de la IA generativa en casa y en la escuela

The Dawn of the AI Era: Teens, Parents, and the Adoption of Generative AI at Home and School. Common Sense, 2024

Descargar

El informe titulado The Dawn of the AI Era: Teens, Parents, and the Adoption of Generative AI at Home and School, publicado el 18 de septiembre de 2024, aborda el impacto de la inteligencia artificial generativa en la educación, especialmente desde la llegada de ChatGPT en 2022. Desde entonces, las escuelas han estado en el centro del debate sobre el uso de AI, con los estudiantes siendo pioneros en su aplicación para tareas escolares. A medida que los líderes educativos consideran cómo esta tecnología puede transformar el aprendizaje en el aula, se vuelve crucial entender cómo los jóvenes la adoptan en comparación con sus padres.

El informe destaca que los adolescentes están adoptando rápidamente la inteligencia artificial generativa, de manera similar a cómo se integró el uso de las redes sociales en sus vidas. La mayoría de los jóvenes utilizan estas herramientas principalmente para el trabajo escolar. Sin embargo, existe una desconexión significativa entre padres e hijos en este aspecto: muchos padres no están al tanto de que sus hijos utilizan la inteligencia artificial generativa. Se estima que siete de cada diez jóvenes han usado al menos un tipo de herramienta de AI generativa, lo que indica un uso generalizado que podría no ser evidente para los adultos a su alrededor.

Siete de cada diez adolescentes de entre 13 y 18 años afirman haber utilizado al menos un tipo de herramienta de inteligencia artificial generativa. Los motores de búsqueda con resultados generados por IA y los chatbots son considerablemente más populares que las herramientas que generan imágenes y videos. Al igual que con el crecimiento acelerado de las redes sociales, la adopción de herramientas de IA generativa entre los adolescentes ha sido rápida. A diferencia de otras tecnologías digitales, el uso de la IA generativa—que incluye motores de búsqueda con resultados generados por IA, chatbots y generadores de texto, así como generadores de imágenes y videos—es consistente en adolescentes de todas las edades, géneros y orígenes raciales y étnicos.

Los datos específicos son los siguientes:

  • El 56% de los adolescentes dice haber utilizado motores de búsqueda con resultados generados por IA, como Bing, Google SGE o Brave Summarizer.
  • El 51% ha utilizado chatbots o generadores de texto, como ChatGPT, Google Gemini o My AI de Snap.
  • El 34% ha utilizado generadores de imágenes, como DALL-E, Photoshop AI o Bing Image Creator.
  • El 22% de los adolescentes ha utilizado generadores de video IA, como Midjourney, Stable Diffusion o Google VideoPoet.

Las escuelas están teniendo dificultades para mantenerse al día con las implicaciones que estas tecnologías tienen sobre la enseñanza y el aprendizaje. La rapidez con que los estudiantes adoptan estas herramientas está superando la capacidad de las instituciones educativas para implementar políticas efectivas que aborden sus riesgos y beneficios.

Los adolescentes utilizan la inteligencia artificial generativa para una variedad de propósitos, siendo la ayuda con las tareas escolares el más común. En una encuesta, el 53% de los jóvenes afirmó usar IA generativa para recibir apoyo en sus deberes, mientras que el 42% la emplea para combatir el aburrimiento y el 41% para traducir de un idioma a otro.

La encuesta abarcó 14 actividades diferentes, clasificadas en dos categorías: actividades formales o educativas y actividades personales. Las actividades formales incluyen resumir o traducir contenido, crear imágenes o videos, generar ideas, ayudar con las tareas y redactar documentos, correos electrónicos y código. La mayoría de estas actividades son realizadas por aproximadamente un tercio a la mitad de los adolescentes, excepto la escritura de código, que solo ha sido utilizada por alrededor del 12%.

Dos de cada cinco adolescentes (40%) informan haber utilizado inteligencia artificial generativa para tareas escolares, con una división casi equitativa entre aquellos que lo hacen con el permiso de sus profesores y aquellos que no. Aunque el 70% de los adolescentes afirma usar IA generativa, solo un menor porcentaje la emplea específicamente para trabajos escolares.

  • El 40% de los adolescentes indica que ha utilizado IA generativa para ayudar con sus tareas, mientras que el 60% dice nunca haberlo hecho.
  • Además, los adolescentes latinos son más propensos a afirmar que han utilizado IA generativa para sus tareas escolares en comparación con sus compañeros blancos (45% frente a 36%).

Entre los adolescentes que han utilizado inteligencia artificial generativa para tareas escolares, el 63% afirma haber empleado chatbots o generadores de texto, mientras que un poco más de la mitad (57%) ha utilizado motores de búsqueda con resultados generados por IA. Los adolescentes que recurren a estas herramientas para apoyar su trabajo escolar utilizan diferentes tipos de sistemas:

  • 63% han usado chatbots o generadores de texto.
  • 57% han utilizado motores de búsqueda con resultados generados por IA.
  • 23% han recurrido a generadores de imágenes para sus tareas.
  • 13% han utilizado generadores de video para la escuela.

La mayoría de los padres no están al tanto del uso que sus hijos adolescentes hacen de la inteligencia artificial generativa. Entre los padres cuyos hijos informaron haber utilizado al menos una plataforma de IA generativa, solo el 37% pensaba que su hijo ya había utilizado dicha tecnología. Aproximadamente uno de cada cuatro (23%) de estos padres cree que su hijo no ha utilizado ninguna de estas plataformas, mientras que el 39% no está seguro de si su hijo ha usado estas herramientas.

Aproximadamente 6 de cada 10 adolescentes informan que su escuela no tiene reglas sobre cómo se puede usar la inteligencia artificial generativa o que no están seguros de si existen dichas reglas. Esto indica que muchas escuelas y maestros pueden no haber comunicado claramente o implementado políticas sobre el uso de IA generativa.

Entre los adolescentes que dijeron que sus profesores habían hablado sobre permitir o restringir el uso de IA generativa, el 29% mencionó que al menos un maestro había utilizado software para detectar el uso de IA en los escritos de los estudiantes. Aunque estas herramientas no siempre son precisas, algunos docentes dependen de ellas.

Los hallazgos incluyen:

  • El 10% de todos los adolescentes afirma que al menos un maestro ha marcado su trabajo como generado por IA cuando no era así.
  • Aproximadamente el 70% de los jóvenes cuya tarea fue marcada por un profesor también tuvo su trabajo sometido a software de detección de IA, mientras que el 27% indica que su trabajo no fue sometido.

Uno de los hallazgos más significativos del informe es la importancia de establecer canales de comunicación abiertos entre jóvenes, padres, cuidadores y educadores. Estos diálogos pueden influir en cómo tanto los jóvenes como sus padres perciben las oportunidades y los peligros que presenta la inteligencia artificial generativa en la educación. Fomentar una comunicación fluida puede no solo ayudar a crear políticas más consistentes en las aulas, sino también a educar a los jóvenes sobre las implicaciones de estas tecnologías.

El informe concluye que para preparar a los jóvenes para un futuro donde la inteligencia artificial tendrá un papel central, es fundamental promover una comprensión más profunda de sus capacidades y limitaciones. Alentar un diálogo abierto sobre el uso de la inteligencia artificial generativa puede ser clave para maximizar sus beneficios en el ámbito educativo y minimizar sus riesgos.

Innovar la pedagogía 2024: tendencias de futuro en la enseñanza

Kukulska-Hulme, A., Wise, A.F., et al. (2024). Innovating Pedagogy 2024: Open University Innovation Report 12. Milton Keynes: The Open University.

Texto completo

En esta serie de informes anuales, se analizan las nuevas formas de enseñanza, aprendizaje y evaluación en un mundo interactivo, con el objetivo de guiar a docentes y responsables políticos en innovaciones productivas. Este duodécimo informe presenta diez innovaciones que, aunque ya están en uso, tienen el potencial de influir aún más en la educación. Un grupo de académicos del Instituto de Tecnología Educativa de la Open University (Reino Unido) colaboró con investigadores de la Iniciativa LIVE en la Universidad de Vanderbilt (EE. UU.) para desarrollar este informe.

A continuación, se resumen las diez innovaciones propuestas:

  1. Mundos especulativos: Involucra la reimaginación del presente, pasado o futuro para criticar y cambiar el statu quo, beneficiando a grupos marginados. Utiliza técnicas como la construcción de mundos para permitir a estos grupos redefinir su realidad.
  2. Pedagogías de paz: Enfatizan el papel de las escuelas en la promoción de la armonía social al abordar la violencia cotidiana. Incluye prácticas como la educación para la paz y la justicia restaurativa.
  3. Pedagogía de acción climática: Integra temas ambientales en los currículos y promueve la responsabilidad ambiental, abordando el cambio climático a través de experiencias prácticas y literacidad climática.
  4. Aprendizaje en conversación con IA generativa: Utiliza herramientas de IA como ChatGPT para fomentar el aprendizaje dialógico, aunque plantea preocupaciones sobre la precisión del contenido y la privacidad de los datos.
  5. Ética de la IA con jóvenes: Destaca la importancia de involucrar a los niños en debates sobre IA, asegurando que sus derechos y voces se consideren en el desarrollo de herramientas educativas.
  6. Escritura multimodal mejorada por IA: Facilita la expresión a través de diversos medios, fomentando el pensamiento crítico y la creatividad en la escritura.
  7. Libros de texto inteligentes: Utilizan la IA para personalizar el aprendizaje, adaptando el contenido a las necesidades del lector en tiempo real.
  8. Evaluaciones a través de realidad extendida: Emplea simulaciones inmersivas para evaluar habilidades prácticas, proporcionando experiencias auténticas sin riesgos del mundo real.
  9. Inmersión en lengua y cultura: Utiliza juegos digitales y simulaciones para ofrecer experiencias de aprendizaje auténticas en contextos históricos, mejorando la adquisición del idioma y la comprensión cultural.
  10. Exploración de modelos científicos desde adentro: Utiliza tecnologías de realidad extendida para crear entornos inmersivos donde los estudiantes interactúan con fenómenos científicos, facilitando un aprendizaje experiencial.

Estas innovaciones ofrecen oportunidades para transformar la educación, aunque también presentan desafíos relacionados con la implementación y la equidad.

La utilización de la IA generativa sin límites puede ser perjudicial para la educación

«Without Guardrails, Generative AI Can Harm Education», Knowledge at Wharton (blog), accedido 18 de septiembre de 2024, https://knowledge.wharton.upenn.edu/article/without-guardrails-generative-ai-can-harm-education/.

Un nuevo estudio realizado por investigadores de Wharton y Penn, liderado por Hamsa Bastani, muestra que el uso de inteligencia artificial generativa (IA) puede mejorar el rendimiento de los estudiantes, pero también dificultar su capacidad para aprender y adquirir nuevas habilidades.

El experimento, realizado con casi 1.000 estudiantes de matemáticas en Turquía, comparó tres grupos: uno con una IA tipo ChatGPT (GPT Base), otro con una versión guiada por profesores (GPT Tutor) y un grupo de control sin IA. El grupo que utilizó GPT Base mejoró su rendimiento un 48% durante la práctica, pero su desempeño en el examen fue un 17% peor que el grupo de control. En contraste, el grupo GPT Tutor, que recibió orientación, mostró mejoras significativas sin una caída posterior en el examen.

El estudio revela que los estudiantes que dependieron exclusivamente de la IA sin guía adicional no lograron profundizar en los conceptos matemáticos, resultando en un rendimiento deficiente en el examen. En cambio, aquellos que utilizaron la IA con orientación, como la proporcionada por GPT Tutor, no solo mejoraron durante la práctica, sino que también retuvieron mejor el conocimiento.

Conclusiones y Preocupaciones:

Dependencia de la IA: Los investigadores advierten que el uso indiscriminado de IA puede llevar a una dependencia que impida a los estudiantes desarrollar habilidades fundamentales. La IA puede ser beneficiosa si se usa correctamente, pero confiar en ella sin desarrollar una comprensión profunda puede ser perjudicial.

Optimismo de los Estudiantes: Los estudiantes que usaron IA tendían a ser demasiado optimistas sobre sus habilidades, incluso los de alto rendimiento.

Preocupaciones de los Profesores: Los docentes tienden a ser cautelosos con la IA, subestimando sus beneficios potenciales debido a la falta de capacitación sobre cómo integrarla eficazmente con métodos tradicionales de enseñanza.

El estudio sugiere que la IA debe usarse de manera controlada y bajo la supervisión de educadores para evitar la dependencia excesiva y asegurar que los estudiantes desarrollen las habilidades necesarias. Además, se subraya que la IA aún tiene limitaciones significativas, como la generación de información errónea, lo que requiere una verificación constante de los resultados.

Los alumnos que utilizan ChatGPT como asistente de estudio obtienen peores resultados en los exámenes


Barshay, Jill. «Kids Who Use ChatGPT as a Study Assistant Do Worse on Tests». The Hechinger Report, 2 de septiembre de 2024. http://hechingerreport.org/kids-chatgpt-worse-on-tests/.

El experimento involucró a casi 1.000 estudiantes turcos de noveno a undécimo grado. Los estudiantes que utilizaron ChatGPT resolvieron un 48% más de problemas de práctica correctamente, pero obtuvieron un 17% menos en el examen final. Incluso aquellos que usaron una versión de ChatGPT diseñada para actuar como tutor no mostraron mejoría en los exámenes, aunque resolvieron un 127% más de problemas de práctica correctamente.

En primer lugar, los profesores repasaron una lección impartida previamente con toda la clase y, a continuación, se asignaron aleatoriamente sus aulas para practicar las matemáticas de una de estas tres maneras: con acceso a ChatGPT, con acceso a un tutor de IA potenciado por ChatGPT o sin ningún tipo de ayuda de alta tecnología. A los alumnos de cada curso se les asignaron los mismos problemas de práctica con o sin IA. Después, realizaban un examen para comprobar lo bien que habían aprendido el concepto. Los investigadores realizaron cuatro ciclos de este tipo, dando a los estudiantes cuatro sesiones de 90 minutos de tiempo de práctica en cuatro temas matemáticos diferentes para entender si la IA tiende a ayudar, perjudicar o no hacer nada.

Los errores de ChatGPT también pueden haber sido un factor contribuyente. El chatbot sólo respondió correctamente a los problemas de matemáticas la mitad de las veces. Sus cálculos aritméticos eran erróneos el 8% de las veces, pero el mayor problema era que su planteamiento paso a paso de cómo resolver un problema era erróneo el 42% de las veces. La versión tutorizada de ChatGPT recibía directamente las soluciones correctas y estos errores se reducían al mínimo.

ChatGPT también parece producir un exceso de confianza. En las encuestas que acompañaron al experimento, los estudiantes dijeron que no creían que ChatGPT les hubiera hecho aprender menos, aunque sí lo había hecho. Los estudiantes con el tutor de IA pensaban que habían mejorado mucho en el examen, aunque no fuera así. (También es otro buen recordatorio para todos nosotros de que nuestras percepciones de cuánto hemos aprendido a menudo son erróneas).

Los investigadores titularon su artículo «“Generative AI Can Harm Learning,» (La IA generativa puede perjudicar el aprendizaje) para dejar claro a padres y educadores que la actual variedad de chatbots de IA disponibles gratuitamente puede «inhibir sustancialmente el aprendizaje». Incluso una versión perfeccionada de ChatGPT diseñada para imitar a un tutor no ayuda necesariamente.

Los investigadores concluyeron que los estudiantes se apoyan demasiado en el chatbot, lo que inhibe su aprendizaje real, y que las respuestas erróneas de ChatGPT también contribuyeron a este problema. El estudio destaca la preocupación de que la tecnología, aunque útil, puede reducir la adquisición de habilidades fundamentales cuando se usa en exceso.

Los bibliotecarios escolares exploran las posibilidades de ChatGPT

Yorio, Kara. «School Librarians Explore Possibilities of ChatGPT». School Library Journal. Accedido 22 de agosto de 2024. https://www.schoollibraryjournal.com/story/School-Librarians-Explore-Possibilities-of-ChatGPT.

Mientras que algunos maestros de inglés están preocupados por la confiabilidad de las tareas escritas, los bibliotecarios escolares han mostrado curiosidad sobre cómo esta tecnología puede impactar su profesión y el entorno educativo. Aunque muchos distritos escolares han prohibido el uso de ChatGPT en dispositivos escolares, los bibliotecarios, como Suzanna Panter de Tacoma, Washington, están explorando formas de utilizar la herramienta para su beneficio, como en la recomendación de libros y la asistencia en la creación de planes de lecciones.

Panter destaca que ChatGPT puede ayudar a reducir la carga de trabajo de los bibliotecarios al proporcionar recomendaciones rápidas y ajustables según las necesidades específicas de los estudiantes. Además, permite la adaptación de ideas para lecciones específicas. Malespina también utiliza ChatGPT para tareas como la planificación de publicaciones en redes sociales para el Mes de la Historia Negra.

Aunque la herramienta tiene limitaciones, como un conocimiento actualizado solo hasta 2021 y la posibilidad de errores, tanto Panter como Malespina ven un gran potencial en su uso educativo. Subrayan la importancia de que los educadores se adapten a esta nueva tecnología, en lugar de ignorarla, para mejorar la educación y abordar los desafíos que presenta.

El impacto potencial de la inteligencia artificial en la equidad y la inclusión en la educación

Varsik, S. and L. Vosberg (2024), “The potential impact of Artificial Intelligence on equity and inclusion in education”, OECD Artificial Intelligence Papers, No. 23, OECD Publishing, Paris, https://doi.org/10.1787/15df715b-en.

«The Potential Impact of Artificial Intelligence on Equity and Inclusion in Education» revisa el impacto de la Inteligencia Artificial (IA) en la equidad e inclusión en la educación, centrándose en herramientas de IA centradas en los estudiantes, dirigidas por docentes y otras herramientas institucionales. Destaca el potencial de la IA para adaptar el aprendizaje a las necesidades individuales, al tiempo que aborda desafíos como el acceso desigual, los sesgos inherentes y la necesidad de una formación exhaustiva para los docentes.

El documento subraya la importancia de equilibrar los beneficios potenciales de la IA con consideraciones éticas y el riesgo de agravar las disparidades existentes. También resalta la necesidad de abordar preocupaciones relacionadas con la privacidad y la ética, mejorar la sensibilidad cultural, gestionar el techno-ableism (discriminación por capacidades tecnológicas) y proporcionar formación continua en IA para los profesionales de la educación.

Además, el documento enfatiza la importancia de mantener la integridad educativa frente a la creciente influencia comercial. Se fomenta la investigación sobre las implicaciones de las herramientas de IA para la equidad e inclusión, con el fin de garantizar que la adopción de la IA en la educación promueva un entorno de aprendizaje más equitativo e inclusivo.

La inteligencia artificial generativa en la docencia universitaria

Franganillo, Jorge, Carlos Lopezosa, y Marina Salse. «La inteligencia artificial generativa en la docencia universitaria». Report, 27 de octubre de 2023. http://eprints.rclis.org/45099/.

Texto completo

Este documento tiene como objetivo ayudar al profesorado universitario a gestionar el uso la inteligencia artificial generativa en su actividad docente. Es un documento con finalidad práctica que se inicia con una presentación del concepto de inteligencia artificial (IA) y sus diversos tipos, después presenta los retos que la IA supone para la educación superior y finalmente analiza su aplicación en la docencia. En este último contexto, se ofrecen algunas propuestas para usar la IA adecuadamente en la evaluación del alumnado y se proporcionan unas rúbricas que permiten también saber si el alumnado ha hecho un uso correcto de estas herramientas.


Repensar la educación en la era de la IA

Rethinking education in the age AI. Fundación Telefónica, 2024

Texto completo

enlightED es una iniciativa lanzada en 2018 por Fundación Telefónica junto con IE University y South Summit a la que más tarde se incorporó Fundación ”la Caixa”. El encuentro congrega anualmente a profesionales internacionales de la pedagogía, la tecnología y la innovación para abordar los retos planteados en el campo del aprendizaje y extraer conclusiones prácticas en torno a la educación en la era digital.

El encuentro de enlightED de 2023 quiso sumarse a la reflexión colectiva acerca de cómo debe ser la educación en la era de la inteligencia artificial, y para ello reunió a expertos de primera línea que durante dos días debatieron sobre los cambios que están teniendo lugar y las estrategias que se pueden seguir para garantizar que se aprovechan de modo óptimo todas las ventajas que ofrecen estas tecnologías.