Archivo de la etiqueta: Enseñanza

Aulas inteligentes: experiencias y propuestas educativas con IA y herramientas digitales.

Palacios, Solangel Materón, María Naranjo-Crespo y Miguel Valdivia Pinto, eds. Aulas Inteligentes: Experiencias y propuestas educativas con IA y herramientas digitales. Barquisimeto, Venezuela: Fondo Editorial Red Holos XXI, 2025

Texto completo

Aulas Inteligentes: Experiencias y propuestas educativas con IA y herramientas digitales es una obra colectiva que invita a repensar críticamente la educación en el marco de la transformación digital contemporánea. El libro articula experiencias y propuestas pedagógicas que conciben la inteligencia artificial y las herramientas digitales como mediaciones al servicio del aprendizaje, la reflexión docente y la formación integral. A través de investigaciones, experiencias situadas y marcos metodológicos diversos, los capítulos evidencian cómo la planificación, la investigación formativa, el currículo y la práctica pedagógica pueden enriquecerse cuando la tecnología dialoga con principios éticos, pedagógicos y humanistas sólidos.

La obra destaca por su pluralidad de voces y contextos, abarcando desde la educación superior hasta la educación primaria, así como campos como la formación docente, la investigación cualitativa, la neurodidáctica y la educación médica. En su conjunto, el libro no solo muestra usos innovadores de la IA, sino que problematiza sus tensiones —autoría, citación académica, ética y toma de decisiones—, reafirmando que la verdadera inteligencia del aula reside en la capacidad de los educadores para diseñar experiencias significativas, reflexivas y responsables. En este sentido, Aulas Inteligentes se consolida como un referente para docentes e investigadores que buscan integrar la tecnología sin renunciar al sentido profundamente humano de la educación.

El uso de ChatGPT no garantiza una comprensión profunda del aprendizaje

Hughes, Owen. 2025. “Students Using ChatGPT Beware: Real Learning Takes Legwork, Study Finds.” The Register, November 3, 2025. https://www.theregister.com/2025/11/03/chatgpt_real_understanding/

Una investigación académica publicada en PNAS Nexus que pone de manifiesto los efectos del uso de modelos de lenguaje como ChatGPT en los procesos de aprendizaje.

Según el estudio, que involucró a más de 10 000 participantes en una serie de experimentos, las personas que utilizaron resúmenes generados por IA para estudiar temas específicos desarrollaron una comprensión superficial de los contenidos, produjeron menos hechos concretos y tendieron a replicar información similar a la de otros usuarios que también dependieron de herramientas automatizadas. Por contraste, quienes recurrieron a búsquedas tradicionales en la web tuvieron que interactuar más activamente con fuentes diversas, lo que favoreció una comprensión más profunda y duradera del material.

Los investigadores destacaron que los modelos de lenguaje grande (LLM) como ChatGPT son eficaces para generar respuestas fluidas rápidamente, pero este beneficio puede resultar contraproducente para el aprendizaje real si reemplaza por completo el esfuerzo que requiere recopilar y sintetizar información por cuenta propia. En los experimentos, algunos grupos de participantes vieron exactamente los mismos hechos presentados de distinto modo: un grupo a través de un único resumen de IA y otro mediante enlaces a múltiples artículos web. Los resultados mostraron que quienes usaron IA dedicaron menos tiempo a explorar las fuentes originales, se implicaron menos en el proceso y escribieron consejos para otros con menos datos y menor variedad de contenidos.

El artículo también resalta cómo una investigación complementaria con 1 500 nuevos participantes evaluó la calidad de los consejos derivados del aprendizaje con IA frente al aprendizaje tradicional: los consejos basados en IA fueron considerados menos informativos y de menor confianza, y las personas manifestaron menor disposición a seguirlos. Esto sugiere que el uso excesivo de resúmenes automatizados no solo afecta la comprensión individual, sino también la percepción de utilidad y veracidad del contenido generado por IA

Otro punto importante es la advertencia de los autores de que esta dinámica puede conducir a una “deshabilitación” de habilidades cognitivas básicas, especialmente entre estudiantes jóvenes que pueden depender cada vez más de accesos rápidos a información generada por IA. Si bien los investigadores no rechazan el uso de LLM como herramientas educativas, subrayan con fuerza que deben utilizarse como complemento y no sustituto del esfuerzo intelectual activo. Según ellos, la verdadera comprensión se construye mediante la interacción directa con múltiples fuentes, la reflexión crítica y la síntesis propia de información, algo que los resúmenes automatizados no pueden reemplazar.

Finalmente, el artículo vincula estas conclusiones con preocupaciones más amplias sobre la confianza en herramientas de IA: investigaciones previas han encontrado que chatbots populares a veces malinterpretan o distorsionan contenidos periodísticos, lo que refuerza la necesidad de que los usuarios mantengan un enfoque crítico y verifiquen activamente las respuestas que reciben

¿Las prohibiciones de teléfonos móviles en las escuelas ayudan a los estudiantes a rendir mejor?

Wharton School, Knowledge at Wharton. “Do School Cell Phone Bans Help Students Do Better?Knowledge at Wharton, Universidad de Pensilvania, publicado en línea. https://knowledge.wharton.upenn.edu/article/do-school-cell-phone-bans-help-students-do-better/

Basado en más de 20 000 encuestas de educadores recopiladas a través del proyecto Phones in Focus, los datos iniciales muestran que las políticas más estrictas de prohibición de teléfonos en los centros educativos se asocian con menos distracciones y una mayor satisfacción docente, ya que los profesores reportan menos interrupciones a la hora de enseñar y una reducción de la atención del alumnado hacia sus dispositivos en momentos académicos.

Los encuestados, compuestos mayoritariamente por docentes de educación primaria y secundaria, señalan que las prohibiciones totales durante el horario escolar ayudan a disminuir las distracciones y a indirectamente favorecer un clima más centrado en el aprendizaje. Duckworth explica que cuando los teléfonos están completamente fuera del aula y no disponibles, los estudiantes tienden a interactuar más entre sí y a concentrarse en el trabajo escolar, lo cual mejora el ambiente general de la clase y la percepción de efectividad pedagógica.

No obstante, el artículo también matiza que los resultados son aún preliminares: los investigadores planean correlacionar las respuestas de la encuesta con medidas objetivas de rendimiento educativo, como calificaciones, asistencia, puntuaciones en pruebas estandarizadas y compromiso estudiantil a lo largo del año escolar, antes de hacer recomendaciones definitivas. La ambición del proyecto Phones in Focus es poder ofrecer orientaciones basadas en datos para que los distritos escolares ajusten sus políticas de uso de teléfonos de manera informada para el curso 2025-2026.

En el contexto global, y aunque no forma parte del artículo de Wharton, otros estudios aportan una visión más matizada: investigaciones en Europa han encontrado beneficios modestos de las prohibiciones completas de teléfonos móviles sobre el rendimiento académico, especialmente entre estudiantes con bajo rendimiento, mientras que otros trabajos sugieren que las prohibiciones por sí solas no bastan para mejorar resultados si no se integran en estrategias educativas amplias.

Guía para el uso de las inteligencias artificiales en el ámbito educativo

Guía para el uso de las inteligencias artificiales en el ámbito educativo. Euskadi: Departamento de Educación. Departamento de Educación y Elhuyar Licencia, 2025

Texto completo

La Guía para el uso de las inteligencias artificiales en el ámbito educativo, elaborada por el Departamento de Educación y Elhuyar, se presenta como un documento exhaustivo destinado a acompañar al profesorado en la integración ética, crítica y pedagógica de la inteligencia artificial (IA) en los centros educativos. Desde el inicio, la guía subraya la rápida expansión de estas tecnologías en todos los ámbitos de la vida —incluida la enseñanza— y advierte que su accesibilidad, facilidad de uso y normalización entre adolescentes exigen una reflexión profunda sobre sus implicaciones éticas, legales y pedagógicas. Aunque la IA ofrece potenciales beneficios, también plantea riesgos como el coste ambiental, la dependencia tecnológica de grandes corporaciones, la propagación de errores o creencias falsas y el uso indebido por parte del alumnado.

La guía también explica de manera clara cómo funcionan los sistemas de IA generativa: se entrenan con grandes volúmenes de datos —muchos de ellos con sesgos— y generan respuestas probabilísticas, no comprensiones reales. Por ello, pueden equivocarse, “alucinar”, reproducir estereotipos o generar contenidos incorrectos. Se presentan ejemplos prácticos sobre cómo controlar la creatividad del chatbot, cuándo utilizar modelos de razonamiento y en qué contextos las herramientas son más útiles (generación de ideas, resúmenes, reorganización de formatos) o menos adecuadas (datos sensibles, procesos de aprendizaje en los que es crucial la participación activa del alumnado). También se subraya que las IA funcionan peor en lenguas minorizadas como el euskera, aunque existen iniciativas locales para fortalecer su presencia.

Suben las calificaciones de los trabajos de clase y bajan las notas en los exámenes presenciales

Oatley, Gabe. 2025. “The New Learning Curve: How Student AI Use Is Changing Teaching at UofT.” TorontoToday.ca, November 24, 2025. https://www.torontotoday.ca/local/education/learning-curve-student-artificial-intelligence-use-changing-teaching-uoft-11532998

Estudio

El uso creciente de herramientas de inteligencia artificial por parte del alumnado está transformando profundamente la enseñanza en la University of Toronto. Los profesores han detectado un fenómeno especialmente llamativo: mientras que las calificaciones de los trabajos para casa han subido de forma notable, los resultados en los exámenes presenciales finales han caído de manera significativa. Esta divergencia, según apuntan, se explica por un uso extendido —y en muchos casos no declarado— de modelos de lenguaje avanzados para elaborar tareas que antes exigían un esfuerzo de lectura, análisis y redacción personal.

Datos clave:

  • El 59 % de los estudiantes canadienses encuestados usan IA generativa para sus trabajos escolares — un aumento respecto al 52 % del año anterior.
  • De entre los estudiantes que usan IA, un 67 % dice que no cree estar aprendiendo o reteniendo tanto conocimiento como antes.
  • A pesar de ello, el 75 % considera que las herramientas de IA han mejorado la calidad de sus trabajos escolares.
  • El uso frecuente: el 63 % dice usar IA generativa varias veces por semana.
  • El 82 % admite que presenta como propio contenido generado por IA.
  • Un 70 % prefiere recurrir a la IA antes que pedir ayuda a sus profesores.
  • Entre quienes usan IA, aproximadamente un 65 %–67 % sienten que su uso equivale a hacer trampa.
  • El 63 % teme ser descubierto por su institución por depender de IA en sus trabajos.

Ante esta realidad, los docentes han comenzado a observar patrones de comportamiento nuevos en su alumnado. Muchos estudiantes recurren a herramientas como ChatGPT o Gemini para resolver dudas, generar ideas iniciales o mejorar la coherencia de sus textos, lo que en algunos casos puede tener un efecto positivo, especialmente cuando se usa para reforzar el aprendizaje. Sin embargo, un número creciente de estudiantes emplea la IA como sustituto del propio proceso cognitivo: delegan totalmente la elaboración de trabajos escritos o incluso la resolución de ejercicios técnicos. Esto ha generado una sensación de falsa competencia, pues los trabajos parecen impecables pero el rendimiento en evaluaciones sin asistencia tecnológica revela lagunas importantes de comprensión.

El artículo también subraya que detectar el uso indebido de IA es una tarea compleja. Las herramientas de detección disponibles no son fiables, y los profesores encuentran difícil —y muchas veces imposible— demostrar que un texto ha sido producido o modificado sustancialmente por un sistema automático. Además, la dinámica de aprendizaje ha cambiado: los estudiantes hacen menos preguntas en clase, participan menos en foros y asisten menos a tutorías, ya que encuentran en la IA una fuente inmediata de respuestas, disponible en cualquier momento. Para parte del profesorado, esta sustitución del diálogo pedagógico por consultas a modelos generativos supone la pérdida de una dimensión esencial de la educación universitaria: la interacción humana, que permite matizar conceptos, plantear dudas profundas y construir pensamiento crítico.

Frente a estos desafíos, los profesores de la universidad están rediseñando sus estrategias docentes. Una respuesta habitual ha sido aumentar el peso de las evaluaciones presenciales, incluyendo exámenes escritos en el aula, defensas orales o entrevistas breves vinculadas a trabajos entregados. De este modo, se busca comprobar que los estudiantes realmente dominan los contenidos que presentan en sus tareas. Otra estrategia consiste en diseñar actividades “auténticas”, vinculadas a experiencias reales, análisis de campo, estudios de caso o ejercicios creativos basados en situaciones concretas que resultan más difíciles de delegar a una IA. En algunas asignaturas se ha optado por dividir las tareas en fases: por ejemplo, primero marcar y comentar un texto leído, y solo después elaborar una reflexión personal. Esto permite observar el proceso de pensamiento del estudiante y no solo el producto final.

A lo largo del artículo se destaca que el uso de IA en la educación superior ya no es una tendencia pasajera, sino un cambio estructural que obliga a repensar la evaluación y la enseñanza. Según los profesores entrevistados, la forma tradicional de asignar trabajos y corregirlos ha dejado de ser viable en un contexto donde una herramienta automatizada puede producir textos correctos en segundos. La cuestión ya no es si permitir o prohibir estas tecnologías, sino cómo integrarlas de manera responsable, enseñando a los estudiantes a utilizarlas como apoyo sin renunciar a la comprensión profunda, el razonamiento propio y el desarrollo de habilidades intelectuales fundamentales. En definitiva, la universidad se enfrenta a una nueva curva de aprendizaje institucional, en la que conviven innovación, preocupación y la necesidad urgente de adaptar la pedagogía a un entorno educativo donde la inteligencia artificial es parte del día a día.

Uso inteligente de la IA para docentes y estudiantes

Victorino Guzmán, Jorge Enrique, y Mary Lee Berdugo Lattke. Uso inteligente de la IA para docentes y estudiantes. Bogotá: Ediciones Universidad Central, 2024

Texto completo

El libro aborda cómo docentes y estudiantes pueden integrar la inteligencia artificial (IA) de manera ética y eficaz en los procesos educativos. Parte de la idea de que la IA no es solo una herramienta tecnológica, sino una oportunidad para repensar prácticas pedagógicas y transformar la enseñanza y el aprendizaje.

Explora estrategias para diseñar actividades didácticas que incorporen la IA de forma inteligente: no solo para automatizar tareas, sino para fomentar la creatividad, el pensamiento crítico y la resolución de problemas. Además, se destaca la importancia de formar tanto a profesores como a estudiantes en competencias relacionadas con la IA: saber usarla, entender sus limitaciones, y reflexionar sobre sus implicaciones éticas.

El texto también analiza escenarios reales y posibles desafíos del uso de la IA en la educación, como la desigualdad en el acceso a la tecnología, riesgos de dependencia o de desinformación generada por herramientas automatizadas. Propone soluciones institucionales y pedagógicas para mitigar esos riesgos, como la capacitación docente, políticas institucionales claras y el diseño de entornos de aprendizaje adaptativos.

Finalmente, el libro subraya el carácter transformador de la IA en la educación, pero lo sitúa dentro de una visión humanista: la IA debe usarse como un complemento que potencie la labor docente y el aprendizaje, no como un sustituto del conocimiento o del diálogo pedagógico.

Uso y desarrollo ético de la Inteligencia Artificial en la UNAM

Uso y desarrollo ético de la Inteligencia Artificial en la UNAM. Autores Dra. Luz María Castañeda de León Dra. Ana Yuri Ramírez Molina Mtro. Juan Manuel Castillejos Reyes Mtra. María Teresa Ventura Miranda. Primera edición digital, octubre de 2025. Universidad Nacional Autónoma de México (UNAM) Dirección General de Cómputo y de Tecnologías de Información y Comunicación. ISBN 978-607-587-954-3.

Texto completo

Este trabajo se enmarca en las recomendaciones de la UNESCO sobre la ética de la IA (2021–2024) y en el Plan de Desarrollo Institucional de la UNAM 2023–2027. Su objetivo principal es promover una integración responsable de los sistemas de IA (SIA) en la docencia y la investigación universitarias.

En su primera parte, el texto define la IA desde las perspectivas de la Unión Europea y la OCDE, destacando su carácter sistémico, autónomo y adaptable. Asimismo, subraya la necesidad de un entendimiento crítico de estas tecnologías, sobre todo en contextos del Sur Global, donde las condiciones tecnológicas y económicas difieren de las del Norte Global. Se emplean dos modelos teóricos: la Teoría de la Acción Razonada de Fishbein y Ajzen, para explicar la adopción de conductas éticas en el uso de IA, y el Modelo de Resolución de Problemas de Kaufman, que orienta un proceso de mejora continua.

El documento analiza las tendencias del uso de la IA en la docencia universitaria, abordando su papel en el aprendizaje adaptativo, la generación de contenidos, la evaluación y la analítica del aprendizaje. Estas aplicaciones facilitan la personalización educativa, aunque implican desafíos como la pérdida de control docente, la integridad académica o los sesgos algorítmicos. En el ámbito de la investigación, la IA contribuye a procesar grandes volúmenes de datos, acelerar publicaciones y fomentar la colaboración científica, pero plantea dilemas sobre autoría, fiabilidad de la información y privacidad de los datos.

La sección sobre ética propone cinco principios fundamentales (beneficencia, no maleficencia, autonomía, justicia y transparencia), inspirados en la UNESCO, que deben guiar el uso universitario de la IA. Además, se revisan los marcos internacionales de integración ética y se comparan con el Código de Ética Universitario de la UNAM, que promueve valores como la honestidad, la igualdad y la responsabilidad social. Aunque la institución aún no cuenta con un marco formal de integración de la ética en los SIA, existen esfuerzos en distintas dependencias por promover comportamientos éticos en la investigación y la docencia.

Finalmente, el informe recomienda desarrollar políticas institucionales que orienten el uso ético de la IA, fomentar la alfabetización digital y ética de la comunidad universitaria, y establecer mecanismos de supervisión y evaluación continua. El propósito es garantizar que la innovación tecnológica se alinee con los valores humanistas y sociales que caracterizan a la UNAM.

Código de conducta para estudiantes propuesto por Harvard para la IA

Harvard University and metaLAB (at) Harvard. Proposed Harvard AI Code of Conduct. Cambridge, MA: Harvard University, July 2023. Accessed [día mes año]. https://aicodeofconduct.mlml.io/assets/files/ai_code_of_conduct.pdf

Proposed Harvard AI Code of Conduct está centrada en el uso de herramientas de IA generativa por estudiantes en tareas académicas. Esta no plantea una prohibición general, sino que apuesta por políticas específicas por curso.

Harvard propone que el uso de la IA en educación no sólo sea visto como una amenaza, sino como una oportunidad para repensar qué y cómo enseñamos: qué habilidades tienen mayor valor en un mundo donde la IA hace ciertas tareas tradicionalmente académicas.

“Proposed Harvard AI Code of Conduct” es un documento elaborado en 2023 con el propósito de guiar el uso responsable de herramientas de inteligencia artificial generativa dentro del ámbito académico de la Universidad de Harvard. Su objetivo no es imponer una prohibición general, sino establecer principios flexibles que permitan a cada profesor definir su propia política sobre el uso de la IA en sus cursos, con el apoyo institucional necesario para garantizar coherencia, ética e integridad académica.

El texto parte de la idea de que la IA ya forma parte de la vida académica y profesional, por lo que el enfoque adecuado no es evitarla, sino aprender a convivir con ella y a utilizarla con responsabilidad. Para ello, se propone que cada curso de Harvard cuente con una política escrita que indique claramente a los estudiantes qué usos de la IA están permitidos, cuáles están restringidos y cómo afectará su utilización a la evaluación del aprendizaje. Estas políticas deben revisarse periódicamente, dado el rápido avance de la tecnología.

El documento recomienda que las normas sobre IA se integren dentro del código de honor académico y se gestionen en colaboración con órganos como el Harvard College Honor Council. Se insiste en que las políticas deben distinguir entre distintos tipos de herramientas —por ejemplo, modelos de lenguaje o generadores de imágenes— y que no se deben usar detectores automáticos de texto generado por IA como única prueba en casos de posible infracción, ya que su fiabilidad es limitada. Además, se subraya la importancia de ofrecer materiales educativos que ayuden a profesores y estudiantes a comprender tanto las capacidades como los riesgos de estas herramientas.

El código incluye también una serie de plantillas diseñadas para facilitar la implementación de políticas claras en cada asignatura. Entre ellas, se propone exigir que los estudiantes reconozcan y citen explícitamente el uso de herramientas de IA en sus trabajos académicos, explicando cómo las han empleado y evaluado los resultados obtenidos. También se ofrecen cuatro niveles de política posibles, que van desde la autorización total del uso de IA (con la obligación de citarla) hasta su prohibición completa, pasando por modalidades intermedias en las que su uso está permitido solo en fases específicas del trabajo o bajo indicaciones concretas del docente.

En conjunto, el código de conducta propuesto por Harvard busca equilibrar la innovación con la integridad. Promueve una cultura académica que fomente la experimentación y el pensamiento crítico, pero dentro de un marco ético y transparente. Su espíritu es preparar a la comunidad universitaria para un futuro en el que la inteligencia artificial será una herramienta habitual, ayudando a que profesores y estudiantes aprendan no solo a usarla, sino también a cuestionarla, evaluarla y citarla de manera adecuada.

Este enfoque puede servir como referencia útil para otras instituciones educativas —incluidas las bibliotecas universitarias— que deseen desarrollar sus propias guías o programas de alfabetización en IA, especialmente en temas relacionados con la citación, la autoría, la integridad académica y la educación ética en entornos digitales.

Los puntos principales del Proposed Harvard AI Code of Conduct son:

  1. No prohíbe la IA, sino que promueve su uso responsable y regulado por curso.
  2. Integra el uso de la IA dentro del código de honor académico de Harvard.
  3. Exige que cada asignatura defina y comunique su política sobre IA por escrito.
  4. Distingue entre tipos de herramientas (texto, imagen, código, etc.).
  5. Desaconseja usar detectores de IA como única prueba de infracción.
  6. Obliga a reconocer y citar cualquier uso de herramientas de IA.
  7. Ofrece cuatro niveles de política: permitido, parcial, autorizado o prohibido.
  8. Promueve la formación ética y técnica sobre IA para estudiantes y docentes.
  9. Recomienda revisar y actualizar las políticas periódicamente.
  10. Fomenta una cultura de transparencia, responsabilidad y pensamiento crítico ante la IA.

Una revisión sistemática de la literatura sobre la alfabetización en inteligencia artificial generativa en la enseñanza

Joonhyeong Park. A systematic literature review of generative artificial intelligence (GenAI) literacy in schools, Computers and Education: Artificial Intelligence, 2025,

Texto completo

Este estudio realiza una revisión sistemática de la literatura sobre la inteligencia artificial generativa (Generative AI, GenAI), con especial énfasis en su dimensión ética y en las oportunidades y desafíos asociados a su adopción en distintos ámbitos. Se parte de la idea de que, aunque el discurso ético sobre la inteligencia artificial ha crecido recientemente, las investigaciones específicas sobre GenAI están dispersas entre dominios y a menudo carecen de un marco integrado que aborde los retos propios de los modelos generativos. La revisión abarca publicaciones entre 2021 y 2025 y busca identificar patrones, vacíos y tendencias emergentes en torno al uso responsable de GenAI.

Uno de los hallazgos principales es que los estudios existentes tienden a enfocarse en problemas particulares —como sesgos, desinformación o privacidad—, pero sin ofrecer una visión holística de las interacciones entre estos desafíos ni proponer marcos éticos unificados específicos para GenAI. También se observa una escasez de recomendaciones políticas bien fundamentadas basadas en evidencia sistemática, lo que dificulta la regulación y orientación normativas del despliegue ético de estas tecnologías.

En cuanto a las oportunidades, el artículo destaca que GenAI puede facilitar la innovación, la inclusión y la gobernanza responsable si se aprovecha con criterios éticos y conscientes del contexto sectorial. Por ejemplo, puede servir para apoyar la generación de contenido, la personalización o el descubrimiento de conocimiento, siempre que se establezcan salvaguardas claras. Sin embargo, los desafíos son múltiples: la autoría incierta de las creaciones generadas, la responsabilidad en caso de daños, la transparencia en los procesos internos, el riesgo de sesgos ocultos y la diseminación de información incorrecta o manipulada son temas que requieren un tratamiento más riguroso.

El apéndice del estudio presenta un análisis detallado de 51 investigaciones revisadas sistemáticamente sobre la alfabetización en inteligencia artificial generativa (GenAI). La mayoría de los estudios se centraron en el ámbito de la educación superior, aunque también se incluyeron experiencias en educación primaria y secundaria. En cuanto al enfoque metodológico, predominaron los estudios cuantitativos, seguidos de los mixtos y, en menor medida, los cualitativos. Aproximadamente dos tercios de las investigaciones no implementaron intervenciones directas, mientras que el resto aplicó programas formativos o talleres experimentales con herramientas de IA generativa. Los dominios académicos abordados fueron variados: desde la escritura, la alfabetización digital y las disciplinas STEM, hasta el turismo, la salud o la educación moral.

En términos de competencias en alfabetización GenAI, los resultados globales muestran un panorama desigual. Casi todos los estudios (el 92,2 %) evidencian que los participantes poseen una comprensión general adecuada de lo que es la GenAI y cómo funciona, pero solo algo más de la mitad (54,9 %) demuestran capacidad para usarla de manera efectiva. Un 66,7 % de los trabajos reflejan cierto desarrollo en la evaluación e integración crítica de los resultados generados, mientras que la misma proporción (54,9 %) aborda explícitamente cuestiones éticas relacionadas con su uso. En cuanto a las actitudes, el 82,3 % de los estudios señala que los estudiantes mantienen una disposición positiva y entusiasta hacia la IA generativa, especialmente cuando perciben beneficios tangibles para el aprendizaje.

El contenido de las investigaciones muestra que los estudiantes suelen utilizar la GenAI principalmente para tareas de redacción, generación de ideas, traducción, programación y resolución de problemas académicos, valorando su capacidad para ahorrar tiempo y mejorar la productividad. No obstante, muchos presentan dificultades para evaluar críticamente los resultados y carecen de conocimientos sólidos sobre ingeniería de prompts, lo que limita la eficacia de sus interacciones con las herramientas. La comprensión ética y técnica también resulta limitada: persisten dudas sobre la fiabilidad de los resultados, la privacidad de los datos, los sesgos algorítmicos y la autoría de los contenidos generados.

Los estudios que aplicaron intervenciones o programas educativos muestran mejoras significativas en la capacidad de análisis crítico, la confianza en el uso de la tecnología y la conciencia ética. Se observa que la exposición guiada a la GenAI, junto con la reflexión sobre su uso, potencia la comprensión de sus limitaciones y fortalece la responsabilidad digital. Por el contrario, en contextos donde la IA se usa sin orientación pedagógica, tienden a reproducirse usos superficiales o poco críticos, basados en la confianza excesiva en la herramienta.

Finalmente, el artículo subraya lagunas metodológicas, conceptuales y empíricas en la literatura. Plantea que futuros estudios deberían desarrollar marcos éticos específicos para GenAI, profundizar en estudios empíricos del impacto en contextos reales, y generar guías y políticas fundamentadas que orienten su uso responsable. En resumen, esta revisión sistemática contribuye a organizar el conocimiento disperso sobre GenAI en el ámbito ético y ofrece una base desde la cual avanzar hacia un uso más consciente y regulado de estas tecnologías.

Inteligencia artificial: guía para estudiantes 2025

Elon University, y Association of American Colleges and Universities. 2025. IA: guía para estudiantes. Segunda publicación. Elon University / AAC&U.

Texto completo

La guía presentada busca preparar al alumnado para desenvolverse en un mundo cada vez más transformado por la inteligencia artificial (IA), muchas veces de formas poco visibles o no del todo comprendidas. Plantea que el conocimiento de esta tecnología no solo constituye una ventaja, sino una necesidad fundamental en el ámbito académico, profesional y ciudadano. Su propósito es dotar a los estudiantes de herramientas para un uso responsable, fomentar la evaluación crítica de las capacidades y limitaciones de la IA, y promover la participación informada en los debates acerca de su desarrollo y su impacto en la sociedad.

Se trata de la segunda entrega de la serie IA: guía para estudiantes, elaborada por la Universidad de Elon en colaboración con la Asociación Americana de Colegios y Universidades. Esta iniciativa surge en respuesta a la declaración «El papel esencial de la educación superior en la preparación de la humanidad para la revolución de la inteligencia artificial», presentada en el Foro para la Gobernanza de Internet de las Naciones Unidas celebrado en Kioto en 2023. En línea con dicha declaración, la guía insiste en que la educación superior tiene la misión de promover una comprensión del desarrollo responsable de la IA, concebida como un instrumento para ampliar y fortalecer las capacidades humanas, y no como un sustituto de ellas.