Archivo de la etiqueta: Enseñanza

Suben las calificaciones de los trabajos de clase y bajan las notas en los exámenes presenciales

Oatley, Gabe. 2025. “The New Learning Curve: How Student AI Use Is Changing Teaching at UofT.” TorontoToday.ca, November 24, 2025. https://www.torontotoday.ca/local/education/learning-curve-student-artificial-intelligence-use-changing-teaching-uoft-11532998

Estudio

El uso creciente de herramientas de inteligencia artificial por parte del alumnado está transformando profundamente la enseñanza en la University of Toronto. Los profesores han detectado un fenómeno especialmente llamativo: mientras que las calificaciones de los trabajos para casa han subido de forma notable, los resultados en los exámenes presenciales finales han caído de manera significativa. Esta divergencia, según apuntan, se explica por un uso extendido —y en muchos casos no declarado— de modelos de lenguaje avanzados para elaborar tareas que antes exigían un esfuerzo de lectura, análisis y redacción personal.

Datos clave:

  • El 59 % de los estudiantes canadienses encuestados usan IA generativa para sus trabajos escolares — un aumento respecto al 52 % del año anterior.
  • De entre los estudiantes que usan IA, un 67 % dice que no cree estar aprendiendo o reteniendo tanto conocimiento como antes.
  • A pesar de ello, el 75 % considera que las herramientas de IA han mejorado la calidad de sus trabajos escolares.
  • El uso frecuente: el 63 % dice usar IA generativa varias veces por semana.
  • El 82 % admite que presenta como propio contenido generado por IA.
  • Un 70 % prefiere recurrir a la IA antes que pedir ayuda a sus profesores.
  • Entre quienes usan IA, aproximadamente un 65 %–67 % sienten que su uso equivale a hacer trampa.
  • El 63 % teme ser descubierto por su institución por depender de IA en sus trabajos.

Ante esta realidad, los docentes han comenzado a observar patrones de comportamiento nuevos en su alumnado. Muchos estudiantes recurren a herramientas como ChatGPT o Gemini para resolver dudas, generar ideas iniciales o mejorar la coherencia de sus textos, lo que en algunos casos puede tener un efecto positivo, especialmente cuando se usa para reforzar el aprendizaje. Sin embargo, un número creciente de estudiantes emplea la IA como sustituto del propio proceso cognitivo: delegan totalmente la elaboración de trabajos escritos o incluso la resolución de ejercicios técnicos. Esto ha generado una sensación de falsa competencia, pues los trabajos parecen impecables pero el rendimiento en evaluaciones sin asistencia tecnológica revela lagunas importantes de comprensión.

El artículo también subraya que detectar el uso indebido de IA es una tarea compleja. Las herramientas de detección disponibles no son fiables, y los profesores encuentran difícil —y muchas veces imposible— demostrar que un texto ha sido producido o modificado sustancialmente por un sistema automático. Además, la dinámica de aprendizaje ha cambiado: los estudiantes hacen menos preguntas en clase, participan menos en foros y asisten menos a tutorías, ya que encuentran en la IA una fuente inmediata de respuestas, disponible en cualquier momento. Para parte del profesorado, esta sustitución del diálogo pedagógico por consultas a modelos generativos supone la pérdida de una dimensión esencial de la educación universitaria: la interacción humana, que permite matizar conceptos, plantear dudas profundas y construir pensamiento crítico.

Frente a estos desafíos, los profesores de la universidad están rediseñando sus estrategias docentes. Una respuesta habitual ha sido aumentar el peso de las evaluaciones presenciales, incluyendo exámenes escritos en el aula, defensas orales o entrevistas breves vinculadas a trabajos entregados. De este modo, se busca comprobar que los estudiantes realmente dominan los contenidos que presentan en sus tareas. Otra estrategia consiste en diseñar actividades “auténticas”, vinculadas a experiencias reales, análisis de campo, estudios de caso o ejercicios creativos basados en situaciones concretas que resultan más difíciles de delegar a una IA. En algunas asignaturas se ha optado por dividir las tareas en fases: por ejemplo, primero marcar y comentar un texto leído, y solo después elaborar una reflexión personal. Esto permite observar el proceso de pensamiento del estudiante y no solo el producto final.

A lo largo del artículo se destaca que el uso de IA en la educación superior ya no es una tendencia pasajera, sino un cambio estructural que obliga a repensar la evaluación y la enseñanza. Según los profesores entrevistados, la forma tradicional de asignar trabajos y corregirlos ha dejado de ser viable en un contexto donde una herramienta automatizada puede producir textos correctos en segundos. La cuestión ya no es si permitir o prohibir estas tecnologías, sino cómo integrarlas de manera responsable, enseñando a los estudiantes a utilizarlas como apoyo sin renunciar a la comprensión profunda, el razonamiento propio y el desarrollo de habilidades intelectuales fundamentales. En definitiva, la universidad se enfrenta a una nueva curva de aprendizaje institucional, en la que conviven innovación, preocupación y la necesidad urgente de adaptar la pedagogía a un entorno educativo donde la inteligencia artificial es parte del día a día.

Uso inteligente de la IA para docentes y estudiantes

Victorino Guzmán, Jorge Enrique, y Mary Lee Berdugo Lattke. Uso inteligente de la IA para docentes y estudiantes. Bogotá: Ediciones Universidad Central, 2024

Texto completo

El libro aborda cómo docentes y estudiantes pueden integrar la inteligencia artificial (IA) de manera ética y eficaz en los procesos educativos. Parte de la idea de que la IA no es solo una herramienta tecnológica, sino una oportunidad para repensar prácticas pedagógicas y transformar la enseñanza y el aprendizaje.

Explora estrategias para diseñar actividades didácticas que incorporen la IA de forma inteligente: no solo para automatizar tareas, sino para fomentar la creatividad, el pensamiento crítico y la resolución de problemas. Además, se destaca la importancia de formar tanto a profesores como a estudiantes en competencias relacionadas con la IA: saber usarla, entender sus limitaciones, y reflexionar sobre sus implicaciones éticas.

El texto también analiza escenarios reales y posibles desafíos del uso de la IA en la educación, como la desigualdad en el acceso a la tecnología, riesgos de dependencia o de desinformación generada por herramientas automatizadas. Propone soluciones institucionales y pedagógicas para mitigar esos riesgos, como la capacitación docente, políticas institucionales claras y el diseño de entornos de aprendizaje adaptativos.

Finalmente, el libro subraya el carácter transformador de la IA en la educación, pero lo sitúa dentro de una visión humanista: la IA debe usarse como un complemento que potencie la labor docente y el aprendizaje, no como un sustituto del conocimiento o del diálogo pedagógico.

Uso y desarrollo ético de la Inteligencia Artificial en la UNAM

Uso y desarrollo ético de la Inteligencia Artificial en la UNAM. Autores Dra. Luz María Castañeda de León Dra. Ana Yuri Ramírez Molina Mtro. Juan Manuel Castillejos Reyes Mtra. María Teresa Ventura Miranda. Primera edición digital, octubre de 2025. Universidad Nacional Autónoma de México (UNAM) Dirección General de Cómputo y de Tecnologías de Información y Comunicación. ISBN 978-607-587-954-3.

Texto completo

Este trabajo se enmarca en las recomendaciones de la UNESCO sobre la ética de la IA (2021–2024) y en el Plan de Desarrollo Institucional de la UNAM 2023–2027. Su objetivo principal es promover una integración responsable de los sistemas de IA (SIA) en la docencia y la investigación universitarias.

En su primera parte, el texto define la IA desde las perspectivas de la Unión Europea y la OCDE, destacando su carácter sistémico, autónomo y adaptable. Asimismo, subraya la necesidad de un entendimiento crítico de estas tecnologías, sobre todo en contextos del Sur Global, donde las condiciones tecnológicas y económicas difieren de las del Norte Global. Se emplean dos modelos teóricos: la Teoría de la Acción Razonada de Fishbein y Ajzen, para explicar la adopción de conductas éticas en el uso de IA, y el Modelo de Resolución de Problemas de Kaufman, que orienta un proceso de mejora continua.

El documento analiza las tendencias del uso de la IA en la docencia universitaria, abordando su papel en el aprendizaje adaptativo, la generación de contenidos, la evaluación y la analítica del aprendizaje. Estas aplicaciones facilitan la personalización educativa, aunque implican desafíos como la pérdida de control docente, la integridad académica o los sesgos algorítmicos. En el ámbito de la investigación, la IA contribuye a procesar grandes volúmenes de datos, acelerar publicaciones y fomentar la colaboración científica, pero plantea dilemas sobre autoría, fiabilidad de la información y privacidad de los datos.

La sección sobre ética propone cinco principios fundamentales (beneficencia, no maleficencia, autonomía, justicia y transparencia), inspirados en la UNESCO, que deben guiar el uso universitario de la IA. Además, se revisan los marcos internacionales de integración ética y se comparan con el Código de Ética Universitario de la UNAM, que promueve valores como la honestidad, la igualdad y la responsabilidad social. Aunque la institución aún no cuenta con un marco formal de integración de la ética en los SIA, existen esfuerzos en distintas dependencias por promover comportamientos éticos en la investigación y la docencia.

Finalmente, el informe recomienda desarrollar políticas institucionales que orienten el uso ético de la IA, fomentar la alfabetización digital y ética de la comunidad universitaria, y establecer mecanismos de supervisión y evaluación continua. El propósito es garantizar que la innovación tecnológica se alinee con los valores humanistas y sociales que caracterizan a la UNAM.

Código de conducta para estudiantes propuesto por Harvard para la IA

Harvard University and metaLAB (at) Harvard. Proposed Harvard AI Code of Conduct. Cambridge, MA: Harvard University, July 2023. Accessed [día mes año]. https://aicodeofconduct.mlml.io/assets/files/ai_code_of_conduct.pdf

Proposed Harvard AI Code of Conduct está centrada en el uso de herramientas de IA generativa por estudiantes en tareas académicas. Esta no plantea una prohibición general, sino que apuesta por políticas específicas por curso.

Harvard propone que el uso de la IA en educación no sólo sea visto como una amenaza, sino como una oportunidad para repensar qué y cómo enseñamos: qué habilidades tienen mayor valor en un mundo donde la IA hace ciertas tareas tradicionalmente académicas.

“Proposed Harvard AI Code of Conduct” es un documento elaborado en 2023 con el propósito de guiar el uso responsable de herramientas de inteligencia artificial generativa dentro del ámbito académico de la Universidad de Harvard. Su objetivo no es imponer una prohibición general, sino establecer principios flexibles que permitan a cada profesor definir su propia política sobre el uso de la IA en sus cursos, con el apoyo institucional necesario para garantizar coherencia, ética e integridad académica.

El texto parte de la idea de que la IA ya forma parte de la vida académica y profesional, por lo que el enfoque adecuado no es evitarla, sino aprender a convivir con ella y a utilizarla con responsabilidad. Para ello, se propone que cada curso de Harvard cuente con una política escrita que indique claramente a los estudiantes qué usos de la IA están permitidos, cuáles están restringidos y cómo afectará su utilización a la evaluación del aprendizaje. Estas políticas deben revisarse periódicamente, dado el rápido avance de la tecnología.

El documento recomienda que las normas sobre IA se integren dentro del código de honor académico y se gestionen en colaboración con órganos como el Harvard College Honor Council. Se insiste en que las políticas deben distinguir entre distintos tipos de herramientas —por ejemplo, modelos de lenguaje o generadores de imágenes— y que no se deben usar detectores automáticos de texto generado por IA como única prueba en casos de posible infracción, ya que su fiabilidad es limitada. Además, se subraya la importancia de ofrecer materiales educativos que ayuden a profesores y estudiantes a comprender tanto las capacidades como los riesgos de estas herramientas.

El código incluye también una serie de plantillas diseñadas para facilitar la implementación de políticas claras en cada asignatura. Entre ellas, se propone exigir que los estudiantes reconozcan y citen explícitamente el uso de herramientas de IA en sus trabajos académicos, explicando cómo las han empleado y evaluado los resultados obtenidos. También se ofrecen cuatro niveles de política posibles, que van desde la autorización total del uso de IA (con la obligación de citarla) hasta su prohibición completa, pasando por modalidades intermedias en las que su uso está permitido solo en fases específicas del trabajo o bajo indicaciones concretas del docente.

En conjunto, el código de conducta propuesto por Harvard busca equilibrar la innovación con la integridad. Promueve una cultura académica que fomente la experimentación y el pensamiento crítico, pero dentro de un marco ético y transparente. Su espíritu es preparar a la comunidad universitaria para un futuro en el que la inteligencia artificial será una herramienta habitual, ayudando a que profesores y estudiantes aprendan no solo a usarla, sino también a cuestionarla, evaluarla y citarla de manera adecuada.

Este enfoque puede servir como referencia útil para otras instituciones educativas —incluidas las bibliotecas universitarias— que deseen desarrollar sus propias guías o programas de alfabetización en IA, especialmente en temas relacionados con la citación, la autoría, la integridad académica y la educación ética en entornos digitales.

Los puntos principales del Proposed Harvard AI Code of Conduct son:

  1. No prohíbe la IA, sino que promueve su uso responsable y regulado por curso.
  2. Integra el uso de la IA dentro del código de honor académico de Harvard.
  3. Exige que cada asignatura defina y comunique su política sobre IA por escrito.
  4. Distingue entre tipos de herramientas (texto, imagen, código, etc.).
  5. Desaconseja usar detectores de IA como única prueba de infracción.
  6. Obliga a reconocer y citar cualquier uso de herramientas de IA.
  7. Ofrece cuatro niveles de política: permitido, parcial, autorizado o prohibido.
  8. Promueve la formación ética y técnica sobre IA para estudiantes y docentes.
  9. Recomienda revisar y actualizar las políticas periódicamente.
  10. Fomenta una cultura de transparencia, responsabilidad y pensamiento crítico ante la IA.

Una revisión sistemática de la literatura sobre la alfabetización en inteligencia artificial generativa en la enseñanza

Joonhyeong Park. A systematic literature review of generative artificial intelligence (GenAI) literacy in schools, Computers and Education: Artificial Intelligence, 2025,

Texto completo

Este estudio realiza una revisión sistemática de la literatura sobre la inteligencia artificial generativa (Generative AI, GenAI), con especial énfasis en su dimensión ética y en las oportunidades y desafíos asociados a su adopción en distintos ámbitos. Se parte de la idea de que, aunque el discurso ético sobre la inteligencia artificial ha crecido recientemente, las investigaciones específicas sobre GenAI están dispersas entre dominios y a menudo carecen de un marco integrado que aborde los retos propios de los modelos generativos. La revisión abarca publicaciones entre 2021 y 2025 y busca identificar patrones, vacíos y tendencias emergentes en torno al uso responsable de GenAI.

Uno de los hallazgos principales es que los estudios existentes tienden a enfocarse en problemas particulares —como sesgos, desinformación o privacidad—, pero sin ofrecer una visión holística de las interacciones entre estos desafíos ni proponer marcos éticos unificados específicos para GenAI. También se observa una escasez de recomendaciones políticas bien fundamentadas basadas en evidencia sistemática, lo que dificulta la regulación y orientación normativas del despliegue ético de estas tecnologías.

En cuanto a las oportunidades, el artículo destaca que GenAI puede facilitar la innovación, la inclusión y la gobernanza responsable si se aprovecha con criterios éticos y conscientes del contexto sectorial. Por ejemplo, puede servir para apoyar la generación de contenido, la personalización o el descubrimiento de conocimiento, siempre que se establezcan salvaguardas claras. Sin embargo, los desafíos son múltiples: la autoría incierta de las creaciones generadas, la responsabilidad en caso de daños, la transparencia en los procesos internos, el riesgo de sesgos ocultos y la diseminación de información incorrecta o manipulada son temas que requieren un tratamiento más riguroso.

El apéndice del estudio presenta un análisis detallado de 51 investigaciones revisadas sistemáticamente sobre la alfabetización en inteligencia artificial generativa (GenAI). La mayoría de los estudios se centraron en el ámbito de la educación superior, aunque también se incluyeron experiencias en educación primaria y secundaria. En cuanto al enfoque metodológico, predominaron los estudios cuantitativos, seguidos de los mixtos y, en menor medida, los cualitativos. Aproximadamente dos tercios de las investigaciones no implementaron intervenciones directas, mientras que el resto aplicó programas formativos o talleres experimentales con herramientas de IA generativa. Los dominios académicos abordados fueron variados: desde la escritura, la alfabetización digital y las disciplinas STEM, hasta el turismo, la salud o la educación moral.

En términos de competencias en alfabetización GenAI, los resultados globales muestran un panorama desigual. Casi todos los estudios (el 92,2 %) evidencian que los participantes poseen una comprensión general adecuada de lo que es la GenAI y cómo funciona, pero solo algo más de la mitad (54,9 %) demuestran capacidad para usarla de manera efectiva. Un 66,7 % de los trabajos reflejan cierto desarrollo en la evaluación e integración crítica de los resultados generados, mientras que la misma proporción (54,9 %) aborda explícitamente cuestiones éticas relacionadas con su uso. En cuanto a las actitudes, el 82,3 % de los estudios señala que los estudiantes mantienen una disposición positiva y entusiasta hacia la IA generativa, especialmente cuando perciben beneficios tangibles para el aprendizaje.

El contenido de las investigaciones muestra que los estudiantes suelen utilizar la GenAI principalmente para tareas de redacción, generación de ideas, traducción, programación y resolución de problemas académicos, valorando su capacidad para ahorrar tiempo y mejorar la productividad. No obstante, muchos presentan dificultades para evaluar críticamente los resultados y carecen de conocimientos sólidos sobre ingeniería de prompts, lo que limita la eficacia de sus interacciones con las herramientas. La comprensión ética y técnica también resulta limitada: persisten dudas sobre la fiabilidad de los resultados, la privacidad de los datos, los sesgos algorítmicos y la autoría de los contenidos generados.

Los estudios que aplicaron intervenciones o programas educativos muestran mejoras significativas en la capacidad de análisis crítico, la confianza en el uso de la tecnología y la conciencia ética. Se observa que la exposición guiada a la GenAI, junto con la reflexión sobre su uso, potencia la comprensión de sus limitaciones y fortalece la responsabilidad digital. Por el contrario, en contextos donde la IA se usa sin orientación pedagógica, tienden a reproducirse usos superficiales o poco críticos, basados en la confianza excesiva en la herramienta.

Finalmente, el artículo subraya lagunas metodológicas, conceptuales y empíricas en la literatura. Plantea que futuros estudios deberían desarrollar marcos éticos específicos para GenAI, profundizar en estudios empíricos del impacto en contextos reales, y generar guías y políticas fundamentadas que orienten su uso responsable. En resumen, esta revisión sistemática contribuye a organizar el conocimiento disperso sobre GenAI en el ámbito ético y ofrece una base desde la cual avanzar hacia un uso más consciente y regulado de estas tecnologías.

Inteligencia artificial: guía para estudiantes 2025

Elon University, y Association of American Colleges and Universities. 2025. IA: guía para estudiantes. Segunda publicación. Elon University / AAC&U.

Texto completo

La guía presentada busca preparar al alumnado para desenvolverse en un mundo cada vez más transformado por la inteligencia artificial (IA), muchas veces de formas poco visibles o no del todo comprendidas. Plantea que el conocimiento de esta tecnología no solo constituye una ventaja, sino una necesidad fundamental en el ámbito académico, profesional y ciudadano. Su propósito es dotar a los estudiantes de herramientas para un uso responsable, fomentar la evaluación crítica de las capacidades y limitaciones de la IA, y promover la participación informada en los debates acerca de su desarrollo y su impacto en la sociedad.

Se trata de la segunda entrega de la serie IA: guía para estudiantes, elaborada por la Universidad de Elon en colaboración con la Asociación Americana de Colegios y Universidades. Esta iniciativa surge en respuesta a la declaración «El papel esencial de la educación superior en la preparación de la humanidad para la revolución de la inteligencia artificial», presentada en el Foro para la Gobernanza de Internet de las Naciones Unidas celebrado en Kioto en 2023. En línea con dicha declaración, la guía insiste en que la educación superior tiene la misión de promover una comprensión del desarrollo responsable de la IA, concebida como un instrumento para ampliar y fortalecer las capacidades humanas, y no como un sustituto de ellas.

Guía para el uso uso de la Inteligencia Artificial Generativa para docentes


Guía para el uso uso de la Inteligencia Artificial Generativa para docentes de la Universidad Nacional Mayor de San Marcos. Lima: Universidad Nacional Mayor de San Marcos, 2025

Texto completo

La guía surge como una herramienta institucional para orientar al profesorado en el uso responsable, ético y creativo de tecnologías como ChatGPT, Gemini o Midjourney en la docencia. La universidad reconoce que estas herramientas ya forman parte del entorno académico y profesional, y que es necesario acompañar a los docentes en su integración, evitando riesgos como el plagio, la desinformación o el uso acrítico de contenidos.

El documento explica qué es la inteligencia artificial generativa, cuáles son sus características principales y en qué se diferencia de otros tipos de IA. También señala sus aplicaciones en la educación, como la generación de textos, imágenes y materiales multimedia, el diseño de clases y actividades, la personalización del aprendizaje y la asistencia en tareas administrativas. A la vez, advierte sobre limitaciones y sesgos de la tecnología, promoviendo que siempre exista la supervisión del docente.

La guía propone un marco ético y normativo para su uso en el ámbito universitario. Incluye recomendaciones sobre el respeto a la propiedad intelectual, la transparencia al citar el apoyo de estas herramientas, la protección de datos personales y la necesidad de garantizar un acceso equitativo. En este sentido, subraya que la IA debe entenderse como un complemento que potencia la labor del profesorado, no como un sustituto de su papel pedagógico.

Contenido

Fundamentos

Se explican los conceptos básicos de la inteligencia artificial generativa (IAG), cómo funciona, sus alcances, potenciales y limitaciones. Se subraya su carácter de herramienta de apoyo que necesita supervisión humana.

Aplicaciones de la IAG

Describe cómo puede aplicarse en la docencia: creación de materiales didácticos, apoyo en investigación, elaboración de evaluaciones, personalización del aprendizaje y optimización de tareas administrativas.

¿Qué es un prompt?

Define el concepto de prompt como la instrucción o entrada que el usuario da a la IA para obtener una respuesta. Se enfatiza que la calidad del resultado depende en gran medida de cómo se formule el prompt.

Guía para la creación efectiva de prompts

Se ofrecen orientaciones para elaborar prompts claros, específicos y contextuales, con ejemplos de cómo detallar la tarea, el estilo o el formato deseado.

Clases de prompt

Clasifica los distintos tipos de prompts: informativos, creativos, explicativos, comparativos, entre otros, según el objetivo que tenga el docente.

Estructura general de un buen prompt

Explica los elementos básicos que debe contener: contexto, instrucción clara, formato esperado y parámetros opcionales (ejemplo: extensión, tono, idioma).

Ejemplos de prompts en la educación superior

Muestra casos prácticos de uso en el aula universitaria, como generación de preguntas de examen, resúmenes de textos, planes de clase, explicaciones alternativas o actividades de retroalimentación.

Herramientas que utilizamos en la vida diaria

Presenta aplicaciones de IA generativa ya integradas en la vida cotidiana, como asistentes virtuales, correctores de texto, generadores de imágenes, traductores y buscadores inteligentes.

Clasificación de las herramientas de IAG

Organiza las herramientas según sus funciones principales: generación de texto, imágenes, audio, video, programación o análisis de datos, con ejemplos destacados en cada categoría.

Ejemplos de IAG

Incluye un repertorio de aplicaciones concretas: ChatGPT, Gemini, Copilot, Midjourney, DALL·E, entre otras, explicando para qué sirven y cómo se pueden aplicar en el contexto académico.

La inteligencia artificial generativa en la docencia universitaria: oportunidades, desafíos y recomendaciones

Cruz Argudo, Francisco; García Varea, Ismael; Martínez Carrascal, Juan A.; Ruiz Martínez, Antonio; Ruiz Martínez, Pedro M.; Sánchez Campos, Alberto; Turró Ribalta, Carlos. La inteligencia artificial generativa en la docencia universitaria: oportunidades, desafíos y recomendaciones. Crue, marzo de 2024. https://www.crue.org/wp-content/uploads/2024/03/Crue-Digitalizacion_IA-Generativa.pdf

El documento analiza el papel de la inteligencia artificial generativa (IAG) en el ámbito de la educación universitaria, identificando las oportunidades que ofrece, los desafíos que impone y proponiendo recomendaciones para su integración responsable. Se define la IAG como una evolución de la IA tradicional que puede generar contenido nuevo (texto, imágenes, vídeos, etc.) a partir de descripciones en lenguaje natural, y se plantea su uso para personalizar el aprendizaje, generar materiales educativos y liberar al profesorado de tareas repetitivas.

Entre las oportunidades, el texto destaca que la IAG permite ampliar el acceso a la educación superior, adaptar el aprendizaje a las necesidades individuales, proporcionar apoyo en tiempo real mediante chatbots o tutorías automáticas, y mejorar la eficiencia docente al automatizar tareas administrativas y de creación de contenido.

Sin embargo, la implementación conlleva múltiples desafíos: la resistencia al cambio del profesorado y del personal administrativo; la necesidad de adaptar metodologías de enseñanza; la revisión de los resultados formativos; la redefinición de evaluación académica; la capacitación técnica; los posibles usos indebidos; los costes de implementación; y la dependencia excesiva de la tecnología.

En el plano ético, se abordan cuestiones de privacidad y protección de datos (incluido el cumplimiento del RGPD), integridad académica y propiedad intelectual, transparencia y sesgos en los algoritmos, desigualdades en el acceso a la tecnología, y el impacto medioambiental del uso intensivo de estos sistemas.

Finalmente, el documento concluye con una serie de recomendaciones: establecer principios éticos comunes entre universidades; definir competencias de IA para estudiantes y profesorado; promover el debate interno institucional; planificar la incorporación gradual de la IAG con atención a costos, equidad y privacidad; fomentar comunidades docentes para compartir buenas prácticas; y monitorear continuamente los efectos del uso de la IAG en la docencia.

200+1 prompts para educación: guía para docentes innovadores.

Unitec. (2024). 200+1 prompts para educación: guía para docentes
innovadores.
. Tegucigalpa: Universidad Tecnológica Centroamericana (Unitec), 2024.

“200 Prompts para Educadores” es una guía práctica diseñada para fomentar la reflexión, creatividad y mejora continua en el ámbito educativo. Está estructurado en forma de preguntas o frases disparadoras (prompts) que los docentes pueden usar para:

  • Reflexionar sobre su práctica pedagógica, incluyendo temas como la planificación, evaluación, gestión del aula y desarrollo profesional.
  • Estimular el pensamiento crítico y creativo en estudiantes, promoviendo el diálogo, la escritura reflexiva y el aprendizaje activo.
  • Fortalecer el vínculo entre teoría y práctica, al invitar a los educadores a conectar sus experiencias con principios pedagógicos y tendencias actuales.
  • Promover la innovación educativa, con prompts que abordan el uso de tecnología, metodologías activas, inclusión y liderazgo docente.

Los prompts están organizados en categorías como: motivación, evaluación, tecnología, inclusión, liderazgo, autocuidado, entre otros. Cada sección busca empoderar al docente como agente de cambio y fomentar una cultura de mejora continua en las instituciones educativas.

100 aplicaciones de la inteligencia artificial generativa

Universidad Internacional de Valencia (VIU). 100 aplicaciones de la inteligencia artificial generativa. Valencia: VIU, 2024.

Texto completo

El informe no solo ofrece un inventario de aplicaciones, sino que propone una reflexión sobre cómo integrar la IAG de manera responsable, maximizando sus beneficios y minimizando riesgos. Con ello, busca servir de guía tanto para profesionales como para instituciones interesadas en adoptar y regular el uso de estas tecnologías emergentes.

El documento 100 aplicaciones de la inteligencia artificial generativa ofrece una panorámica amplia y estructurada sobre los usos actuales de esta tecnología en múltiples sectores. Presenta la IAG como una de las innovaciones más transformadoras de los últimos años, con el potencial de redefinir tanto la vida cotidiana como el trabajo en áreas tan diversas como la educación, la salud, la creatividad, la comunicación y la empresa.

A lo largo del texto se muestran ejemplos concretos que ilustran cómo la IAG ya se aplica en la práctica. En el ámbito educativo, se destaca su utilidad para generar materiales personalizados, apoyar la docencia y facilitar el aprendizaje adaptativo. En la salud, la IA contribuye al análisis de datos clínicos, al diagnóstico asistido y al diseño de tratamientos personalizados. En el campo creativo, se subraya la capacidad de los modelos generativos para producir textos, imágenes, música y vídeos, abriendo nuevas oportunidades para artistas y comunicadores.

El documento también señala el impacto de la IAG en el sector empresarial, donde puede optimizar procesos, mejorar la atención al cliente, automatizar tareas y apoyar la toma de decisiones estratégicas. Asimismo, se enfatizan los retos éticos y sociales que acompañan a su implementación: la necesidad de garantizar la transparencia, mitigar sesgos, proteger la privacidad y reflexionar sobre sus implicaciones en el empleo.