Archivo de la etiqueta: Estudiantes

La inteligencia artificial en la universidad: adopción masiva, tensiones éticas y necesidad de formación según el mayor estudio del sistema CSU

California State University. “CSU Releases Findings After Conducting the Largest and Most Comprehensive Survey on Artificial Intelligence in Higher Education.” 1 de abril de 2026.

Acceder al artículo original

El sistema California State University (CSU) ha publicado el mayor y más completo estudio sobre inteligencia artificial en la educación superior hasta la fecha, basado en más de 94.000 respuestas de estudiantes, profesorado y personal universitario.

Este informe, titulado Ahead of the Curve, refleja un momento de transición clave en las universidades: la IA ya no es una opción emergente, sino una realidad integrada en los procesos de enseñanza, aprendizaje y gestión académica. La investigación muestra que el debate ha dejado de centrarse en si la IA debe formar parte de la educación superior, para enfocarse en cómo implementarla de forma coherente, ética y a gran escala.

Uno de los hallazgos más significativos es el uso generalizado de herramientas de IA en toda la comunidad universitaria. La gran mayoría de estudiantes, docentes y personal ya interactúan con estas tecnologías, lo que evidencia su rápida normalización. Esta adopción se asocia a beneficios claros como el apoyo al aprendizaje, la mejora de la productividad y el impulso a la innovación académica. Sin embargo, también plantea retos importantes: la preocupación por la integridad académica, la fiabilidad de los resultados generados por IA y el posible impacto en el pensamiento crítico. La encuesta captura así una percepción ambivalente, donde entusiasmo y cautela conviven en equilibrio.

El estudio también subraya una demanda creciente de formación específica en inteligencia artificial. Tanto estudiantes como profesorado consideran necesario desarrollar competencias más avanzadas que permitan utilizar estas herramientas de manera eficaz y responsable, especialmente en contextos profesionales. Esta necesidad es más acusada en colectivos que perciben un mayor riesgo de quedar rezagados en un mercado laboral cada vez más influido por la IA. En este sentido, la universidad aparece como un agente clave para cerrar la brecha de habilidades y garantizar una integración equitativa de la tecnología.

El informe destaca la urgencia de establecer marcos éticos y normativos claros. La falta de políticas homogéneas genera incertidumbre entre los estudiantes, mientras que el profesorado reclama orientaciones precisas sobre cómo integrar la IA en la docencia sin comprometer la calidad educativa. Cuestiones como la transparencia, la verificación de contenidos, la privacidad de los datos y la equidad en el acceso emergen como prioridades. En conjunto, el estudio del CSU posiciona a la educación superior ante un desafío estructural: liderar el uso responsable de la inteligencia artificial sin renunciar a sus principios fundamentales de rigor académico y formación crítica.

Datos clave:

  • Más de 94.000 participantes (estudiantes, profesorado y personal).
  • Es el mayor estudio sobre IA en educación superior hasta la fecha.
  • Incluye a las 22 universidades del sistema CSU.

Uso

95% de los encuestados ha utilizado al menos una herramienta de IA.

Uso habitual:

  • Más de la mitad de los estudiantes
  • 60% del profesorado
  • ≈66% del personal

Formación en IA

  • Más del 80% del personal quiere formación en IA. Aproximadamente 70% del profesorado también la demanda.
  • Estudiantes: cerca del 50%,

Ética IA

  • ≈80% de estudiantes no se sienten cómodos entregando trabajos generados por IA como propios.

Uso docentes

  • Más del 50% del profesorado usa IA para preparar materiales.
  • 69% orienta a los estudiantes sobre su uso.
  • ≈66% incluye normas sobre IA en sus programas docentes.

Percepción del futuro

  • La IA será esencial para:
    82% del personal
    78% del profesorado
    69% de estudiantes

Preocupación por el empleo:

  • 82% estudiantes
  • 78% profesorado
  • 74% personal

La mayoría de los estudiantes universitarios utilizan IA a pesar de que sus instituciones desaconsejan su uso

Lumina Foundation y Gallup. State of Higher Education Study. 2025. https://www.gallup.com/file/analytics/704279/Lumina-Foundation-Gallup-SOHE_AI_Report.pdf

El avance de la inteligencia artificial en la educación superior se ha consolidado con una rapidez que contrasta con la lentitud institucional para regular su uso. Un estudio reciente de la Lumina Foundation y Gallup revela que la mayoría de los estudiantes universitarios emplea herramientas como ChatGPT, Microsoft Copilot y Google Gemini de forma habitual en sus tareas académicas.

En concreto, el 57 % afirma utilizarlas diaria o semanalmente, mientras que solo un 13 % declara no usarlas nunca. Sin embargo, más de la mitad de los estudiantes (53 %) indica que sus instituciones desaconsejan o prohíben su uso, y un 52 % señala la ausencia de directrices claras en al menos algunas de sus asignaturas. Este desajuste evidencia una brecha significativa entre la práctica estudiantil y la normativa académica.

En cuanto a los motivos de uso, los estudiantes recurren a la inteligencia artificial principalmente como herramienta de apoyo al aprendizaje. Entre quienes la utilizan al menos mensualmente, el 86 % destaca su utilidad para comprender materiales complejos, mientras que otros beneficios señalados incluyen el ahorro de tiempo (76 %), la mejora del rendimiento académico (70 %) y la preparación para el futuro profesional (65 %). Las aplicaciones más comunes consisten en resolver dudas sobre contenidos difíciles y verificar respuestas en tareas, actividades que al menos seis de cada diez usuarios realizan con frecuencia semanal o diaria. Por otro lado, quienes evitan estas herramientas lo hacen mayoritariamente por razones éticas: el 74 % considera su uso como una forma de hacer trampa, y el 68 % menciona las restricciones institucionales, frente a un reducido 14 % que alude a la falta de conocimientos técnicos.

A pesar de la expansión del uso de la IA, las políticas universitarias no han evolucionado al mismo ritmo. Solo un 7 % de los estudiantes afirma que su institución fomenta activamente el uso de estas herramientas, mientras que el 42 % señala que se desaconsejan en la mayoría de los casos y un 11 % indica que están prohibidas. No obstante, incluso en contextos restrictivos, el uso persiste: el 48 % de los estudiantes en instituciones que lo desaconsejan continúa utilizándolas semanalmente, al igual que el 27 % en aquellas donde están prohibidas. Además, la claridad normativa es desigual: únicamente el 51 % de los estudiantes de universidades de cuatro años y el 43 % de los de instituciones de dos años afirman que todas sus asignaturas cuentan con políticas claras sobre inteligencia artificial.

El impacto de la IA trasciende el ámbito académico y alcanza las expectativas laborales de los estudiantes. Casi la mitad (47 %) reconoce haber considerado cambiar de carrera debido a la influencia de la inteligencia artificial en el mercado laboral, y un 16 % afirma haberlo hecho ya. Asimismo, un 12 % señala que esta preocupación ha influido en su decisión de acceder a la educación superior. Aunque el 58 % considera adecuada la formación recibida en inteligencia artificial, cerca de tres de cada diez estudiantes creen que es insuficiente, cifra que aumenta en instituciones con políticas más restrictivas.

En conjunto, los resultados ponen de manifiesto un momento crítico para las instituciones educativas, que deben decidir si abordar la inteligencia artificial como un problema de control o como una oportunidad pedagógica. La evidencia sugiere que, con marcos normativos adecuados, la IA podría integrarse como una herramienta clave para el aprendizaje y la preparación profesional, en lugar de limitarse a ser objeto de prohibición.

Lo que el estudiantado universitario necesita saber —y lo que realmente sabe— sobre la inteligencia artificial generativa

Rismanchian, S., Razia Babar, E. T., & Doroudi, S. (2026). What undergraduate students need to know and actually know about generative AI. Computers and Education: Artificial Intelligence, artículo 100554. https://doi.org/10.1016/j.caeai.2026.100554

Este artículo analiza la alfabetización en inteligencia artificial generativa (GenAI) entre estudiantes de pregrado, un tema crítico dada la rápida adopción de herramientas como ChatGPT desde su lanzamiento en 2022.

Los autores proponen un marco teórico integral para evaluar la alfabetización en GenAI, que combina tres tipos de conocimiento conceptual: las bases de los modelos de lenguaje a gran escala (LLMs), sus capacidades y limitaciones, y su impacto social. Este marco se utiliza para desarrollar una encuesta validada que incluye ítems de conocimiento y percepciones, diseñada con revisión de expertos y modelado de teoría de respuesta al ítem (IRT) para asegurar su rigor metodológico.

Mediante dos estudios complementarios realizados en Estados Unidos —uno con estudiantes de cursos universitarios en una gran universidad pública de investigación (R1) y otro con una muestra nacional reclutada en línea— los autores investigan cuánto saben realmente los estudiantes sobre GenAI y cómo calibran sus percepciones sobre estas herramientas. Los resultados muestran que aproximadamente el 60% de los estudiantes usan chatbots de IA semanal o diariamente, pero muchos sobreestiman las capacidades de estos sistemas, especialmente en tareas que requieren razonamiento o cálculo, y tienden a antropomorfizarlos o tratarlos como simples motores de búsqueda.

Los hallazgos indican además que los estudiantes con formación en ciencias de la computación y aquellos que usan con mayor frecuencia estas herramientas obtienen puntajes de conocimiento más altos, aunque esto no garantiza una percepción exacta de sus capacidades. Un hallazgo clave es que un mayor conocimiento conceptual se asocia con una menor sobreestimación de las capacidades de los sistemas de IA generativa, lo que sugiere que las iniciativas educativas deben ir más allá del uso instrumental de las herramientas y abordar profundamente los conceptos fundamentales, las limitaciones técnicas y las implicaciones sociales de la IA.

La investigación identifica 5 dimensiones clave de alfabetización en GenAI necesarias para un estudiante actual:

  • Conocimiento Técnico: Cómo funcionan los modelos (tokens, predicción probabilística).
  • Uso Práctico: Ingeniería de prompts y aplicaciones académicas.
  • Evaluación Crítica: Identificar alucinaciones, sesgos y limitaciones.
  • Ética y Responsabilidad: Plagio, derechos de autor y privacidad.
  • Impacto Social: Cómo la IA afecta al mercado laboral y a la sociedad.

El uso de ChatGPT no garantiza una comprensión profunda del aprendizaje

Hughes, Owen. 2025. “Students Using ChatGPT Beware: Real Learning Takes Legwork, Study Finds.” The Register, November 3, 2025. https://www.theregister.com/2025/11/03/chatgpt_real_understanding/

Una investigación académica publicada en PNAS Nexus que pone de manifiesto los efectos del uso de modelos de lenguaje como ChatGPT en los procesos de aprendizaje.

Según el estudio, que involucró a más de 10 000 participantes en una serie de experimentos, las personas que utilizaron resúmenes generados por IA para estudiar temas específicos desarrollaron una comprensión superficial de los contenidos, produjeron menos hechos concretos y tendieron a replicar información similar a la de otros usuarios que también dependieron de herramientas automatizadas. Por contraste, quienes recurrieron a búsquedas tradicionales en la web tuvieron que interactuar más activamente con fuentes diversas, lo que favoreció una comprensión más profunda y duradera del material.

Los investigadores destacaron que los modelos de lenguaje grande (LLM) como ChatGPT son eficaces para generar respuestas fluidas rápidamente, pero este beneficio puede resultar contraproducente para el aprendizaje real si reemplaza por completo el esfuerzo que requiere recopilar y sintetizar información por cuenta propia. En los experimentos, algunos grupos de participantes vieron exactamente los mismos hechos presentados de distinto modo: un grupo a través de un único resumen de IA y otro mediante enlaces a múltiples artículos web. Los resultados mostraron que quienes usaron IA dedicaron menos tiempo a explorar las fuentes originales, se implicaron menos en el proceso y escribieron consejos para otros con menos datos y menor variedad de contenidos.

El artículo también resalta cómo una investigación complementaria con 1 500 nuevos participantes evaluó la calidad de los consejos derivados del aprendizaje con IA frente al aprendizaje tradicional: los consejos basados en IA fueron considerados menos informativos y de menor confianza, y las personas manifestaron menor disposición a seguirlos. Esto sugiere que el uso excesivo de resúmenes automatizados no solo afecta la comprensión individual, sino también la percepción de utilidad y veracidad del contenido generado por IA

Otro punto importante es la advertencia de los autores de que esta dinámica puede conducir a una “deshabilitación” de habilidades cognitivas básicas, especialmente entre estudiantes jóvenes que pueden depender cada vez más de accesos rápidos a información generada por IA. Si bien los investigadores no rechazan el uso de LLM como herramientas educativas, subrayan con fuerza que deben utilizarse como complemento y no sustituto del esfuerzo intelectual activo. Según ellos, la verdadera comprensión se construye mediante la interacción directa con múltiples fuentes, la reflexión crítica y la síntesis propia de información, algo que los resúmenes automatizados no pueden reemplazar.

Finalmente, el artículo vincula estas conclusiones con preocupaciones más amplias sobre la confianza en herramientas de IA: investigaciones previas han encontrado que chatbots populares a veces malinterpretan o distorsionan contenidos periodísticos, lo que refuerza la necesidad de que los usuarios mantengan un enfoque crítico y verifiquen activamente las respuestas que reciben

Los puntajes de lectura de los estudiantes en las pruebas estandarizadas aumentan gracias a la colaboración con la biblioteca pública

VanOstrand, Melea. “IPS says students’ reading scores on standardized test rise with Library Link.” WISH‑TV, 13 noviembre 2025

Texto completo

Las Escuelas Públicas de Indianápolis registraron un aumento del 10.2% en el nivel de competencia en el examen estatal estandarizado IREAD del año escolar 2024-2025. Solo en tercer grado, los índices de competencia se dispararon casi un 70%. Los educadores afirman que esto se debe a la colaboración con la Biblioteca Pública de Indianápolis.

el distrito Indianapolis Public Schools (IPS) ha experimentado un aumento significativo en los resultados de lectura —un 10,2 % de incremento en las puntuaciones del examen IREAD en el curso 2024‑2025— gracias a su colaboración con Indianapolis Public Library (IndyPL). Este sistema compartido permite a los alumnos acceder a más de 2,3 millones de títulos y pedir prestados libros de cualquiera de las bibliotecas del consorcio, con un notable aumento en préstamos: entre agosto y septiembre, los estudiantes de IPS retiraron más de 36 .800 libros, un incremento del 34 %.

Según responsables del distrito escolar y maestros, este mayor acceso a libros ha sido crucial: muchos profesores integran en sus clases libros tomados del sistema compartido, y los alumnos encuentran variedad —desde novelas gráficas hasta ficción serial o no ficción narrativa—, lo que incentiva su interés por la lectura. La iniciativa forma parte del plan “Rebuilding Stronger” de IPS, que ha renovado sus centros de medios y bibliotecas escolares para hacerlos más atractivos y funcionales, con la meta de fomentar el hábito lector y mejorar competencias básicas.

El resultado —el repunte en las puntuaciones del IREAD— sugiere una fuerte correlación entre la ampliación del acceso a libros físicos/digitales y el rendimiento en lectura. La experiencia de IPS refuerza la idea de que facilitar recursos bibliográficos y promover la lectura desde temprana edad puede tener un impacto claro en la alfabetización y el éxito escolar.

Uso inteligente de la IA para docentes y estudiantes

Victorino Guzmán, Jorge Enrique, y Mary Lee Berdugo Lattke. Uso inteligente de la IA para docentes y estudiantes. Bogotá: Ediciones Universidad Central, 2024

Texto completo

El libro aborda cómo docentes y estudiantes pueden integrar la inteligencia artificial (IA) de manera ética y eficaz en los procesos educativos. Parte de la idea de que la IA no es solo una herramienta tecnológica, sino una oportunidad para repensar prácticas pedagógicas y transformar la enseñanza y el aprendizaje.

Explora estrategias para diseñar actividades didácticas que incorporen la IA de forma inteligente: no solo para automatizar tareas, sino para fomentar la creatividad, el pensamiento crítico y la resolución de problemas. Además, se destaca la importancia de formar tanto a profesores como a estudiantes en competencias relacionadas con la IA: saber usarla, entender sus limitaciones, y reflexionar sobre sus implicaciones éticas.

El texto también analiza escenarios reales y posibles desafíos del uso de la IA en la educación, como la desigualdad en el acceso a la tecnología, riesgos de dependencia o de desinformación generada por herramientas automatizadas. Propone soluciones institucionales y pedagógicas para mitigar esos riesgos, como la capacitación docente, políticas institucionales claras y el diseño de entornos de aprendizaje adaptativos.

Finalmente, el libro subraya el carácter transformador de la IA en la educación, pero lo sitúa dentro de una visión humanista: la IA debe usarse como un complemento que potencie la labor docente y el aprendizaje, no como un sustituto del conocimiento o del diálogo pedagógico.

Código de conducta para estudiantes propuesto por Harvard para la IA

Harvard University and metaLAB (at) Harvard. Proposed Harvard AI Code of Conduct. Cambridge, MA: Harvard University, July 2023. Accessed [día mes año]. https://aicodeofconduct.mlml.io/assets/files/ai_code_of_conduct.pdf

Proposed Harvard AI Code of Conduct está centrada en el uso de herramientas de IA generativa por estudiantes en tareas académicas. Esta no plantea una prohibición general, sino que apuesta por políticas específicas por curso.

Harvard propone que el uso de la IA en educación no sólo sea visto como una amenaza, sino como una oportunidad para repensar qué y cómo enseñamos: qué habilidades tienen mayor valor en un mundo donde la IA hace ciertas tareas tradicionalmente académicas.

“Proposed Harvard AI Code of Conduct” es un documento elaborado en 2023 con el propósito de guiar el uso responsable de herramientas de inteligencia artificial generativa dentro del ámbito académico de la Universidad de Harvard. Su objetivo no es imponer una prohibición general, sino establecer principios flexibles que permitan a cada profesor definir su propia política sobre el uso de la IA en sus cursos, con el apoyo institucional necesario para garantizar coherencia, ética e integridad académica.

El texto parte de la idea de que la IA ya forma parte de la vida académica y profesional, por lo que el enfoque adecuado no es evitarla, sino aprender a convivir con ella y a utilizarla con responsabilidad. Para ello, se propone que cada curso de Harvard cuente con una política escrita que indique claramente a los estudiantes qué usos de la IA están permitidos, cuáles están restringidos y cómo afectará su utilización a la evaluación del aprendizaje. Estas políticas deben revisarse periódicamente, dado el rápido avance de la tecnología.

El documento recomienda que las normas sobre IA se integren dentro del código de honor académico y se gestionen en colaboración con órganos como el Harvard College Honor Council. Se insiste en que las políticas deben distinguir entre distintos tipos de herramientas —por ejemplo, modelos de lenguaje o generadores de imágenes— y que no se deben usar detectores automáticos de texto generado por IA como única prueba en casos de posible infracción, ya que su fiabilidad es limitada. Además, se subraya la importancia de ofrecer materiales educativos que ayuden a profesores y estudiantes a comprender tanto las capacidades como los riesgos de estas herramientas.

El código incluye también una serie de plantillas diseñadas para facilitar la implementación de políticas claras en cada asignatura. Entre ellas, se propone exigir que los estudiantes reconozcan y citen explícitamente el uso de herramientas de IA en sus trabajos académicos, explicando cómo las han empleado y evaluado los resultados obtenidos. También se ofrecen cuatro niveles de política posibles, que van desde la autorización total del uso de IA (con la obligación de citarla) hasta su prohibición completa, pasando por modalidades intermedias en las que su uso está permitido solo en fases específicas del trabajo o bajo indicaciones concretas del docente.

En conjunto, el código de conducta propuesto por Harvard busca equilibrar la innovación con la integridad. Promueve una cultura académica que fomente la experimentación y el pensamiento crítico, pero dentro de un marco ético y transparente. Su espíritu es preparar a la comunidad universitaria para un futuro en el que la inteligencia artificial será una herramienta habitual, ayudando a que profesores y estudiantes aprendan no solo a usarla, sino también a cuestionarla, evaluarla y citarla de manera adecuada.

Este enfoque puede servir como referencia útil para otras instituciones educativas —incluidas las bibliotecas universitarias— que deseen desarrollar sus propias guías o programas de alfabetización en IA, especialmente en temas relacionados con la citación, la autoría, la integridad académica y la educación ética en entornos digitales.

Los puntos principales del Proposed Harvard AI Code of Conduct son:

  1. No prohíbe la IA, sino que promueve su uso responsable y regulado por curso.
  2. Integra el uso de la IA dentro del código de honor académico de Harvard.
  3. Exige que cada asignatura defina y comunique su política sobre IA por escrito.
  4. Distingue entre tipos de herramientas (texto, imagen, código, etc.).
  5. Desaconseja usar detectores de IA como única prueba de infracción.
  6. Obliga a reconocer y citar cualquier uso de herramientas de IA.
  7. Ofrece cuatro niveles de política: permitido, parcial, autorizado o prohibido.
  8. Promueve la formación ética y técnica sobre IA para estudiantes y docentes.
  9. Recomienda revisar y actualizar las políticas periódicamente.
  10. Fomenta una cultura de transparencia, responsabilidad y pensamiento crítico ante la IA.

El uso de la IA en escuelas se vincula con efectos negativos en los estudiantes

Center for Democracy & Technology. “CDT Survey Research Finds Use of AI in K-12 Schools Connected to Negative Effects on Students.” October 8 2025.

Texto completo

Diapositivas

Una encuesta realizada por el Center for Democracy & Technology (CDT) revela que el empleo de herramientas de inteligencia artificial (IA) en escuelas de enseñanza primaria y secundaria (K-12) se ha normalizado, pero al mismo tiempo está asociado con una serie de efectos negativos en los estudiantes.

La investigación abarcó la experiencia de maestros, estudiantes y padres durante el curso 2024-2025 y muestra que el 85 % de los docentes y el 86 % de los estudiantes informaron haber usado herramientas de IA.

Entre los hallazgos más relevantes destaca que aproximadamente la mitad de los estudiantes dijeron sentirse menos conectados con sus maestros como consecuencia del uso de IA en el aula. Asimismo, un porcentaje significativo de estudiantes admitió haber usado chatbots o herramientas de IA para apoyo emocional, salud mental o incluso como forma de escape de la realidad; de hecho, uno de cada cinco manifestó que él o alguien que conoce había mantenido una relación romántica con una IA.

El estudio también pone de relieve que, mientras el despliegue de la IA en entornos escolares crece, la formación de los maestros, las políticas escolares y las salvaguardas de bienestar estudiantil no lo hacen al mismo ritmo. Solo el 11 % de los docentes declararon haber recibido formación específica sobre cómo responder ante un uso problemático de la IA por parte del alumnado. El informe advierte que el desequilibrio entre adopción tecnológica y preparación institucional puede potenciar riesgos como brechas en la conexión socioemocional entre alumno y profesor, debilitamiento de habilidades clave como el pensamiento crítico o la escritura, y una mayor vulnerabilidad ante el mal uso de herramientas de IA.

El documento de la CDT subraya que, si bien la adopción de IA en las aulas ofrece oportunidades —por ejemplo, para personalizar el aprendizaje o apoyar la enseñanza—, también conlleva desafíos considerables. Estos incluyen la posibilidad de que los estudiantes desarrollen vínculos más fuertes con máquinas que con sus educadores, que su sentido de pertenencia o interacción humana se debilite y que la institución educativa pierda parte de su función formativa y relacional. El informe concluye que, para que la IA contribuya realmente al aprendizaje sin comprometer el bienestar emocional y social de los estudiantes, es imprescindible que las escuelas acompañen su implementación con políticas claras, formación docente, supervisión ética y un enfoque centrado en el alumnado.

Resultados clave del estudio del Center for Democracy & Technology (CDT):

  1. Alta adopción de la IA en las aulas:
    El 85 % de los docentes y el 86 % de los estudiantes afirmaron haber utilizado herramientas de inteligencia artificial durante el curso 2024-2025. Esto demuestra una integración rápida y generalizada de la IA en el entorno educativo K-12.
  2. Impacto negativo en las relaciones humanas:
    Aproximadamente la mitad de los estudiantes manifestó sentirse menos conectado con sus maestros debido al uso de la IA en clase. La tecnología, aunque útil para ciertas tareas, parece estar debilitando los lazos interpersonales y la comunicación directa entre educadores y alumnos.
  3. Uso emocional y social de la IA:
    Un número considerable de estudiantes reconoció emplear chatbots y asistentes de IA como apoyo emocional o para gestionar su salud mental. De manera preocupante, uno de cada cinco estudiantes declaró que él o alguien que conoce había mantenido una relación romántica con una IA, lo que refleja una sustitución parcial de vínculos humanos por relaciones digitales.
  4. Déficit de formación docente:
    Solo el 11 % de los profesores indicó haber recibido formación específica sobre cómo manejar los problemas derivados del uso de IA en el aula. Esta falta de preparación dificulta que las escuelas puedan responder de manera efectiva a los retos éticos, psicológicos y pedagógicos asociados a la IA.
  5. Desequilibrio entre innovación y bienestar:
    El estudio advierte que la adopción tecnológica supera ampliamente la capacidad institucional para proteger el bienestar estudiantil. Esto puede conducir a una pérdida de habilidades esenciales —como el pensamiento crítico, la escritura o la interacción social— y aumentar la dependencia emocional hacia sistemas automatizados.
  6. Necesidad de políticas claras y enfoque humano:
    El CDT concluye que la IA solo podrá ser beneficiosa si se implementa dentro de un marco ético y pedagógico sólido. Es imprescindible acompañar su uso con programas de alfabetización digital, guías de protección emocional y políticas que prioricen el desarrollo humano por encima de la eficiencia tecnológica.

La Universidad de York impulsa un plan de mejora de las competencias sobre investigación de los estudiantes ante los retos de la IA

York Libraries launch new curriculum to strengthen student research skills.” 26 de septiembre de 2025. York Libraries https://www.library.yorku.ca/web/blog/2025/09/26/york-libraries-launch-new-curriculum-to-strengthen-student-research-skills/

Las bibliotecas de la Universidad de York han lanzado un nuevo currículo de cuatro módulos para mejorar las competencias investigadoras de los estudiantes. El programa combina teoría y práctica en la búsqueda, evaluación y uso ético de la información. Su objetivo es preparar a los alumnos para afrontar los retos del entorno digital y la influencia de la inteligencia artificial.

En respuesta al cambiante panorama digital y al creciente papel de la inteligencia artificial, las bibliotecas de la Universidad de York han creado un nuevo plan formativo denominado “Think, Research, Create: Introduction to Library Research”. Se trata de una serie de cuatro módulos en línea dirigida especialmente a estudiantes de pregrado, diseñada para reforzar habilidades esenciales de investigación como la búsqueda de información, la cita, y la evaluación crítica de fuentes.

El currículo fue desarrollado por un equipo de bibliotecarios en colaboración con áreas de aprendizaje estudiantil, con el objetivo de que los alumnos comprendan la complejidad del entorno informativo contemporáneo, donde abundan la desinformación, los sesgos y la proliferación de contenidos digitales. Cada taller de noventa minutos aborda un tema clave —desde la formulación de preguntas de investigación hasta la producción ética de contenido— e incluye actividades prácticas, debates y ejercicios interactivos.

Este enfoque representa un cambio respecto al método tradicional, consistente en presentaciones únicas y breves dentro de clases universitarias, que a juicio de los responsables resultaba insuficiente para dotar a los estudiantes de competencias sólidas. Además, los talleres están abiertos a estudiantes de distintos cursos, y para los niveles superiores se planean adaptaciones disciplinarias específicas en años posteriores. La iniciativa pretende no solo formar investigadores más competentes, sino también contrarrestar los desafíos epistemológicos que plantea la abundancia de información en la era de la IA.

Inteligencia artificial: guía para estudiantes 2025

Elon University, y Association of American Colleges and Universities. 2025. IA: guía para estudiantes. Segunda publicación. Elon University / AAC&U.

Texto completo

La guía presentada busca preparar al alumnado para desenvolverse en un mundo cada vez más transformado por la inteligencia artificial (IA), muchas veces de formas poco visibles o no del todo comprendidas. Plantea que el conocimiento de esta tecnología no solo constituye una ventaja, sino una necesidad fundamental en el ámbito académico, profesional y ciudadano. Su propósito es dotar a los estudiantes de herramientas para un uso responsable, fomentar la evaluación crítica de las capacidades y limitaciones de la IA, y promover la participación informada en los debates acerca de su desarrollo y su impacto en la sociedad.

Se trata de la segunda entrega de la serie IA: guía para estudiantes, elaborada por la Universidad de Elon en colaboración con la Asociación Americana de Colegios y Universidades. Esta iniciativa surge en respuesta a la declaración «El papel esencial de la educación superior en la preparación de la humanidad para la revolución de la inteligencia artificial», presentada en el Foro para la Gobernanza de Internet de las Naciones Unidas celebrado en Kioto en 2023. En línea con dicha declaración, la guía insiste en que la educación superior tiene la misión de promover una comprensión del desarrollo responsable de la IA, concebida como un instrumento para ampliar y fortalecer las capacidades humanas, y no como un sustituto de ellas.