Archivo de la etiqueta: Estudiantes

El 93% de los estudiantes usa herramientas de Inteligencia artificial

Kelly, Rhea. 2025. “Survey: Student AI Use on the Rise.” Campus Technology, 25 de junio de 2025. https://campustechnology.com/articles/2025/06/25/survey-student-ai-use-on-the-rise.aspx.

El estudio confirma que la inteligencia artificial se ha convertido en una herramienta habitual en la vida académica de muchos estudiantes. Aun así, su integración plantea desafíos importantes que deben abordarse desde las instituciones educativas, fomentando un uso crítico, ético y estratégico.

Un reciente estudio llevado a cabo por Microsoft en colaboración con PSB Insights revela que el uso de inteligencia artificial (IA) entre estudiantes estadounidenses está creciendo rápidamente. Según la encuesta, publicada por Campus Technology el 25 de junio de 2025, el 93 % de los estudiantes mayores de 16 años ha utilizado alguna vez herramientas de IA en sus estudios. Este dato indica una integración casi universal de estas tecnologías en la vida académica, una cifra que ha aumentado significativamente en comparación con el año anterior.

El informe también muestra un incremento notable en la frecuencia de uso. El 42 % de los encuestados afirma utilizar IA al menos semanalmente, mientras que un 30 % la emplea diariamente. Esto representa un aumento de 26 puntos porcentuales en el grupo que la usa con frecuencia y una disminución de 20 puntos entre quienes nunca la han utilizado, lo que evidencia una adopción acelerada y progresiva de la IA en entornos educativos.

Los fines para los que los estudiantes utilizan la IA son variados. La mayoría recurre a ella para generar ideas iniciales o ayudarles a comenzar tareas (37 %), para resumir información (33 %) o para obtener respuestas rápidas (33 %). Otros la emplean como herramienta de retroalimentación preliminar (32 %), como medio de aprendizaje personalizado (30 %) o para mejorar su escritura (28 %). Además, se valora su utilidad para crear materiales visuales, desarrollar habilidades para el futuro, completar tareas enteras o simplemente para liberar tiempo y cuidar del bienestar personal. Estas cifras muestran que los estudiantes no solo utilizan la IA como ayuda puntual, sino también como un recurso para el aprendizaje autónomo, la organización y la creatividad.

Lluvia de ideas y arranque de tareas: 37 %
Resúmenes de información: 33 %
Obtener respuestas rápidamente: 33 %
Retroalimentación inicial: 32 %
Aprendizaje personalizado: 30 %
Mejora de escritura: 28 %
Diseño visual para presentaciones: 25 %
Desarrollo de habilidades futuras: 22 %
Realización completa de tareas: 22 %
Fomento de la creatividad: 21 %
Liberar tiempo para aprendizaje o bienestar: 21 %
Apoyo al bienestar personal: 19 %

Sin embargo, el uso creciente de la IA también viene acompañado de preocupaciones. Un 33 % teme ser acusado de hacer trampa o plagio; un 30 % se preocupa por volverse demasiado dependiente de estas herramientas; y un 28 % teme recibir información inexacta o engañosa. También surgen inquietudes sobre la pérdida de oportunidades valiosas de aprendizaje (24 %) y sobre los posibles dilemas éticos y de autonomía (24 %). Estos datos indican que, si bien los beneficios son evidentes, los estudiantes no son ingenuos frente a los riesgos que conlleva esta tecnología.

Acusaciones de plagio o trampa: 33 %
Dependencia excesiva de la IA: 30 %
Información inexacta o desinformación: 28 %
Pérdida de aspectos significativos del aprendizaje: 24 %
Cuestiones éticas y autonómicas: 24 %

La formación en competencias digitales, el establecimiento de políticas claras y el acompañamiento docente serán claves para equilibrar los beneficios de la IA con una educación significativa y responsable.

Cómo pueden las bibliotecas públicas ayudar a los jóvenes en la era de la inteligencia artificial

Se analiza cómo las bibliotecas públicas pueden apoyar a los jóvenes en un mundo cada vez más influido por la inteligencia artificial (IA). Su presentación, realizada en el marco del “AI Youth Services Challenge” del estado de Nueva York, sirvió para contextualizar cómo los jóvenes interactúan con la IA y cómo el personal bibliotecario puede acompañarlos en este proceso de aprendizaje.

La IA ya forma parte del entorno cotidiano de niños y adolescentes, desde recomendaciones en YouTube Kids hasta herramientas como ChatGPT, Copilot, Apple Intelligence o Gemini, y se prevé que su uso se extienda incluso a menores de 13 años.

El uso generalizado de la IA por parte de los adolescentes contrasta con la falta de conocimiento por parte de padres y escuelas. Un estudio reciente reveló que el 70 % de los adolescentes han utilizado al menos una herramienta de IA generativa, aunque solo el 37 % de los padres lo sabe. Además, muchos estudiantes no tienen claridad sobre las reglas escolares respecto a estas herramientas, y la mayoría de los padres nunca ha recibido información al respecto.

Tanzi alerta sobre los posibles peligros de este uso no regulado: los chatbots, formato más popular entre los jóvenes, pueden fomentar la adicción, dar consejos peligrosos sobre salud y relacionarse con problemas de salud mental. En el informe «Off Task: EdTech Threats to Student Privacy and Equity in the Age of AI«, el 45% de los estudiantes de secundaria y bachillerato han utilizado la IA generativa por motivos personales, como tratar problemas de salud mental y ansiedad.

En este contexto, el papel de las bibliotecas se vuelve crucial. Según la organización sin ánimo de lucro Digital Promise, la alfabetización en IA implica dotar a las personas de los conocimientos necesarios para comprender, evaluar y usar la IA de forma segura y ética.

«…los conocimientos y habilidades que permiten a los humanos comprender, evaluar y utilizar de forma crítica los sistemas y herramientas de IA para participar de forma segura y ética en un mundo cada vez más digital».

El autor propone que las bibliotecas trabajen en estrecha colaboración con padres, profesores y escuelas. Recomienda que el personal bibliotecario conozca las políticas escolares sobre el uso de IA, como los casos de los distritos escolares Northport-East Northport o Downingtown, que ya disponen de directrices claras. Esto permitirá orientar mejor a los estudiantes sin contradecir las normas académicas. Asimismo, sugiere familiarizarse con las herramientas aprobadas y ofrecer formación sobre su uso responsable, especialmente en temas de búsqueda y generación de contenido.

Impacto de la inteligencia artificial en la vida escolar: datos, riesgos y recomendaciones

Laird, Elizabeth, Madeliene Dwyer y Hugh Grant‑Chapman. Off Task: EdTech Threats to Student Privacy and Equity in the Age of AI. Washington, DC: Center for Democracy & Technology, septiembre de 2023. https://cdt.org/wp-content/uploads/2023/09/091923-CDT-Off-Task-web.pdf

El informe analiza críticamente cómo las tecnologías educativas (edtech), especialmente aquellas impulsadas por inteligencia artificial, están afectando la privacidad y la equidad en el entorno escolar estadounidense. A través de encuestas a estudiantes, familias y docentes de secundaria, se identifica un uso creciente de herramientas de filtrado de contenido, monitoreo estudiantil y plataformas de IA generativa, sin una reflexión adecuada sobre sus implicaciones éticas, sociales y pedagógicas.

Uno de los principales hallazgos es la falta de participación de las comunidades educativas en la toma de decisiones sobre estas tecnologías. Muchos estudiantes y padres expresan preocupación por su uso, pero apenas una minoría ha sido consultada o informada sobre su implementación. Además, el profesorado ha recibido escasa formación, lo que limita su capacidad para aplicar estas herramientas de forma crítica y justa. Esta falta de transparencia y educación crea un entorno donde las decisiones técnicas se imponen sin diálogo, debilitando la confianza en el sistema educativo.

El informe subraya también cómo el filtrado de contenido, aunque pensado para proteger a los estudiantes, a menudo bloquea información legítima y relevante para su aprendizaje. Esto se vuelve especialmente preocupante cuando los filtros restringen temas vinculados a la identidad racial, el género o la orientación sexual, reproduciendo sesgos y excluyendo a estudiantes LGBTQ+ o pertenecientes a minorías. Así, estas herramientas pueden actuar como formas digitales de censura o exclusión.

Resultados:

62 % de los estudiantes y 73 % de los padres/madres están preocupados por el uso de edtech, pero:

Solo 38 % de los estudiantes y 31 % de los padres/madres afirman haber sido consultados por sus escuelas sobre el uso de estas tecnologías.

Casi el 100 % de las escuelas utilizan sistemas de filtrado web.

71 % de los estudiantes informan que estos filtros dificultan sus tareas escolares.

41 % de estudiantes LGBTQ+ reportan tener más dificultades que sus compañeros para acceder a información relevante para su identidad.

39 % de estudiantes afroamericanos afirman que los filtros bloquean contenidos sobre historia o cultura negra.

58 % de los estudiantes han usado herramientas de IA generativa al menos una vez.

24 % han sido sancionados por su uso.

57 % de los docentes no han recibido ninguna formación sobre estas tecnologías.

37 % no sabe si su escuela tiene políticas sobre IA generativa.

Solo 34 % de los docentes han recibido formación sobre privacidad digital en el último año.

El 52 % de los docentes afirman que les cuesta confiar en el trabajo de los estudiantes desde que se empezó a usar IA generativa.

Por otro lado, el monitoreo digital de la actividad estudiantil —incluso fuera del horario escolar y en dispositivos personales— está en aumento. Este tipo de vigilancia genera consecuencias graves: sanciones disciplinarias desproporcionadas, denuncias a las autoridades e incluso situaciones en las que estudiantes LGBTQ+ han sido “sacados del armario” sin su consentimiento. Las medidas de vigilancia no solo afectan la privacidad, sino también el bienestar emocional y la seguridad de los estudiantes más vulnerables.

El uso de inteligencia artificial generativa, como ChatGPT, ha crecido rápidamente en los entornos escolares, pero sin preparación institucional. La mayoría del profesorado no ha recibido formación sobre su uso ni conoce las políticas escolares al respecto. Esto ha llevado a que muchos estudiantes sean sancionados por utilizar estas herramientas, aunque no existan normas claras que regulen su aplicación. Al mismo tiempo, los docentes expresan preocupación por la pérdida de confianza en el trabajo autónomo del alumnado, lo que genera tensiones en la relación educativa.

El informe advierte que estas tecnologías afectan de forma desproporcionada a estudiantes con discapacidades, de bajos ingresos o pertenecientes a colectivos marginados, amplificando desigualdades estructurales. Por ello, no se trata únicamente de un problema de privacidad, sino de una cuestión de derechos civiles y justicia educativa. CDT concluye con una serie de recomendaciones urgentes: establecer marcos normativos claros, formar adecuadamente al personal docente, y garantizar la participación significativa de estudiantes y familias en todas las decisiones relacionadas con la tecnología en las aulas.

Recomendaciones:

Incluir a estudiantes y familias en la toma de decisiones sobre EdTech

  • Involucrar activamente a las comunidades escolares en la evaluación, selección y supervisión de las tecnologías utilizadas en clase.
  • Fomentar la transparencia sobre las herramientas empleadas y sus finalidades.

Revisar políticas de filtrado de contenido

  • Asegurar que los filtros no limiten el acceso a información educativa legítima, especialmente en temas de identidad, salud mental o justicia social.
  • Evitar que los filtros reproduzcan sesgos discriminatorios.

Limitar el monitoreo estudiantil

  • Establecer políticas claras sobre qué se monitorea, cuándo, cómo y por qué.
  • Asegurar que el monitoreo no continúe fuera del horario escolar ni en dispositivos personales sin consentimiento informado.

Crear políticas claras sobre el uso de IA generativa

  • Proporcionar directrices coherentes y accesibles para el alumnado y profesorado sobre cómo se puede o no utilizar la inteligencia artificial generativa.
  • Integrar estas políticas en los planes pedagógicos.

Formar al profesorado

  • Ofrecer formación continua sobre privacidad digital, equidad tecnológica y uso ético de la inteligencia artificial.

Guía del estudiante sobre inteligencia artificial

AAC&U (American Association of Colleges and Universities). 2025. «New Student Guide to Artificial Intelligence Provides Expanded Resources for Navigating College in the AI Age.» AAC&U, May 6, 2025.

Texto completo

La Asociación Estadounidense de Universidades y Colegios (AAC&U) y la Universidad de Elon han publicado la segunda entrega de la serie Student Guide to Artificial Intelligence. Al igual que la primera edición, este recurso es gratuito y está disponible para estudiantes e instituciones a través de su sitio web y el de la AAC&U.

La nueva guía está diseñada para ayudar a los estudiantes a prepararse para el uso de la IA en sus estudios. Está organizada en torno a cinco competencias clave:

  • Investigación, recopilación de información y resumen
  • Escritura
  • Trabajo creativo
  • Análisis de datos y números
  • Apoyo al estudio y al aprendizaje

Además, incluye capítulos dedicados a la integridad académica, la ética de la IA, la planificación profesional y la creación de un portafolio con proyectos asistidos por IA.

El contenido fue desarrollado con la colaboración de expertos en inteligencia artificial y profesores universitarios de 14 países, incluidos Estados Unidos, España, Francia, Alemania, Japón y Venezuela, así como con aportaciones de estudiantes y usuarios de la primera edición.

El desarrollo de políticas sobre inteligencia artificial generativa en las universidades británicas

Wilson, Thomas D. 2025. «The Development of Policies on Generative Artificial Intelligence in UK UniversitiesIFLA Journal. https://doi.org/10.1177/03400352251333796

El artículo examina cómo las universidades del Reino Unido han reaccionado ante el auge de la inteligencia artificial generativa (IAg) y cómo están desarrollando políticas para regular su uso en el ámbito académico. En particular, se enfoca en las instituciones del Russell Group, un conjunto de universidades líderes en investigación que han adoptado principios comunes para guiar la integración de estas tecnologías.

El artículo analiza en profundidad cómo las universidades del Reino Unido están respondiendo al auge de la inteligencia artificial generativa (IAg) —como ChatGPT, Claude, Copilot, entre otras— y cómo esta tecnología está reconfigurando la educación superior. En particular, se centra en la forma en que las instituciones académicas, y más concretamente las pertenecientes al Russell Group (grupo de élite de universidades centradas en la investigación), han comenzado a desarrollar políticas formales para regular y aprovechar el uso de estas herramientas. El trabajo también incluye un examen comparativo con instituciones que no pertenecen al grupo y que enfrentan mayores retos para implementar marcos normativos debido a la falta de recursos.

La expansión de la IAg ha sido rápida, y su impacto en el sector educativo es profundo. Su adopción ha generado oportunidades pedagógicas —como personalización del aprendizaje, apoyo a estudiantes con necesidades especiales, mejora de la escritura académica y eficiencia en la retroalimentación docente—, pero también preocupaciones críticas:

  • Plagio y trampas asistidas por IA
  • Transformación de la evaluación
  • Brechas en la equidad digital
  • Necesidad de formación docente
  • Cambios en la naturaleza de la autoría y la originalidad académica

El estudio de Wilson toma como punto de partida la declaración de principios publicada por el Russell Group en 2023, donde se establecieron cinco ejes para la incorporación de la IAg en las universidades:

  1. Fomentar la alfabetización en IA entre el personal y el alumnado.
  2. Equipar al profesorado para acompañar a los estudiantes en el uso responsable de la tecnología.
  3. Revisar modelos de evaluación para mantener la integridad sin limitar el aprendizaje innovador.
  4. Preservar el rigor académico y la ética en la producción de conocimiento.
  5. Colaborar entre instituciones para compartir prácticas efectivas.

El artículo identifica variaciones sustanciales en la adopción e implementación de estas políticas, incluso entre las universidades del Russell Group. Algunas han creado marcos institucionales completos, con líneas claras sobre:

  • Qué usos de la IAg están permitidos o prohibidos.
  • Cómo citar contenido generado por IA.
  • Qué procedimientos aplicar en casos de mala praxis.
  • Cómo adaptar tareas evaluativas para reducir el riesgo de trampa.

Otras, sin embargo, aún están en etapas incipientes de desarrollo normativo, limitándose a recomendaciones generales o esperando una posición nacional más consolidada.

En universidades fuera del Russell Group, se observa una mayor dificultad para articular políticas, debido a la falta de recursos técnicos, de personal capacitado y de liderazgo en el tema. Esto puede generar desigualdades entre instituciones en términos de preparación ante los desafíos éticos y prácticos de la IAg.

Percepciones de los estudiantes de educación superior sobre ChatGPT

Ravšelj, Dejan, et al. “Higher Education Students’ Perceptions of ChatGPT: A Global Study of Early Reactions.” PLOS One 20, no. 2 (February 5, 2025). https://doi.org/10.1371/journal.pone.0315011

Se analiza cómo los estudiantes universitarios de todo el mundo perciben y utilizan ChatGPT en sus actividades académicas. La investigación se basa en una muestra de 23.218 estudiantes provenientes de 109 países y territorios, convirtiéndose en el estudio más amplio realizado hasta la fecha sobre este tema.

Uno de los principales hallazgos del estudio es que los estudiantes utilizan ChatGPT principalmente para la generación de ideas (brainstorming), la síntesis de textos y la búsqueda de artículos académicos. También se observa que algunos lo emplean para la escritura profesional y creativa, aunque en menor medida. En general, los estudiantes encuentran útil la herramienta para simplificar información compleja y resumir contenido, lo que les ayuda a comprender mejor ciertos temas.

Sin embargo, a pesar de sus ventajas, los estudiantes expresan reservas sobre la fiabilidad de la información proporcionada por ChatGPT, especialmente en contextos que requieren precisión y rigor académico. Algunos incluso consideran que las respuestas de la herramienta son más claras que las explicaciones de sus compañeros o profesores, lo que indica que valoran la capacidad de síntesis y estructuración del contenido que ofrece la IA.

A lo largo del estudio, los participantes manifestaron una preocupación generalizada por el impacto de ChatGPT en la educación, lo que ha llevado a un consenso sobre la necesidad de establecer regulaciones claras para su uso. Entre las principales inquietudes destacan el riesgo de plagio y fraude académico, así como la posibilidad de que fomente el aislamiento social al reducir la interacción entre estudiantes y profesores.

En cuanto al aprendizaje y el desarrollo de habilidades, los estudiantes reconocen que ChatGPT puede mejorar el acceso al conocimiento, aumentar la eficiencia en el estudio y contribuir a la obtención de mejores calificaciones. No obstante, también señalan que su uso excesivo podría afectar el desarrollo de habilidades clave como la comunicación interpersonal, la toma de decisiones, el pensamiento crítico y la competencia en el idioma nativo.

El estudio también explora la percepción de los estudiantes sobre el impacto de la IA en el mercado laboral. En general, creen que la integración de la inteligencia artificial en diversos sectores incrementará la demanda de habilidades digitales y facilitará el trabajo remoto, aunque no prevén un impacto significativo en las tasas de desempleo.

Desde un punto de vista emocional, la mayoría de los estudiantes reportan sentir curiosidad y calma al interactuar con ChatGPT. Esto sugiere que, si bien existen preocupaciones sobre su uso, en términos generales los estudiantes se sienten cómodos utilizando la herramienta y explorando sus posibilidades.

El estudio también identifica diferencias en las percepciones y usos de ChatGPT según factores socioeconómicos y geográficos, lo que indica que el acceso a la tecnología y el contexto cultural influyen en la forma en que los estudiantes adoptan y valoran esta herramienta.

Los hallazgos de esta investigación ofrecen información valiosa para docentes, administradores y legisladores. Los responsables de la educación pueden utilizar estos datos para diseñar planes de estudio que integren la inteligencia artificial de manera efectiva, desarrollar metodologías de enseñanza que fomenten el pensamiento crítico y la autonomía de los estudiantes, y establecer sistemas de evaluación que mitiguen el riesgo de plagio.

Por otro lado, los legisladores y formuladores de políticas educativas deben considerar el desarrollo de estrategias de capacitación digital para preparar a los estudiantes para un mercado laboral en evolución, así como la implementación de regulaciones que aborden las preocupaciones éticas y prácticas relacionadas con el uso de la IA en la educación.

En conclusión, el estudio subraya la importancia de encontrar un equilibrio en la integración de herramientas de inteligencia artificial como ChatGPT en la educación superior. Es fundamental maximizar los beneficios que estas tecnologías pueden ofrecer en términos de acceso al conocimiento y eficiencia en el estudio, sin descuidar la necesidad de desarrollar habilidades esenciales para el aprendizaje y el trabajo futuro.

Lo que los estudiantes universitarios necesitan saber y realmente saben sobre la IA generativa

Rismanchian, Sina, Eesha Tur Razia Babar, y Shayan Doroudi. «GenAI-101: What Undergraduate Students Need to Know and Actually Know About Generative AIEdWorkingPapers, enero de 2025. https://edworkingpapers.com/ai25-1119

Este estudio aborda la comprensión y percepción que tienen los estudiantes universitarios sobre las tecnologías de inteligencia artificial generativa, con un enfoque particular en los chatbots como ChatGPT, lanzado por OpenAI en noviembre de 2022. Desde su introducción, estos modelos han encontrado diversas aplicaciones en la educación, incluyendo tutorías, asistencia en la redacción, formación de profesores y evaluación de ensayos. A pesar de su uso generalizado entre estudiantes de secundaria y universidad en Estados Unidos, hay poca investigación sobre cuánto saben realmente estos estudiantes sobre estas tecnologías y cómo las perciben.

Para llenar este vacío, los autores desarrollaron un marco novedoso de alfabetización en inteligencia artificial generativa (GenAI), centrándose en lo que los estudiantes saben sobre la IA generativa y cómo perciben las capacidades de los chatbots de IA. Diseñaron una encuesta de alfabetización en GenAI para medir el conocimiento y las percepciones de los estudiantes, recolectando datos de 568 estudiantes universitarios.

Los resultados del estudio muestran que aproximadamente el 60% de los estudiantes utiliza regularmente chatbots de IA para tareas académicas. Sin embargo, a menudo sobreestiman las capacidades de estas herramientas. El estudio encontró que un mayor conocimiento sobre cómo funciona la IA generativa se correlaciona con una estimación más precisa de sus capacidades en tareas del mundo real.

Principales resultados:

  • Uso de chatbots de IA: Aproximadamente el 60% de los estudiantes encuestados utilizan regularmente chatbots de IA para tareas académicas.
  • Percepción de capacidades: Muchos estudiantes tienden a sobreestimar las capacidades de estas herramientas, atribuyéndoles habilidades más allá de sus funcionalidades reales.
  • Conocimiento y precisión: Se encontró una correlación positiva entre el conocimiento sobre cómo funciona la IA generativa y una estimación más precisa de sus capacidades en tareas del mundo real.

Las conclusiones destacan la necesidad de mejorar la alfabetización en IA generativa para asegurar que los estudiantes usen estas herramientas de manera efectiva y responsable. El artículo subraya la importancia de desarrollar estrategias y políticas educativas que preparen a los estudiantes para un compromiso crítico e informado con las tecnologías de IA.

La IA generativa en la educación: ¿Aliada o amenaza para la escritura académica?

Van Niekerk, Johan, Petrus M.J. Delport, e Iain Sutherland. «Addressing the Use of Generative AI in Academic WritingComputers and Education: Artificial Intelligence 5 (2024): 100342. https://doi.org/10.1016/j.caeai.2024.100342.

El objetivo principal del estudio fue evaluar el impacto de ChatGPT en el desarrollo de habilidades de escritura académica, explorando tanto sus beneficios como sus limitaciones. Se buscó entender cómo los estudiantes perciben esta tecnología y de qué manera su interacción con textos generados por inteligencia artificial influye en sus intenciones de uso futuro. La investigación implementó una intervención educativa basada en aprendizaje activo, donde los estudiantes utilizaron ChatGPT para redactar artículos académicos. Posteriormente, analizaron y criticaron los textos generados por la IA, enfocándose en identificar sus debilidades, como la falta de coherencia, originalidad y profundidad en los razonamientos presentados.

Los resultados revelaron que, inicialmente, los estudiantes consideraban a ChatGPT como una herramienta útil y fácil de usar, especialmente por su capacidad para ahorrar tiempo y generar ideas de manera rápida. Sin embargo, tras la revisión crítica de los textos generados, identificaron limitaciones importantes. Los documentos creados por la IA presentaban una falta de profundidad analítica, lo que reducía su calidad académica. Asimismo, los textos mostraban problemas de coherencia, con argumentos confusos o contradictorios, y una ausencia de originalidad, ya que dependían en gran medida de fuentes existentes sin aportar ideas novedosas.

La intervención educativa tuvo un impacto significativo en las percepciones de los estudiantes. Si bien reconocieron que ChatGPT puede ser útil como herramienta complementaria para generar ideas o facilitar etapas iniciales del proceso de escritura, también concluyeron que no puede reemplazar el esfuerzo intelectual necesario para crear textos académicos de calidad. La experiencia destacó la importancia de desarrollar habilidades críticas y reflexivas, que no se adquieren cuando los estudiantes dependen excesivamente de la IA.

El estudio concluye que, aunque las herramientas de IA generativa representan una innovación poderosa, deben ser utilizadas con precaución en contextos educativos. Los autores enfatizan que un uso excesivo o inapropiado puede limitar el aprendizaje profundo y las habilidades críticas de los estudiantes. Sin embargo, cuando se integran de manera pedagógica, como en esta intervención, pueden convertirse en un recurso valioso para identificar deficiencias y mejorar el aprendizaje.

Finalmente, el artículo propone recomendaciones para un uso responsable de la inteligencia artificial en la educación. Los educadores deben promover el uso ético y complementario de estas herramientas, subrayando que no deben sustituir las habilidades fundamentales de escritura. Además, se sugiere diseñar intervenciones educativas que enseñen a los estudiantes a evaluar críticamente los textos generados por IA, al mismo tiempo que las instituciones académicas establecen directrices claras sobre su uso en actividades de evaluación y aprendizaje. De esta manera, se busca aprovechar el potencial de la IA, minimizando los riesgos asociados con su implementación en el ámbito académico.

Efectividad de las guías de investigación de las bibliotecas universitarias para fomentar las habilidades de alfabetización informacional en los estudiantes universitarios

DeFrain, Erica, Leslie Sult, and Nicole F. Pagowsky. «Effectiveness of Academic Library Research Guides for Building College Students’ Information Literacy Skills: A Scoping ReviewCollege and Research Libraries (September 2025). https://digitalcommons.unl.edu/libraryscience/446/.

El artículo Effectiveness of Academic Library Research Guides for Building College Students’ Information Literacy Skills: A Scoping Review, escrito por Erica DeFrain, Leslie Sult y Nicole F. Pagowsky, realiza una revisión sobre la efectividad de las guías de investigación de las bibliotecas universitarias para fomentar las habilidades de alfabetización informacional en los estudiantes universitarios. Las guías de investigación son herramientas comunes para la enseñanza de estas habilidades, pero existe una falta de evidencia sólida sobre su efectividad.

En su revisión, los autores analizaron 1.724 publicaciones y seleccionaron 61 estudios que cumplían con los criterios de inclusión. Los estudios revisados fueron en su mayoría individuales, exploratorios y correlacionales, con un enfoque predominante en el uso de métodos mixtos que combinaban encuestas a estudiantes y análisis de datos provenientes de fuentes como el tráfico web. La mayoría de los estudios se centraron en la satisfacción de los estudiantes o la usabilidad de las guías como indicadores de la efectividad del aprendizaje, mientras que pocos se centraron en evaluar la adquisición de habilidades.

La revisión tiene como objetivo ayudar a los profesionales a desarrollar herramientas de aprendizaje más impactantes y prácticas para la creación y evaluación de estas guías. En resumen, el artículo destaca la necesidad de una evaluación más profunda y específica en cuanto a la efectividad real de las guías en el desarrollo de habilidades de alfabetización informacional.

Las conclusiones de los autores sobre la efectividad de las guías para el aprendizaje variaron, clasificándose en cuatro categorías: positivas, neutrales, negativas o mixtas. Sin embargo, interpretar su noción de «efectividad» fue complicado debido al amplio alcance de la mayoría de las investigaciones. Pocos estudios establecieron explícitamente expectativas sobre cómo las guías podrían influir en el aprendizaje de los estudiantes o los beneficios que podrían ofrecer. Solo seis estudios (9.8%) emplearon hipótesis previas para guiar su investigación, mientras que el resto no contó con referencias claras para evaluar el impacto.

De los 23 estudios con resultados positivos, 17 se basaron parcialmente en medidas afectivas obtenidas a través de encuestas a los estudiantes. Estos estudios encontraron una alta satisfacción por parte de los estudiantes, quienes indicaron que las guías eran útiles, relevantes o valiosas para sus necesidades académicas. Sin embargo, no todos los estudios reportaron resultados positivos. Por ejemplo, algunos estudiantes mostraron insatisfacción o neutralidad hacia las guías, especialmente en campos como STEM, donde se valoraron menos.

En varios estudios, aunque los estudiantes expresaron satisfacción con las guías, también indicaron que no sentían la necesidad de usarlas o se comprometían poco con su contenido. Algunos investigadores reconsideraron la efectividad de las guías tras reportar bajos niveles de uso. Además, se destacó que las guías de tipo «pathfinder», que simplemente direccionan a los estudiantes a recursos, no eran tan valoradas como las guías más instructivas que explican cómo usar esos recursos.

A pesar de la baja evidencia de uso, algunos autores continuaron desarrollando y manteniendo grandes cantidades de guías con la esperanza de que en el futuro los estudiantes se interesaran más por su contenido. Sin embargo, varios estudios documentaron la dificultad o resistencia de los estudiantes para utilizar de manera efectiva el contenido basado en guías, como en casos donde los estudiantes, a pesar de recibir formación, preferían utilizar recursos de la web libre o no recomendados por los bibliotecarios.

Impacto de las nuevas herramientas de IA en la educación: ¿apoyo al estudio o riesgo para el aprendizaje?

Young, Jeffrey R. «New AI Tools Are Promoted as Study Aids for Students. Are They Doing More Harm Than Good?» EdSurge, November 8, 2024. https://www.edsurge.com/news/2024-11-08-new-ai-tools-are-promoted-as-study-aids-for-students-are-they-doing-more-harm-than-good.

Las herramientas de IA en educación generan un debate complejo. Si bien proporcionan accesibilidad y apoyo para algunos estudiantes, existe la preocupación de que estén promoviendo una forma de aprendizaje que omite el esfuerzo cognitivo necesario para una verdadera comprensión. Los educadores sugieren que las compañías de IA asuman la responsabilidad de desarrollar sus herramientas de manera que fomenten el aprendizaje en lugar de obstaculizarlo.

El artículo de Jeffrey R. Young examina el auge de herramientas de inteligencia artificial (IA) diseñadas para ayudar a estudiantes, como Google NotebookLM, que convierten notas de clase en podcasts interactivos, y cómo éstas plantean tanto beneficios como preocupaciones para la educación.

Estas herramientas permiten a los estudiantes transformar lecturas, notas o materiales en resúmenes instantáneos, y en muchos casos ayudan a alumnos neurodivergentes o con dificultades para procesar grandes volúmenes de información. No obstante, varios educadores temen que la facilidad y rapidez de estos resúmenes pueda incentivar a los estudiantes a evitar el trabajo de analizar y comprender profundamente los textos. Alexis Peirce Caudell, docente en la Universidad de Indiana, observa que, aunque los estudiantes usan estas herramientas de diferentes maneras según su área de estudio, algunos se sienten presionados a usarlas solo porque sus compañeros lo hacen, aún si esto compromete su aprendizaje real.

Marc Watkins, profesor de la Universidad de Mississippi, destaca que la fricción o dificultad en el proceso de aprendizaje es crucial, pues ayuda a internalizar el conocimiento. A su juicio, las herramientas de IA eliminan este esfuerzo valioso, permitiendo a los estudiantes «pasar de inmediato al borrador final» con poco trabajo real. Además, considera que las políticas académicas actuales sobre el uso de IA necesitan actualizarse continuamente debido a las rápidas innovaciones en IA.

Un desafío adicional es la precisión, ya que los modelos de IA a veces generan «alucinaciones» o información incorrecta que presentan como si fuera verdad. La experiencia de Bonni Stachowiak, decana en Vanguard University, ilustra esta problemática: al usar Google NotebookLM, observó que la IA fallaba en temas complejos que ella conocía bien, lo cual puede generar una comprensión superficial o errónea.

Algunos estudiantes también plantean inquietudes éticas, como el impacto ambiental del uso de IA y la privacidad de sus datos. Caudell subraya que estas son conversaciones que apenas se están explorando en la educación.

A pesar de las críticas, las herramientas de IA han demostrado tener efectos positivos, especialmente para estudiantes con necesidades específicas, como aquellos con TDAH o discapacidades intelectuales, quienes se benefician de la división de tareas en pasos manejables o de resúmenes que facilitan el acceso inicial a textos largos.