Archivo de la etiqueta: Estudiantes

Cómo pueden las bibliotecas públicas ayudar a los jóvenes en la era de la inteligencia artificial

Se analiza cómo las bibliotecas públicas pueden apoyar a los jóvenes en un mundo cada vez más influido por la inteligencia artificial (IA). Su presentación, realizada en el marco del “AI Youth Services Challenge” del estado de Nueva York, sirvió para contextualizar cómo los jóvenes interactúan con la IA y cómo el personal bibliotecario puede acompañarlos en este proceso de aprendizaje.

La IA ya forma parte del entorno cotidiano de niños y adolescentes, desde recomendaciones en YouTube Kids hasta herramientas como ChatGPT, Copilot, Apple Intelligence o Gemini, y se prevé que su uso se extienda incluso a menores de 13 años.

El uso generalizado de la IA por parte de los adolescentes contrasta con la falta de conocimiento por parte de padres y escuelas. Un estudio reciente reveló que el 70 % de los adolescentes han utilizado al menos una herramienta de IA generativa, aunque solo el 37 % de los padres lo sabe. Además, muchos estudiantes no tienen claridad sobre las reglas escolares respecto a estas herramientas, y la mayoría de los padres nunca ha recibido información al respecto.

Tanzi alerta sobre los posibles peligros de este uso no regulado: los chatbots, formato más popular entre los jóvenes, pueden fomentar la adicción, dar consejos peligrosos sobre salud y relacionarse con problemas de salud mental. En el informe «Off Task: EdTech Threats to Student Privacy and Equity in the Age of AI«, el 45% de los estudiantes de secundaria y bachillerato han utilizado la IA generativa por motivos personales, como tratar problemas de salud mental y ansiedad.

En este contexto, el papel de las bibliotecas se vuelve crucial. Según la organización sin ánimo de lucro Digital Promise, la alfabetización en IA implica dotar a las personas de los conocimientos necesarios para comprender, evaluar y usar la IA de forma segura y ética.

«…los conocimientos y habilidades que permiten a los humanos comprender, evaluar y utilizar de forma crítica los sistemas y herramientas de IA para participar de forma segura y ética en un mundo cada vez más digital».

El autor propone que las bibliotecas trabajen en estrecha colaboración con padres, profesores y escuelas. Recomienda que el personal bibliotecario conozca las políticas escolares sobre el uso de IA, como los casos de los distritos escolares Northport-East Northport o Downingtown, que ya disponen de directrices claras. Esto permitirá orientar mejor a los estudiantes sin contradecir las normas académicas. Asimismo, sugiere familiarizarse con las herramientas aprobadas y ofrecer formación sobre su uso responsable, especialmente en temas de búsqueda y generación de contenido.

Impacto de la inteligencia artificial en la vida escolar: datos, riesgos y recomendaciones

Laird, Elizabeth, Madeliene Dwyer y Hugh Grant‑Chapman. Off Task: EdTech Threats to Student Privacy and Equity in the Age of AI. Washington, DC: Center for Democracy & Technology, septiembre de 2023. https://cdt.org/wp-content/uploads/2023/09/091923-CDT-Off-Task-web.pdf

El informe analiza críticamente cómo las tecnologías educativas (edtech), especialmente aquellas impulsadas por inteligencia artificial, están afectando la privacidad y la equidad en el entorno escolar estadounidense. A través de encuestas a estudiantes, familias y docentes de secundaria, se identifica un uso creciente de herramientas de filtrado de contenido, monitoreo estudiantil y plataformas de IA generativa, sin una reflexión adecuada sobre sus implicaciones éticas, sociales y pedagógicas.

Uno de los principales hallazgos es la falta de participación de las comunidades educativas en la toma de decisiones sobre estas tecnologías. Muchos estudiantes y padres expresan preocupación por su uso, pero apenas una minoría ha sido consultada o informada sobre su implementación. Además, el profesorado ha recibido escasa formación, lo que limita su capacidad para aplicar estas herramientas de forma crítica y justa. Esta falta de transparencia y educación crea un entorno donde las decisiones técnicas se imponen sin diálogo, debilitando la confianza en el sistema educativo.

El informe subraya también cómo el filtrado de contenido, aunque pensado para proteger a los estudiantes, a menudo bloquea información legítima y relevante para su aprendizaje. Esto se vuelve especialmente preocupante cuando los filtros restringen temas vinculados a la identidad racial, el género o la orientación sexual, reproduciendo sesgos y excluyendo a estudiantes LGBTQ+ o pertenecientes a minorías. Así, estas herramientas pueden actuar como formas digitales de censura o exclusión.

Resultados:

62 % de los estudiantes y 73 % de los padres/madres están preocupados por el uso de edtech, pero:

Solo 38 % de los estudiantes y 31 % de los padres/madres afirman haber sido consultados por sus escuelas sobre el uso de estas tecnologías.

Casi el 100 % de las escuelas utilizan sistemas de filtrado web.

71 % de los estudiantes informan que estos filtros dificultan sus tareas escolares.

41 % de estudiantes LGBTQ+ reportan tener más dificultades que sus compañeros para acceder a información relevante para su identidad.

39 % de estudiantes afroamericanos afirman que los filtros bloquean contenidos sobre historia o cultura negra.

58 % de los estudiantes han usado herramientas de IA generativa al menos una vez.

24 % han sido sancionados por su uso.

57 % de los docentes no han recibido ninguna formación sobre estas tecnologías.

37 % no sabe si su escuela tiene políticas sobre IA generativa.

Solo 34 % de los docentes han recibido formación sobre privacidad digital en el último año.

El 52 % de los docentes afirman que les cuesta confiar en el trabajo de los estudiantes desde que se empezó a usar IA generativa.

Por otro lado, el monitoreo digital de la actividad estudiantil —incluso fuera del horario escolar y en dispositivos personales— está en aumento. Este tipo de vigilancia genera consecuencias graves: sanciones disciplinarias desproporcionadas, denuncias a las autoridades e incluso situaciones en las que estudiantes LGBTQ+ han sido “sacados del armario” sin su consentimiento. Las medidas de vigilancia no solo afectan la privacidad, sino también el bienestar emocional y la seguridad de los estudiantes más vulnerables.

El uso de inteligencia artificial generativa, como ChatGPT, ha crecido rápidamente en los entornos escolares, pero sin preparación institucional. La mayoría del profesorado no ha recibido formación sobre su uso ni conoce las políticas escolares al respecto. Esto ha llevado a que muchos estudiantes sean sancionados por utilizar estas herramientas, aunque no existan normas claras que regulen su aplicación. Al mismo tiempo, los docentes expresan preocupación por la pérdida de confianza en el trabajo autónomo del alumnado, lo que genera tensiones en la relación educativa.

El informe advierte que estas tecnologías afectan de forma desproporcionada a estudiantes con discapacidades, de bajos ingresos o pertenecientes a colectivos marginados, amplificando desigualdades estructurales. Por ello, no se trata únicamente de un problema de privacidad, sino de una cuestión de derechos civiles y justicia educativa. CDT concluye con una serie de recomendaciones urgentes: establecer marcos normativos claros, formar adecuadamente al personal docente, y garantizar la participación significativa de estudiantes y familias en todas las decisiones relacionadas con la tecnología en las aulas.

Recomendaciones:

Incluir a estudiantes y familias en la toma de decisiones sobre EdTech

  • Involucrar activamente a las comunidades escolares en la evaluación, selección y supervisión de las tecnologías utilizadas en clase.
  • Fomentar la transparencia sobre las herramientas empleadas y sus finalidades.

Revisar políticas de filtrado de contenido

  • Asegurar que los filtros no limiten el acceso a información educativa legítima, especialmente en temas de identidad, salud mental o justicia social.
  • Evitar que los filtros reproduzcan sesgos discriminatorios.

Limitar el monitoreo estudiantil

  • Establecer políticas claras sobre qué se monitorea, cuándo, cómo y por qué.
  • Asegurar que el monitoreo no continúe fuera del horario escolar ni en dispositivos personales sin consentimiento informado.

Crear políticas claras sobre el uso de IA generativa

  • Proporcionar directrices coherentes y accesibles para el alumnado y profesorado sobre cómo se puede o no utilizar la inteligencia artificial generativa.
  • Integrar estas políticas en los planes pedagógicos.

Formar al profesorado

  • Ofrecer formación continua sobre privacidad digital, equidad tecnológica y uso ético de la inteligencia artificial.

Guía del estudiante sobre inteligencia artificial

AAC&U (American Association of Colleges and Universities). 2025. «New Student Guide to Artificial Intelligence Provides Expanded Resources for Navigating College in the AI Age.» AAC&U, May 6, 2025.

Texto completo

La Asociación Estadounidense de Universidades y Colegios (AAC&U) y la Universidad de Elon han publicado la segunda entrega de la serie Student Guide to Artificial Intelligence. Al igual que la primera edición, este recurso es gratuito y está disponible para estudiantes e instituciones a través de su sitio web y el de la AAC&U.

La nueva guía está diseñada para ayudar a los estudiantes a prepararse para el uso de la IA en sus estudios. Está organizada en torno a cinco competencias clave:

  • Investigación, recopilación de información y resumen
  • Escritura
  • Trabajo creativo
  • Análisis de datos y números
  • Apoyo al estudio y al aprendizaje

Además, incluye capítulos dedicados a la integridad académica, la ética de la IA, la planificación profesional y la creación de un portafolio con proyectos asistidos por IA.

El contenido fue desarrollado con la colaboración de expertos en inteligencia artificial y profesores universitarios de 14 países, incluidos Estados Unidos, España, Francia, Alemania, Japón y Venezuela, así como con aportaciones de estudiantes y usuarios de la primera edición.

El desarrollo de políticas sobre inteligencia artificial generativa en las universidades británicas

Wilson, Thomas D. 2025. «The Development of Policies on Generative Artificial Intelligence in UK UniversitiesIFLA Journal. https://doi.org/10.1177/03400352251333796

El artículo examina cómo las universidades del Reino Unido han reaccionado ante el auge de la inteligencia artificial generativa (IAg) y cómo están desarrollando políticas para regular su uso en el ámbito académico. En particular, se enfoca en las instituciones del Russell Group, un conjunto de universidades líderes en investigación que han adoptado principios comunes para guiar la integración de estas tecnologías.

El artículo analiza en profundidad cómo las universidades del Reino Unido están respondiendo al auge de la inteligencia artificial generativa (IAg) —como ChatGPT, Claude, Copilot, entre otras— y cómo esta tecnología está reconfigurando la educación superior. En particular, se centra en la forma en que las instituciones académicas, y más concretamente las pertenecientes al Russell Group (grupo de élite de universidades centradas en la investigación), han comenzado a desarrollar políticas formales para regular y aprovechar el uso de estas herramientas. El trabajo también incluye un examen comparativo con instituciones que no pertenecen al grupo y que enfrentan mayores retos para implementar marcos normativos debido a la falta de recursos.

La expansión de la IAg ha sido rápida, y su impacto en el sector educativo es profundo. Su adopción ha generado oportunidades pedagógicas —como personalización del aprendizaje, apoyo a estudiantes con necesidades especiales, mejora de la escritura académica y eficiencia en la retroalimentación docente—, pero también preocupaciones críticas:

  • Plagio y trampas asistidas por IA
  • Transformación de la evaluación
  • Brechas en la equidad digital
  • Necesidad de formación docente
  • Cambios en la naturaleza de la autoría y la originalidad académica

El estudio de Wilson toma como punto de partida la declaración de principios publicada por el Russell Group en 2023, donde se establecieron cinco ejes para la incorporación de la IAg en las universidades:

  1. Fomentar la alfabetización en IA entre el personal y el alumnado.
  2. Equipar al profesorado para acompañar a los estudiantes en el uso responsable de la tecnología.
  3. Revisar modelos de evaluación para mantener la integridad sin limitar el aprendizaje innovador.
  4. Preservar el rigor académico y la ética en la producción de conocimiento.
  5. Colaborar entre instituciones para compartir prácticas efectivas.

El artículo identifica variaciones sustanciales en la adopción e implementación de estas políticas, incluso entre las universidades del Russell Group. Algunas han creado marcos institucionales completos, con líneas claras sobre:

  • Qué usos de la IAg están permitidos o prohibidos.
  • Cómo citar contenido generado por IA.
  • Qué procedimientos aplicar en casos de mala praxis.
  • Cómo adaptar tareas evaluativas para reducir el riesgo de trampa.

Otras, sin embargo, aún están en etapas incipientes de desarrollo normativo, limitándose a recomendaciones generales o esperando una posición nacional más consolidada.

En universidades fuera del Russell Group, se observa una mayor dificultad para articular políticas, debido a la falta de recursos técnicos, de personal capacitado y de liderazgo en el tema. Esto puede generar desigualdades entre instituciones en términos de preparación ante los desafíos éticos y prácticos de la IAg.

Percepciones de los estudiantes de educación superior sobre ChatGPT

Ravšelj, Dejan, et al. “Higher Education Students’ Perceptions of ChatGPT: A Global Study of Early Reactions.” PLOS One 20, no. 2 (February 5, 2025). https://doi.org/10.1371/journal.pone.0315011

Se analiza cómo los estudiantes universitarios de todo el mundo perciben y utilizan ChatGPT en sus actividades académicas. La investigación se basa en una muestra de 23.218 estudiantes provenientes de 109 países y territorios, convirtiéndose en el estudio más amplio realizado hasta la fecha sobre este tema.

Uno de los principales hallazgos del estudio es que los estudiantes utilizan ChatGPT principalmente para la generación de ideas (brainstorming), la síntesis de textos y la búsqueda de artículos académicos. También se observa que algunos lo emplean para la escritura profesional y creativa, aunque en menor medida. En general, los estudiantes encuentran útil la herramienta para simplificar información compleja y resumir contenido, lo que les ayuda a comprender mejor ciertos temas.

Sin embargo, a pesar de sus ventajas, los estudiantes expresan reservas sobre la fiabilidad de la información proporcionada por ChatGPT, especialmente en contextos que requieren precisión y rigor académico. Algunos incluso consideran que las respuestas de la herramienta son más claras que las explicaciones de sus compañeros o profesores, lo que indica que valoran la capacidad de síntesis y estructuración del contenido que ofrece la IA.

A lo largo del estudio, los participantes manifestaron una preocupación generalizada por el impacto de ChatGPT en la educación, lo que ha llevado a un consenso sobre la necesidad de establecer regulaciones claras para su uso. Entre las principales inquietudes destacan el riesgo de plagio y fraude académico, así como la posibilidad de que fomente el aislamiento social al reducir la interacción entre estudiantes y profesores.

En cuanto al aprendizaje y el desarrollo de habilidades, los estudiantes reconocen que ChatGPT puede mejorar el acceso al conocimiento, aumentar la eficiencia en el estudio y contribuir a la obtención de mejores calificaciones. No obstante, también señalan que su uso excesivo podría afectar el desarrollo de habilidades clave como la comunicación interpersonal, la toma de decisiones, el pensamiento crítico y la competencia en el idioma nativo.

El estudio también explora la percepción de los estudiantes sobre el impacto de la IA en el mercado laboral. En general, creen que la integración de la inteligencia artificial en diversos sectores incrementará la demanda de habilidades digitales y facilitará el trabajo remoto, aunque no prevén un impacto significativo en las tasas de desempleo.

Desde un punto de vista emocional, la mayoría de los estudiantes reportan sentir curiosidad y calma al interactuar con ChatGPT. Esto sugiere que, si bien existen preocupaciones sobre su uso, en términos generales los estudiantes se sienten cómodos utilizando la herramienta y explorando sus posibilidades.

El estudio también identifica diferencias en las percepciones y usos de ChatGPT según factores socioeconómicos y geográficos, lo que indica que el acceso a la tecnología y el contexto cultural influyen en la forma en que los estudiantes adoptan y valoran esta herramienta.

Los hallazgos de esta investigación ofrecen información valiosa para docentes, administradores y legisladores. Los responsables de la educación pueden utilizar estos datos para diseñar planes de estudio que integren la inteligencia artificial de manera efectiva, desarrollar metodologías de enseñanza que fomenten el pensamiento crítico y la autonomía de los estudiantes, y establecer sistemas de evaluación que mitiguen el riesgo de plagio.

Por otro lado, los legisladores y formuladores de políticas educativas deben considerar el desarrollo de estrategias de capacitación digital para preparar a los estudiantes para un mercado laboral en evolución, así como la implementación de regulaciones que aborden las preocupaciones éticas y prácticas relacionadas con el uso de la IA en la educación.

En conclusión, el estudio subraya la importancia de encontrar un equilibrio en la integración de herramientas de inteligencia artificial como ChatGPT en la educación superior. Es fundamental maximizar los beneficios que estas tecnologías pueden ofrecer en términos de acceso al conocimiento y eficiencia en el estudio, sin descuidar la necesidad de desarrollar habilidades esenciales para el aprendizaje y el trabajo futuro.

Lo que los estudiantes universitarios necesitan saber y realmente saben sobre la IA generativa

Rismanchian, Sina, Eesha Tur Razia Babar, y Shayan Doroudi. «GenAI-101: What Undergraduate Students Need to Know and Actually Know About Generative AIEdWorkingPapers, enero de 2025. https://edworkingpapers.com/ai25-1119

Este estudio aborda la comprensión y percepción que tienen los estudiantes universitarios sobre las tecnologías de inteligencia artificial generativa, con un enfoque particular en los chatbots como ChatGPT, lanzado por OpenAI en noviembre de 2022. Desde su introducción, estos modelos han encontrado diversas aplicaciones en la educación, incluyendo tutorías, asistencia en la redacción, formación de profesores y evaluación de ensayos. A pesar de su uso generalizado entre estudiantes de secundaria y universidad en Estados Unidos, hay poca investigación sobre cuánto saben realmente estos estudiantes sobre estas tecnologías y cómo las perciben.

Para llenar este vacío, los autores desarrollaron un marco novedoso de alfabetización en inteligencia artificial generativa (GenAI), centrándose en lo que los estudiantes saben sobre la IA generativa y cómo perciben las capacidades de los chatbots de IA. Diseñaron una encuesta de alfabetización en GenAI para medir el conocimiento y las percepciones de los estudiantes, recolectando datos de 568 estudiantes universitarios.

Los resultados del estudio muestran que aproximadamente el 60% de los estudiantes utiliza regularmente chatbots de IA para tareas académicas. Sin embargo, a menudo sobreestiman las capacidades de estas herramientas. El estudio encontró que un mayor conocimiento sobre cómo funciona la IA generativa se correlaciona con una estimación más precisa de sus capacidades en tareas del mundo real.

Principales resultados:

  • Uso de chatbots de IA: Aproximadamente el 60% de los estudiantes encuestados utilizan regularmente chatbots de IA para tareas académicas.
  • Percepción de capacidades: Muchos estudiantes tienden a sobreestimar las capacidades de estas herramientas, atribuyéndoles habilidades más allá de sus funcionalidades reales.
  • Conocimiento y precisión: Se encontró una correlación positiva entre el conocimiento sobre cómo funciona la IA generativa y una estimación más precisa de sus capacidades en tareas del mundo real.

Las conclusiones destacan la necesidad de mejorar la alfabetización en IA generativa para asegurar que los estudiantes usen estas herramientas de manera efectiva y responsable. El artículo subraya la importancia de desarrollar estrategias y políticas educativas que preparen a los estudiantes para un compromiso crítico e informado con las tecnologías de IA.

La IA generativa en la educación: ¿Aliada o amenaza para la escritura académica?

Van Niekerk, Johan, Petrus M.J. Delport, e Iain Sutherland. «Addressing the Use of Generative AI in Academic WritingComputers and Education: Artificial Intelligence 5 (2024): 100342. https://doi.org/10.1016/j.caeai.2024.100342.

El objetivo principal del estudio fue evaluar el impacto de ChatGPT en el desarrollo de habilidades de escritura académica, explorando tanto sus beneficios como sus limitaciones. Se buscó entender cómo los estudiantes perciben esta tecnología y de qué manera su interacción con textos generados por inteligencia artificial influye en sus intenciones de uso futuro. La investigación implementó una intervención educativa basada en aprendizaje activo, donde los estudiantes utilizaron ChatGPT para redactar artículos académicos. Posteriormente, analizaron y criticaron los textos generados por la IA, enfocándose en identificar sus debilidades, como la falta de coherencia, originalidad y profundidad en los razonamientos presentados.

Los resultados revelaron que, inicialmente, los estudiantes consideraban a ChatGPT como una herramienta útil y fácil de usar, especialmente por su capacidad para ahorrar tiempo y generar ideas de manera rápida. Sin embargo, tras la revisión crítica de los textos generados, identificaron limitaciones importantes. Los documentos creados por la IA presentaban una falta de profundidad analítica, lo que reducía su calidad académica. Asimismo, los textos mostraban problemas de coherencia, con argumentos confusos o contradictorios, y una ausencia de originalidad, ya que dependían en gran medida de fuentes existentes sin aportar ideas novedosas.

La intervención educativa tuvo un impacto significativo en las percepciones de los estudiantes. Si bien reconocieron que ChatGPT puede ser útil como herramienta complementaria para generar ideas o facilitar etapas iniciales del proceso de escritura, también concluyeron que no puede reemplazar el esfuerzo intelectual necesario para crear textos académicos de calidad. La experiencia destacó la importancia de desarrollar habilidades críticas y reflexivas, que no se adquieren cuando los estudiantes dependen excesivamente de la IA.

El estudio concluye que, aunque las herramientas de IA generativa representan una innovación poderosa, deben ser utilizadas con precaución en contextos educativos. Los autores enfatizan que un uso excesivo o inapropiado puede limitar el aprendizaje profundo y las habilidades críticas de los estudiantes. Sin embargo, cuando se integran de manera pedagógica, como en esta intervención, pueden convertirse en un recurso valioso para identificar deficiencias y mejorar el aprendizaje.

Finalmente, el artículo propone recomendaciones para un uso responsable de la inteligencia artificial en la educación. Los educadores deben promover el uso ético y complementario de estas herramientas, subrayando que no deben sustituir las habilidades fundamentales de escritura. Además, se sugiere diseñar intervenciones educativas que enseñen a los estudiantes a evaluar críticamente los textos generados por IA, al mismo tiempo que las instituciones académicas establecen directrices claras sobre su uso en actividades de evaluación y aprendizaje. De esta manera, se busca aprovechar el potencial de la IA, minimizando los riesgos asociados con su implementación en el ámbito académico.

Efectividad de las guías de investigación de las bibliotecas universitarias para fomentar las habilidades de alfabetización informacional en los estudiantes universitarios

DeFrain, Erica, Leslie Sult, and Nicole F. Pagowsky. «Effectiveness of Academic Library Research Guides for Building College Students’ Information Literacy Skills: A Scoping ReviewCollege and Research Libraries (September 2025). https://digitalcommons.unl.edu/libraryscience/446/.

El artículo Effectiveness of Academic Library Research Guides for Building College Students’ Information Literacy Skills: A Scoping Review, escrito por Erica DeFrain, Leslie Sult y Nicole F. Pagowsky, realiza una revisión sobre la efectividad de las guías de investigación de las bibliotecas universitarias para fomentar las habilidades de alfabetización informacional en los estudiantes universitarios. Las guías de investigación son herramientas comunes para la enseñanza de estas habilidades, pero existe una falta de evidencia sólida sobre su efectividad.

En su revisión, los autores analizaron 1.724 publicaciones y seleccionaron 61 estudios que cumplían con los criterios de inclusión. Los estudios revisados fueron en su mayoría individuales, exploratorios y correlacionales, con un enfoque predominante en el uso de métodos mixtos que combinaban encuestas a estudiantes y análisis de datos provenientes de fuentes como el tráfico web. La mayoría de los estudios se centraron en la satisfacción de los estudiantes o la usabilidad de las guías como indicadores de la efectividad del aprendizaje, mientras que pocos se centraron en evaluar la adquisición de habilidades.

La revisión tiene como objetivo ayudar a los profesionales a desarrollar herramientas de aprendizaje más impactantes y prácticas para la creación y evaluación de estas guías. En resumen, el artículo destaca la necesidad de una evaluación más profunda y específica en cuanto a la efectividad real de las guías en el desarrollo de habilidades de alfabetización informacional.

Las conclusiones de los autores sobre la efectividad de las guías para el aprendizaje variaron, clasificándose en cuatro categorías: positivas, neutrales, negativas o mixtas. Sin embargo, interpretar su noción de «efectividad» fue complicado debido al amplio alcance de la mayoría de las investigaciones. Pocos estudios establecieron explícitamente expectativas sobre cómo las guías podrían influir en el aprendizaje de los estudiantes o los beneficios que podrían ofrecer. Solo seis estudios (9.8%) emplearon hipótesis previas para guiar su investigación, mientras que el resto no contó con referencias claras para evaluar el impacto.

De los 23 estudios con resultados positivos, 17 se basaron parcialmente en medidas afectivas obtenidas a través de encuestas a los estudiantes. Estos estudios encontraron una alta satisfacción por parte de los estudiantes, quienes indicaron que las guías eran útiles, relevantes o valiosas para sus necesidades académicas. Sin embargo, no todos los estudios reportaron resultados positivos. Por ejemplo, algunos estudiantes mostraron insatisfacción o neutralidad hacia las guías, especialmente en campos como STEM, donde se valoraron menos.

En varios estudios, aunque los estudiantes expresaron satisfacción con las guías, también indicaron que no sentían la necesidad de usarlas o se comprometían poco con su contenido. Algunos investigadores reconsideraron la efectividad de las guías tras reportar bajos niveles de uso. Además, se destacó que las guías de tipo «pathfinder», que simplemente direccionan a los estudiantes a recursos, no eran tan valoradas como las guías más instructivas que explican cómo usar esos recursos.

A pesar de la baja evidencia de uso, algunos autores continuaron desarrollando y manteniendo grandes cantidades de guías con la esperanza de que en el futuro los estudiantes se interesaran más por su contenido. Sin embargo, varios estudios documentaron la dificultad o resistencia de los estudiantes para utilizar de manera efectiva el contenido basado en guías, como en casos donde los estudiantes, a pesar de recibir formación, preferían utilizar recursos de la web libre o no recomendados por los bibliotecarios.

Impacto de las nuevas herramientas de IA en la educación: ¿apoyo al estudio o riesgo para el aprendizaje?

Young, Jeffrey R. «New AI Tools Are Promoted as Study Aids for Students. Are They Doing More Harm Than Good?» EdSurge, November 8, 2024. https://www.edsurge.com/news/2024-11-08-new-ai-tools-are-promoted-as-study-aids-for-students-are-they-doing-more-harm-than-good.

Las herramientas de IA en educación generan un debate complejo. Si bien proporcionan accesibilidad y apoyo para algunos estudiantes, existe la preocupación de que estén promoviendo una forma de aprendizaje que omite el esfuerzo cognitivo necesario para una verdadera comprensión. Los educadores sugieren que las compañías de IA asuman la responsabilidad de desarrollar sus herramientas de manera que fomenten el aprendizaje en lugar de obstaculizarlo.

El artículo de Jeffrey R. Young examina el auge de herramientas de inteligencia artificial (IA) diseñadas para ayudar a estudiantes, como Google NotebookLM, que convierten notas de clase en podcasts interactivos, y cómo éstas plantean tanto beneficios como preocupaciones para la educación.

Estas herramientas permiten a los estudiantes transformar lecturas, notas o materiales en resúmenes instantáneos, y en muchos casos ayudan a alumnos neurodivergentes o con dificultades para procesar grandes volúmenes de información. No obstante, varios educadores temen que la facilidad y rapidez de estos resúmenes pueda incentivar a los estudiantes a evitar el trabajo de analizar y comprender profundamente los textos. Alexis Peirce Caudell, docente en la Universidad de Indiana, observa que, aunque los estudiantes usan estas herramientas de diferentes maneras según su área de estudio, algunos se sienten presionados a usarlas solo porque sus compañeros lo hacen, aún si esto compromete su aprendizaje real.

Marc Watkins, profesor de la Universidad de Mississippi, destaca que la fricción o dificultad en el proceso de aprendizaje es crucial, pues ayuda a internalizar el conocimiento. A su juicio, las herramientas de IA eliminan este esfuerzo valioso, permitiendo a los estudiantes «pasar de inmediato al borrador final» con poco trabajo real. Además, considera que las políticas académicas actuales sobre el uso de IA necesitan actualizarse continuamente debido a las rápidas innovaciones en IA.

Un desafío adicional es la precisión, ya que los modelos de IA a veces generan «alucinaciones» o información incorrecta que presentan como si fuera verdad. La experiencia de Bonni Stachowiak, decana en Vanguard University, ilustra esta problemática: al usar Google NotebookLM, observó que la IA fallaba en temas complejos que ella conocía bien, lo cual puede generar una comprensión superficial o errónea.

Algunos estudiantes también plantean inquietudes éticas, como el impacto ambiental del uso de IA y la privacidad de sus datos. Caudell subraya que estas son conversaciones que apenas se están explorando en la educación.

A pesar de las críticas, las herramientas de IA han demostrado tener efectos positivos, especialmente para estudiantes con necesidades específicas, como aquellos con TDAH o discapacidades intelectuales, quienes se benefician de la división de tareas en pasos manejables o de resúmenes que facilitan el acceso inicial a textos largos.

Construyendo una cultura de alfabetización en inteligencia artificial generativa en la enseñanza de lenguas, literatura y escritura

Working Paper 1: Overview of the Issues, Statement of Principles, and Recommendations

Working Paper 2: Generative AI and Policy Development: Guidance from the MLA-CCCC Task Force

Working Paper 3: Building a Culture for Generative AI Literacy in College Language, Literature, and Writing

MLA 2024

Este documento de trabajo sostiene que los educadores deben aprovechar su experiencia colectiva para influir en el uso de la IA generativa, tanto en su campo profesional como en la sociedad en general. Esto se debe a que estas herramientas tienen un impacto significativo en nuestras actividades cívicas, culturales y económicas.

Este documento de trabajo argumenta que los educadores deben utilizar su experiencia colectiva para influir en el uso de la inteligencia artificial (IA) generativa, tanto en sus áreas profesionales como en la sociedad, dada la significativa influencia que estas herramientas tienen en nuestras actividades cívicas, culturales y económicas. Sin embargo, también se señala el riesgo de que al crear tales documentos, se estén limitando alternativas al consentir en lugar de resistir. Dado que la tecnología ya está presente, es esencial ofrecer perspectivas equilibradas sobre los riesgos y beneficios asociados a la IA generativa.

A medida que se concluye el trabajo en este documento en el verano de 2024, se observa que empresas como Apple y Google están integrando tecnologías de IA generativa en sus plataformas. Esto indica que la IA está lo suficientemente integrada en el ámbito educativo como para impactar la alfabetización de diversas maneras. Se definen varios términos relacionados con la IA, como IA artificial (que hace predicciones basadas en modelos estadísticos), IA generativa (que produce texto o imágenes a partir de un aviso del usuario) y modelos de lenguaje de gran tamaño (que generan texto utilizando cálculos estadísticos).

Se enfatiza que, aunque las herramientas de IA generativa parecen funcionar de manera casi mágica, son, en realidad, impulsadas por datos y algoritmos. Aunque pueden producir textos que parecen humanos, estas herramientas carecen de comprensión real y, a menudo, reproducen sesgos presentes en los datos con los que fueron entrenadas. Por lo tanto, es fundamental que los educadores mantengan una supervisión crítica sobre el uso de estas tecnologías, ya que la percepción de «inteligencia» en la IA puede crear expectativas irreales.

Dado que la IA generativa se está integrando en servicios y aplicaciones cotidianas, es urgente centrarse en la alfabetización en IA generativa. Este documento promueve que la alfabetización en IA debe centrarse en dos objetivos: el acceso a «lenguajes en evolución» en diferentes contextos y el desarrollo de marcos críticos que ayuden a imaginar mejores «futuros sociales». Se propone que la alfabetización en IA abarca no solo la fluidez técnica, sino también la capacidad crítica, creativa y comunitaria en relación con estas herramientas.

En cuanto a los estudiantes, se destaca la necesidad de estrategias prácticas para utilizar la IA generativa, entender cómo esta puede influir en sus expectativas de rendimiento y en la calidad de la educación que recibirán. La alfabetización en IA debe incluir la capacidad de diseñar o criticar herramientas, así como cuestionar la ética y eficacia de su uso.