Archivo de la categoría: Alfabetización informacional

¿Es la alfabetización en IA el caballo de Troya de la alfabetización informacional?

Chen, Zhuo, Nathan Kelber y Ruby MacDougall. 2025. “Is AI Literacy the Trojan Horse to Information Literacy? Insights from our AI Literacy Cohort Workshops.” Ithaka S+R, 10 de junio de 2025. https://sr.ithaka.org/blog/is-ai-literacy-the-trojan-horse-to-information-literacy/

El texto explora cómo la alfabetización en inteligencia artificial (IA) puede transformarse en una vía estratégica para enriquecer la alfabetización informacional tradicional dentro del ámbito académico

Un marco de alfabetización (Literacy Framework) es un conjunto estructurado de conceptos, habilidades, competencias y valores que sirven como guía para enseñar y desarrollar una forma específica de alfabetización. Aunque el término «alfabetización» solía referirse solo a la capacidad de leer y escribir, hoy se aplica a muchos otros ámbitos, como la alfabetización digital, informacional, mediática, científica… o, como en este caso, la alfabetización en inteligencia artificial (AI Literacy).

El estudio se basa en talleres realizados en abril de 2025, donde participaron bibliotecarios y docentes de 45 instituciones de educación superior, como parte del proyecto “Integrating AI Literacy into the Curricula”

Durante las sesiones, se confrontaron marcos conceptuales existentes: el ACRL (Association of College & Research Libraries) centrado en la alfabetización informacional, y varios marcos de alfabetización en IA más pragmáticos (UNESCO, Choice 360, Educause, Digital Education Council). Se observó que los marcos tradicionales son más conceptuales y modulados, mientras que los de IA adoptan enfoques secuenciales y aplicados, lo que facilita su integración curricular

Los distintos marcos de alfabetización en IA coinciden en la necesidad de dotar a los ciudadanos —especialmente a estudiantes y profesionales del ámbito educativo— de competencias que les permitan comprender, usar, evaluar y reflexionar críticamente sobre la inteligencia artificial. Aunque cada marco responde a su contexto institucional y geográfico, comparten una estructura organizada en torno a dimensiones o competencias clave.

En primer lugar, muchos marcos giran en torno a tres grandes ejes: la comprensión técnica (cómo funciona la IA), la dimensión ética y crítica (identificación de sesgos, impactos sociales, privacidad), y la aplicación práctica (uso responsable y efectivo de herramientas de IA). Por ejemplo, tanto el marco de la Universidad de Adelaida como el de Educause y el de la UNESCO incluyen estas tres dimensiones, si bien con distintos niveles de profundidad y enfoque. El marco de la UNESCO es particularmente exhaustivo, al dividir las competencias en cuatro dimensiones (ética, técnica, diseño de sistemas y mentalidad humanista) y establecer niveles progresivos: comprender, aplicar y crear.

El marco de ACRL (Association of College and Research Libraries), aunque no está centrado específicamente en IA, ofrece una estructura conceptual sobre la alfabetización informacional que ha influido en otros marcos como el de Choice360. Este último adapta los principios de ACRL para entornos donde la IA ya forma parte del proceso de búsqueda, evaluación y producción de información académica.

Por su parte, marcos como el del Digital Education Council y el del World Economic Forum adoptan una visión más global y orientada al desarrollo de ciudadanía digital, el pensamiento computacional y las habilidades para el siglo XXI, incorporando la IA como herramienta clave en el desarrollo económico y social. En este sentido, coinciden con el enfoque de Educause, que además integra competencias para distintos actores de la educación superior: estudiantes, docentes y personal técnico.

Los marcos centrados en bibliotecas, como AI Literacy: A Guide for Academic Libraries (Lo, 2023) y el de la Universidad de Adelaida, tienen un enfoque más operativo y cercano a la práctica profesional, diseñados para ayudar a bibliotecarios a enseñar o guiar en el uso de IA en contextos académicos. Estos marcos suelen ser más concisos, pero incluyen ejemplos, buenas prácticas y estrategias de implementación.

Las principales diferencias entre estos marcos se relacionan con el nivel de detalle, el público destinatario (desde estudiantes de primaria hasta personal universitario), y la orientación institucional (educativa, bibliotecaria o política). Algunos, como el de la UNESCO o Educause, son más prescriptivos y completos; otros, como el de ACRL o el de Lo, permiten una mayor flexibilidad e interpretación local.

Todos estos marcos ofrecen una base sólida y complementaria para abordar la alfabetización en inteligencia artificial. Todos reconocen la importancia de desarrollar una comprensión profunda y crítica de la IA, más allá del simple uso técnico de las herramientas, fomentando una ciudadanía digital ética, inclusiva y preparada para los desafíos del presente y del futuro. La combinación de elementos de estos marcos puede ser especialmente útil para diseñar programas educativos o bibliotecarios adaptados a diferentes contextos.

Uno de los hallazgos más relevantes surgió cuando un participante definió la alfabetización en IA como “un cubo bajo el paraguas de la alfabetización informacional”. Este concepto propone que la IA no solo está contenida dentro de la alfabetización informacional, sino que moldea y modifica su paradigma, recordando que detrás de toda tecnología hay supuestos culturales, técnicos y éticos que requieren una evaluación crítica.

Los participantes destacaron que ambos marcos comparten el énfasis en el pensamiento crítico sobre la información. No obstante, las prácticas de alfabetización en IA demandan además una capacidad técnica mínima y una comprensión ética más profunda: es necesario comprender cómo los sistemas generan información, reconocer sus sesgos y limitaciones, y evaluar fuentes con conciencia tecnológica .

También se identificaron brechas en los marcos: la alfabetización en IA suele centrarse únicamente en la IA generativa, ignorando otros tipos de IA; además, se utilizan términos como “ética” de manera vaga sin esclarecer a quién se aplican los principios. El ritmo acelerado del desarrollo tecnológico exige marcos educativos más dinámicos y actualizables .

De este modo, el artículo concluye que la alfabetización en IA podría actuar como una especie de “caballo de Troya” dentro de la alfabetización informacional: aporta una capa adicional que exige un enfoque más técnico, crítico y contextualizado. Esto representa una oportunidad para modernizar los programas curriculares, impulsar colaboraciones entre bibliotecas, centros educativos y docentes, y preparar a estudiantes y académicos para abordar la complejidad actual de la cultura informativa .

Integración de la AI en los planes de estudios

Chen, Zhuo, Nathan Kelber y Ruby MacDougall. 2025. “Applying AI Literacy to Student and Faculty Persons.” Ithaka S+R Blog, 10 de junio de 2025. https://sr.ithaka.org/blog/applying-ai-literacy-to-student-and-faculty-personas/.

En mayo de 2025, Ithaka S+R organizó los primeros talleres del proyecto “Integrating AI Literacy in the Curricula”, en colaboración con bibliotecarios y docentes de 45 instituciones educativas de nivel superior. El objetivo fue vincular la alfabetización en inteligencia artificial (IA) con los marcos tradicionales de alfabetización informacional y generar herramientas prácticas para su implementación académica

Durante la primera sesión, los participantes analizaron marcos teóricos y definiciones existentes sobre IA y alfabetización informacional. En la segunda, se formaron grupos que trabajaron a partir de uno de seis personas predefinidos (tres perfiles de estudiantes: universitario, posgrado y adulto; y tres perfiles docentes: humanista, científico social y natural), para explorar sus riesgos, beneficios y necesidades específicas relacionadas con la IA

Dos ejemplos representativos surgieron:

  • Callie, estudiante de 38 años de fisioterapia en línea, necesita acceso a herramientas de IA relevantes, formación práctica y certificaciones para destacar en el ámbito laboral de la salud. Sin embargo, su falta de experiencia con IA implica riesgos como el uso inapropiado de datos o el incumplimiento de normativas de privacidad (HIPAA). Los participantes definieron su alfabetización en IA como “comprender la IA, reconocer casos adecuados de uso y evaluar su repercusión en la preparación profesional”
  • Sue, profesora de sociología reacia al uso de IA frente a la presión institucional, podría centrarse únicamente en detectar trampas estudiantiles. Los participantes la instaron a reorientar su enfoque: en lugar de buscar mecanismos de detección, desarrollar ejemplos positivos de uso docente, construir políticas institucionales y comprender las limitaciones de las herramientas. Su definición se formuló como “tener acceso a modelos de IA bien integrados en el aula y conocer los límites de los detectores”

Al final, los facilitadores sintetizaron las ideas en común y alentaron a las instituciones a profundizar en las prioridades identificadas para impulsar la alfabetización en IA. Ithaka S+R continuará diseñando instrumentos cualitativos para recoger experiencias de estudiantes y docentes, con el fin de desarrollar soluciones tangibles adaptadas a sus necesidades.

Este enfoque centrado en personas evidencia una necesidad de diseñar definiciones flexibles y relevantes de alfabetización en IA, que respondan a disciplinas, niveles de experiencia y roles institucionales. El proyecto reconoce el potencial transformador de integrar la IA de forma ética y contextualizada en entornos educativos reales.

GLAT: herramienta para evaluar la alfabetización en inteligencia artificial generativa

Yueqiao Jin, Roberto Martinez-Maldonado, Dragan Gašević, Lixiang Yan, GLAT: The generative AI literacy assessment test, Computers and Education: Artificial Intelligence,
Volume 9, 2025, 10 de junio de 2025. https://www.sciencedirect.com/science/article/pii/S2666920X25000761

Se presenta «GLAT: The Generative AI Literacy Assessment Test» una herramienta para el desarrollo y validación del rendimiento para medir la alfabetización en inteligencia artificial generativa (GenAI).

Esta prueba, denominada GLAT, fue diseñada para evaluar la capacidad de los individuos para utilizar herramientas de GenAI de manera efectiva y ética, abordando la creciente necesidad de evaluar habilidades en un entorno digital cada vez más automatizado.

La investigación destaca que, a pesar del aumento en el uso de tecnologías de GenAI, existe una falta de herramientas estandarizadas para medir la competencia en este ámbito. GLAT se diferencia de las evaluaciones tradicionales al centrarse en tareas prácticas que simulan escenarios reales donde los usuarios deben interactuar con sistemas de GenAI, evaluando su capacidad para generar, analizar y aplicar contenido de manera crítica.

Además, el estudio valida la fiabilidad y validez del GLAT a través de pruebas empíricas, demostrando que la herramienta es efectiva para medir la alfabetización en GenAI en diversos grupos demográficos. Los resultados sugieren que el GLAT puede ser una herramienta valiosa para instituciones educativas, organizaciones y gobiernos que buscan evaluar y mejorar las competencias digitales relacionadas con la inteligencia artificial generativa.

GLAT es una solución innovadora para abordar la necesidad urgente de evaluar la alfabetización en GenAI, proporcionando una base para el desarrollo de políticas educativas y formativas que promuevan el uso responsable y competente de las tecnologías de inteligencia artificial generativa

Las bibliotecas impulsan la educación para el desarrollo sostenible

Hauke, P., Mocatta, A., & Pun, P. N. I. (Eds.). Libraries Driving Education for Sustainable Development. De Gruyter, 2025

Texto completo

El libro hace referencia al programa de Educación para el Desarrollo Sostenible (EDS) para 2030 de la UNESCO, destacando su importancia como marco global que promueve la integración de los principios del desarrollo sostenible en todos los niveles y contextos educativos. En este sentido, se subraya el papel fundamental que desempeñan las bibliotecas —y en particular las bibliotecas verdes y sostenibles— como instituciones clave de aprendizaje a lo largo de la vida y como aliadas estratégicas en la implementación de dicha agenda.

Las bibliotecas no solo proporcionan acceso a la información, sino que también actúan como centros de participación comunitaria, reflexión crítica y acción transformadora en favor de la sostenibilidad. Por ello, el texto apoya que merecen un reconocimiento destacado como espacios educativos no formales que contribuyen activamente a los objetivos de desarrollo sostenible y respaldan las políticas de sostenibilidad impulsadas por los gobiernos nacionales y locales.

En consonancia con la Declaración de Berlín sobre Educación para el Desarrollo Sostenible y el programa EDS 2030 de la UNESCO, el libro pone especial atención en enfoques pedagógicos innovadores y en proyectos educativos informales desarrollados y ofrecidos por bibliotecas verdes. Estas iniciativas abarcan desde talleres de sensibilización medioambiental hasta programas de alfabetización ecológica, pasando por acciones de co-creación con la comunidad orientadas a promover prácticas sostenibles. De este modo, se evidencia cómo las bibliotecas pueden ser agentes de cambio en la construcción de sociedades más justas, resilientes y comprometidas con el futuro del planeta.

¿Por que los modelos de IA nos conducen a reforzar lo que ya creemos?

Eugina Leung, The Scientific Reason Why ChatGPT Leads You Down Rabbit Holes,” CNET, 10 de junio de 2025, https://www.cnet.com/tech/services-and-software/the-scientific-reason-why-chatgpt-leads-you-down-rabbit-holes/

El artículo cuenta por qué herramientas como ChatGPT pueden llevar a los usuarios a profundizar en líneas de pensamiento cada vez más específicas, a veces hasta puntos extremos o sesgados, en lo que comúnmente se conoce como “caer en un sesgo o bucle de confirmación” digital.

El sesgo de confirmación (también llamado sesgo confirmatorio) es una tendencia psicológica que lleva a las personas a buscar, interpretar y recordar información de manera que confirme sus propias creencias y expectativas preexistentes, mientras ignoran o desestiman información que las contradiga.

Según Leung, este comportamiento no se debe únicamente al diseño del modelo de lenguaje, sino a un patrón compartido con los motores de búsqueda y otras herramientas digitales: las personas tienden a confirmar sus creencias iniciales. Esto se traduce en que, cuando un usuario realiza una consulta a ChatGPT, lo hace ya desde una postura determinada. Por ejemplo, si alguien sospecha que cierto alimento es dañino, probablemente formulará su pregunta de forma que ya presupone esa posibilidad. El sistema, a su vez, genera respuestas que encajan con esa narrativa, confirmando la suposición en lugar de cuestionarla.

Esta interacción desencadena un bucle de retroalimentación. Cuanto más pregunta el usuario en esa dirección, más contenido relacionado obtiene, lo que le lleva a profundizar aún más en esa perspectiva. Este proceso es lo que se conoce como “cascada de profundidad” y puede dar lugar a una especie de efecto túnel, donde se van perdiendo matices, dudas o puntos de vista alternativos. En el caso de temas sensibles como la política, la salud, las creencias personales o las teorías de la conspiración, este efecto puede ser especialmente problemático, ya que facilita la consolidación de ideas erróneas o distorsionadas.

Uno de los elementos clave de este fenómeno es la forma en que los modelos responden a las preguntas: su diseño se basa en ofrecer respuestas que parezcan relevantes, coherentes y satisfactorias según el contexto de la conversación. Sin embargo, esto no siempre equivale a una respuesta imparcial o equilibrada. En muchos casos, el sistema simplemente sigue la lógica del usuario y refuerza su hipótesis, en lugar de introducir elementos de contraste o una visión crítica.

Aunque el artículo no presenta una solución definitiva, sí deja entrever algunas estrategias útiles para contrarrestar este efecto. En primer lugar, es esencial que los usuarios sean conscientes de sus propios sesgos y del modo en que estos influyen en la formulación de preguntas. También se sugiere que se practique la variación intencional de las consultas, explorando diferentes formas de abordar un mismo tema. Finalmente, se menciona la posibilidad de diseñar modelos que incluyan mecanismos para ofrecer perspectivas alternativas o advertencias sobre posibles sesgos presentes en la conversación.

En conclusión, ChatGPT tiene una base científica y psicológica sólida. La tendencia humana a buscar confirmación de nuestras ideas, unida al diseño de las respuestas generadas por IA, puede llevarnos a reforzar creencias sin darnos cuenta. Este descubrimiento invita tanto a usuarios como a desarrolladores a promover un uso más consciente, crítico y equilibrado de estas herramientas.

Guía inicial de la IFLA sobre inteligencia artificial en bibliotecas: oportunidades, riesgos y recomendaciones

International Federation of Library Associations and Institutions (IFLA). 2025. IFLA Entry Point to Libraries and AI. The Hague: IFLA, June 10, 2025.

Texto completo

«IFLA Entry Point to Libraries and AI», publicada el 10 de junio de 2025, es una guía breve y práctica diseñada para ayudar a profesionales de bibliotecas a reflexionar sobre las oportunidades, beneficios y riesgos éticos que plantea la inteligencia artificial (IA) en sus servicios. No pretende reemplazar un instrumento de decisión, sino ser una herramienta introductoria: ofrece preguntas —no respuestas— para promover el debate y la evaluación contextuada.

La Inteligencia Artificial (IA) ofrece un potencial significativo para apoyar los valores fundamentales de las bibliotecas, como el acceso equitativo a la información y la creación de conocimiento. Sin embargo, también es una tecnología controvertida, con desarrollos actuales que plantean preocupaciones éticas y sociales.

La IFLA utiliza el término IA en sentido amplio, abarcando desde tecnologías conocidas (como OCR, traducción automática, análisis de datos) hasta modelos generativos recientes. La guía reconoce que, si bien muchas ya forman parte del ecosistema bibliotecario, el público y los debates suelen centrarse en herramientas más novedosas como los grandes modelos de lenguaje.

La guía forma parte de una serie temática (2025‑2026), alineada con el Código de Ética de la IFLA y otros documentos. La organización se compromete a actualizarla regularmente, reflejando los rápidos cambios en el ámbito de la IA . En la misma, IFLA enfatiza el deber profesional de garantizar que los beneficios de la IA —por ejemplo, en términos de acceso al conocimiento y eficiencia operativa— se obtengan de forma responsable, equitativa y sostenible. Asimismo, alerta sobre el potencial generador de daños, evitando que la “hiperexcitación tecnológica” opaque soluciones más simples, justas y asequibles.

Identifica múltiples aplicaciones útiles para las bibliotecas, entre ellas:

  • Digitalización masiva (textos, archivos visuales, grabados).
  • Creación de metadatos a escala.
  • Sistemas de recomendación y personalización.
  • Resúmenes automatizados, análisis de datos, traducciones y chatbots.
  • Soporte en tareas profesionales internas (p. ej., redacción de informes)

Aunque el documento alerta también sobre 14 riesgos clave, como:

  • Concentración de poder en empresas tecnológicas y carreras de IA desreguladas
  • Sobrehype y casos de uso poco relevantes o ineficaces.
  • Información inexacta o desactualizada, con invención de fuentes.
  • Sesgos heredados de datos de entrenamiento.
  • Pérdida de diversidad cultural y lingüística.
  • Desinformación y censura.
  • Brecha digital y acceso desigual.
  • Opacidad, falta de explicabilidad y responsabilidad.
  • Privacidad y seguridad de los datos de usuarios.
  • Propiedad intelectual y derechos de autor, especialmente por el scraping de datos.
  • Falta de consulta a las partes interesadas.
  • Reducción de autonomía humana y dependencia tecnológica.
  • Desplazamiento laboral y explotación de trabajadores precarios.
  • Impacto ambiental por consumo energético y agua en centros de datos.

Además, Incluye 14 preguntas orientadoras (por ejemplo: ¿son los beneficios justificables?, ¿es equitativo el acceso?, ¿se protege la privacidad?, ¿quién es responsable ante errores?, ¿cómo se involucra a la comunidad?). Están concebidas para estructurar debates, talleres o análisis internos

Se presentan escenarios prácticos para ilustrar cómo aplicar estas preguntas en situaciones reales: uso interno por parte del personal, apoyo a la creación de metadatos, elección de proveedores externos, entre otros. Estos ayudan a traducir preguntas abstractas en decisiones tangibles.

Y propone diferentes niveles de acción

La IFLA propone seis niveles de acción:

  1. Desarrollar o licenciar herramientas de IA.
  2. Contribuir a la creación y entrenamiento de modelos en interés público.
  3. Guiar a usuarios en el uso responsable de IA.
  4. Incluir alfabetización en IA dentro de la alfabetización digital.
  5. Asesorar internamente respecto a políticas de IA.
  6. Abogar por un uso ético y regulado de la IA en la sociedad

Desafíos y desigualdades que enfrenta la alfabetización en inteligencia artificial (IA) en el ámbito universitario

Chen, Zhuo; Nathan Kelber; y Ruby MacDougall. “The Divided State of AI in Higher Education.Ithaka S+R (blog), 9 de junio de 2025. https://sr.ithaka.org/blog/the-divided-state-of-ai-in-higher-education/

El artículo expone cómo la alfabetización en inteligencia artificial en la educación superior está fragmentada entre disciplinas, generaciones y políticas institucionales. Muchas universidades carecen de estrategias coherentes, con recursos distribuidos de forma desigual y enfoques que priorizan al profesorado sobre el estudiantado. Ante esta división, el proyecto “Integrating AI Literacy into the Curricula” busca desarrollar un marco común que unifique criterios y fomente una implementación equitativa.

Se analiza los desafíos y desigualdades que enfrenta la alfabetización en inteligencia artificial (IA) en el ámbito universitario. Señalan que esta alfabetización no sigue un patrón uniforme: mientras algunas instituciones ofrecen programas e iniciativas formales, otras no cuentan con talleres ni formación sistemática. Además, existen marcadas diferencias según el campo académico—las ramas de ciencias y negocios adoptan la IA con mayor rapidez, mientras que las humanidades mantienen una postura más reservada—y según la generación docente, donde el profesorado joven se muestra más receptivo frente al escepticismo del profesorado con mayor trayectoria

Otra división clave es la disparidad entre los enfoques institucionales: no hay una política común sobre qué implica la alfabetización en IA ni cómo integrarla en los planes de estudio. En muchas universidades, los recursos y los programas relacionados con IA están aislados entre bibliotecas, centros de enseñanza e informática, sin una estrategia cohesiva a nivel campus . Esto contrasta con la presión comercial, pues muchos centros tienen acceso a herramientas IA antes incluso de formar al personal o establecer estándares.

El informe destaca también que las formaciones en IA están más orientadas al profesorado que al estudiantado. En algunas universidades, los profesores pueden utilizar IA libremente en su labor, mientras que los estudiantes apenas tienen permiso para hacerlo, y cuando lo tienen, depende del criterio individual del docente. Además, no existen buenas prácticas estandarizadas para guiar su integración en la enseñanza .

Como respuesta, Ithaka S+R ha lanzado el proyecto “Integrating AI Literacy into the Curricula”, que ha convocado a 45 instituciones para abordar estas divisiones colaborativamente. En la reunión inicial (abril de 2025), participantes identificaron las brechas existentes y comenzaron a compartir soluciones, aunque todavía no existe un modelo unificado. El objetivo es construir un marco compartido de alfabetización en IA que supere las diferencias disciplinarias, generacionales y organizativas

¿Qué ocurre cuando la gente no entiende cómo funciona la IA?

Harper, Tyler Austin. “What Happens When People Don’t Understand How AI Works.” The Atlantic, 6 de junio de 2025. https://www.theatlantic.com/culture/archive/2025/06/artificial-intelligence-illiteracy/683021/.

El artículo analiza los peligros de la «analfabetización en IA», es decir, la falta de comprensión pública sobre cómo funcionan realmente los modelos de lenguaje como ChatGPT. Esta ignorancia puede generar desde relaciones emocionales inapropiadas hasta delirios. El autor aboga por una alfabetización crítica que enfrente tanto los mitos tecnológicos como sus implicaciones sociales y laborales.

El núcleo del texto es la crítica a la “analfabetización en IA” (AI illiteracy): muchas personas creen que los LLMs “entienden”, “piensan” o “sienten”, cuando en realidad estos sistemas operan mediante cálculos probabilísticos sobre vastas bases de datos. No tienen conciencia ni intencionalidad; simplemente generan texto estadísticamente plausible . Sin embargo, esa apariencia de inteligencia puede inducir a los usuarios a errores de juicio o relaciones inapropiadas con el sistema, como terapeutas, consejeros o fuentes espirituales.

Harper recuerda casos extremos, como el de personas que desarrollan delirios en torno a ChatGPT —considerándolo una figura divina o guía—, fenómeno documentado en artículos como uno de Rolling Stone, describiendo “psicosis inducida por ChatGPT”: un hombre cree que la IA es “ChatGPT‑Jesus”, otros piensan que el modelo les revela verdades místicas. Estas situaciones reflejan hasta qué punto la falta de comprensión sobre lo que es (y no es) la IA puede afectar la percepción emocional y racional de los usuarios.

El autor también critica la imitación de relaciones humanas por parte de la tecnología: desde terapeutas virtuales hasta “amigos” o incluso parejas románticas automatizadas. Silicon Valley impulsa narrativas de inteligencia emocional en las máquinas (como declaraciones de Sam Altman, Dario Amodei o Demis Hassabis), pero Harper cuestiona si esta sustitución de vínculos humanos por algoritmos pueda restablecer empatía o, al contrario, magnificar la alienación y la pobreza afectiva

Además, denuncia la explotación laboral que subyace en el entrenamiento de IA. Hao documenta los traumas de moderadores de contenido en países como Kenia, quienes revisan imágenes perturbadoras—todo para “humanizar” las respuestas de los modelos—mientras estos trabajadores reciben salarios ínfimos . Este contraste evidencia una cara oscura de la industria, donde avanzan capacidades técnicas sobre la atención al bienestar de quienes las posibilitan.

A pesar de las amenazas señaladas, Harper muestra que buena parte del público es escéptico con la IA. Según una encuesta del Pew Research Center, solo el 17 % de los adultos estadounidenses confía plenamente en que la IA mejore al país, frente al 56 % de expertos que lo cree. Este distanciamiento puede ser una oportunidad: si se impulsa una alfabetización real en IA—ensuciándose las manos para entender su funcionamiento, sus límites y sus riesgos—será posible mitigar efectos negativos . Harper cita como ejemplo un caso en que explicar a un afectado que las respuestas de ChatGPT dependían de una actualización errónea —no de consciencia— fue un paso crucial para disipar su delirio

Perspectivas de los estudiantes sobre los beneficios y riesgos de la inteligencia artificial en la educación

Pitts, Griffin, Viktoria Marcus, y Sanaz Motamedi. “Student Perspectives on the Benefits and Risks of AI in Education.” arXiv, 2025. https://arxiv.org/abs/2505.02198v2

Se ofrece una visión detallada sobre cómo perciben los estudiantes universitarios el uso de chatbots de inteligencia artificial (IA) en el ámbito educativo. Basado en una encuesta a 262 estudiantes de grado en una universidad pública estadounidense de gran tamaño, el estudio busca comprender no solo los aspectos positivos que los alumnos asocian con estas tecnologías, sino también sus inquietudes y temores respecto a su integración en el proceso de aprendizaje.

Entre los beneficios más valorados, los estudiantes resaltaron que los chatbots facilitan el estudio mediante un apoyo constante, ofreciendo respuestas rápidas y retroalimentación inmediata, lo que les permite aclarar dudas al instante y avanzar en su formación sin depender exclusivamente de la disponibilidad de profesores o tutores. También reconocieron que estas herramientas pueden complementar la instrucción tradicional, proporcionando explicaciones accesibles y ayudando a reforzar conceptos clave. Asimismo, valoran la posibilidad de acceder a información de manera ágil y en formatos variados, lo que les permite adaptar el aprendizaje a sus ritmos y estilos personales.

Sin embargo, el estudio también expone preocupaciones profundas que los estudiantes tienen sobre los riesgos y limitaciones de la IA en educación. Entre ellas, destaca la amenaza a la integridad académica, ya que temen que el uso de IA para generar trabajos o respuestas pueda fomentar el plagio y dificultar la evaluación justa del esfuerzo individual. Además, existe la preocupación de que la dependencia excesiva de estas herramientas pueda erosionar habilidades esenciales como el pensamiento crítico, el análisis profundo y la resolución creativa de problemas, capacidades que son fundamentales para el desarrollo académico y profesional. La fiabilidad de las respuestas generadas por los chatbots también es cuestionada, pues los estudiantes advierten que la IA puede ofrecer información inexacta o incompleta, lo que podría inducir a errores en el aprendizaje.

Los aspectos éticos también aparecen como una dimensión clave en la percepción estudiantil. Los alumnos expresan inquietudes relacionadas con la privacidad de sus datos, la posibilidad de sesgos algorítmicos que reproduzcan desigualdades o prejuicios, y el impacto ambiental asociado al alto consumo energético que requiere el entrenamiento y funcionamiento de estos sistemas. Finalmente, subrayan la importancia de mantener un componente humano en la educación, valorando la interacción personal, el juicio y la empatía que los docentes aportan, aspectos que consideran irremplazables por la inteligencia artificial.

Un tema particularmente delicado es la dificultad para distinguir entre trabajos realizados por estudiantes y aquellos generados total o parcialmente por IA, lo que genera incertidumbre sobre cómo evaluar la autoría y la autenticidad académica. Existe el temor de que trabajos legítimos puedan ser erróneamente señalados como producidos por IA, con consecuencias negativas para los estudiantes.

Ante estas complejas realidades, el artículo recomienda que las instituciones educativas desarrollen políticas claras y transparentes sobre el uso de IA, definiendo límites y condiciones que fomenten un empleo responsable y ético de estas tecnologías. Además, sugiere que se promueva una alfabetización digital sólida entre estudiantes y docentes para que comprendan las capacidades, limitaciones y riesgos de la IA, y puedan integrarla como una herramienta complementaria en su proceso de aprendizaje. Solo así se podrá maximizar el potencial de la inteligencia artificial para enriquecer la educación, garantizando al mismo tiempo la calidad, la equidad y la integridad del entorno académico.

Pros y contras

Pros:

  • Apoyo al estudio: La IA proporciona ayuda constante y personalizada, facilitando la comprensión de conceptos complejos.
  • Retroalimentación inmediata: Los chatbots responden al instante, lo que acelera el proceso de aprendizaje y resolución de dudas.
  • Capacidades instructivas: La IA complementa la enseñanza tradicional con explicaciones claras y adaptadas.
  • Acceso ágil a la información: Permite a los estudiantes encontrar rápidamente datos y recursos útiles.
  • Flexibilidad: Los estudiantes pueden aprender a su propio ritmo y según sus necesidades.

Contras:

  • Riesgo para la integridad académica: Posibilidad de plagio o trabajos generados por IA que dificultan la evaluación justa.
  • Pérdida de habilidades críticas: Dependencia excesiva que puede afectar el desarrollo del pensamiento crítico y creativo.
  • Fiabilidad cuestionable: La IA puede generar respuestas inexactas o incompletas, afectando el aprendizaje.
  • Cuestiones éticas: Problemas relacionados con la privacidad de datos, sesgos algorítmicos y el impacto ambiental.
  • Dificultad para distinguir autorías: Complica la identificación de trabajos auténticos frente a los generados por IA.
  • Necesidad de mantener el componente humano: La interacción y juicio de docentes siguen siendo esenciales y no reemplazables.

La alfabetización en inteligencia artificial: una competencia clave para la educación del siglo XXI

El Marco AILit refleja conocimientos, destrezas y actitudes relevantes que se encuentran en múltiples disciplinas académicas

Tanya Milberg, «Why AI Literacy Is Now a Core Competency in Education» World Economic Forum, May 22, 2025. https://www.weforum.org/stories/2025/05/why-ai-literacy-is-now-a-core-competency-in-education/

La alfabetización en inteligencia artificial (IA) se ha convertido en una competencia esencial en educación, ya que la IA está transformando profundamente la forma en que vivimos, trabajamos y aprendemos. Ante este panorama, el Foro Económico Mundial y organizaciones como la Comisión Europea, la OCDE y Code.org han desarrollado el Marco de Alfabetización en IA (AILit) para preparar a los estudiantes a desenvolverse en un mundo cada vez más integrado con IA.

La alfabetización en inteligencia artificial (IA) ya no es opcional, sino una competencia esencial en la educación contemporánea. Frente al avance imparable de la tecnología, en especial la IA generativa, los sistemas educativos deben evolucionar más allá de la alfabetización digital básica y adoptar un enfoque integral que prepare a los estudiantes para vivir, trabajar y aprender en un mundo profundamente influido por la IA.

Los estudiantes actuales ya están expuestos a herramientas de IA, tanto dentro como fuera del aula. Sin embargo, muchos carecen de una formación formal sobre cómo funcionan estas herramientas, sus limitaciones, sesgos y riesgos potenciales. Un informe conjunto de TeachAI y EY reveló que casi la mitad de la Generación Z tiene dificultades para identificar deficiencias en tecnologías de IA, como la invención de hechos por parte de sistemas generativos.

El Foro Económico Mundial subraya que no basta con enseñar a programar o a usar tecnología: es necesario desarrollar habilidades cognitivas y éticas que permitan evaluar críticamente las salidas de la IA, colaborar con ella de forma creativa y comprender su papel en la sociedad.

AI Literacy Framework (AILit) define la alfabetización en IA como una combinación de conocimientos, habilidades y actitudes que permiten a los estudiantes interactuar con la IA de manera responsable y eficaz. El marco se organiza en cuatro dominios clave, acompañados por 23 competencias específicas y ejemplos prácticos para su implementación en el aula:

  1. Interacción con la IA: Comprender cuándo y cómo está presente la IA en herramientas cotidianas y evaluar críticamente sus resultados.
  2. Creación con IA: Utilizar herramientas de IA para resolver problemas y fomentar la creatividad, considerando implicaciones éticas como la propiedad y el sesgo.
  3. Gestión de las acciones de la IA: Delegar tareas a la IA con responsabilidad, estableciendo límites claros y garantizando supervisión humana.
  4. Diseño de soluciones con IA: Comprender cómo funciona la IA y cómo construir o adaptar sistemas para abordar problemas reales.

Este enfoque interdisciplinar permite que el marco se aplique no solo en clases de informática, sino también en asignaturas como lengua, arte o ciencias sociales, integrando la IA como un tema transversal en toda la educación.

El marco incluye 23 competencias y escenarios pedagógicos para aplicarlo en distintas asignaturas, no solo en tecnología. También se alinea con políticas europeas como el Plan de Acción de Educación Digital y el AI Act, que exigen niveles mínimos de alfabetización en IA para educadores y estudiantes.

Dado que se prevé que el 40% de las habilidades necesarias en el mercado laboral cambiarán en cinco años, se insiste en la urgencia de enseñar habilidades específicas como el pensamiento algorítmico, la ingeniería de prompts y la comprensión del sesgo de datos. Sin embargo, también se enfatizan las habilidades humanas que la IA no puede replicar, como la empatía, el juicio ético y la colaboración.

El AILit está en fase de consulta pública hasta finales de 2025. Se anima a educadores, responsables políticos y diseñadores de currículo a participar en su mejora. El objetivo es formar a las nuevas generaciones no solo como usuarias de la IA, sino como sus creadoras y guardianas éticas.