Archivo de la categoría: Alfabetización informacional

¿Qué ocurre cuando la gente no entiende cómo funciona la IA?

Harper, Tyler Austin. “What Happens When People Don’t Understand How AI Works.” The Atlantic, 6 de junio de 2025. https://www.theatlantic.com/culture/archive/2025/06/artificial-intelligence-illiteracy/683021/.

El artículo analiza los peligros de la «analfabetización en IA», es decir, la falta de comprensión pública sobre cómo funcionan realmente los modelos de lenguaje como ChatGPT. Esta ignorancia puede generar desde relaciones emocionales inapropiadas hasta delirios. El autor aboga por una alfabetización crítica que enfrente tanto los mitos tecnológicos como sus implicaciones sociales y laborales.

El núcleo del texto es la crítica a la “analfabetización en IA” (AI illiteracy): muchas personas creen que los LLMs “entienden”, “piensan” o “sienten”, cuando en realidad estos sistemas operan mediante cálculos probabilísticos sobre vastas bases de datos. No tienen conciencia ni intencionalidad; simplemente generan texto estadísticamente plausible . Sin embargo, esa apariencia de inteligencia puede inducir a los usuarios a errores de juicio o relaciones inapropiadas con el sistema, como terapeutas, consejeros o fuentes espirituales.

Harper recuerda casos extremos, como el de personas que desarrollan delirios en torno a ChatGPT —considerándolo una figura divina o guía—, fenómeno documentado en artículos como uno de Rolling Stone, describiendo “psicosis inducida por ChatGPT”: un hombre cree que la IA es “ChatGPT‑Jesus”, otros piensan que el modelo les revela verdades místicas. Estas situaciones reflejan hasta qué punto la falta de comprensión sobre lo que es (y no es) la IA puede afectar la percepción emocional y racional de los usuarios.

El autor también critica la imitación de relaciones humanas por parte de la tecnología: desde terapeutas virtuales hasta “amigos” o incluso parejas románticas automatizadas. Silicon Valley impulsa narrativas de inteligencia emocional en las máquinas (como declaraciones de Sam Altman, Dario Amodei o Demis Hassabis), pero Harper cuestiona si esta sustitución de vínculos humanos por algoritmos pueda restablecer empatía o, al contrario, magnificar la alienación y la pobreza afectiva

Además, denuncia la explotación laboral que subyace en el entrenamiento de IA. Hao documenta los traumas de moderadores de contenido en países como Kenia, quienes revisan imágenes perturbadoras—todo para “humanizar” las respuestas de los modelos—mientras estos trabajadores reciben salarios ínfimos . Este contraste evidencia una cara oscura de la industria, donde avanzan capacidades técnicas sobre la atención al bienestar de quienes las posibilitan.

A pesar de las amenazas señaladas, Harper muestra que buena parte del público es escéptico con la IA. Según una encuesta del Pew Research Center, solo el 17 % de los adultos estadounidenses confía plenamente en que la IA mejore al país, frente al 56 % de expertos que lo cree. Este distanciamiento puede ser una oportunidad: si se impulsa una alfabetización real en IA—ensuciándose las manos para entender su funcionamiento, sus límites y sus riesgos—será posible mitigar efectos negativos . Harper cita como ejemplo un caso en que explicar a un afectado que las respuestas de ChatGPT dependían de una actualización errónea —no de consciencia— fue un paso crucial para disipar su delirio

Perspectivas de los estudiantes sobre los beneficios y riesgos de la inteligencia artificial en la educación

Pitts, Griffin, Viktoria Marcus, y Sanaz Motamedi. “Student Perspectives on the Benefits and Risks of AI in Education.” arXiv, 2025. https://arxiv.org/abs/2505.02198v2

Se ofrece una visión detallada sobre cómo perciben los estudiantes universitarios el uso de chatbots de inteligencia artificial (IA) en el ámbito educativo. Basado en una encuesta a 262 estudiantes de grado en una universidad pública estadounidense de gran tamaño, el estudio busca comprender no solo los aspectos positivos que los alumnos asocian con estas tecnologías, sino también sus inquietudes y temores respecto a su integración en el proceso de aprendizaje.

Entre los beneficios más valorados, los estudiantes resaltaron que los chatbots facilitan el estudio mediante un apoyo constante, ofreciendo respuestas rápidas y retroalimentación inmediata, lo que les permite aclarar dudas al instante y avanzar en su formación sin depender exclusivamente de la disponibilidad de profesores o tutores. También reconocieron que estas herramientas pueden complementar la instrucción tradicional, proporcionando explicaciones accesibles y ayudando a reforzar conceptos clave. Asimismo, valoran la posibilidad de acceder a información de manera ágil y en formatos variados, lo que les permite adaptar el aprendizaje a sus ritmos y estilos personales.

Sin embargo, el estudio también expone preocupaciones profundas que los estudiantes tienen sobre los riesgos y limitaciones de la IA en educación. Entre ellas, destaca la amenaza a la integridad académica, ya que temen que el uso de IA para generar trabajos o respuestas pueda fomentar el plagio y dificultar la evaluación justa del esfuerzo individual. Además, existe la preocupación de que la dependencia excesiva de estas herramientas pueda erosionar habilidades esenciales como el pensamiento crítico, el análisis profundo y la resolución creativa de problemas, capacidades que son fundamentales para el desarrollo académico y profesional. La fiabilidad de las respuestas generadas por los chatbots también es cuestionada, pues los estudiantes advierten que la IA puede ofrecer información inexacta o incompleta, lo que podría inducir a errores en el aprendizaje.

Los aspectos éticos también aparecen como una dimensión clave en la percepción estudiantil. Los alumnos expresan inquietudes relacionadas con la privacidad de sus datos, la posibilidad de sesgos algorítmicos que reproduzcan desigualdades o prejuicios, y el impacto ambiental asociado al alto consumo energético que requiere el entrenamiento y funcionamiento de estos sistemas. Finalmente, subrayan la importancia de mantener un componente humano en la educación, valorando la interacción personal, el juicio y la empatía que los docentes aportan, aspectos que consideran irremplazables por la inteligencia artificial.

Un tema particularmente delicado es la dificultad para distinguir entre trabajos realizados por estudiantes y aquellos generados total o parcialmente por IA, lo que genera incertidumbre sobre cómo evaluar la autoría y la autenticidad académica. Existe el temor de que trabajos legítimos puedan ser erróneamente señalados como producidos por IA, con consecuencias negativas para los estudiantes.

Ante estas complejas realidades, el artículo recomienda que las instituciones educativas desarrollen políticas claras y transparentes sobre el uso de IA, definiendo límites y condiciones que fomenten un empleo responsable y ético de estas tecnologías. Además, sugiere que se promueva una alfabetización digital sólida entre estudiantes y docentes para que comprendan las capacidades, limitaciones y riesgos de la IA, y puedan integrarla como una herramienta complementaria en su proceso de aprendizaje. Solo así se podrá maximizar el potencial de la inteligencia artificial para enriquecer la educación, garantizando al mismo tiempo la calidad, la equidad y la integridad del entorno académico.

Pros y contras

Pros:

  • Apoyo al estudio: La IA proporciona ayuda constante y personalizada, facilitando la comprensión de conceptos complejos.
  • Retroalimentación inmediata: Los chatbots responden al instante, lo que acelera el proceso de aprendizaje y resolución de dudas.
  • Capacidades instructivas: La IA complementa la enseñanza tradicional con explicaciones claras y adaptadas.
  • Acceso ágil a la información: Permite a los estudiantes encontrar rápidamente datos y recursos útiles.
  • Flexibilidad: Los estudiantes pueden aprender a su propio ritmo y según sus necesidades.

Contras:

  • Riesgo para la integridad académica: Posibilidad de plagio o trabajos generados por IA que dificultan la evaluación justa.
  • Pérdida de habilidades críticas: Dependencia excesiva que puede afectar el desarrollo del pensamiento crítico y creativo.
  • Fiabilidad cuestionable: La IA puede generar respuestas inexactas o incompletas, afectando el aprendizaje.
  • Cuestiones éticas: Problemas relacionados con la privacidad de datos, sesgos algorítmicos y el impacto ambiental.
  • Dificultad para distinguir autorías: Complica la identificación de trabajos auténticos frente a los generados por IA.
  • Necesidad de mantener el componente humano: La interacción y juicio de docentes siguen siendo esenciales y no reemplazables.

La alfabetización en inteligencia artificial: una competencia clave para la educación del siglo XXI

El Marco AILit refleja conocimientos, destrezas y actitudes relevantes que se encuentran en múltiples disciplinas académicas

Tanya Milberg, «Why AI Literacy Is Now a Core Competency in Education» World Economic Forum, May 22, 2025. https://www.weforum.org/stories/2025/05/why-ai-literacy-is-now-a-core-competency-in-education/

La alfabetización en inteligencia artificial (IA) se ha convertido en una competencia esencial en educación, ya que la IA está transformando profundamente la forma en que vivimos, trabajamos y aprendemos. Ante este panorama, el Foro Económico Mundial y organizaciones como la Comisión Europea, la OCDE y Code.org han desarrollado el Marco de Alfabetización en IA (AILit) para preparar a los estudiantes a desenvolverse en un mundo cada vez más integrado con IA.

La alfabetización en inteligencia artificial (IA) ya no es opcional, sino una competencia esencial en la educación contemporánea. Frente al avance imparable de la tecnología, en especial la IA generativa, los sistemas educativos deben evolucionar más allá de la alfabetización digital básica y adoptar un enfoque integral que prepare a los estudiantes para vivir, trabajar y aprender en un mundo profundamente influido por la IA.

Los estudiantes actuales ya están expuestos a herramientas de IA, tanto dentro como fuera del aula. Sin embargo, muchos carecen de una formación formal sobre cómo funcionan estas herramientas, sus limitaciones, sesgos y riesgos potenciales. Un informe conjunto de TeachAI y EY reveló que casi la mitad de la Generación Z tiene dificultades para identificar deficiencias en tecnologías de IA, como la invención de hechos por parte de sistemas generativos.

El Foro Económico Mundial subraya que no basta con enseñar a programar o a usar tecnología: es necesario desarrollar habilidades cognitivas y éticas que permitan evaluar críticamente las salidas de la IA, colaborar con ella de forma creativa y comprender su papel en la sociedad.

AI Literacy Framework (AILit) define la alfabetización en IA como una combinación de conocimientos, habilidades y actitudes que permiten a los estudiantes interactuar con la IA de manera responsable y eficaz. El marco se organiza en cuatro dominios clave, acompañados por 23 competencias específicas y ejemplos prácticos para su implementación en el aula:

  1. Interacción con la IA: Comprender cuándo y cómo está presente la IA en herramientas cotidianas y evaluar críticamente sus resultados.
  2. Creación con IA: Utilizar herramientas de IA para resolver problemas y fomentar la creatividad, considerando implicaciones éticas como la propiedad y el sesgo.
  3. Gestión de las acciones de la IA: Delegar tareas a la IA con responsabilidad, estableciendo límites claros y garantizando supervisión humana.
  4. Diseño de soluciones con IA: Comprender cómo funciona la IA y cómo construir o adaptar sistemas para abordar problemas reales.

Este enfoque interdisciplinar permite que el marco se aplique no solo en clases de informática, sino también en asignaturas como lengua, arte o ciencias sociales, integrando la IA como un tema transversal en toda la educación.

El marco incluye 23 competencias y escenarios pedagógicos para aplicarlo en distintas asignaturas, no solo en tecnología. También se alinea con políticas europeas como el Plan de Acción de Educación Digital y el AI Act, que exigen niveles mínimos de alfabetización en IA para educadores y estudiantes.

Dado que se prevé que el 40% de las habilidades necesarias en el mercado laboral cambiarán en cinco años, se insiste en la urgencia de enseñar habilidades específicas como el pensamiento algorítmico, la ingeniería de prompts y la comprensión del sesgo de datos. Sin embargo, también se enfatizan las habilidades humanas que la IA no puede replicar, como la empatía, el juicio ético y la colaboración.

El AILit está en fase de consulta pública hasta finales de 2025. Se anima a educadores, responsables políticos y diseñadores de currículo a participar en su mejora. El objetivo es formar a las nuevas generaciones no solo como usuarias de la IA, sino como sus creadoras y guardianas éticas.

Transformar el aprendizaje con IA generativa: de las percepciones de los estudiantes al diseño de una solución educativa

Mirea, Corina-Marina, Răzvan Bologa, Andrei Toma, Antonio Clim, Dimitrie-Daniel Plăcintă, and Andrei Bobocea. 2025. «Transforming Learning with Generative AI: From Student Perceptions to the Design of an Educational Solution» Applied Sciences 15, no. 10: 5785. https://doi.org/10.3390/app15105785

Se explora cómo la inteligencia artificial generativa, específicamente herramientas como ChatGPT-3.5 y ChatGPT-4, está transformando el proceso de aprendizaje desde la perspectiva de los estudiantes hasta el diseño de soluciones educativas adaptativas.

El estudio se centra en comprender cómo los estudiantes perciben el uso de herramientas de IA generativa en su proceso de aprendizaje y cómo estas herramientas pueden integrarse en sistemas educativos adaptativos para mejorar los resultados académicos.

Los investigadores realizaron una encuesta entre estudiantes para recopilar datos sobre sus experiencias y percepciones al utilizar ChatGPT en sus estudios. Además, analizaron arquitecturas de plataformas de aprendizaje existentes para proponer una nueva arquitectura de sistema de aprendizaje adaptativo que incorpore IA generativa.

El objetivo principal del estudio es doble: por un lado, evaluar cómo los estudiantes perciben el uso de herramientas de IA generativa en su proceso de aprendizaje; por otro, diseñar una arquitectura de sistema de aprendizaje adaptativo que aproveche estas herramientas para crear entornos educativos más eficaces. La investigación parte de un enfoque empírico basado en encuestas a estudiantes universitarios, complementado con un análisis técnico de plataformas de aprendizaje digital existentes. Con base en estos dos pilares —la percepción de los usuarios y el estado del arte tecnológico— los autores desarrollan una propuesta concreta de solución educativa basada en IA.

Los resultados de la encuesta reflejan que una mayoría significativa de estudiantes percibe beneficios concretos en el uso de herramientas como ChatGPT. Entre los aspectos más valorados se encuentran la ayuda para la comprensión de conceptos complejos, el apoyo en la redacción de textos y la posibilidad de resolver dudas de manera inmediata y personalizada. Muchos estudiantes afirmaron que estas interacciones habían tenido un efecto positivo en su rendimiento académico.

También se identificaron algunos riesgos y desafíos, como la dependencia excesiva de la IA, la posibilidad de recibir información incorrecta o sesgada y la disminución del pensamiento crítico si no se usan las herramientas de forma consciente y reflexiva. No obstante, los estudiantes demostraron una actitud crítica y madura, reconociendo que la IA es una herramienta de apoyo y no un sustituto del aprendizaje activo.

A partir de los hallazgos, los autores proponen una arquitectura de sistema de aprendizaje adaptativo que integra IA generativa como núcleo funcional. Esta arquitectura se basa en varios módulos: gestión del conocimiento, personalización del aprendizaje, interacción con el usuario, seguimiento del progreso, evaluación formativa y retroalimentación continua. La IA generativa se utiliza principalmente para generar contenidos personalizados, explicar conceptos según el nivel del estudiante, ofrecer ejercicios prácticos y simular escenarios de aprendizaje.

El sistema está diseñado para aprender del comportamiento y las respuestas del estudiante, adaptándose dinámicamente a sus necesidades, intereses y ritmo de aprendizaje. Esto permite una experiencia educativa más personalizada, motivadora y eficaz. Además, el modelo considera la necesidad de incorporar mecanismos éticos y de verificación de la información generada por la IA.

Guía del estudiante sobre inteligencia artificial

AAC&U (American Association of Colleges and Universities). 2025. «New Student Guide to Artificial Intelligence Provides Expanded Resources for Navigating College in the AI Age.» AAC&U, May 6, 2025.

Texto completo

La Asociación Estadounidense de Universidades y Colegios (AAC&U) y la Universidad de Elon han publicado la segunda entrega de la serie Student Guide to Artificial Intelligence. Al igual que la primera edición, este recurso es gratuito y está disponible para estudiantes e instituciones a través de su sitio web y el de la AAC&U.

La nueva guía está diseñada para ayudar a los estudiantes a prepararse para el uso de la IA en sus estudios. Está organizada en torno a cinco competencias clave:

  • Investigación, recopilación de información y resumen
  • Escritura
  • Trabajo creativo
  • Análisis de datos y números
  • Apoyo al estudio y al aprendizaje

Además, incluye capítulos dedicados a la integridad académica, la ética de la IA, la planificación profesional y la creación de un portafolio con proyectos asistidos por IA.

El contenido fue desarrollado con la colaboración de expertos en inteligencia artificial y profesores universitarios de 14 países, incluidos Estados Unidos, España, Francia, Alemania, Japón y Venezuela, así como con aportaciones de estudiantes y usuarios de la primera edición.

Necesidad de una Alfabetización en IA

OpenAI. 2025. Building an AI-Ready Workforce: A Look at College Student ChatGPT Adoption in the US. https://cdn.openai.com/global-affairs/openai-edu-ai-ready-workforce.pdf

El informe subraya la necesidad urgente de integrar la educación en inteligencia artificial en el sistema educativo para preparar adecuadamente a los estudiantes para un mercado laboral cada vez más influenciado por la tecnología. La adopción desigual de herramientas como ChatGPT y la falta de formación formal en IA podrían ampliar las brechas económicas y de habilidades entre diferentes regiones y grupos demográficos.

El informe ofrece un análisis detallado sobre cómo los estudiantes universitarios en Estados Unidos están adoptando herramientas de inteligencia artificial, especialmente ChatGPT, y cómo esta tendencia influye en la preparación de la futura fuerza laboral.

Según el informe, más de un tercio de los jóvenes de 18 a 24 años en EE. UU. utilizan ChatGPT, y aproximadamente una cuarta parte de sus interacciones con la herramienta están relacionadas con el aprendizaje, la tutoría y el trabajo académico. Los estudiantes emplean ChatGPT para iniciar trabajos y proyectos, resumir textos extensos, explorar temas, revisar escritos y obtener ayuda en programación.

La adopción de ChatGPT varía significativamente entre los estados. California, Virginia, Nueva Jersey y Nueva York presentan las tasas más altas de uso entre los jóvenes de 18 a 24 años, mientras que Wyoming, Alaska, Montana y Virginia Occidental muestran tasas considerablemente más bajas. Estas diferencias podrían generar disparidades en la preparación de la fuerza laboral y en el desarrollo económico futuro.

El informe destaca que tres de cada cuatro estudiantes universitarios desean formación en inteligencia artificial, pero solo una de cada cuatro instituciones educativas la ofrece actualmente. Esta falta de formación formal lleva a muchos estudiantes a aprender sobre IA de manera autodidacta o a través de sus compañeros, lo que puede resultar en una comprensión desigual y en posibles problemas de integridad académica.

OpenAI propone varias acciones para abordar estas brechas:

  • Mejorar la alfabetización en IA: Integrar la educación en inteligencia artificial en los planes de estudio para que los estudiantes comprendan cómo utilizar estas herramientas de manera efectiva y ética.
  • Ampliar el acceso a herramientas de IA: Asegurar que todos los estudiantes, independientemente de su ubicación o situación económica, tengan acceso a tecnologías de IA como ChatGPT.
  • Establecer políticas claras sobre el uso de IA: Desarrollar directrices institucionales que definan cómo y cuándo es apropiado utilizar herramientas de IA en contextos educativos.

En una reciente entrevista durante el evento AI Ascent de Sequoia Capital, el CEO de OpenAI, Sam Altman, destacó que muchos jóvenes no toman decisiones importantes en su vida sin consultar antes con ChatGPT. Para esta generación, la herramienta no es solo un asistente de tareas o un recurso para resolver dudas, sino una especie de confidente digital presente en casi todos los aspectos de su vida cotidiana. En concreto afirmó

«Las personas mayores utilizan ChatGPT como sustituto de Google. Quizá los veinteañeros y treintañeros lo utilicen como un asesor de vida. Y luego, la gente en la universidad lo usa como un sistema operativo».

Análisis de las alucinaciones en los principales modelos de Inteligencia Artificial

Berenstein, David. “Good Answers Are Not Necessarily Factual Answers: An Analysis of Hallucination in Leading LLMs.” Hugging Face. Accedido el 12 de mayo de 2025. https://huggingface.co/blog/davidberenstein1957/phare-analysis-of-hallucination-in-leading-llms

Se analiza los errores de alucinación en los principales modelos de lenguaje mediante el uso del benchmark Phare (Potential Harm Assessment & Risk Evaluation). Este estudio pone el foco en un problema central: los modelos pueden ofrecer respuestas que suenan convincentes pero que contienen información falsa o inventada, lo que representa un riesgo real en su uso cotidiano.

Uno de los hallazgos principales del análisis es que más de un tercio de los errores detectados en sistemas de IA desplegados públicamente se deben a alucinaciones. Estas no solo son comunes, sino que además suelen ser difíciles de detectar, porque los modelos presentan esas respuestas con un alto grado de confianza. Esto puede confundir fácilmente a los usuarios, especialmente si no tienen el conocimiento necesario para evaluar la veracidad de lo que están leyendo.

La evaluación se llevó a cabo con el marco Phare, que analiza el rendimiento de los modelos a través de varias etapas: recolección de contenido auténtico y representativo, creación de ejemplos de prueba, revisión humana para asegurar la calidad y, finalmente, evaluación del comportamiento de los modelos. Dentro del módulo de alucinación, se valoraron cuatro tareas clave: la precisión factual, la capacidad para resistirse a la desinformación, la habilidad para desmentir bulos o teorías conspirativas, y la fiabilidad en el uso de herramientas externas como bases de datos o APIs.

Un aspecto especialmente relevante que destaca el estudio es la desconexión entre popularidad y fiabilidad. Es decir, que los modelos más valorados por los usuarios en términos de experiencia de uso no siempre son los más precisos en cuanto a la información que generan. Esto sugiere que una buena interacción no garantiza una buena calidad factual, y que es necesario avanzar en métricas que evalúen la veracidad con más rigor.

En conclusión el estudio muestra que las alucinaciones son un problema estructural de los modelos actuales y que su impacto es especialmente delicado en contextos donde la precisión es crítica, como la medicina, el derecho o la educación. Por ello, el artículo concluye que identificar y reducir estos errores debe ser una prioridad para mejorar la seguridad y fiabilidad de los modelos de lenguaje de gran escala.

Situación de la Alfabetización en Inteligencia Artificial en bibliotecas universitarias

Lo, Leo S. The State of AI Literacy in Academic Libraries: A Follow-up Study of Barriers and Opportunities. University of New Mexico, 2026. https://digitalrepository.unm.edu/ulls_fsp/215

El artículo presenta los resultados de una encuesta de seguimiento a nivel nacional en EE. UU. sobre la alfabetización en inteligencia artificial (IA) en bibliotecas universitarias, realizada tres años después del estudio original de 2020. El objetivo es evaluar cómo han cambiado las percepciones, conocimientos, programas y roles de las bibliotecas respecto a la IA, dada su creciente adopción en la sociedad y en el entorno educativo.

Se examina cómo ha evolucionado la alfabetización en inteligencia artificial (IA) entre el personal de bibliotecas universitarias en Estados Unidos entre 2023 y 2024. Esta investigación de seguimiento, realizada por Leo S. Lo, se basa en una encuesta longitudinal que evalúa el conocimiento técnico, las habilidades prácticas, la conciencia ética, el pensamiento crítico y el impacto social de la IA. El estudio aplica el marco TPACK (Technological Pedagogical Content Knowledge), lo que permite analizar la integración efectiva de la tecnología en las prácticas profesionales del personal bibliotecario. A diferencia del estudio de referencia de 2024, esta nueva investigación ofrece una perspectiva dinámica que permite observar tendencias, avances y persistencias en el desarrollo de competencias vinculadas con la IA.

Uno de los principales hallazgos es que, aunque se ha incrementado el conocimiento general sobre la IA, el desarrollo de habilidades más profundas sigue siendo desigual. El entendimiento medio de los conceptos de IA creció de 2.96 a 3.34 en una escala de 1 a 5, y la familiaridad con herramientas de IA generativa como ChatGPT también mostró un crecimiento notable. No obstante, este progreso se dio de manera desigual entre diferentes roles y niveles de experiencia profesional, siendo los grupos con menos años en la profesión y los empleados administrativos quienes mostraron los avances más significativos. En términos de herramientas, ChatGPT se consolidó como la más utilizada tanto en el ámbito profesional como personal.

Un dato llamativo es que la participación en programas de formación en IA no resultó en mejoras estadísticamente significativas en la alfabetización en IA. Los participantes que recibieron capacitación no mostraron diferencias destacables en comprensión, uso de herramientas ni confianza ética respecto a quienes no se formaron. En cambio, sí se evidenció una mejora clara y significativa entre quienes tenían acceso a versiones premium de herramientas de IA. Estas personas demostraron mayor comprensión, familiaridad, frecuencia de uso y confianza para aplicar IA en su trabajo, lo cual sugiere que la experiencia práctica con herramientas potentes tiene más impacto que los programas de formación aislados.

El estudio también indaga en las barreras persistentes para el desarrollo de la alfabetización en IA. Entre los principales obstáculos se encuentran la falta de acceso a herramientas de pago, la escasez de oportunidades de formación estructurada, las dificultades de gestión del tiempo y la resistencia institucional al cambio. Asimismo, se identificaron barreras personales como la ansiedad tecnológica o la inseguridad frente a la adopción de nuevas tecnologías. Estas limitaciones afectan especialmente a instituciones con menos recursos y a profesionales en etapas tempranas de sus carreras.

Las conclusiones del estudio destacan que no basta con ofrecer talleres ocasionales o suscripciones a herramientas: es necesario un enfoque holístico que combine formación práctica, acceso equitativo a tecnologías, tiempo protegido para la experimentación y apoyo institucional. Las bibliotecas que logren integrar estas condiciones en su cultura organizativa estarán mejor preparadas para afrontar los desafíos y aprovechar las oportunidades que ofrece la IA. Finalmente, el artículo recomienda implementar políticas institucionales claras, desarrollar marcos éticos de uso de la IA y fomentar comunidades de aprendizaje que incluyan formación continua y mentoría.

Conclusiones clave:

Incremento general en la alfabetización en IA:
Entre 2023 y 2024, los empleados de bibliotecas universitarias mejoraron significativamente su comprensión de los conceptos de IA y su familiaridad con herramientas como ChatGPT. Sin embargo, el avance se concentró en un nivel básico o intermedio, no en habilidades avanzadas.

El acceso a herramientas premium es clave:
Los participantes que pagaron por herramientas de IA (como ChatGPT Plus) mostraron mejoras estadísticamente significativas en comprensión, uso y confianza. Esto indica que la práctica directa con tecnología avanzada favorece el desarrollo de la alfabetización en IA más que otros factores.

La formación actual no es suficiente:
La participación en programas de formación o desarrollo profesional en IA no produjo mejoras significativas en los niveles de alfabetización. Esto sugiere que los cursos ofrecidos hasta ahora son demasiado generales, teóricos o desconectados de la práctica real.

Persisten barreras estructurales:
La falta de acceso a recursos, la escasez de tiempo para el aprendizaje, la ausencia de apoyo institucional y la resistencia al cambio continúan frenando la alfabetización en IA, especialmente en instituciones con menos recursos y entre profesionales con menos experiencia.

Necesidad de un enfoque holístico:
No basta con ofrecer acceso o formación por separado. Las iniciativas exitosas deben integrar capacitación práctica, acceso equitativo a herramientas, tiempo para experimentar y un entorno institucional que promueva la innovación tecnológica.

Cambio de actitud hacia la IA:
Aumentó la percepción positiva sobre el potencial de la IA para mejorar los servicios bibliotecarios. Esta actitud más receptiva es un factor favorable para impulsar futuras iniciativas.

Recomendación final:
Las bibliotecas universitarias deben adoptar estrategias coordinadas que combinen recursos tecnológicos, formación continua y cultura organizacional abierta al cambio para lograr una alfabetización efectiva y sostenida en IA.

La IA generativa en la enseñanza superior: adopción y retos para profesores e investigadores

Baytas, Claire, y Dylan Ruediger. 2025. Making AI Generative for Higher Education: Adoption and Challenges Among Instructors and Researchers. Ithaka S+R. Publicado el 1 de mayo de 2025.

Texto completo

Desde la aparición de ChatGPT en noviembre de 2022, la inteligencia artificial generativa (IA generativa) se ha convertido en un tema central en la educación superior. Más de dos años después, las instituciones todavía están explorando cómo esta tecnología está transformando la enseñanza, el aprendizaje y la investigación. La preocupación inicial se centraba en el plagio estudiantil y la integridad académica, pero el debate ha evolucionado hacia una evaluación más matizada sobre los beneficios, riesgos éticos, y desafíos institucionales que presenta la IA generativa.

El informe de Ithaka S+R es el resultado de una investigación colaborativa iniciada en 2023 con 19 universidades de Estados Unidos y Canadá. Su objetivo fue comprender cómo docentes e investigadores están adoptando esta tecnología, qué dificultades enfrentan y qué tipo de apoyos necesitan. A través de entrevistas realizadas en la primavera de 2024, se recogieron testimonios de profesorado, estudiantes de posgrado y otros actores implicados en la educación superior.

Uno de los principales hallazgos es la gran variabilidad en el nivel de familiaridad con la IA generativa. Si bien algunos usuarios tienen experiencia avanzada, otros apenas están comenzando a explorar sus aplicaciones. Sin embargo, incluso quienes tienen menor experiencia reconocen la importancia de mejorar su alfabetización digital en IA. Muchos docentes están tratando de incorporar habilidades básicas de IA en las actividades del aula, aunque todavía existe incertidumbre sobre cómo adaptar los objetivos de aprendizaje a estas nuevas herramientas.

Los instructores demandan más orientación institucional, especialmente en lo relativo a la integridad académica y la inclusión formal de la alfabetización en IA en los planes de estudios generales. Por otro lado, la mayoría de los investigadores han probado la IA generativa, pero son pocos los que han encontrado maneras sostenibles de integrarla en sus procesos de investigación a largo plazo. Existe una preocupación extendida por la falta de estándares éticos claros que garanticen la calidad y la integridad del trabajo académico asistido por IA.

Además, tanto docentes como investigadores identifican una carencia de recursos de apoyo específicos para cada disciplina. También expresan inquietudes sobre la seguridad, la asequibilidad y el acceso a herramientas de IA, así como sobre la necesidad de entender mejor el creciente panorama de productos tecnológicos diseñados para la educación superior.

El informe también destaca que, si bien muchas universidades han creado grupos de trabajo sobre IA, redactado políticas modelo para sus planes de estudio y ofrecido talleres de alfabetización digital, persisten obstáculos institucionales que dificultan una implementación efectiva. Las estructuras descentralizadas y la falta de coordinación entre departamentos hacen que sea difícil ofrecer un apoyo integral y coherente. Además, los costos asociados con la adopción masiva de estas tecnologías aún no están claros.

En definitiva, el informe subraya la necesidad de seguir investigando, compartiendo prácticas efectivas y diseñando estrategias institucionales colaborativas para incorporar la IA generativa de forma ética, responsable y pedagógicamente útil en la educación superior.

Los temas clave del informe Making AI Generative for Higher Education de Ithaka S+R (2025) son los siguientes:


1. Adopción desigual y experimental de la IA generativa

  • Los niveles de uso y familiaridad con herramientas como ChatGPT varían ampliamente entre docentes e investigadores.
  • Muchos han experimentado con estas herramientas, pero su uso sistemático en docencia e investigación es todavía limitado.

2. Alfabetización en IA como necesidad urgente

  • Profesores e investigadores reconocen que deben comprender mejor la IA generativa para usarla de manera crítica, ética y efectiva.
  • Existe interés en integrar competencias en IA en la enseñanza, pero falta claridad sobre cómo hacerlo.

3. Falta de políticas institucionales claras

  • Las universidades aún no ofrecen directrices suficientemente concretas sobre el uso aceptable de la IA generativa.
  • Persisten dudas sobre cómo abordar la integridad académica en este nuevo contexto.

4. Preocupaciones sobre ética, sesgos y precisión

  • Inquietud por la calidad, fiabilidad y sesgos de las respuestas generadas por IA.
  • Preocupación por el uso de datos sensibles o malinterpretación de fuentes en contextos académicos.

5. Impacto en la pedagogía universitaria

  • La IA está provocando que los docentes reconsideren sus objetivos educativos, métodos de evaluación y estrategias de aprendizaje.
  • Se debate si la IA debe ser prohibida, regulada o integrada activamente en el aula.

6. Falta de apoyo disciplinar específico

  • Escasez de recursos adaptados a las distintas áreas de conocimiento para usar la IA generativa de forma efectiva y ética.
  • Necesidad de materiales y formación más ajustados a los contextos profesionales y metodológicos de cada disciplina.

7. Desconocimiento del ecosistema de productos IA

  • Muchos académicos no conocen la variedad de herramientas de IA disponibles ni sus diferencias, lo que limita su capacidad para adoptarlas con criterio.

8. Demanda de una respuesta institucional coordinada

  • Profesores e investigadores piden que las universidades lideren el proceso de integración de la IA con formación, políticas claras y acceso seguro a herramientas tecnológicas.

¿Están preparados los profesores universitarios para la inteligencia artificial generativa? La ansiedad del profesorado en la era ChatGPT

Verano-Tacoronte, Domingo, Alicia Bolívar-Cruz, y Silvia Sosa-Cabrera. 2025. “Are university teachers ready for generative artificial intelligence? Unpacking faculty anxiety in the ChatGPT era.Education and Information Technologies. https://doi.org/10.1007/s10639-025-13585-7

Este estudio investiga cómo la ansiedad tecnológica influye en la intención de los docentes universitarios de adoptar ChatGPT. Se identifican tres tipos de ansiedad: sobre el futuro de la profesión académica, sobre el uso indebido de la herramienta y sobre el impacto negativo en el aprendizaje estudiantil. Los resultados muestran que la ansiedad relacionada con el aprendizaje estudiantil y el uso indebido de la herramienta afectan negativamente la intención de uso, mientras que la ansiedad sobre el futuro de la profesión no tiene un efecto significativo. Los hallazgos sugieren que para facilitar la integración de ChatGPT en la educación superior, es necesario combinar formación técnica con intervenciones específicas para gestionar la ansiedad tecnológica y mejorar las percepciones sobre la utilidad y facilidad de uso de la herramienta.​

Este estudio analiza cómo el profesorado universitario está adoptando el uso de ChatGPT en su trabajo diario. Para ello, se encuestó a un grupo amplio de docentes, que en su mayoría tienen entre 41 y 60 años, llevan más de 20 años trabajando en la universidad y tienen un contrato a tiempo completo. Se buscó representar tanto a hombres como a mujeres por igual.

En la primera parte del análisis, se confirmó que todos los datos recogidos eran fiables. Es decir, las preguntas estaban bien diseñadas y agrupaban correctamente las ideas que se querían estudiar: la ansiedad de los profesores ante ChatGPT, su intención de usarlo, cómo lo están usando en realidad y lo que esperan obtener de esa experiencia. También se comprobó que cada uno de estos aspectos era diferente de los demás y no se solapaban entre sí.

La segunda parte del análisis fue clave para entender cómo influyen las emociones y percepciones del profesorado en su decisión de usar o no ChatGPT. Se observó que dos tipos de miedos o ansiedades afectan negativamente a las ganas de usar la herramienta: uno relacionado con el mal uso que puedan hacer los estudiantes, por ejemplo copiando trabajos con ayuda de la IA, y otro con el uso inadecuado que el propio profesorado pueda hacer sin querer. Sin embargo, el miedo a que herramientas como ChatGPT cambien el papel de los docentes o su futuro profesional no tuvo un impacto importante. Una posible explicación es que, al tratarse de un profesorado con contratos estables, no temen tanto perder su trabajo o cambiar de rol por la llegada de nuevas tecnologías.

Por otro lado, se confirmó que cuanto más dispuesto está el profesorado a usar ChatGPT, más lo incorpora realmente en su trabajo. Es decir, la intención se traduce en acción. Y esa intención mejora si la persona percibe que la herramienta es fácil de usar y que le aporta beneficios reales. Estas dos percepciones —la facilidad y la utilidad— actúan como un «puente» entre las emociones negativas (como la ansiedad) y la decisión de usar o no la herramienta. Si el profesorado siente que ChatGPT le va a ayudar y que no le va a suponer demasiado esfuerzo, entonces el miedo pierde fuerza. De hecho, se vio que la utilidad esperada es incluso más importante que la facilidad de uso a la hora de tomar esta decisión.

En cuanto a otras variables como el género, la edad o los años de experiencia, se vio que las mujeres mostraban una intención algo menor de usar ChatGPT, al igual que lo usaban menos en la práctica. Sin embargo, ni la edad ni el tiempo que llevaban trabajando influyeron significativamente, lo que sugiere que el uso de estas herramientas no depende tanto de la experiencia profesional como de otras percepciones y emociones.

Este trabajo aporta dos ideas importantes. La primera es que la ansiedad que siente el profesorado ante el uso de inteligencia artificial, sobre todo en cuanto a un posible uso inapropiado por parte de estudiantes o incluso de ellos mismos, puede frenar su adopción. Y la segunda es que estas preocupaciones se pueden reducir si los docentes ven claramente que la herramienta les resulta útil y no les va a complicar la vida. Por eso, es fundamental ofrecerles formación, espacios de reflexión y recursos que les ayuden a entender mejor para qué sirve ChatGPT, cómo usarlo y qué riesgos reales conlleva.

En definitiva, el estudio nos recuerda que para que la inteligencia artificial se integre bien en la universidad no basta con introducir la tecnología: también hay que cuidar cómo se sienten los docentes frente a ella, aclarar dudas, reducir miedos y mostrarles el valor que puede tener en su práctica educativa diaria.