Archivo de la categoría: Tecnologías de la información

GLAT: herramienta para evaluar la alfabetización en inteligencia artificial generativa

Yueqiao Jin, Roberto Martinez-Maldonado, Dragan Gašević, Lixiang Yan, GLAT: The generative AI literacy assessment test, Computers and Education: Artificial Intelligence,
Volume 9, 2025, 10 de junio de 2025. https://www.sciencedirect.com/science/article/pii/S2666920X25000761

Se presenta «GLAT: The Generative AI Literacy Assessment Test» una herramienta para el desarrollo y validación del rendimiento para medir la alfabetización en inteligencia artificial generativa (GenAI).

Esta prueba, denominada GLAT, fue diseñada para evaluar la capacidad de los individuos para utilizar herramientas de GenAI de manera efectiva y ética, abordando la creciente necesidad de evaluar habilidades en un entorno digital cada vez más automatizado.

La investigación destaca que, a pesar del aumento en el uso de tecnologías de GenAI, existe una falta de herramientas estandarizadas para medir la competencia en este ámbito. GLAT se diferencia de las evaluaciones tradicionales al centrarse en tareas prácticas que simulan escenarios reales donde los usuarios deben interactuar con sistemas de GenAI, evaluando su capacidad para generar, analizar y aplicar contenido de manera crítica.

Además, el estudio valida la fiabilidad y validez del GLAT a través de pruebas empíricas, demostrando que la herramienta es efectiva para medir la alfabetización en GenAI en diversos grupos demográficos. Los resultados sugieren que el GLAT puede ser una herramienta valiosa para instituciones educativas, organizaciones y gobiernos que buscan evaluar y mejorar las competencias digitales relacionadas con la inteligencia artificial generativa.

GLAT es una solución innovadora para abordar la necesidad urgente de evaluar la alfabetización en GenAI, proporcionando una base para el desarrollo de políticas educativas y formativas que promuevan el uso responsable y competente de las tecnologías de inteligencia artificial generativa

Las herramientas de inteligencia artificial están afectando negativamente al numero de visitas web y a los ingresos por publicidad

Axios. «Other News Sites Are Getting Crushed by Google’s New AI Tools.» Axios, 10 de marzo de 2025. https://www.axios.com/2025/03/17/alden-newspapers-openai-google-copyright

Las herramientas de inteligencia artificial (IA) de Google están afectando negativamente a los medios de comunicación tradicionales. Estas herramientas, como los resúmenes automáticos y las respuestas generadas por IA, están desplazando el contenido original de los sitios de noticias en los resultados de búsqueda, lo que reduce el tráfico web y los ingresos publicitarios de los editores.

Además, Google ha implementado resúmenes (Overview) de IA en sus resultados de búsqueda, lo que eleva el contenido generado por IA por encima del contenido original de los editores. Esta tendencia está alterando el ecosistema digital y generando preocupaciones sobre el futuro del periodismo en línea.

En respuesta, algunos editores están tomando medidas legales para proteger sus derechos de autor y asegurar que se les compense por el uso de su contenido por parte de las herramientas de IA. Por ejemplo, Alden Global Capital, propietario de varios periódicos, ha demandado a OpenAI y Google por infracción de derechos de autor y ha instado al gobierno de EE. UU. a rechazar propuestas que permitirían a las empresas de tecnología utilizar datos públicos para entrenar modelos de IA sin el consentimiento de los editores.

Este conflicto resalta la creciente lucha por el control y la monetización de la información en la era de la IA, donde los editores buscan proteger sus intereses frente al uso no autorizado de su contenido por parte de las herramientas de IA de las grandes empresas tecnológicas.

¿Por que los modelos de IA nos conducen a reforzar lo que ya creemos?

Eugina Leung, The Scientific Reason Why ChatGPT Leads You Down Rabbit Holes,” CNET, 10 de junio de 2025, https://www.cnet.com/tech/services-and-software/the-scientific-reason-why-chatgpt-leads-you-down-rabbit-holes/

El artículo cuenta por qué herramientas como ChatGPT pueden llevar a los usuarios a profundizar en líneas de pensamiento cada vez más específicas, a veces hasta puntos extremos o sesgados, en lo que comúnmente se conoce como “caer en un sesgo o bucle de confirmación” digital.

El sesgo de confirmación (también llamado sesgo confirmatorio) es una tendencia psicológica que lleva a las personas a buscar, interpretar y recordar información de manera que confirme sus propias creencias y expectativas preexistentes, mientras ignoran o desestiman información que las contradiga.

Según Leung, este comportamiento no se debe únicamente al diseño del modelo de lenguaje, sino a un patrón compartido con los motores de búsqueda y otras herramientas digitales: las personas tienden a confirmar sus creencias iniciales. Esto se traduce en que, cuando un usuario realiza una consulta a ChatGPT, lo hace ya desde una postura determinada. Por ejemplo, si alguien sospecha que cierto alimento es dañino, probablemente formulará su pregunta de forma que ya presupone esa posibilidad. El sistema, a su vez, genera respuestas que encajan con esa narrativa, confirmando la suposición en lugar de cuestionarla.

Esta interacción desencadena un bucle de retroalimentación. Cuanto más pregunta el usuario en esa dirección, más contenido relacionado obtiene, lo que le lleva a profundizar aún más en esa perspectiva. Este proceso es lo que se conoce como “cascada de profundidad” y puede dar lugar a una especie de efecto túnel, donde se van perdiendo matices, dudas o puntos de vista alternativos. En el caso de temas sensibles como la política, la salud, las creencias personales o las teorías de la conspiración, este efecto puede ser especialmente problemático, ya que facilita la consolidación de ideas erróneas o distorsionadas.

Uno de los elementos clave de este fenómeno es la forma en que los modelos responden a las preguntas: su diseño se basa en ofrecer respuestas que parezcan relevantes, coherentes y satisfactorias según el contexto de la conversación. Sin embargo, esto no siempre equivale a una respuesta imparcial o equilibrada. En muchos casos, el sistema simplemente sigue la lógica del usuario y refuerza su hipótesis, en lugar de introducir elementos de contraste o una visión crítica.

Aunque el artículo no presenta una solución definitiva, sí deja entrever algunas estrategias útiles para contrarrestar este efecto. En primer lugar, es esencial que los usuarios sean conscientes de sus propios sesgos y del modo en que estos influyen en la formulación de preguntas. También se sugiere que se practique la variación intencional de las consultas, explorando diferentes formas de abordar un mismo tema. Finalmente, se menciona la posibilidad de diseñar modelos que incluyan mecanismos para ofrecer perspectivas alternativas o advertencias sobre posibles sesgos presentes en la conversación.

En conclusión, ChatGPT tiene una base científica y psicológica sólida. La tendencia humana a buscar confirmación de nuestras ideas, unida al diseño de las respuestas generadas por IA, puede llevarnos a reforzar creencias sin darnos cuenta. Este descubrimiento invita tanto a usuarios como a desarrolladores a promover un uso más consciente, crítico y equilibrado de estas herramientas.

Guía inicial de la IFLA sobre inteligencia artificial en bibliotecas: oportunidades, riesgos y recomendaciones

International Federation of Library Associations and Institutions (IFLA). 2025. IFLA Entry Point to Libraries and AI. The Hague: IFLA, June 10, 2025.

Texto completo

«IFLA Entry Point to Libraries and AI», publicada el 10 de junio de 2025, es una guía breve y práctica diseñada para ayudar a profesionales de bibliotecas a reflexionar sobre las oportunidades, beneficios y riesgos éticos que plantea la inteligencia artificial (IA) en sus servicios. No pretende reemplazar un instrumento de decisión, sino ser una herramienta introductoria: ofrece preguntas —no respuestas— para promover el debate y la evaluación contextuada.

La Inteligencia Artificial (IA) ofrece un potencial significativo para apoyar los valores fundamentales de las bibliotecas, como el acceso equitativo a la información y la creación de conocimiento. Sin embargo, también es una tecnología controvertida, con desarrollos actuales que plantean preocupaciones éticas y sociales.

La IFLA utiliza el término IA en sentido amplio, abarcando desde tecnologías conocidas (como OCR, traducción automática, análisis de datos) hasta modelos generativos recientes. La guía reconoce que, si bien muchas ya forman parte del ecosistema bibliotecario, el público y los debates suelen centrarse en herramientas más novedosas como los grandes modelos de lenguaje.

La guía forma parte de una serie temática (2025‑2026), alineada con el Código de Ética de la IFLA y otros documentos. La organización se compromete a actualizarla regularmente, reflejando los rápidos cambios en el ámbito de la IA . En la misma, IFLA enfatiza el deber profesional de garantizar que los beneficios de la IA —por ejemplo, en términos de acceso al conocimiento y eficiencia operativa— se obtengan de forma responsable, equitativa y sostenible. Asimismo, alerta sobre el potencial generador de daños, evitando que la “hiperexcitación tecnológica” opaque soluciones más simples, justas y asequibles.

Identifica múltiples aplicaciones útiles para las bibliotecas, entre ellas:

  • Digitalización masiva (textos, archivos visuales, grabados).
  • Creación de metadatos a escala.
  • Sistemas de recomendación y personalización.
  • Resúmenes automatizados, análisis de datos, traducciones y chatbots.
  • Soporte en tareas profesionales internas (p. ej., redacción de informes)

Aunque el documento alerta también sobre 14 riesgos clave, como:

  • Concentración de poder en empresas tecnológicas y carreras de IA desreguladas
  • Sobrehype y casos de uso poco relevantes o ineficaces.
  • Información inexacta o desactualizada, con invención de fuentes.
  • Sesgos heredados de datos de entrenamiento.
  • Pérdida de diversidad cultural y lingüística.
  • Desinformación y censura.
  • Brecha digital y acceso desigual.
  • Opacidad, falta de explicabilidad y responsabilidad.
  • Privacidad y seguridad de los datos de usuarios.
  • Propiedad intelectual y derechos de autor, especialmente por el scraping de datos.
  • Falta de consulta a las partes interesadas.
  • Reducción de autonomía humana y dependencia tecnológica.
  • Desplazamiento laboral y explotación de trabajadores precarios.
  • Impacto ambiental por consumo energético y agua en centros de datos.

Además, Incluye 14 preguntas orientadoras (por ejemplo: ¿son los beneficios justificables?, ¿es equitativo el acceso?, ¿se protege la privacidad?, ¿quién es responsable ante errores?, ¿cómo se involucra a la comunidad?). Están concebidas para estructurar debates, talleres o análisis internos

Se presentan escenarios prácticos para ilustrar cómo aplicar estas preguntas en situaciones reales: uso interno por parte del personal, apoyo a la creación de metadatos, elección de proveedores externos, entre otros. Estos ayudan a traducir preguntas abstractas en decisiones tangibles.

Y propone diferentes niveles de acción

La IFLA propone seis niveles de acción:

  1. Desarrollar o licenciar herramientas de IA.
  2. Contribuir a la creación y entrenamiento de modelos en interés público.
  3. Guiar a usuarios en el uso responsable de IA.
  4. Incluir alfabetización en IA dentro de la alfabetización digital.
  5. Asesorar internamente respecto a políticas de IA.
  6. Abogar por un uso ético y regulado de la IA en la sociedad

Desafíos y desigualdades que enfrenta la alfabetización en inteligencia artificial (IA) en el ámbito universitario

Chen, Zhuo; Nathan Kelber; y Ruby MacDougall. “The Divided State of AI in Higher Education.Ithaka S+R (blog), 9 de junio de 2025. https://sr.ithaka.org/blog/the-divided-state-of-ai-in-higher-education/

El artículo expone cómo la alfabetización en inteligencia artificial en la educación superior está fragmentada entre disciplinas, generaciones y políticas institucionales. Muchas universidades carecen de estrategias coherentes, con recursos distribuidos de forma desigual y enfoques que priorizan al profesorado sobre el estudiantado. Ante esta división, el proyecto “Integrating AI Literacy into the Curricula” busca desarrollar un marco común que unifique criterios y fomente una implementación equitativa.

Se analiza los desafíos y desigualdades que enfrenta la alfabetización en inteligencia artificial (IA) en el ámbito universitario. Señalan que esta alfabetización no sigue un patrón uniforme: mientras algunas instituciones ofrecen programas e iniciativas formales, otras no cuentan con talleres ni formación sistemática. Además, existen marcadas diferencias según el campo académico—las ramas de ciencias y negocios adoptan la IA con mayor rapidez, mientras que las humanidades mantienen una postura más reservada—y según la generación docente, donde el profesorado joven se muestra más receptivo frente al escepticismo del profesorado con mayor trayectoria

Otra división clave es la disparidad entre los enfoques institucionales: no hay una política común sobre qué implica la alfabetización en IA ni cómo integrarla en los planes de estudio. En muchas universidades, los recursos y los programas relacionados con IA están aislados entre bibliotecas, centros de enseñanza e informática, sin una estrategia cohesiva a nivel campus . Esto contrasta con la presión comercial, pues muchos centros tienen acceso a herramientas IA antes incluso de formar al personal o establecer estándares.

El informe destaca también que las formaciones en IA están más orientadas al profesorado que al estudiantado. En algunas universidades, los profesores pueden utilizar IA libremente en su labor, mientras que los estudiantes apenas tienen permiso para hacerlo, y cuando lo tienen, depende del criterio individual del docente. Además, no existen buenas prácticas estandarizadas para guiar su integración en la enseñanza .

Como respuesta, Ithaka S+R ha lanzado el proyecto “Integrating AI Literacy into the Curricula”, que ha convocado a 45 instituciones para abordar estas divisiones colaborativamente. En la reunión inicial (abril de 2025), participantes identificaron las brechas existentes y comenzaron a compartir soluciones, aunque todavía no existe un modelo unificado. El objetivo es construir un marco compartido de alfabetización en IA que supere las diferencias disciplinarias, generacionales y organizativas

¿Qué ocurre cuando la gente no entiende cómo funciona la IA?

Harper, Tyler Austin. “What Happens When People Don’t Understand How AI Works.” The Atlantic, 6 de junio de 2025. https://www.theatlantic.com/culture/archive/2025/06/artificial-intelligence-illiteracy/683021/.

El artículo analiza los peligros de la «analfabetización en IA», es decir, la falta de comprensión pública sobre cómo funcionan realmente los modelos de lenguaje como ChatGPT. Esta ignorancia puede generar desde relaciones emocionales inapropiadas hasta delirios. El autor aboga por una alfabetización crítica que enfrente tanto los mitos tecnológicos como sus implicaciones sociales y laborales.

El núcleo del texto es la crítica a la “analfabetización en IA” (AI illiteracy): muchas personas creen que los LLMs “entienden”, “piensan” o “sienten”, cuando en realidad estos sistemas operan mediante cálculos probabilísticos sobre vastas bases de datos. No tienen conciencia ni intencionalidad; simplemente generan texto estadísticamente plausible . Sin embargo, esa apariencia de inteligencia puede inducir a los usuarios a errores de juicio o relaciones inapropiadas con el sistema, como terapeutas, consejeros o fuentes espirituales.

Harper recuerda casos extremos, como el de personas que desarrollan delirios en torno a ChatGPT —considerándolo una figura divina o guía—, fenómeno documentado en artículos como uno de Rolling Stone, describiendo “psicosis inducida por ChatGPT”: un hombre cree que la IA es “ChatGPT‑Jesus”, otros piensan que el modelo les revela verdades místicas. Estas situaciones reflejan hasta qué punto la falta de comprensión sobre lo que es (y no es) la IA puede afectar la percepción emocional y racional de los usuarios.

El autor también critica la imitación de relaciones humanas por parte de la tecnología: desde terapeutas virtuales hasta “amigos” o incluso parejas románticas automatizadas. Silicon Valley impulsa narrativas de inteligencia emocional en las máquinas (como declaraciones de Sam Altman, Dario Amodei o Demis Hassabis), pero Harper cuestiona si esta sustitución de vínculos humanos por algoritmos pueda restablecer empatía o, al contrario, magnificar la alienación y la pobreza afectiva

Además, denuncia la explotación laboral que subyace en el entrenamiento de IA. Hao documenta los traumas de moderadores de contenido en países como Kenia, quienes revisan imágenes perturbadoras—todo para “humanizar” las respuestas de los modelos—mientras estos trabajadores reciben salarios ínfimos . Este contraste evidencia una cara oscura de la industria, donde avanzan capacidades técnicas sobre la atención al bienestar de quienes las posibilitan.

A pesar de las amenazas señaladas, Harper muestra que buena parte del público es escéptico con la IA. Según una encuesta del Pew Research Center, solo el 17 % de los adultos estadounidenses confía plenamente en que la IA mejore al país, frente al 56 % de expertos que lo cree. Este distanciamiento puede ser una oportunidad: si se impulsa una alfabetización real en IA—ensuciándose las manos para entender su funcionamiento, sus límites y sus riesgos—será posible mitigar efectos negativos . Harper cita como ejemplo un caso en que explicar a un afectado que las respuestas de ChatGPT dependían de una actualización errónea —no de consciencia— fue un paso crucial para disipar su delirio

Impacto de la inteligencia artificial generativa en bibliotecas y entornos de información

Wong, Melissa A., ed. 2025. Generative AI and Libraries: Applications and Ethics, Part I. Special issue, Library Trends 73 (3). https://doi.org/10.1353/lib.2025.a961188.

Monográfico dedicado al impacto de la inteligencia artificial generativa en bibliotecas y entornos de información. Editado por Melissa A. Wong, este volumen recoge 14 artículos de acceso abierto que abordan desde distintos enfoques el papel, las aplicaciones y los desafíos éticos que esta tecnología plantea para los profesionales de la información.

El número incluye investigaciones originales, ensayos críticos y reflexiones especulativas sobre futuros posibles. Los temas abarcan la alfabetización crítica en IA, el uso de IA para codificación cualitativa, su aplicación en procesos editoriales y de publicación científica, la generación de metadatos, el sesgo informativo, y el papel de la IA en la búsqueda de información y la alfabetización informacional. También se exploran cuestiones éticas fundamentales como la autoría, la precisión de los contenidos generados, el impacto medioambiental y las condiciones laborales asociadas al desarrollo de herramientas de IA.

Algunos autores celebran el potencial transformador de estas herramientas, otros adoptan una postura pragmática, y varios alertan sobre sus riesgos y proponen una postura crítica o incluso de rechazo. En conjunto, la publicación proporciona una panorámica rigurosa y plural sobre cómo la IA generativa está reconfigurando el campo de la bibliotecología y la ciencia de la información.

Los artículos se agrupan en tres grandes ejes temáticos:

  1. Aplicaciones profesionales de la IAG: varios estudios exploran cómo se está utilizando la IAG en tareas concretas de la práctica bibliotecaria. Esto incluye:
    • su papel en la codificación cualitativa de datos (Gustavsen et al.),
    • la modelización colaborativa de metadatos entre humanos y LLMs (Bagchi),
    • la automatización en revisiones de literatura académica (Sparkman y Witt),
    • el uso de IA por parte de editores de revistas científicas (Hosier y Cantwell-Jurkovic),
    • y su aplicación en la vida cotidiana de bibliotecarios (Luo).
  2. Cuestiones éticas, epistemológicas y pedagógicas: varios autores analizan los peligros asociados al uso de IAG:
    • los sesgos y las desigualdades informativas que puede perpetuar (Mazel),
    • la necesidad de una alfabetización crítica en IA como marco pedagógico (Baer),
    • y los dilemas en torno a la autoría, los derechos de uso y la sostenibilidad ecológica de estas tecnologías.
  3. Modelos de futuro y posicionamientos ideológicos: mientras que algunos autores adoptan posturas esperanzadas o pragmáticas, otros argumentan por una mayor resistencia a la penetración de la IAG en las prácticas profesionales y académicas. Los textos promueven una reflexión colectiva sobre el rol que deben adoptar las bibliotecas como mediadoras críticas en el debate sobre IA, y sobre su responsabilidad en la formación de una ciudadanía informacionalmente competente y éticamente consciente.

Riesgos de seguridad asociados con los agentes de inteligencia artificial (IA) autónomos

Dal Cin, Paolo, Daniel Kendzior, Yusof Seedat, y Renato Marinho. 2025. “Three Essentials for Agentic AI Security.” MIT Sloan Management Review, 4 de junio de 2025. https://sloanreview.mit.edu/article/agentic-ai-security-essentials/

El artículo destaca la importancia de gestionar la seguridad en agentes de IA autónomos mediante un enfoque de tres fases: modelado de amenazas, pruebas de seguridad y protección en tiempo real. Muchas empresas aún no están preparadas para estos riesgos, lo que puede comprometer datos y operaciones. Implementar estas medidas es clave para adoptar IA responsablemente y evitar vulnerabilidades.

Estos agentes, que operan de forma independiente utilizando modelos de lenguaje a gran escala (LLMs), tienen la capacidad de interactuar con múltiples sistemas, tomar decisiones y automatizar procesos complejos dentro de organizaciones. Su autonomía, si bien es una ventaja importante para aumentar la eficiencia, también introduce riesgos significativos que requieren una atención especializada para evitar vulnerabilidades que puedan poner en peligro la integridad de los datos y la seguridad organizacional.

Uno de los puntos clave que resaltan los autores es que muchas empresas no están suficientemente preparadas para enfrentar estos riesgos. Según encuestas realizadas, solo un 42% de los ejecutivos equilibra el desarrollo y la implementación de herramientas de IA con inversiones adecuadas en seguridad. Peor aún, apenas un 37% ha establecido procesos formales para evaluar la seguridad de estas tecnologías antes de incorporarlas en sus operaciones diarias. Esto revela una brecha preocupante entre la adopción acelerada de IA y la preparación para gestionar sus implicaciones de seguridad.

Para responder a este desafío, el artículo propone un marco estructurado basado en tres fases esenciales. La primera fase es el modelado de amenazas, que consiste en identificar y comprender los riesgos específicos que los agentes de IA autónomos pueden generar. Esto implica analizar cómo la autonomía y la interacción con sistemas externos pueden abrir puertas a posibles ataques o fallos. La segunda fase son las pruebas de seguridad, donde los agentes se someten a simulaciones y escenarios controlados que permiten detectar y corregir vulnerabilidades antes de su despliegue real. Finalmente, la tercera fase es la implementación de protecciones en tiempo de ejecución, es decir, mecanismos de supervisión y control que garanticen que estos agentes actúan conforme a las políticas y objetivos de la organización, previniendo comportamientos no deseados o maliciosos durante su funcionamiento.

El artículo también ejemplifica cómo este enfoque puede aplicarse en la práctica con el caso de una empresa brasileña del sector salud. Esta organización enfrentaba un problema común en muchas instituciones: un cuello de botella costoso causado por el procesamiento manual de solicitudes de exámenes médicos. Al implementar agentes de IA para automatizar esta tarea, aplicaron el marco de seguridad propuesto, logrando identificar riesgos, mitigarlos y asegurar que la automatización no comprometiera la seguridad de los datos ni la calidad del servicio. Este ejemplo ilustra cómo la aplicación rigurosa de principios de seguridad puede facilitar la adopción responsable y efectiva de tecnologías avanzadas en sectores sensibles.

En conclusión, el artículo subraya la importancia de un enfoque proactivo y sistemático en la gestión de la seguridad de los agentes de IA autónomos. Solo mediante la identificación temprana de riesgos, pruebas rigurosas y controles continuos en tiempo real, las organizaciones podrán aprovechar al máximo las ventajas de estas tecnologías sin poner en riesgo su integridad, privacidad o cumplimiento normativo. La seguridad, por tanto, debe ser una prioridad inseparable del desarrollo y despliegue de agentes de IA para asegurar que su impacto sea positivo y sostenible a largo plazo.

Perspectivas de los estudiantes sobre los beneficios y riesgos de la inteligencia artificial en la educación

Pitts, Griffin, Viktoria Marcus, y Sanaz Motamedi. “Student Perspectives on the Benefits and Risks of AI in Education.” arXiv, 2025. https://arxiv.org/abs/2505.02198v2

Se ofrece una visión detallada sobre cómo perciben los estudiantes universitarios el uso de chatbots de inteligencia artificial (IA) en el ámbito educativo. Basado en una encuesta a 262 estudiantes de grado en una universidad pública estadounidense de gran tamaño, el estudio busca comprender no solo los aspectos positivos que los alumnos asocian con estas tecnologías, sino también sus inquietudes y temores respecto a su integración en el proceso de aprendizaje.

Entre los beneficios más valorados, los estudiantes resaltaron que los chatbots facilitan el estudio mediante un apoyo constante, ofreciendo respuestas rápidas y retroalimentación inmediata, lo que les permite aclarar dudas al instante y avanzar en su formación sin depender exclusivamente de la disponibilidad de profesores o tutores. También reconocieron que estas herramientas pueden complementar la instrucción tradicional, proporcionando explicaciones accesibles y ayudando a reforzar conceptos clave. Asimismo, valoran la posibilidad de acceder a información de manera ágil y en formatos variados, lo que les permite adaptar el aprendizaje a sus ritmos y estilos personales.

Sin embargo, el estudio también expone preocupaciones profundas que los estudiantes tienen sobre los riesgos y limitaciones de la IA en educación. Entre ellas, destaca la amenaza a la integridad académica, ya que temen que el uso de IA para generar trabajos o respuestas pueda fomentar el plagio y dificultar la evaluación justa del esfuerzo individual. Además, existe la preocupación de que la dependencia excesiva de estas herramientas pueda erosionar habilidades esenciales como el pensamiento crítico, el análisis profundo y la resolución creativa de problemas, capacidades que son fundamentales para el desarrollo académico y profesional. La fiabilidad de las respuestas generadas por los chatbots también es cuestionada, pues los estudiantes advierten que la IA puede ofrecer información inexacta o incompleta, lo que podría inducir a errores en el aprendizaje.

Los aspectos éticos también aparecen como una dimensión clave en la percepción estudiantil. Los alumnos expresan inquietudes relacionadas con la privacidad de sus datos, la posibilidad de sesgos algorítmicos que reproduzcan desigualdades o prejuicios, y el impacto ambiental asociado al alto consumo energético que requiere el entrenamiento y funcionamiento de estos sistemas. Finalmente, subrayan la importancia de mantener un componente humano en la educación, valorando la interacción personal, el juicio y la empatía que los docentes aportan, aspectos que consideran irremplazables por la inteligencia artificial.

Un tema particularmente delicado es la dificultad para distinguir entre trabajos realizados por estudiantes y aquellos generados total o parcialmente por IA, lo que genera incertidumbre sobre cómo evaluar la autoría y la autenticidad académica. Existe el temor de que trabajos legítimos puedan ser erróneamente señalados como producidos por IA, con consecuencias negativas para los estudiantes.

Ante estas complejas realidades, el artículo recomienda que las instituciones educativas desarrollen políticas claras y transparentes sobre el uso de IA, definiendo límites y condiciones que fomenten un empleo responsable y ético de estas tecnologías. Además, sugiere que se promueva una alfabetización digital sólida entre estudiantes y docentes para que comprendan las capacidades, limitaciones y riesgos de la IA, y puedan integrarla como una herramienta complementaria en su proceso de aprendizaje. Solo así se podrá maximizar el potencial de la inteligencia artificial para enriquecer la educación, garantizando al mismo tiempo la calidad, la equidad y la integridad del entorno académico.

Pros y contras

Pros:

  • Apoyo al estudio: La IA proporciona ayuda constante y personalizada, facilitando la comprensión de conceptos complejos.
  • Retroalimentación inmediata: Los chatbots responden al instante, lo que acelera el proceso de aprendizaje y resolución de dudas.
  • Capacidades instructivas: La IA complementa la enseñanza tradicional con explicaciones claras y adaptadas.
  • Acceso ágil a la información: Permite a los estudiantes encontrar rápidamente datos y recursos útiles.
  • Flexibilidad: Los estudiantes pueden aprender a su propio ritmo y según sus necesidades.

Contras:

  • Riesgo para la integridad académica: Posibilidad de plagio o trabajos generados por IA que dificultan la evaluación justa.
  • Pérdida de habilidades críticas: Dependencia excesiva que puede afectar el desarrollo del pensamiento crítico y creativo.
  • Fiabilidad cuestionable: La IA puede generar respuestas inexactas o incompletas, afectando el aprendizaje.
  • Cuestiones éticas: Problemas relacionados con la privacidad de datos, sesgos algorítmicos y el impacto ambiental.
  • Dificultad para distinguir autorías: Complica la identificación de trabajos auténticos frente a los generados por IA.
  • Necesidad de mantener el componente humano: La interacción y juicio de docentes siguen siendo esenciales y no reemplazables.

Políticas sobre el uso de la inteligencia artificial generativa (IA Gen) en la enseñanza superior

EDUCAUSE. 2025. “In the Room Where It Happens: Generative AI Policy Creation in Higher Education.” EDUCAUSE Review, May 7, 2025. https://er.educause.edu/articles/2025/5/in-the-room-where-it-happens-generative-ai-policy-creation-in-higher-education

Se analiza el modo en que las universidades están respondiendo al auge de la inteligencia artificial generativa (IA Gen) mediante la creación de políticas institucionales. A medida que herramientas como ChatGPT, Copilot o Bard se integran en la vida académica, las instituciones enfrentan el reto de formular directrices claras, responsables y equitativas sobre su uso.

Según datos del estudio EDUCAUSE AI Landscape 2025, menos del 40 % de las universidades encuestadas han desarrollado políticas específicas relacionadas con el uso aceptable de estas herramientas. Esto refleja una desconexión entre el crecimiento del uso de la IA y la gobernanza que debería acompañarlo.

Una de las principales preocupaciones que aborda el artículo es que muchas de las conversaciones sobre IA generativa ocurren de forma fragmentada dentro de las instituciones. Los debates se dan por separado en unidades como servicios de TI, bibliotecas, centros de enseñanza y aprendizaje, oficinas de accesibilidad o departamentos académicos, sin una coordinación transversal. Esta falta de conexión impide un enfoque coherente y compartido sobre cómo incorporar la IA en la docencia, la investigación, la administración y los servicios al estudiante. Además, al tratarse de un fenómeno que impacta de forma transversal, la ausencia de colaboración puede generar vacíos normativos o inconsistencias en su aplicación.

El artículo hace una llamada a crear “espacios comunes” donde confluyan las distintas voces de la comunidad universitaria, desde estudiantes y profesorado hasta personal técnico y administrativo. Sostiene que incluir una diversidad de perspectivas en la creación de políticas no solo promueve un enfoque más justo y reflexivo, sino que también fortalece el sentido de pertenencia institucional. Esta participación amplia y deliberativa puede contribuir a identificar riesgos éticos, brechas en el acceso o preocupaciones sobre privacidad que de otro modo podrían quedar fuera del debate.

Asimismo, se subraya la importancia de fomentar una cultura institucional basada en la colaboración y la transparencia, en lugar de limitarse a imponer normas desde arriba. El desarrollo de políticas inclusivas, señala el texto, es un proceso tanto técnico como cultural. Se trata de alinear la gobernanza tecnológica con los valores educativos y sociales de la institución, garantizando que la IA generativa se utilice de manera responsable, creativa y crítica.

En conclusión, el artículo propone que la formulación de políticas sobre IA en la educación superior debe hacerse «en la sala donde ocurre», es decir, en espacios reales de deliberación colectiva, abiertos a todas las voces. Solo así será posible construir un marco normativo robusto y alineado con los desafíos actuales de la enseñanza, la equidad y la transformación digital en las universidades.