Archivo de la categoría: Tecnologías de la información

El usuario actual prefiere las respuestas directas integradas de los modelos IA en lugar de navegar por múltiples enlaces

Daoudi, Mehdi. “AI and the Future of Search: How We Broke the Web and What Comes Next.” Forbes Technology Council, 2 de abril de 2025.

Fuente

Se analiza cómo la adopción masiva de buscadores basados en IA —como ChatGPT, Perplexity o los «AI Overviews» de Google— está transformando profundamente la estructura y el funcionamiento tradicionales de la web. Según Daoudi, el usuario actual prefiere respuestas integradas directamente en los resultados en lugar de navegar entre múltiples enlaces; sin embargo, esta tendencia puede generar una crisis de transparencia en la información, ya que no siempre se sabe cómo se priorizan las fuentes o cuáles se están utilizando .

El autor advierte sobre el riesgo de que estas plataformas “rompan” la web al consolidar respuestas sin referencia clara a las fuentes originales. Frente a este desafío, subraya la pérdida de control del usuario sobre la veracidad y el contexto, a medida que el sistema se comporta como una «caja negra» que fusiona múltiples contenidos inconsistentes o sesgados. Se plantea la pregunta crítica: ¿quién decide qué información se muestra y en qué orden? .

Daoudi propone que el futuro de la búsqueda debe evolucionar hacia una estructura híbrida que combine lo mejor del modelo tradicional (enlaces y rastreo) con la inteligencia contextual de la IA. Sugiere que los portales de búsqueda necesitan ofrecer:

  • Transparencia: mostrar claramente las fuentes utilizadas, y cómo la IA seleccionó y sintetizó la información.
  • Control del usuario: brindar opciones para que los usuarios exploren más en profundidad (por ejemplo, desgloses fuente por fuente).
  • Retroalimentación activa: permitir al usuario participar en la mejora continua del sistema, señalando errores o preferencias.

El artículo también sitúa este fenómeno dentro de un contexto más amplio: la economía web está siendo redefinida por el desplazamiento de clics y tráfico hacia respuestas directas de IA, lo que ha provocado preocupación entre editores y creadores de contenido por los impactos en ingresos publicitarios y visibilidad. Además, la dependencia creciente de agentes generativos plantea interrogantes legales ligados a derechos de autor, compensación justa y transparencia algorítmica.

Se advierte que la revolución de la búsqueda potenciada por IA tiene un enorme potencial para mejorar la experiencia de usuario, pero también conlleva riesgos significativos: desinformación, pérdida de visibilidad para creadores de contenido y opacidad en los procesos de decisión. Por ello, propone una evolución hacia sistemas híbridos que integren fiabilidad, trazabilidad, participación activa del usuario y regulación informada.

¿Qué son los agentes de inteligencia artificial (IA)?

Wired. 2025. “Unpacking AI Agents.” Uncanny Valley podcast, June 12, 2025. https://www.wired.com/story/uncanny-valley-podcast-unpacking-ai-agents/

A diferencia de los chatbots tradicionales, los agentes de IA no solo generan texto o imágenes a partir de indicaciones, sino que planifican, toman decisiones, interactúan con entornos digitales y ejecutan tareas complejas sin supervisión humana constante.

Se trata de sistemas diseñados para cumplir objetivos en el mundo real: desde reservar un vuelo y enviar correos electrónicos hasta gestionar calendarios, realizar búsquedas en múltiples plataformas o incluso negociar con otros agentes. Estos sistemas están construidos sobre grandes modelos de lenguaje (LLMs), pero requieren una arquitectura más sofisticada para integrar acción, razonamiento y persistencia en el tiempo.

Empresas como OpenAI, Google, Amazon y Anthropic están invirtiendo intensamente en este campo. Algunas, como OpenAI, han dado pasos importantes al presentar herramientas que convierten modelos como GPT-4 en verdaderos asistentes proactivos, capaces de ejecutar instrucciones en múltiples etapas, navegar por internet o integrarse con aplicaciones de productividad. El objetivo final es lograr lo que algunos llaman “agentes personales universales”: asistentes digitales que comprendan nuestras preferencias, hábitos y objetivos para automatizar tareas cotidianas de manera fluida y segura.

No obstante, los desafíos son inmensos. Para que un agente actúe de forma autónoma, necesita entender contextos complejos, gestionar información incierta y adaptarse a entornos dinámicos. Además, debe tomar decisiones alineadas con las intenciones del usuario y con principios éticos básicos, algo que la tecnología actual todavía no garantiza plenamente. El episodio señala ejemplos en los que los agentes pueden fallar: desde reservar vuelos con escalas imposibles hasta tomar decisiones inapropiadas por no comprender matices culturales o emocionales. Esta brecha entre capacidad técnica y comprensión profunda del mundo real es una de las grandes limitaciones actuales.

Otro tema crucial abordado por los anfitriones es el de la responsabilidad y el control humano. A medida que estos sistemas se vuelven más autónomos, surgen interrogantes sobre quién debe rendir cuentas si un agente comete un error grave o causa daños. También se discute el posible impacto sobre el empleo y las relaciones humanas: ¿qué tareas estamos dispuestos a delegar a una máquina? ¿Qué aspectos de nuestra vida diaria deberían seguir estando mediados por decisiones humanas? El temor a una excesiva dependencia tecnológica es recurrente en el episodio, así como la posibilidad de que estos agentes puedan ser usados con fines maliciosos: desde manipulación de usuarios hasta ciberataques automatizados.

Pese a todo, el episodio mantiene una mirada equilibrada. Reconoce que los agentes de IA podrían liberar a las personas de muchas cargas administrativas y mejorar la eficiencia en sectores como la educación, la medicina, la logística o la atención al cliente. Pero enfatiza que su desarrollo debe estar guiado por principios éticos, por el diseño transparente de sistemas y por la inclusión de supervisión humana significativa. También se aboga por la apertura de código, la interoperabilidad y la participación de voces diversas en el debate sobre cómo estas tecnologías deben ser implementadas.

El 70 % de los adolescentes en Estados Unidos han utilizado alguna herramienta de inteligencia artificial generativa

Common Sense Media. The Dawn of the AI Era: Teens, Parents, and Generative AI. San Francisco: Common Sense Media, 2024.

Texto completo

El informe revela que aproximadamente el 70 % de los adolescentes en Estados Unidos han utilizado alguna herramienta de inteligencia artificial generativa, como ChatGPT o DALL·E. Estas tecnologías se emplean principalmente para ayudar en tareas escolares, especialmente para generar ideas o traducir contenidos. Sin embargo, solo el 37 % de los padres son conscientes del uso que sus hijos hacen de estas herramientas, lo que evidencia una desconexión significativa entre adolescentes y adultos en cuanto al conocimiento y manejo de la IA.

En cuanto a las políticas escolares, el estudio destaca que muchas escuelas aún no cuentan con normativas claras sobre el uso de la IA generativa. Un 37 % de los adolescentes reportan que en sus escuelas no existen reglas definidas al respecto, mientras que el 42 % de los docentes suelen prohibir su uso. Por otro lado, el 87 % de los padres han oído hablar de estas tecnologías, pero muchos desconocen cómo y cuándo sus hijos las utilizan.

El informe también muestra diferencias en el uso de la IA entre grupos raciales. Los adolescentes afroamericanos y latinos tienden a utilizar una gama más amplia de funciones de la IA en comparación con sus compañeros blancos. Además, los padres de adolescentes afroamericanos suelen tener una visión más positiva respecto al impacto de estas tecnologías en la educación y en el desarrollo de habilidades. No obstante, se observa que los adolescentes afroamericanos tienen más probabilidades de que sus trabajos sean erróneamente identificados como generados por IA, lo que plantea preocupaciones sobre posibles sesgos en los sistemas de detección.

Otro aspecto importante es que los adolescentes que participan en discusiones en el aula sobre la inteligencia artificial tienen una percepción más crítica y equilibrada de sus ventajas y desventajas. Estos jóvenes suelen verificar con mayor frecuencia la precisión del contenido generado por IA y reflexionan sobre cómo esta tecnología podría influir en sus futuras carreras profesionales.

Finalmente, el informe propone recomendaciones para distintos actores. A los padres se les sugiere informarse y dialogar con sus hijos sobre los beneficios y riesgos de la IA. A los educadores se les aconseja desarrollar políticas claras para su uso en el aula y promover debates críticos. A los responsables políticos se les insta a crear directrices que fomenten un uso ético y equitativo de la IA en la educación, garantizando que ningún grupo quede en desventaja.

Impacto de la inteligencia artificial en la vida escolar: datos, riesgos y recomendaciones

Laird, Elizabeth, Madeliene Dwyer y Hugh Grant‑Chapman. Off Task: EdTech Threats to Student Privacy and Equity in the Age of AI. Washington, DC: Center for Democracy & Technology, septiembre de 2023. https://cdt.org/wp-content/uploads/2023/09/091923-CDT-Off-Task-web.pdf

El informe analiza críticamente cómo las tecnologías educativas (edtech), especialmente aquellas impulsadas por inteligencia artificial, están afectando la privacidad y la equidad en el entorno escolar estadounidense. A través de encuestas a estudiantes, familias y docentes de secundaria, se identifica un uso creciente de herramientas de filtrado de contenido, monitoreo estudiantil y plataformas de IA generativa, sin una reflexión adecuada sobre sus implicaciones éticas, sociales y pedagógicas.

Uno de los principales hallazgos es la falta de participación de las comunidades educativas en la toma de decisiones sobre estas tecnologías. Muchos estudiantes y padres expresan preocupación por su uso, pero apenas una minoría ha sido consultada o informada sobre su implementación. Además, el profesorado ha recibido escasa formación, lo que limita su capacidad para aplicar estas herramientas de forma crítica y justa. Esta falta de transparencia y educación crea un entorno donde las decisiones técnicas se imponen sin diálogo, debilitando la confianza en el sistema educativo.

El informe subraya también cómo el filtrado de contenido, aunque pensado para proteger a los estudiantes, a menudo bloquea información legítima y relevante para su aprendizaje. Esto se vuelve especialmente preocupante cuando los filtros restringen temas vinculados a la identidad racial, el género o la orientación sexual, reproduciendo sesgos y excluyendo a estudiantes LGBTQ+ o pertenecientes a minorías. Así, estas herramientas pueden actuar como formas digitales de censura o exclusión.

Resultados:

62 % de los estudiantes y 73 % de los padres/madres están preocupados por el uso de edtech, pero:

Solo 38 % de los estudiantes y 31 % de los padres/madres afirman haber sido consultados por sus escuelas sobre el uso de estas tecnologías.

Casi el 100 % de las escuelas utilizan sistemas de filtrado web.

71 % de los estudiantes informan que estos filtros dificultan sus tareas escolares.

41 % de estudiantes LGBTQ+ reportan tener más dificultades que sus compañeros para acceder a información relevante para su identidad.

39 % de estudiantes afroamericanos afirman que los filtros bloquean contenidos sobre historia o cultura negra.

58 % de los estudiantes han usado herramientas de IA generativa al menos una vez.

24 % han sido sancionados por su uso.

57 % de los docentes no han recibido ninguna formación sobre estas tecnologías.

37 % no sabe si su escuela tiene políticas sobre IA generativa.

Solo 34 % de los docentes han recibido formación sobre privacidad digital en el último año.

El 52 % de los docentes afirman que les cuesta confiar en el trabajo de los estudiantes desde que se empezó a usar IA generativa.

Por otro lado, el monitoreo digital de la actividad estudiantil —incluso fuera del horario escolar y en dispositivos personales— está en aumento. Este tipo de vigilancia genera consecuencias graves: sanciones disciplinarias desproporcionadas, denuncias a las autoridades e incluso situaciones en las que estudiantes LGBTQ+ han sido “sacados del armario” sin su consentimiento. Las medidas de vigilancia no solo afectan la privacidad, sino también el bienestar emocional y la seguridad de los estudiantes más vulnerables.

El uso de inteligencia artificial generativa, como ChatGPT, ha crecido rápidamente en los entornos escolares, pero sin preparación institucional. La mayoría del profesorado no ha recibido formación sobre su uso ni conoce las políticas escolares al respecto. Esto ha llevado a que muchos estudiantes sean sancionados por utilizar estas herramientas, aunque no existan normas claras que regulen su aplicación. Al mismo tiempo, los docentes expresan preocupación por la pérdida de confianza en el trabajo autónomo del alumnado, lo que genera tensiones en la relación educativa.

El informe advierte que estas tecnologías afectan de forma desproporcionada a estudiantes con discapacidades, de bajos ingresos o pertenecientes a colectivos marginados, amplificando desigualdades estructurales. Por ello, no se trata únicamente de un problema de privacidad, sino de una cuestión de derechos civiles y justicia educativa. CDT concluye con una serie de recomendaciones urgentes: establecer marcos normativos claros, formar adecuadamente al personal docente, y garantizar la participación significativa de estudiantes y familias en todas las decisiones relacionadas con la tecnología en las aulas.

Recomendaciones:

Incluir a estudiantes y familias en la toma de decisiones sobre EdTech

  • Involucrar activamente a las comunidades escolares en la evaluación, selección y supervisión de las tecnologías utilizadas en clase.
  • Fomentar la transparencia sobre las herramientas empleadas y sus finalidades.

Revisar políticas de filtrado de contenido

  • Asegurar que los filtros no limiten el acceso a información educativa legítima, especialmente en temas de identidad, salud mental o justicia social.
  • Evitar que los filtros reproduzcan sesgos discriminatorios.

Limitar el monitoreo estudiantil

  • Establecer políticas claras sobre qué se monitorea, cuándo, cómo y por qué.
  • Asegurar que el monitoreo no continúe fuera del horario escolar ni en dispositivos personales sin consentimiento informado.

Crear políticas claras sobre el uso de IA generativa

  • Proporcionar directrices coherentes y accesibles para el alumnado y profesorado sobre cómo se puede o no utilizar la inteligencia artificial generativa.
  • Integrar estas políticas en los planes pedagógicos.

Formar al profesorado

  • Ofrecer formación continua sobre privacidad digital, equidad tecnológica y uso ético de la inteligencia artificial.

Cómo las bibliotecas pueden apoyar a los jóvenes en la era de la IA

Tanzi, Nick. 2025. “Building a Future‑Ready Generation: How Libraries Can Support Youth in the Age of AI.” LinkedIn, May 21, 2025. Publicado en The Digital Librarian. https://www.linkedin.com/pulse/building-future-ready-generation-how-libraries-can-support-nick-tanzi-mviye/

Tanzi subraya que la IA está integrada en casi todos los aspectos de la vida de los niños: desde recomendaciones de YouTube Kids, asistentes de escritorio como CoPilot, sistemas móviles como Apple Intelligence o Gemini, hasta redes sociales con Meta AI. Cita un informe de Common Sense Education según el cual el 70 % de los adolescentes ha usado algún tipo de IA generativa; sin embargo, solo el 37 % de los padres era consciente de ello. Además, el 60 % de los estudiantes dice que su escuela no tiene normas sobre IA, o no las conocen.

Se advierte que el acceso generalizado sin regulación ni comprensión adecuada genera riesgos: chatbots han sido asociados a autolesiones, dependencia y consejos de salud peligrosos. Según el informe “Off Task” de 2023, el 45 % de estudiantes de secundaria ha recurrido a IA generativa para cuestiones personales o de salud mental

Tanzi sostiene que es responsabilidad de las bibliotecas “llenar los vacíos de conocimiento” mediante la construcción de una alfabetización en IA—es decir, “habilidades que permitan entender, evaluar y usar críticamente sistemas de IA en un mundo digital”. Es clave involucrar a padres y cuidadores, demistificar la IA, promover seguridad digital y enseñar a identificar y analizar outputs generados por IA. También recomienda curar recursos didácticos para programas o referencias, mencionando sitios como Common Sense y News Literacy Project

Por ello el personal bibliotecario debe colaborar activamente con los distritos escolares. Es importante entender si existen políticas formales sobre IA (por ejemplo, Northport-East Northport o Downingtown), qué herramientas están aprobadas académicamente, y si se exige que los estudiantes revelen el uso de IA. Esta colaboración permite a las bibliotecas apoyar eficazmente la investigación y enseñar técnicas de búsqueda y «prompting», respetando las regulaciones y la posible necesidad de consentimiento paterno

Inteligencia artificial y educación: orientaciones para responsables políticos

Miao, F., & Holmes, W. (2021). Artificial Intelligence and Education: Guidance for Policy-makers. Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO). https://unesdoc.unesco.org/ark:/48223/pf0000376709

El informe de la UNESCO ofrece una guía integral para que los responsables políticos comprendan y gestionen la integración de la inteligencia artificial (IA) en la educación. Destaca tanto las oportunidades como los riesgos asociados al uso de la IA en el ámbito educativo, con el objetivo de garantizar una implementación ética, inclusiva y equitativa.

Contenido clave:

  • Definición y tecnologías de la IA: Se exploran las bases de la IA, incluyendo sus definiciones, técnicas y tecnologías subyacentes.
  • Tendencias emergentes y su impacto: Se analizan las tendencias actuales en el uso de la IA en la educación y sus implicaciones para la enseñanza y el aprendizaje.
  • Preparación para convivir con la IA: Se discute cómo los sistemas educativos pueden preparar a los individuos para vivir y trabajar en un entorno influenciado por la IA.
  • Aplicaciones de la IA en la educación: Se presentan ejemplos de cómo la IA puede mejorar la educación, desde la personalización del aprendizaje hasta la automatización de tareas administrativas.
  • Desafíos y recomendaciones: Se identifican los principales desafíos en la implementación de la IA en la educación y se ofrecen recomendaciones concretas para que los responsables políticos diseñen políticas y programas adaptados a sus contextos locales.

Este informe es una herramienta esencial para los responsables políticos que buscan integrar la IA de manera efectiva y ética en los sistemas educativos, con miras a avanzar hacia el Objetivo de Desarrollo Sostenible 4 (Educación de calidad para todos).

Marco de alfabetización en Inteligencia Artificial de la Biblioteca de la Universidad de Adelaida

University of Adelaide Library. Artificial Intelligence Literacy Framework. Adelaide: University of Adelaide, 2024. https://www.adelaide.edu.au/library/library-services/services-for-teaching-staff/artificial-intelligence-literacy-framework

La Biblioteca de la Universidad de Adelaida ha lanzado el “Artificial Intelligence Literacy Framework” (AILF), un marco diseñado para ofrecer a los estudiantes las competencias necesarias para navegar ética y responsablemente en el mundo de la inteligencia artificial.

En un entorno en el que la IA permea múltiples disciplinas y sectores, el AILF busca dotar a los usuarios de habilidades para reconocer, comprender, usar, evaluar y reflexionar críticamente sobre diversas aplicaciones de IA.

El marco fue desarrollado entre febrero y mayo de 2024 por un equipo interdisciplinario de la biblioteca con académicos, profesionales y estudiantes, junto con una revisión de literatura académica reciente en alfabetización en IA

El AILF se estructura en cuatro dimensiones clave, cada una orientada a distintos aspectos del desarrollo de la competencia en IA:

  1. Reconocer y Comprender: Los estudiantes aprenderán conceptos esenciales como terminología básica (p. ej., machine learning, IA generativa), tipos de IA, diferencias entre algoritmos convencionales e IA, funcionamiento básico de modelos, historia de la IA y su diversidad de aplicaciones
  2. Usar y Aplicar: Se busca que los estudiantes sepan construir prompts eficaces, seleccionar herramientas según el contexto, cumplir con políticas de integridad académica, documentar su uso de IA conforme a estilos de referencia, y comprender impactos derivados del uso de estas tecnologías
  3. Evaluar y Criticar: Esta dimensión promueve la capacidad de comparar diferentes modelos, detectar errores o sesgos, evaluar la calidad de los datos de entrenamiento, prever riesgos, y argumentar de forma informada sobre los beneficios y los desafíos que la IA puede presentar
  4. Reflexionar y Respetar: Incluye competencias éticas como el reconocimiento de derechos de autor, la privacidad, la responsabilidad en el uso de IA, y la consideración de aspectos sociales, económicos, culturales y ambientales vinculados a estas tecnologías

Como complemento, la biblioteca ofrece recursos como la guía “How do I?” sobre IA y webinars como el “Masterclass in generative AI” para apoyar la formación en estas dimensiones

Este marco permite que las instituciones integren un programa de alfabetización en IA estructurado, desde el conocimiento fundamental hasta la evaluación crítica y la reflexión ética, fortaleciendo la preparación de los estudiantes para un futuro marcado por la inteligencia artificial.

Alfabetización en IA: una guía para bibliotecas universitarias

Lo, Leo S. 2025. AI Literacy: A Guide for Academic Libraries. University of New Mexico – Digital Repository. https://digitalrepository.unm.edu/cgi/viewcontent.cgi?article=1211&context=ulls_fsp

El documento propone un enfoque integral para fomentar la alfabetización en inteligencia artificial (IA) desde el ámbito de las bibliotecas universitarias.

En un mundo cada vez más influido por algoritmos, asistentes virtuales y herramientas basadas en IA, el autor subraya la necesidad de que los estudiantes, docentes y personal universitario comprendan no solo cómo funcionan estas tecnologías, sino también sus implicaciones sociales, éticas y prácticas. Las bibliotecas, tradicionalmente espacios de acceso abierto al conocimiento, están en una posición única para liderar esta formación crítica.

El marco planteado por Leo S. Lo se estructura en torno a cinco componentes esenciales. El primero es el conocimiento técnico, que implica familiarizarse con conceptos clave como aprendizaje automático, algoritmos, redes neuronales y procesamiento del lenguaje natural. El segundo componente es la conciencia ética, que se centra en los desafíos que presenta la IA, como los sesgos algorítmicos, la opacidad en los procesos automatizados, la privacidad de los datos y la rendición de cuentas en el desarrollo y uso de estas herramientas.

El tercer componente es el pensamiento crítico, considerado esencial para evaluar los resultados producidos por sistemas de IA. Aquí se destaca la importancia de cuestionar la precisión, la fuente y la posible manipulación de la información generada. En cuarto lugar se encuentran las habilidades prácticas, es decir, la capacidad para usar herramientas como ChatGPT, asistentes de escritura, generadores de imágenes o sistemas de recomendación de manera efectiva, con un entendimiento adecuado de sus limitaciones. Por último, el marco incorpora la reflexión sobre el impacto social de la IA, invitando a analizar cómo estas tecnologías afectan el empleo, la toma de decisiones públicas, la educación y la equidad social.

Cinco componentes:

  1. Conocimientos técnicos:
    • Comprensión de conceptos básicos de IA como aprendizaje automático, algoritmos y redes neuronales.
    • Exploración de cómo funcionan estas tecnologías “tras bambalinas” .
  2. Conciencia ética:
    • Identificación de problemas relacionados con sesgos algorítmicos, privacidad y transparencia.
    • Reflexión sobre la responsabilidad de quienes desarrollan y aplican IA .
  3. Pensamiento crítico:
    • Evaluación rigurosa de resultados generados por IA.
    • Detección de errores, manipulación o respuestas engañosas .
  4. Habilidades prácticas:
    • Uso eficaz de herramientas como ChatGPT, MidJourney y otras aplicaciones de IA.
    • Desarrollo de competencias para formular buenos prompts y manejar herramientas con propiedad
  5. Impacto social:
    • Análisis de cómo la IA transforma el tejido social, el empleo, la participación ciudadana y la sostenibilidad.
    • Implicaciones para la equidad y el bienestar humano .

Desde esta perspectiva, las bibliotecas universitarias deben posicionarse no solo como centros de acceso a tecnología, sino como espacios educativos y de reflexión crítica. Pueden liderar talleres, cursos, guías y debates interdisciplinarios que ayuden a sus comunidades a adoptar una actitud informada, ética y responsable frente al uso de la IA. El artículo concluye que fomentar esta alfabetización no solo empodera a los usuarios, sino que también fortalece el rol social y educativo de las bibliotecas en el siglo XXI.

Marco integral para la alfabetización en inteligencia artificial (IA) de EDUCAUSE

Kassorla, Michelle, Maya Georgieva y Allison Papini. «Defining AI Literacy for Higher Education.» EDUCAUSE, 17 de octubre de 2024. https://www.educause.edu/content/2024/ai-literacy-in-teaching-and-learning/defining-ai-literacy-for-higher-education

Se presenta un marco integral para la alfabetización en inteligencia artificial (IA) en la educación superior, denominado ALTL (AI Literacy in Teaching and Learning). Este marco busca equipar a estudiantes, docentes y personal administrativo con las competencias necesarias para interactuar de manera efectiva y ética con las tecnologías de IA en contextos académicos y profesionales.

La alfabetización en IA se define como la comprensión de los fundamentos de cómo funciona la IA, la evaluación crítica de la aplicación de herramientas de IA en la enseñanza, la investigación y la gestión de prioridades educativas, y el mantenimiento de una vigilancia constante para proteger contra sesgos, mal uso y mala aplicación de estos modelos poderosos. Además, exige un compromiso con el uso ético, asegurando que las herramientas de IA se apliquen de manera transparente y responsable, con conciencia de sus impactos sociales

El informe desglosa esta definición en cuatro áreas clave:

  1. Técnica: Comprensión técnica de cómo funciona la IA.
  2. Evaluativa: Evaluación crítica de las aplicaciones y resultados de las herramientas de IA, con énfasis en el desarrollo de herramientas robustas de evaluación del impacto de la IA.
  3. Práctica: Aplicación, integración y gestión efectivas de las herramientas de IA en la enseñanza, la investigación y la administración educativa.
  4. Ética: Formulación y aplicación de estrategias institucionales para salvaguardar contra sesgos y el mal uso o mala aplicación de las tecnologías de IA

Cada institución puede priorizar estas áreas según sus objetivos específicos. Además, se destaca la importancia de fomentar una alfabetización en IA tanto técnica como práctica entre estudiantes, docentes y administración. Este cambio requiere una reevaluación de los planes de estudio en todas las disciplinas, no solo en ciencias de la computación y campos relacionados, para garantizar que los graduados estén equipados con las habilidades de alfabetización en IA requeridas en un mundo cada vez más integrado por la IA

Marco de alfabetización en IA del Consejo de Educación Digital

Digital Education Council. 2025. “Digital Education Council AI Literacy Framework.” Digital Education Council, 3 de marzo de 2025. https://www.digitaleducationcouncil.com/post/digital-education-council-ai-literacy-framework

El marco planteado por el Digital Education Council adopta un enfoque centrado en las personas, destacando la importancia de habilidades humanas como el pensamiento crítico, la creatividad y la inteligencia emocional como base para una alfabetización adecuada en IA

A través de cinco dimensiones clave, el marco estructura la alfabetización en IA en dos niveles: una formación general básica para todos y una versión más especializada adaptable a diferentes disciplinas y contextos legales.

Este recurso está pensado especialmente para instituciones de educación superior, ya que ofrece directrices claras y estructuradas para integrar competencias fundamentales en IA y diseñar aplicaciones específicas según distintas áreas académicas.

Se trata de una guía estructurada en cinco dimensiones de alfabetización, cada una con tres niveles de competencia:

Dimensión 1, Comprensión de la IA y los Datos, empieza con la toma de conciencia sobre IA y datos, avanza hacia su uso en acción y culmina con su optimización. Esta dimensión busca que los individuos pasen de reconocer la existencia y función básica de la IA a ser capaces de mejorar y optimizar sistemas basados en IA.

Dimensión 2, Pensamiento Crítico y Juicio, plantea una evolución desde cuestionar la salida de la IA hasta desafiarla. Se promueve así una actitud crítica frente a los resultados generados por sistemas de IA, desarrollando habilidades para evaluar su calidad, sesgos o implicaciones.

Dimensión 3, Uso Ético y Responsable, aborda la comprensión y aplicación de prácticas responsables en el uso de IA. Parte del reconocimiento de riesgos, pasa por aplicar principios éticos y concluye con la capacidad de configurar entornos que garanticen un uso responsable.

Dimensión 4, Enfoque Humano, Inteligencia Emocional y Creatividad, subraya la importancia de mantener la centralidad del ser humano en la interacción con la IA. Se inicia con la conciencia sobre dicha interacción, se impulsa el uso de la IA como herramienta colaborativa, y finalmente se busca desarrollar prácticas centradas en las personas.

Dimensión 5, Conocimiento del Dominio, integra la IA en el contexto profesional. Comienza con una conciencia aplicada de la IA, progresa hacia su aplicación en entornos laborales concretos y culmina con el liderazgo estratégico, es decir, la capacidad de guiar decisiones y procesos mediante el uso inteligente de la IA.

En esencia, el modelo del Consejo busca que las universidades desarrollen programas educativos que combinen formación técnica con habilidades humanas esenciales, facilitando así que estudiantes y docentes adquieran una base sólida para interactuar con herramientas de IA y aplicar dichos conocimientos de forma contextualizada.