Archivo de la etiqueta: Inteligencia artificial

La mayoría de las personas usan IA regularmente en el trabajo, pero casi la mitad admite hacerlo de manera inapropiada

«Major Survey Finds Most People Use AI Regularly at Work, but Almost Half Admit to Doing So InappropriatelyThe Conversation, 25 de agosto de 2025. https://theconversation.com/major-survey-finds-most-people-use-ai-regularly-at-work-but-almost-half-admit-to-doing-so-inappropriately-255405

Un estudio de la Universidad de Tecnología de Queensland revela que la mayoría de los empleados usa IA regularmente en el trabajo, pero casi la mitad admite hacerlo de manera inapropiada. Muchos desconocen las limitaciones de estas herramientas, lo que puede generar contenido inexacto o conflictos de responsabilidad. Los expertos recomiendan formación, políticas claras y cultura de responsabilidad digital para un uso ético y eficaz de la IA.

Un reciente estudio realizado por la Universidad de Tecnología de Queensland analiza cómo los empleados utilizan la inteligencia artificial (IA) en su entorno laboral y revela hallazgos preocupantes. La encuesta, que incluyó a más de 1.000 trabajadores de diferentes sectores, muestra que la mayoría de ellos emplea herramientas de IA, como ChatGPT, de manera regular para redactar correos electrónicos, informes, presentaciones y otro tipo de documentación profesional. Este fenómeno refleja la rápida adopción de la IA generativa en tareas cotidianas, pero también evidencia un uso que no siempre sigue buenas prácticas ni criterios éticos claros

A pesar de su popularidad, casi la mitad de los encuestados admite utilizar la IA de manera inapropiada. Muchos no comprenden completamente cómo funcionan estas herramientas ni sus limitaciones, lo que puede derivar en la producción de contenido inexacto, sesgado o incluso plagio involuntario. Además, el estudio señala que alrededor del 30 % de los participantes ha delegado en la IA tareas que originalmente correspondían a otros colegas, generando conflictos de responsabilidad y cuestionamientos éticos en el lugar de trabajo. Los investigadores enfatizan que estas prácticas pueden afectar tanto la productividad como la confianza dentro de los equipos.

El estudio también identifica diferencias significativas según la edad y el nivel educativo de los empleados. Los trabajadores más jóvenes tienden a adoptar la IA con mayor frecuencia, pero son también los que más reportan un uso inapropiado. Por otro lado, aquellos con formación técnica tienden a utilizar estas herramientas con mayor comprensión de sus riesgos, reduciendo la probabilidad de errores o mal uso. Esto sugiere la importancia de la formación y la alfabetización digital como factores clave para un uso responsable de la IA en el trabajo.

Los expertos consultados recomiendan que las organizaciones implementen políticas claras sobre el uso de la IA, incluyendo guías de buenas prácticas, límites en la delegación de tareas y procedimientos de verificación de contenido. También se sugiere fomentar una cultura de transparencia y responsabilidad digital, asegurando que los empleados comprendan que el uso inadecuado puede tener consecuencias legales, éticas y de reputación. El objetivo es equilibrar la eficiencia que la IA ofrece con la integridad y confiabilidad del trabajo realizado.

Aunque la inteligencia artificial se ha convertido en una herramienta cotidiana en el entorno laboral, su adopción rápida sin capacitación ni supervisión adecuada puede generar riesgos importantes. La clave está en la educación digital, la claridad en las políticas internas y la cultura de responsabilidad, para que la IA mejore la productividad sin comprometer la ética, la precisión o la confianza en los equipos de trabajo.

El programa PISA integrará alfabetización mediática e inteligencia artificial (IA) en 2029

Organisation for Economic Co-operation and Development (OECD). “PISA 2029 Media & Artificial Intelligence Literacy (MAIL).” OECD, consultado April 2025. https://www.oecd.org/en/about/projects/pisa-2029-media-and-artificial-intelligence-literacy.html

Según se indica, la nueva edición pondrá en el centro del análisis y evaluación escolar competencias como el pensamiento crítico, la conciencia algorítmica y la capacidad de evaluar críticamente los medios, reflejando la necesidad de preparar a los estudiantes para un entorno digital cada vez más complejo.

El programa PISA, desarrollado por la Organización para la Cooperación y el Desarrollo Económicos (OCDE), es reconocido por evaluar las habilidades de estudiantes de 15 años en lectura, matemáticas y ciencias en contextos del mundo real. La edición de 2029 incluye un nuevo dominio innovador: la alfabetización mediática y en inteligencia artificial, conocida como MAIL (Media & Artificial Intelligence Literacy), que amplía significativamente el alcance tradicional de la evaluación. El dominio MAIL busca evaluar si los estudiantes han tenido oportunidades de aprender a participar de modo proactivo y crítico en un mundo mediado por herramientas digitales y de inteligencia artificial.

La evaluación MAIL se diseñará como un entorno simulado—incluyendo redes sociales, internet y herramientas generativas de IA—que permitirá evaluar de forma realista competencias relacionadas con el análisis de credibilidad del contenido digital, el uso ético de la IA y la colaboración en entornos digitales.

La edición de 2029 planteará una agenda educativa más adaptativa e integral, centrada en la alfabetización mediática (comprensión crítica de contenido digital y medios) y en la alfabetización sobre IA, lo que incluye entender cómo funcionan los algoritmos, cómo influyen en la sociedad y cómo interactuar con las herramientas digitales de manera ética e informada.

Este cambio significativo en PISA orienta a las escuelas y responsables de políticas educativas hacia una actualización de los currículos. Es esencial que las instituciones incluyan en sus programas de estudios contenidos específicos sobre IA y medios digitales, y que desarrollen metodologías que evalúen estas competencias emergentes. De este modo, no solo se adaptan a los cambios en las herramientas de evaluación internacional, sino que contribuyen a formar estudiantes más preparados para un mundo donde la tecnología digital y algorítmica es omnipresente.

Informe OBS: eLearning 2024: tendencias emergentes e impacto de la inteligencia artificial en la educación superior

Espino, Erika. OBS Report: eLearning 2024 – Emerging Trends and the Impact of Artificial Intelligence in Higher Education, OBS Business School, 29 October 2024.

Texto completo

El uso de IA en e-learning es cada vez más evidente: se emplea en la supervisión de evaluaciones online, servicios bibliotecarios, procesos de admisión y en el análisis del comportamiento estudiantil mediante reconocimiento emocional, predicción de rendimiento y detección temprana de abandono. Por otra parte, la IA generativa está transformando los métodos de evaluación y permitiendo verificar la autenticidad del trabajo de los estudiantes.

Pese al reconocimiento del valor de la IA tanto por estudiantes como por profesores, el estudio detecta una alfabetización digital insuficiente en ambos grupos. Este déficit dificulta el uso efectivo de las plataformas digitales. Además, se observa una disminución en el pensamiento crítico y creativo, lo cual refuerza la necesidad de promover la integridad académica y la autonomía intelectual.

Los estudiantes de educación superior utilizan habitualmente plataformas como Blackboard, Moodle, Canvas y Google Classroom durante su formación online. La mayoría de ellos valora positivamente su primera experiencia en e-learning y lo recomienda. Asimismo, los estudiantes complementan su aprendizaje con herramientas de IA como ChatGPT, traductores y asistentes virtuales, vislumbrando un gran potencial para estas tecnologías en la creación de contenidos educativos.

a gamificación se destaca como una estrategia clave para modernizar el aprendizaje online, incentivando la motivación y la competencia saludable. Se fomenta además la interacción mediante discusiones sincrónicas y asincrónicas, resolución de estudios de caso y evaluación entre pares, todo ello acompañado de espacios colaborativos como documentos compartidos y salas de trabajo grupales, fundamentales para desarrollar habilidades de comunicación y trabajo en equipo. No obstante, uno de los grandes retos persiste en diseñar programas que promuevan una mayor interacción entre estudiantes y docentes, algo que depende tanto del involucramiento del profesorado como de la iniciativa y disciplina de los alumnos.

Un desafío crítico que afecta tanto a estudiantes como a docentes es la protección de la privacidad de los datos y la seguridad de la información, materia en la que aún se está avanzando activamente.

Hacer que la inteligencia artificial sea generativa para la educación superior

CNI. 2025. “Making Artificial Intelligence Generative for Higher Education: A Multi-Institution Research Project.” Accessed August 27, 2025. https://www.cni.org/topics/teaching-learning/making-artificial-intelligence-generative-for-higher-education-a-multi-institution-research-project

El proyecto Making Artificial Intelligence Generative for Higher Education, liderado por Ithaka S+R, reunió a 18 instituciones de educación superior de EE. UU. y Canadá para investigar cómo la inteligencia artificial generativa (IA generativa) está transformando la enseñanza, el aprendizaje y la investigación en la educación superior.

Desde su inicio en septiembre de 2023 hasta su culminación en el verano de 2025, el proyecto recopiló datos a través de entrevistas semiestructuradas con docentes e investigadores, proporcionando información valiosa sobre la adopción de la IA generativa en estos contexto.

Los hallazgos del estudio destacan que la IA generativa se está integrando de manera significativa en diversas áreas académicas, desde la creación de contenidos hasta la asistencia en la investigación. Sin embargo, también se identificaron desafíos importantes, como la necesidad de formación adecuada para los usuarios y la gestión de preocupaciones éticas relacionadas con el uso de estas tecnologías. Además, se subrayó la importancia de desarrollar infraestructuras de apoyo que faciliten la implementación efectiva de la IA generativa en el ámbito académico.

Este proyecto no solo proporciona una visión detallada de las tendencias actuales en el uso de la IA generativa en la educación superior, sino que también ofrece recomendaciones prácticas para instituciones que buscan integrar estas tecnologías de manera efectiva y ética en sus entornos académicos.

BooksAI.com: resúmenes y aprendizaje rápido de libros mediante inteligencia artificial

https://booksai.com/

BooksAI.com es una plataforma impulsada por inteligencia artificial que permite generar resúmenes, ideas clave, citas y elementos prácticos a partir de libros, utilizando modelos avanzados como ChatGPT. Su objetivo es facilitar el acceso rápido a los conceptos esenciales de una obra, sin necesidad de leerla en su totalidad.

Entre sus características principales, BooksAI.com ofrece resúmenes instantáneos: los usuarios pueden obtener resúmenes concisos de libros ingresando el título y el autor. La plataforma procesa la información y proporciona un resumen detallado, destacando los puntos más relevantes. Además, ofrece las ideas principales y citas destacadas de cada libro, lo que facilita una comprensión más profunda del contenido. También identifica acciones o lecciones prácticas que los lectores pueden aplicar en su vida diaria basándose en el contenido del libro.

La plataforma cuenta con una interfaz conversacional que, gracias a la tecnología de procesamiento de lenguaje natural, permite interactuar de manera fluida con el contenido del libro, responder preguntas y proporcionar aclaraciones adicionales. BooksAI.com ofrece acceso gratuito, permitiendo a los usuarios explorar y obtener resúmenes de una amplia variedad de libros sin costo alguno. Está diseñada para estudiantes, profesionales, investigadores y cualquier persona interesada en comprender rápidamente un libro sin dedicarle demasiado tiempo.

Una tormenta perfecta para la lectura. La inteligencia artificial (IA) 

Allington, Daniel. 2025. “AI Is Making Reading Books Feel Obsolete and Students Have a Lot to Lose.The Conversation, August 28, 2025. https://theconversation.com/ai-is-making-reading-books-feel-obsolete-and-students-have-a-lot-to-lose-262680

La IA está redefiniendo la educación y la lectura, ofreciendo herramientas poderosas pero también presentando desafíos significativos. Es crucial encontrar un equilibrio que permita a los estudiantes aprovechar los beneficios de la tecnología sin sacrificar las habilidades cognitivas esenciales desarrolladas a través de la lectura tradicional.

Naomi S. Baron escribe: «Se avecina una tormenta perfecta para la lectura. La inteligencia artificial (IA) llegó justo cuando tanto niños como adultos dedicaban menos tiempo a la lectura que en un pasado no tan lejano. Un estudio reciente revela que la lectura por placer en Estados Unidos ha disminuido un 40 % desde principios de los 2000. La IA está transformando radicalmente cómo las personas interactúan con los textos, ya sea para estudio, investigación o entretenimiento, y esto podría depreciar el valor percibido de la lectura como actividad humana significativa. Incluso antes de la popularización de la IA, la lectura ya estaba en declive. En EE. UU., el porcentaje de estudiantes de cuarto grado que leen por placer casi todos los días cayó del 53 % en 1984 al 39 % en 2022, y los de octavo grado del 35 % al 14 % en 2023. Entre los adultos, solo el 54 % de los estadounidenses leyó al menos un libro en 2023. Factores como el tiempo dedicado a redes sociales y la priorización de la eficiencia mediante la IA contribuyen a que muchos lectores se conviertan en “lectores caídos”, es decir, aquellos que solían leer pero ya no lo hacen.

Aunque la IA ofrece ventajas en términos de eficiencia, su uso excesivo puede tener efectos negativos en el aprendizaje profundo y la retención de información. La lectura activa de libros fomenta habilidades cognitivas como la concentración, la comprensión crítica y la reflexión profunda, habilidades que pueden verse comprometidas si los estudiantes dependen demasiado de las soluciones automatizadas.

La inteligencia artificial está transformando la forma en que accedemos y consumimos información, lo que ha llevado a que la lectura tradicional de libros impresos sea percibida como obsoleta por algunos. Herramientas como resúmenes automáticos, asistentes de lectura y plataformas de aprendizaje basadas en IA permiten a los estudiantes obtener información de manera más rápida y eficiente, reduciendo la necesidad de leer libros completos. Herramientas como BooksAI o BookAI.chat permiten interactuar con libros sin necesidad de leerlos personalmente, eliminando experiencias esenciales de aprendizaje y reflexión crítica.

Así, los educadores y bibliotecas enfrentan el desafío de equilibrar el uso de la tecnología con métodos tradicionales de enseñanza. Es esencial promover la alfabetización digital crítica, enseñando a los estudiantes a evaluar la información proporcionada por la IA y a complementar su aprendizaje con la lectura profunda de textos completos.

Cuando la inteligencia artificial reemplaza la experiencia: bibliotecas y catalogación en riesgo

Olson, Mike. «Beyond Classification: The Human Cost of Library and Information Labor Under Digital CapitalismThe Scholarly Kitchen, 26 de agosto de 2025. https://scholarlykitchen.sspnet.org/2025/08/26/guest-post-beyond-classification-the-human-cost-of-library-and-information-labor-under-digital-capitalism/

Las bibliotecas y su personal se ven afectados por la automatización, la externalización y la mercantilización del trabajo informativo en la era del capitalismo digital.

Se destaca cómo la consolidación de proveedores y la automatización mediante inteligencia artificial están eliminando el trabajo invisible que sostiene los sistemas bibliotecarios. Por ejemplo, la reciente reducción de personal en OCLC, la organización sin fines de lucro que gestiona el Sistema Dewey y WorldCat, refleja una contradicción fundamental en la valoración de la experiencia en catalogación: mientras que la organización cita la inteligencia artificial como justificación para los recortes laborales, también está desarrollando herramientas de inteligencia artificial para el procesamiento de metadatos. Esta contradicción pone de manifiesto cómo los avances tecnológicos celebrados por su eficiencia están borrando la experiencia humana que crea los metadatos de alta calidad de los que dependen estos sistemas para funcionar.

Además, el artículo señala que la mano de obra bibliotecaria ejemplifica lo que Maurizio Lazzarato identifica como «trabajo inmaterial»: trabajo que produce tanto contenido informativo como estandarización cultural, convirtiéndose en directamente productivo para el capitalismo digital a través de sistemas controlados por proveedores que agregan y monetizan metadatos estandarizados. La devaluación de la experiencia en catalogación se hace visible cuando las instituciones eliminan estos puestos durante los recortes presupuestarios. Por ejemplo, el despido de Violet Fox, una de las voces líderes en catalogación crítica y creadora del Cataloging Lab, ejemplifica el tipo de conocimiento especializado en catalogación que las instituciones están eliminando precisamente cuando más se necesita. Los catalogadores como Fox realizan el trabajo invisible de desafiar los sistemas de clasificación coloniales, asegurando que los encabezamientos de materia reflejen las necesidades de la comunidad en lugar de los términos genéricos proporcionados por los proveedores, haciendo que las colecciones sean descubribles y accesibles, y manteniendo la calidad de los metadatos que permite la investigación académica.

El artículo también destaca cómo los catálogos en línea actuales funcionan cada vez más como interfaces de sistemas de descubrimiento controlados por proveedores que agregan metadatos de múltiples fuentes con una supervisión local mínima. Esto representa una pérdida de autonomía institucional, ya que las decisiones sobre encabezamientos de materia, clasificación y referencias cruzadas se toman cada vez más en función de las necesidades de los proveedores en lugar de las necesidades de las colecciones y comunidades locales.

El camino hacia la Inteligencia Artificial General: comprender el cambiante panorama informático del futuro.

The Road to Artificial General Intelligence: Understanding the Evolving Compute Landscape of Tomorrow. MIT Technology Review Insights. En colaboración con Arm. Agosto de 2025.

Texto completo

El artículo aborda el núcleo del desafío de la Inteligencia Artificial General (AGI): los modelos actuales, capaces de escribir código o descubrir fármacos, todavía fracasan en tareas simples que cualquier persona puede resolver en minutos. Esta paradoja refleja la dificultad de crear una IA que no solo sobresalga en dominios específicos, sino que iguale o supere la inteligencia humana en múltiples campos. La pregunta central es si la actual revolución de la IA puede realmente dar ese salto, y cuáles serían los habilitadores clave —hardware, software o una combinación de ambos— necesarios para hacerlo posible.

Expertos del sector ofrecen predicciones audaces. Dario Amodei, cofundador de Anthropic, anticipa la llegada de una “IA poderosa” tan pronto como en 2026. Según él, esta tendría propiedades extraordinarias: inteligencia de nivel Nobel en dominios concretos, capacidad de moverse entre interfaces como texto, audio o entornos físicos, y la autonomía para razonar hacia metas propias, en lugar de limitarse a responder preguntas. Por su parte, Sam Altman, CEO de OpenAI, asegura que ya empiezan a verse características similares a la IAG, con un potencial transformador comparable al de la electricidad o internet. Destaca que el progreso se debe a tres factores: la mejora continua en el entrenamiento y los datos, el abaratamiento del cómputo y un valor socioeconómico que describe como “superexponencial”.

El optimismo no se limita a los fundadores de startups. Proyecciones agregadas indican al menos un 50% de probabilidad de que los sistemas de IA alcancen varios hitos de AGI antes de 2028. Encuestas de expertos sugieren que la probabilidad de que las máquinas superen a los humanos en todas las tareas sin ayuda externa es del 10% para 2027 y del 50% para 2047. Además, los plazos se acortan con cada nuevo avance: lo que con GPT-3 se estimaba en 50 años, a finales de 2024 ya se veía factible en cinco años. Para Ian Bratt, vicepresidente de tecnología de machine learning en Arm, los grandes modelos de lenguaje y razonamiento ya están transformando prácticamente todas las industrias, y son la antesala de este cambio radical.

¿Por qué es importante la alfabetización en IA?

EIT Deep Tech Talent Initiative. 2025. “Why AI Literacy Matters in 2025.” EIT Deep Tech Talent. Accessed September 3, 2025. https://www.eitdeeptechtalent.eu/news-and-events/news-archive/why-ai-literacy-matters-in-2025/

La alfabetización en inteligencia artificial se ha convertido en un pilar fundamental para desenvolverse en la sociedad contemporánea, del mismo modo en que en el pasado lo fueron la alfabetización básica y las competencias digitales.

En 2025, la alfabetización en IA se está volviendo tan importante como la lectura, la escritura e incluso las habilidades digitales básicas. Sin embargo, no se trata solo de formular mejores preguntas en ChatGPT o usar asistentes inteligentes para ahorrar tiempo; se trata de comprender cómo funcionan estos sistemas, qué los impulsa y cómo impactan a la sociedad en todos los niveles.

La alfabetización en IA requiere más que solo usar tecnología; requiere pensamiento crítico. Y hay mucho en juego, porque a medida que la IA se integra cada vez más en todos los aspectos de nuestras vidas, desde la educación y la atención médica hasta la contratación y los servicios gubernamentales, la falta de comprensión pública conlleva graves riesgos. El Foro Económico Mundial ahora clasifica la alfabetización en IA como una habilidad cívica, esencial para la participación en los procesos democráticos. Sin ella, las personas pueden ser vulnerables a la desinformación, sistemas sesgados o decisiones tomadas por algoritmos opacos.

Ya sea por confiar demasiado en los resultados de la IA o por confiar ciegamente en sistemas que no han sido probados éticamente, las consecuencias son personales y sociales.

Pero cerrar esta brecha de conocimiento va más allá de la mejora de las competencias digitales; se trata de brindar a las personas las herramientas necesarias para pensar críticamente, proteger sus derechos y participar en la configuración del uso de la IA.

La Ley de IA de la UE y su papel en la promoción del conocimiento sobre la IA

La Ley de IA de la UE (AIA), adoptada formalmente en 2024, es la primera legislación importante del mundo destinada a regular la inteligencia artificial. Establece normas armonizadas para el desarrollo, la comercialización y el uso de sistemas de IA en la Unión Europea, con el fin de garantizar que la IA se utilice de forma segura y transparente.

La AIA prohíbe ocho prácticas:

  • Manipulación y engaño perjudiciales basados ​​en IA
  • Explotación perjudicial de vulnerabilidades basada en IA
  • Clasificación o ranking social
  • Evaluación o predicción del riesgo individual de delito
  • Extracción no dirigida de material de internet o CCTV para crear o ampliar bases de datos de reconocimiento facial
  • Reconocimiento de emociones en lugares de trabajo e instituciones educativas
  • Categoría biométrica para deducir ciertas características protegidasIdentificación biométrica remota en tiempo real para fines policiales en espacios públicos accesibles

Clasifica los sistemas de IA por riesgo: inaceptable, alto, limitado y mínimo, y establece normas estrictas sobre cómo debe desarrollarse e implementarse cada tipo. Esto ya está teniendo un efecto dominó mucho más allá del sector tecnológico.

Pero su impacto va más allá de la regulación. Al aumentar la comprensión pública sobre cómo funciona la IA y dónde se utiliza, ayuda a los usuarios a convertirse en consumidores más informados y críticos de las tecnologías de IA. Los requisitos prácticos de la Ley están priorizando la alfabetización en IA. Esto significa que las empresas que implementan sistemas de IA de alto riesgo, como los utilizados en la contratación o la educación, deben asegurarse de que su personal esté adecuadamente capacitado para comprender cómo funcionan los sistemas de IA, reconocer sus limitaciones y ser consciente de posibles sesgos.

En otras palabras, la alfabetización en IA ya no es solo una habilidad técnica, sino una cuestión de cumplimiento normativo.

¿Qué es el Artículo 4 de la AIA?

El Artículo 4 exige a las organizaciones, tanto a las que desarrollan sistemas de IA como a las que los utilizan, que se aseguren de que todos los involucrados comprendan cómo funciona la IA, incluidos sus riesgos e impactos.

Por alfabetización en IA, la ley se refiere a que las personas tengan los conocimientos y la concienciación suficientes para implementar la IA de forma inteligente. Esto incluye comprender dónde la IA puede ser beneficiosa o perjudicial, y conocer qué derechos y responsabilidades legales están en juego, y abarca a todos los empleados, contratistas, proveedores de servicios y otros terceros que trabajen con IA en nombre de una organización.

Bruselas no ha definido una lista de verificación de capacitación estricta, pero las organizaciones deben cubrir áreas clave para cumplir:

  • Un conocimiento básico de la IA: qué es y cómo funciona, incluyendo sus beneficios y riesgos.
  • Claridad sobre el rol de la organización: ¿es usted el creador de la IA o simplemente utiliza la herramienta de otra persona?
  • Conocimiento de los riesgos asociados a los sistemas de IA en cuestión, especialmente si son de alto riesgo.
  • Programas personalizados que reflejen la experiencia de los usuarios, sus niveles de conocimiento técnico y el contexto real de su trabajo.

Aunque las pruebas formales no son obligatorias, se espera que las organizaciones consideren el nivel de comprensión de la IA de su personal y desarrollen la capacitación o la orientación adecuadas. Para los sistemas de mayor riesgo, podrían requerirse medidas adicionales en virtud del Artículo 26, que establece la obligación de que el personal que trabaja con los sistemas de IA en la práctica esté suficientemente capacitado para manejar el sistema y garantizar la supervisión humana.

La norma del Artículo 4 entró en vigor el 2 de febrero de 2025, pero su aplicación no comenzará hasta el 3 de agosto de 2026, lo que da tiempo a las organizaciones para establecer registros internos, como registros de capacitación, materiales de orientación u otras pruebas, aunque no necesariamente certificados formales.

El cumplimiento del Artículo 4 consiste en adecuar los esfuerzos de alfabetización en IA de una organización a la composición de su personal, la IA que utiliza y cómo podría afectar a otros. Basta con un enfoque flexible y basado en el riesgo, pero debe ser real.

Empoderar a los alumnos para la era de la IA: un marco de alfabetización en IA para la educación primaria y secundaria

Empowering Learners for the Age of AI: An AI Literacy Framework for Primary and Secondary Education (Review Draft). OECD, Paris, mayo de 2025. PDF. Disponible en: AILitFramework Review Draft.

Texto completo

Este borrador de mayo de 2025 presenta el AILit Framework, un marco de alfabetización en IA dirigido a los niveles de educación primaria y secundaria. Es fruto de una iniciativa conjunta de la Comisión Europea y la OCDE, con el patrocinio de Code.org y la participación de expertos internacionales.

El marco contribuye al desarrollo del dominio de Evaluación de la Alfabetización en Medios e IA (Media & AI Literacy) en PISA 2029. Además, está en sintonía con los esfuerzos de la UE en la transformación digital educativa: el Plan de Acción para la Educación Digital 2021-2027, recomendaciones del Consejo Europeo de 2023, directrices éticas sobre IA y datos (2022), el Marco de Competencia Digital DigComp 2.2 y el Reglamento Europeo de IA (AI Act), que promueve un enfoque centrado en las personas y basado en el riesgo, exigiendo niveles adecuados de alfabetización en IA a quienes desarrollen o desplieguen sistemas de IA

.

  1. Principios fundamentales y estructura del marco
    El AILit Framework se apoya en principios clave que orientan su diseño:
    • Duradero: define competencias que seguirán siendo relevantes a medida que evoluciona la IA.
    • Interdisciplinario: busca integrarse en diversas asignaturas y contextos educativos.
    • Ilustrativo: incluye escenarios y ejemplos didácticos para hacer tangibles las competencias.
    • Práctico: ofrece un enfoque viable dentro del entorno escolar.
    • Global: incorpora perspectivas de educadores y expertos de diferentes regiones del mundo.
    1. Competencias clave del alumnado
      El marco distingue cuatro dominios principales de competencias que los estudiantes deben desarrollar:
    • Interactuar con la IA (engage with AI) – comprender y abordar sistemas de IA de forma crítica y consciente.
    • Crear con IA (create with AI) – usar herramientas de IA para producir contenido o soluciones.
    • Gestionar la IA (manage AI) – supervisar y controlar el uso de la IA de forma informada.
    • Diseñar la IA (design AI) – comprender cómo se construyen los sistemas de IA y participar en su diseño ético.
    • Estas áreas suman 22 competencias específicas, pensadas para proporcionar una base sólida para la interacción educativa con la IA.
    1. Participación y horizonte de implementación
      Este borrador invita a educadores, líderes educativos y responsables de políticas públicas a dar retroalimentación. La versión final del marco está prevista para 2026, acompañada de materiales didácticos y ejemplos prácticos listos para usar en el aula

    Mientras tanto, se está fomentando la colaboración para enriquecer este proceso de elaboración mediante consultas y revisión continua.