
EIT Deep Tech Talent Initiative. 2025. “Why AI Literacy Matters in 2025.” EIT Deep Tech Talent. Accessed September 3, 2025. https://www.eitdeeptechtalent.eu/news-and-events/news-archive/why-ai-literacy-matters-in-2025/
La alfabetización en inteligencia artificial se ha convertido en un pilar fundamental para desenvolverse en la sociedad contemporánea, del mismo modo en que en el pasado lo fueron la alfabetización básica y las competencias digitales.
En 2025, la alfabetización en IA se está volviendo tan importante como la lectura, la escritura e incluso las habilidades digitales básicas. Sin embargo, no se trata solo de formular mejores preguntas en ChatGPT o usar asistentes inteligentes para ahorrar tiempo; se trata de comprender cómo funcionan estos sistemas, qué los impulsa y cómo impactan a la sociedad en todos los niveles.
La alfabetización en IA requiere más que solo usar tecnología; requiere pensamiento crítico. Y hay mucho en juego, porque a medida que la IA se integra cada vez más en todos los aspectos de nuestras vidas, desde la educación y la atención médica hasta la contratación y los servicios gubernamentales, la falta de comprensión pública conlleva graves riesgos. El Foro Económico Mundial ahora clasifica la alfabetización en IA como una habilidad cívica, esencial para la participación en los procesos democráticos. Sin ella, las personas pueden ser vulnerables a la desinformación, sistemas sesgados o decisiones tomadas por algoritmos opacos.
Ya sea por confiar demasiado en los resultados de la IA o por confiar ciegamente en sistemas que no han sido probados éticamente, las consecuencias son personales y sociales.
Pero cerrar esta brecha de conocimiento va más allá de la mejora de las competencias digitales; se trata de brindar a las personas las herramientas necesarias para pensar críticamente, proteger sus derechos y participar en la configuración del uso de la IA.
La Ley de IA de la UE y su papel en la promoción del conocimiento sobre la IA
La Ley de IA de la UE (AIA), adoptada formalmente en 2024, es la primera legislación importante del mundo destinada a regular la inteligencia artificial. Establece normas armonizadas para el desarrollo, la comercialización y el uso de sistemas de IA en la Unión Europea, con el fin de garantizar que la IA se utilice de forma segura y transparente.
La AIA prohíbe ocho prácticas:
- Manipulación y engaño perjudiciales basados en IA
- Explotación perjudicial de vulnerabilidades basada en IA
- Clasificación o ranking social
- Evaluación o predicción del riesgo individual de delito
- Extracción no dirigida de material de internet o CCTV para crear o ampliar bases de datos de reconocimiento facial
- Reconocimiento de emociones en lugares de trabajo e instituciones educativas
- Categoría biométrica para deducir ciertas características protegidasIdentificación biométrica remota en tiempo real para fines policiales en espacios públicos accesibles
Clasifica los sistemas de IA por riesgo: inaceptable, alto, limitado y mínimo, y establece normas estrictas sobre cómo debe desarrollarse e implementarse cada tipo. Esto ya está teniendo un efecto dominó mucho más allá del sector tecnológico.
Pero su impacto va más allá de la regulación. Al aumentar la comprensión pública sobre cómo funciona la IA y dónde se utiliza, ayuda a los usuarios a convertirse en consumidores más informados y críticos de las tecnologías de IA. Los requisitos prácticos de la Ley están priorizando la alfabetización en IA. Esto significa que las empresas que implementan sistemas de IA de alto riesgo, como los utilizados en la contratación o la educación, deben asegurarse de que su personal esté adecuadamente capacitado para comprender cómo funcionan los sistemas de IA, reconocer sus limitaciones y ser consciente de posibles sesgos.
En otras palabras, la alfabetización en IA ya no es solo una habilidad técnica, sino una cuestión de cumplimiento normativo.
¿Qué es el Artículo 4 de la AIA?
El Artículo 4 exige a las organizaciones, tanto a las que desarrollan sistemas de IA como a las que los utilizan, que se aseguren de que todos los involucrados comprendan cómo funciona la IA, incluidos sus riesgos e impactos.
Por alfabetización en IA, la ley se refiere a que las personas tengan los conocimientos y la concienciación suficientes para implementar la IA de forma inteligente. Esto incluye comprender dónde la IA puede ser beneficiosa o perjudicial, y conocer qué derechos y responsabilidades legales están en juego, y abarca a todos los empleados, contratistas, proveedores de servicios y otros terceros que trabajen con IA en nombre de una organización.
Bruselas no ha definido una lista de verificación de capacitación estricta, pero las organizaciones deben cubrir áreas clave para cumplir:
- Un conocimiento básico de la IA: qué es y cómo funciona, incluyendo sus beneficios y riesgos.
- Claridad sobre el rol de la organización: ¿es usted el creador de la IA o simplemente utiliza la herramienta de otra persona?
- Conocimiento de los riesgos asociados a los sistemas de IA en cuestión, especialmente si son de alto riesgo.
- Programas personalizados que reflejen la experiencia de los usuarios, sus niveles de conocimiento técnico y el contexto real de su trabajo.
Aunque las pruebas formales no son obligatorias, se espera que las organizaciones consideren el nivel de comprensión de la IA de su personal y desarrollen la capacitación o la orientación adecuadas. Para los sistemas de mayor riesgo, podrían requerirse medidas adicionales en virtud del Artículo 26, que establece la obligación de que el personal que trabaja con los sistemas de IA en la práctica esté suficientemente capacitado para manejar el sistema y garantizar la supervisión humana.
La norma del Artículo 4 entró en vigor el 2 de febrero de 2025, pero su aplicación no comenzará hasta el 3 de agosto de 2026, lo que da tiempo a las organizaciones para establecer registros internos, como registros de capacitación, materiales de orientación u otras pruebas, aunque no necesariamente certificados formales.
El cumplimiento del Artículo 4 consiste en adecuar los esfuerzos de alfabetización en IA de una organización a la composición de su personal, la IA que utiliza y cómo podría afectar a otros. Basta con un enfoque flexible y basado en el riesgo, pero debe ser real.