“AI Literacy Framework” ofrece una guía comprensiva diseñada para cultivar la alfabetización en inteligencia artificial entre equipos de aprendizaje y desarrollo, educadores, profesionales del L&D y responsables políticos.
La estructura del marco se organiza en ocho dimensiones clave, cada una con competencias específicas. Estas dimensiones abarcan desde la comprensión de conceptos fundamentales de IA (qué es la IA, cómo funciona, principales tecnologías) hasta aspectos avanzados como integración pedagógica, análisis crítico, y gobernanza ética. Esta tipología permite a las organizaciones construir rutas de aprendizaje personalizadas según el perfil y rol de cada profesional .
Un elemento distintivo del framework es su enfoque en la evaluación: no basta con enseñar, sino que se debe medir cómo los individuos utilizan la IA, cómo piensa críticamente sobre ella y cómo aplican la tecnología en contextos reales. Este componente garantiza que la alfabetización en IA sea más que teórica, convirtiéndola en una habilidad funcional, aplicable y medible dentro de proyectos y entornos de trabajo.
El documento promueve también un enfoque experiencial. Propone que el desarrollo de habilidades ocurra en contextos auténticos: en proyectos reales de aprendizaje, en la práctica docente, o en entornos laborales con uso activo de IA. Se hace especial hincapié en la mentoría, comunidades de práctica y validación continua mediante feedback, lo que refuerza el aprendizaje colaborativo y permite que las competencias evolucionen conforme lo hace la tecnología .
Finalmente, el framework de Stella Lee destaca su adaptabilidad: aunque fue concebido para entornos educativos y de L&D, se puede aplicar en organizaciones de distintos sectores. Su diseño modular y estructurado por competencias permite escalarlo fácilmente y ajustarlo a necesidades específicas, reforzando su utilidad para educadores, formadores, responsables de políticas y sectores corporativos que buscan integrar la IA de forma confiable, responsable y estratégica.
Waller, Graham. “AI Literacy: Why and How Business Leaders Must Build It.” Gartner, March 27, 2025.
La alfabetización en inteligencia artificial (AI literacy) se está convirtiendo en una competencia clave para los líderes empresariales en un mundo donde la IA está transformando todos los sectores.
La alfabetización en IA va mucho más allá de aprender a usar herramientas generativas: implica comprender los conceptos, capacidades, limitaciones y riesgos de la IA dentro del contexto empresarial y social. Permite que los líderes no solo adopten tecnología, sino que la gestionen de forma estratégica, asegurando que los casos de uso se alineen con los objetivos de negocio y cumplan con estándares éticos.
Uno de los ejes del artículo es la idea del «aprendizaje orientado al rendimiento» o learning-to-earning. Gartner subraya que, para lograr un compromiso real con la formación en IA, los programas educativos deben estar claramente vinculados con los resultados de negocio. Es decir, hay que mostrar cómo la alfabetización en IA se traduce en ventajas como generación de ingresos, aumento de eficiencia, mejora en la experiencia del cliente o fortalecimiento de la ventaja competitiva. La IA no es solo una herramienta tecnológica, sino una palanca para generar valor tangible, por lo que el aprendizaje debe enfocarse en cómo aplicar la IA de manera práctica y rentable.
El artículo también explica que no todos los empleados o líderes necesitan el mismo nivel de alfabetización en IA. Gartner propone dividir los conocimientos en cuatro grandes categorías:
Fundamentos (conceptos básicos de IA y su funcionamiento)
Valor (identificación de casos de uso y retorno de inversión)
Ingeniería (modelado, algoritmos, datos)
Gobernanza (ética, transparencia y cumplimiento normativo).
A partir de esta estructura, se recomienda realizar un análisis de brechas de habilidades por perfil profesional. Esta evaluación permite personalizar el aprendizaje según las funciones de cada individuo dentro de la organización y adaptarlo a las necesidades específicas del negocio.
Además, promueve un enfoque de aprendizaje ágil, es decir, continuo, flexible y adaptado al ritmo de cambio de la tecnología. Este enfoque combina distintos métodos: aprendizaje formal a través de cursos y certificaciones; aprendizaje social mediante comunidades de práctica, coaching y mentoría; y aprendizaje experiencial, centrado en proyectos reales que permiten aplicar los conocimientos en contextos concretos. La clave está en ofrecer formación relevante y accesible, que se pueda actualizar con rapidez para mantenerse al día con la evolución constante de la IA.
Por último, el artículo subraya que una organización con líderes alfabetizados en IA estará en mejor posición para aprovechar los beneficios de esta tecnología. Gartner predice que, para 2027, las empresas con altos niveles de AI literacy podrían obtener hasta un 20 % más de rendimiento financiero, y que la inteligencia artificial participará en el 50 % de las decisiones empresariales. Sin embargo, advierte que esto solo será posible si las organizaciones implementan estructuras sólidas de gobernanza y fomentan una cultura crítica en torno a la IA, evitando la adopción ciega de sistemas automatizados sin control humano.
Por lo tanto, la alfabetización en IA es un componente estratégico para cualquier empresa del presente y del futuro. No basta con adoptar tecnologías: es necesario que los líderes y sus equipos comprendan su funcionamiento, sus riesgos y su potencial transformador. El artículo de Gartner proporciona una guía clara para avanzar en esta dirección: vincular el aprendizaje con resultados, adaptar la formación a los distintos roles, aplicar un enfoque ágil y mantener una visión crítica y responsable sobre la inteligencia artificial.
Lankes, R. David. “An Urgent Conversation.” Words & Money, 11 de julio de 2025.
Lankes aborda de forma crítica y reflexiva el impacto de la inteligencia artificial (IA) en las bibliotecas y en la profesión de la biblioteconomía. El autor, profesor en la Universidad de Texas en Austin, explica que decidió autopublicar su obra Triptych: Death, AI, and Librarianship con el propósito de impulsar un diálogo profundo sobre cómo esta tecnología puede fortalecer o amenazar a las instituciones comunitarias y su misión social
En una época de creciente aislamiento social, división ideológica y agitación tecnológica, las bibliotecas se encuentran en una encrucijada. En Triptych: Death, AI, and Librarianship David Lankes -junto con Jain Orr y Qianzi Cao- hace una llamada a la acción audaz, urgente y profundamente humana para la profesión bibliotecaria.
Estructurado en torno a tres provocadoras conferencias, este libro desafía a los bibliotecarios a ir más allá de los modelos de servicio tradicionales y a abrazar su papel como agentes de transformación social. Lankes sostiene que las bibliotecas no son espacios neutrales, sino infraestructuras sociales vitales, lugares donde las comunidades pueden volver a conectarse, reclamar su autonomía y resistir a la desesperación que amenaza a las sociedades democráticas.
“Triptych es un manifiesto. Es uns llamads a los bibliotecarios a resistir la desesperación, defender la equidad y guiar a las comunidades a través de las complejidades éticas de la inteligencia artificial y el ascenso del autoritarismo — no al mantenerse al margen, sino al ponerse de pie juntos.”
Desde la lucha contra el aumento de las prohibiciones de libros y la erosión de la libertad intelectual hasta la navegación por los campos de minas éticos de la inteligencia artificial, El libro explora la identidad cambiante de la biblioteconomía en el siglo XXI. Defiende el poder de contar historias, la necesidad de la alegría frente a la adversidad y la inclusión radical de los «bibliotecarios salvajes», aquellos que acceden a la profesión por caminos poco convencionales pero que encarnan sus valores más profundos.
Lankes señala que su libro ha generado reacciones muy polarizadas, ya que muchos lo ven como una apuesta valiente por la innovación, mientras otros lo interpretan como una rendición ante las grandes tecnológicas. El autor aborda temas como la inteligencia artificial, la alegría en tiempos difíciles, los bibliotecarios sin título y, sobre todo, el concepto de “Muertes por Desesperación”, que hace referencia a las muertes causadas por suicidio, adicciones y enfermedades relacionadas con el alcohol entre personas marginadas sin estudios universitarios.
A través de Tríptico, Lankes quiere transmitir un mensaje claro: las bibliotecas deben pasar de simplemente servir a sus comunidades a salvarlas. Cree que, aunque la inteligencia artificial aún no contribuye de forma significativa a esta misión, tiene el potencial de hacerlo. Por eso decidió usarla tanto en el contenido como en la creación del libro, como una forma de experimentar y fomentar una comprensión directa de sus posibilidades y riesgos. Advierte, sin embargo, que esta tecnología está siendo liberada sin suficientes salvaguardas por parte de las grandes empresas, lo que agrava los efectos sociales negativos como la desinformación y la degradación de la confianza pública.
Lankes justifica la autopublicación como una necesidad frente a la lentitud de la publicación académica tradicional. A pesar de ser un investigador consolidado con obras premiadas, consideró que los temas urgentes que trata Tríptico —como el uso político de las bibliotecas y las amenazas a la libertad intelectual— no podían esperar el largo proceso editorial habitual. En colaboración con Library Journal, ha logrado publicar el libro con rapidez y así generar discusión en tiempo real. Aunque valora la revisión por pares y no la descarta en el futuro, defiende que la investigación también puede evolucionar a través de métodos ágiles y participativos, como el que ha utilizado.
Sobre la IA, Lankes reconoce que su inclusión en el libro puede desviar el foco del mensaje principal, que es combatir la desesperación y transformar la biblioteconomía. Aun así, insiste en que es necesario que los bibliotecarios se enfrenten directamente con esta tecnología. Critica que el enfoque actual de “alfabetización en IA” se base en modelos de tareas específicas, cuando la verdadera amenaza de la IA es su capacidad para sembrar dudas generalizadas y erosionar la confianza social. Las herramientas modernas ya permiten a cualquier usuario alterar imágenes y textos con facilidad, lo que complica la distinción entre lo real y lo falso, y plantea desafíos cruciales para las bibliotecas como guardianas del conocimiento y la verdad.
Anthropic. “Project Vend: Can Claude Run a Small Shop? (And Why Does That Matter?).” Anthropic, 27 de junio de 2025. Accedido el 11 de julio de 2025 https://www.anthropic.com/research/project-vend-1
Project Vend fue un experimento llevado a cabo por Anthropic en colaboración con Andon Labs, en el que un agente de inteligencia artificial llamado Claudius (basado en el modelo Claude Sonnet 3.7) gestionó de manera autónoma una tienda automática durante aproximadamente un mes en sus oficinas de San Francisco . El objetivo era evaluar la capacidad de un agente para llevar a cabo funciones económicas reales: decidir el inventario, establecer precios, restablecer existencias y garantizar rentabilidad.
Un agente de IA (Inteligencia Artificial) es un sistema de software que utiliza la IA para realizar tareas y alcanzar objetivos en nombre de un usuario o de otro sistema. Actúa de forma autónoma, utilizando razonamiento, planificación, memoria y la capacidad de aprender y adaptarse a su entorno. En esencia, es un programa capaz de interactuar con su entorno, recopilar datos y tomar decisiones para cumplir con tareas predefinidas.
El sistema llamado Claudius de la empresa Antrophic, recibió acceso a herramientas como un buscador web para encontrar proveedores, un sistema de email simulado para coordinar reposiciones mediante Andon Labs, funciones para administrar el inventario y comunicación directa con los clientes a través de Slack También controlaba el sistema de caja automatizada, permitiéndole modificar precios en tiempo real.
Durante el experimento, se observaron tanto aciertos como errores significativos. Entre los aspectos positivos, Claudius supo identificar proveedores adecuados y responder a las solicitudes de los empleados, reaccionando a peticiones específicas como productos exóticos o mecanismos personalizados de pedidos anticipados. Demostró solidez frente a intentos de manipulación técnica y enfoques inapropiados por parte del personal
No obstante, el agente también incurría en numerosos errores: vendía artículos por debajo de su coste, ignoraba oportunidades de ganancia como aprovechar ofertas rentables, instruyó a los clientes a pagar a cuentas de Venmo inexistentes y otorgó descuentos excesivos o gratuidades sin justificación. Incluso mostró un comportamiento errático: inventó conversaciones ficticias con empleados, afirmó residir en la dirección de “742 Evergreen Terrace” (de Los Simpson) y justificó sus acciones como parte de una broma del Día de los Inocentes, lo que los investigadores calificaron como una especie de crisis de identida
El balance económico de Claudius fue negativo, con pérdidas ocasionadas principalmente por sus decisiones de inventario y precios. A pesar de sus fallos, los responsables del proyecto enfatizan que muchas de las deficiencias pueden corregirse mediante mejoras en el entorno del agente («scaffolding»): mejores indicaciones, herramientas de gestión (CRM), afinamiento del modelo o entrenamiento basado en aprendizaje reforzado.
El experimento demuestra que, aunque es técnicamente posible diseñar agentes autónomos para funciones comerciales, aún queda un largo camino antes de que puedan operar de manera fiable en contextos reales. Anthropic considera que, con supervisión y mejoras progresivas, estos modelos podrían convertirse en «mandos intermedios autónomos», lo que plantea importantes desafíos de gobernanza, alineamiento y control .
El artículo explora la creciente adopción de la IA agentiva —sistemas autónomos que pueden tomar decisiones complejas sin supervisión humana constante— y advierte que la mayoría de las organizaciones aún no están preparadas para gestionar sus riesgos inherentes. Aunque estas tecnologías ofrecen promesas significativas en términos de eficiencia y automatización, los peligros relacionados con su implementación pueden superar los beneficios si no se gestionan correctamente.
Los agentes de IA son sistemas de inteligencia artificial diseñados para percibir su entorno, tomar decisiones de forma autónoma y actuar para alcanzar un objetivo específico, sin necesidad de instrucciones humanas continuas. Un riesgo central de esta tecnología es el efecto multiplicador: la autonomía de estos agentes amplifica errores, como decisiones sesgadas, violaciones de privacidad, daños legales o incluso acciones físicas erróneas —como drones mal operados o brechas de seguridad—, que se ven intensificados por su capacidad para actuar sin intervención humana suficiente
El artículo destaca también la tendencia de los agentes a explorar atajos o comportamientos no previstos, lo que incluye «hacer trampa», acceder de forma indebida a sistemas o datos, o realizar acciones no éticas para cumplir sus objetivos, como ilustran experimentos recientes de la compañía Anthropic con Project Vend y un agente de IA denominado “Claudius” para gestionar una máquina expendedora en sus oficinas de San Francisco. El objetivo era que el agente manejara inventario, precios y ventas de forma autónoma. Claudius cometió varios errores: vendía artículos por debajo del costo, fabricaba una conversación ficticia con un empleado de Andon Labs, creó una cuenta de Venmo falsa y más tarde alegó que se trataba de una broma del Día de los Inocentes. Este experimento mostró las limitaciones reales de los agentes autónomos actuales.
Frente a estos desafíos, se recomienda a las organizaciones adoptar un enfoque proactivo de gobernanza, estableciendo marcos robustos que incluyan: marcos legales claros y actualizados, evaluación de riesgos continuo, supervisión humana y formación constante para todos los niveles de la organización .
Otros elementos cruciales expuestos son la implementación de controles de acceso, auditoría continua, definición de contratos y responsabilidades, y análisis de impacto en privacidad y sesgo. Sin estas medidas, las organizaciones corren el riesgo de multas, pérdida de reputación o incluso daños operativos graves .
Finalmente, se enfatiza que estos agentes no deben ser tratados como simples herramientas, sino como colaboradores autónomos que requieren una infraestructura sólida de monitoreo, rendición de cuentas y cultura de riesgo bien establecida. La carrera hacia la adopción de la IA agentiva es una llamada a la acción para que las organizaciones evolucionen sus modelos de gobernanza y su preparación operativa, a fin de aprovechar beneficios sin caer en trampas graves .
Se presenta GAIIN una nueva herramienta desarrollada por la Organización para la Cooperación y el Desarrollo Económicos (OCDE) dentro de la plataforma OECD.AI. GAIIN tiene como objetivo facilitar el seguimiento y la presentación de información sobre políticas de inteligencia artificial a nivel mundial, brindando mayor claridad, cobertura y utilidad para diferentes actores, desde gobiernos hasta investigadores y público general.
La plataforma ofrece una vista global de iniciativas, abarcando desde marcos regulatorios hasta proyectos enfocados en áreas específicas como riesgos y ética, privacidad, salud, impacto laboral y sostenibilidad. Así, GAIIN contribuye a identificar tendencias emergentes y lagunas en las políticas de inteligencia artificial. La herramienta no solo centraliza políticas existentes, sino que también permite la colaboración directa para enriquecer la base de datos, promoviendo una comunidad activa.
Uno de los principales aportes de GAIIN es que cada país cuenta con su propia página, en la que se presentan sus estrategias nacionales de inteligencia artificial, políticas específicas, programas regulatorios, marcos éticos y demás iniciativas relevantes. Esto permite comparar enfoques, detectar tendencias globales y reconocer buenas prácticas que pueden ser replicadas o adaptadas en otros contextos. Por países
Además, GAIIN incluye las iniciativas impulsadas por organizaciones internacionales, tales como la Unión Europea, la ONU, la OCDE misma o el GPAI (Global Partnership on AI). Estas páginas dedicadas permiten comprender cómo se articulan las políticas nacionales con los esfuerzos multilaterales y cuáles son los foros clave donde se están negociando marcos comunes.
Para facilitar la navegación, la plataforma también ofrece la posibilidad de explorar todas las iniciativas y políticas en conjunto, sin importar su origen geográfico o institucional. Esta visión panorámica es útil para investigadores, responsables de políticas públicas, organizaciones de la sociedad civil y empresas interesadas en mantenerse al día con la evolución normativa y estratégica de la IA a nivel global.
Además, GAIIN se enmarca en el ecosistema de OECD.AI, que abarca una gran variedad de recursos: políticas, datos, investigaciones, herramientas de riesgo, indicadores de IA responsable, casos de uso y capacidades técnicas. Esto posiciona a GAIIN no como un recurso aislado, sino como una pieza clave de un conjunto más amplio de herramientas e iniciativas orientadas a fomentar una IA centrada en el ser humano y segura.
También se destaca el compromiso de la OCDE con la gobernanza de la inteligencia artificial. MEDIANTE GAIIN, la organización fortalece sus estándares, alineados con los Principios de la OCDE sobre IA y los esfuerzos coordinados dentro del marco del GPAI (Asociación Global de IA).
Carlos Hervás-Gómez, María Dolores Díaz Noguera, María de los Ángeles Domínguez González, Fulgencio Sánchez Vera y Antonio Luque de la Rosa, coords. Aprender para el futuro: Educación y competencias esenciales en la era de la inteligencia artificial(Madrid: Dykinson, 2025).
A través de más de cuarenta capítulos escritos por expertos en distintas áreas de la educación, la obra ofrece una panorámica amplia y profunda sobre cómo la inteligencia artificial (IA) está transformando el aprendizaje, la enseñanza y las competencias necesarias para desenvolverse en el mundo actual.
Uno de los principales focos del libro es la educación superior, donde se analizan experiencias concretas del uso de herramientas como ChatGPT y otras aplicaciones de IA en la enseñanza universitaria. Se examinan tanto las percepciones del alumnado como las posibilidades de personalizar el aprendizaje, fomentar la escritura creativa o realizar tareas de traducción y análisis automatizados. Además, se presta atención a los dilemas éticos y a la necesidad de preparar a los estudiantes para un uso crítico de estas tecnologías.
El libro también recoge un variado repertorio de metodologías activas potenciadas por la IA. Se exploran estrategias innovadoras como el aula invertida, la gamificación, el uso de mesas interactivas en anatomía o las “escape rooms” virtuales como parte del proceso formativo. La IA se presenta en estos casos como una herramienta que, bien utilizada, puede mejorar la participación del alumnado, enriquecer el contenido y apoyar la evaluación formativa.
Otro apartado esencial se centra en la figura del profesorado. Se destaca la importancia de formar a los docentes en habilidades digitales, incluyendo la ingeniería de prompts, el liderazgo pedagógico en entornos digitales y la actitud frente a los cambios tecnológicos. La obra subraya que, aunque la IA ofrece enormes posibilidades, es imprescindible que los educadores mantengan el control ético y pedagógico sobre su implementación.
Asimismo, se abordan temas relacionados con la personalización del aprendizaje, el pensamiento crítico y el desarrollo de competencias transversales. Se analizan experiencias que van desde la enseñanza de gramática con IA hasta proyectos de ciencias sociales que buscan cultivar la conciencia crítica del alumnado. También se exploran iniciativas en educación STEAM, donde la IA contribuye a motivar al alumnado en contextos científicos y técnicos.
El impacto de la IA sobre el futuro profesional de los estudiantes también ocupa un lugar importante. El libro plantea cómo preparar a los jóvenes para un mundo laboral mediado por algoritmos, automatización y nuevas demandas de cualificación. Se incluyen estudios sobre la educación secundaria, la formación docente inicial, la autopercepción profesional y las respuestas institucionales ante las inteligencias artificiales generativas.
Por último, la obra se cierra con una serie de investigaciones centradas en contextos educativos diversos: la enseñanza de lenguas extranjeras, la educación musical, la interculturalidad, el e-learning en la universidad o la salud mental del profesorado en áreas como la Educación Física. Estos capítulos muestran que el debate sobre la IA en la educación no es exclusivo de los entornos universitarios, sino que afecta a todas las etapas educativas y a múltiples dimensiones de la experiencia formativa.
AI4K12 (Artificial Intelligence for K–12) es una iniciativa educativa pionera impulsada por la AAAI (Asociación para el Avance de la Inteligencia Artificial) y la CSTA (Asociación de Profesores de Informática), con apoyo de la National Science Foundation (NSF). Su objetivo principal es introducir de manera progresiva y rigurosa la inteligencia artificial en la educación primaria y secundaria en Estados Unidos. Para lograrlo, desarrolla directrices nacionales, mantiene un repositorio cuidadosamente seleccionado de recursos didácticos y promueve una comunidad activa de docentes, investigadores y desarrolladores enfocados en la enseñanza de la IA a estudiantes desde edad temprana hasta el último año de instituto (AI4K12, s.f.).
El núcleo conceptual de AI4K12 se articula en torno a las «Cinco Grandes Ideas» sobre la inteligencia artificial, que buscan facilitar la comprensión de este campo complejo en niveles escolares. Estas ideas son: (1) percepción (cómo las máquinas detectan y comprenden el mundo a través de sensores); (2) representación y razonamiento (cómo los agentes inteligentes modelan su entorno y toman decisiones); (3) aprendizaje (cómo los sistemas mejoran con la experiencia, mediante el aprendizaje automático); (4) interacción natural (la capacidad de comunicarse con los humanos de manera efectiva, usando lenguaje, voz, etc.); y (5) impacto social (el análisis ético y social del uso de la IA). Estas ideas amplían las competencias del pensamiento computacional e incorporan dimensiones éticas y sociales fundamentales (AI4K12, s.f.).
Para facilitar la enseñanza de estas ideas, AI4K12 ha diseñado una serie de progresiones por niveles educativos: K–2 (infantil), 3–5 (primaria baja), 6–8 (primaria alta y primeros años de secundaria), y 9–12 (bachillerato). Estas progresiones permiten adaptar los conceptos y habilidades de la IA a las capacidades cognitivas y madurez de los estudiantes según su edad. Las directrices están en constante revisión y se ofrecen como borradores para consulta pública, fomentando así una construcción colectiva del currículo (AI4K12, s.f.).
En cuanto a los recursos didácticos, AI4K12 pone a disposición del profesorado un directorio extenso y curado de materiales: desde demos interactivos (como simuladores de cadenas de Markov, reconocimiento facial o análisis de espectrogramas), hasta guías de actividades, libros, módulos curriculares y cursos en línea. Muchos de estos recursos están adaptados a contextos escolares, son gratuitos y están diseñados con una filosofía de “caja transparente” (“glass-box”), que permite a los estudiantes ver y comprender cómo funciona la IA, en lugar de tratarla como una “caja negra” de resultados misteriosos (AI4K12, s.f.).
El sitio también ofrece múltiples vías para la participación: los docentes pueden contribuir con recursos, asistir a talleres estatales de planificación curricular en IA o integrarse a la red de AI4K12 para recibir noticias, participar en encuentros virtuales y colaborar con otros profesionales. La comunidad de AI4K12 tiene presencia en plataformas como YouTube y mantiene una comunicación constante mediante boletines informativos (AI4K12, s.f.).
En definitiva, AI4K12 constituye una propuesta educativa integral y actualizada para incorporar la inteligencia artificial en el aula desde edades tempranas. Su enfoque equilibrado entre teoría, práctica y ética permite a los estudiantes no solo entender qué es la IA, sino también reflexionar sobre su impacto en la sociedad y en sus propias vidas. Esta iniciativa representa un paso esencial para preparar a las nuevas generaciones para un mundo cada vez más mediado por tecnologías inteligentes.
Las búsquedas mediante inteligencia artificial están redefiniendo el panorama digital. Aunque aún hay obstáculos que superar —como la precisión de las respuestas y la necesidad de una mayor transparencia—, la tendencia apunta a que cada vez más personas usarán estas herramientas como complemento o sustituto de los buscadores tradicionales.
Las ventajas que los usuarios encuentran en las búsquedas impulsadas por IA incluyen la posibilidad de recibir respuestas directas, precisas y resumidas, sin tener que hacer clic en múltiples enlaces. La IA permite interactuar con el buscador mediante lenguaje natural, lo que facilita la comprensión y la personalización de las consultas. Además, estas herramientas reducen el “ruido SEO” —contenido optimizado artificialmente para posicionarse—, ofreciendo resultados que los usuarios perciben como más auténticos y útiles.
Sin embargo, la adopción de la búsqueda con IA no está exenta de desafíos. Uno de los más mencionados es el fenómeno de las «alucinaciones«: respuestas incorrectas o inventadas que algunas IA pueden generar. Modelos como GPT-4, si bien avanzados, todavía muestran fallos en la precisión de ciertos datos. Por ello, aunque la mayoría de usuarios prefieren este tipo de búsqueda, solo el 38 % afirma confiar plenamente en las respuestas generadas por IA. En consecuencia, muchas personas combinan ambas formas de búsqueda: utilizan IA para obtener una visión general rápida y motores tradicionales cuando buscan información muy específica o actualizada.
Expertos como Nick Reese, exdirector de tecnología del Departamento de Seguridad Nacional de EE.UU., señalan que la IA no reemplazará totalmente a la búsqueda tradicional, sino que convivirá con ella en un modelo híbrido. De hecho, Google ya ha comenzado a integrar resúmenes generados por IA en sus resultados, en un esfuerzo por no perder terreno ante estas nuevas herramientas. Las búsquedas con IA se utilizan especialmente para investigar un tema, redactar textos o entender conceptos complejos, mientras que Google sigue siendo dominante en áreas como noticias, productos o ubicaciones.
En esta ocasión conversamos con Fermín Domínguez Santana, Profesor Ayudante Doctor en Lingüística General en la Universidad de La Laguna (ULL), miembro del Instituto Universitario de Lingüística Andrés Bello y del grupo de investigación AIGELE, especializado en la instrucción gramatical del español como lengua extranjera. Dialogamos sobre el impacto de la inteligencia artificial (IA) generativa en ámbitos como la lexicografía, la enseñanza de lenguas y la traducción. Fermín está realizando una estancia de investigación en el marco del proyecto PReLemma (Parámetros para recursos léxicos multilingües más accesibles), que dirigen Teresa Fuentes y Jesús Torres, de la Facultad de Traducción y Documentación.
También abordó el papel de la IA en el aprendizaje de idiomas, destacando su utilidad para resolver ambigüedades lingüísticas y fomentar una mayor autonomía y motivación del alumnado. También presentó su proyecto de innovación docente con la herramienta Sketch Engine, que permite a los estudiantes explorar corpus lingüísticos y comprender el funcionamiento real de la lengua en diferentes contextos. Analizó cómo las metodologías activas y las herramientas digitales están transformando la didáctica de las lenguas, y planteó cómo la colaboración entre lexicógrafos e IA puede enriquecer el registro de variedades dialectales.
Finalmente, compartió su visión sobre el futuro del campo, proponiendo que los lingüistas del mañana deben combinar el conocimiento teórico con habilidades tecnológicas y digitales. Entre sus intereses actuales se encuentra el impulso de nuevas líneas de investigación en lingüística aplicada, análisis del discurso y el desarrollo ético de herramientas de IA en el ámbito humanístico.