Archivo de la categoría: Tecnologías de la información

Los resúmenes de IA en Google reducen drásticamente los clics a enlaces y transforman el comportamiento de búsqueda

Athena Chapekis & Anna Lieb, Google users are less likely to click on links when an AI summary appears in the results, Pew Research Center, 22 de julio de 2025. Disponible en: https://pewrsr.ch/4lIqbsM

El comportamiento de los usuarios de Google cambia cuando se presentan resúmenes generados por inteligencia artificial (IA) en los resultados de búsqueda. Estos “AI Overviews” fueron introducidos por Google en 2024 y actualmente están disponibles para millones de usuarios en EE. UU. La función consiste en un resumen generado por IA que aparece en la parte superior de muchas páginas de resultados, sintetizando la información de diversas fuentes, y ha sido motivo de preocupación entre editores y creadores de contenido digital, quienes han notado una caída significativa en el tráfico hacia sus sitios web.

El estudio analizó el comportamiento de 900 adultos estadounidenses durante marzo de 2025, quienes consintieron en compartir sus datos de navegación. Una de las principales conclusiones fue que los usuarios interactúan menos con los enlaces cuando aparece un resumen de IA. En concreto, solo el 8 % de los usuarios hizo clic en algún enlace tradicional en búsquedas con resumen de IA, frente al 15 % de clics en búsquedas sin resumen. Aún más llamativo es que solo el 1 % de los usuarios hizo clic en los enlaces incluidos dentro del propio resumen generado por IA.

Además, estas búsquedas con resumen de IA también tienden a ser más “finales”: en el 26 % de los casos, los usuarios finalizaron su sesión después de leer el resumen, sin navegar más allá de la página de resultados. En contraste, solo el 16 % de los usuarios abandonó la búsqueda tras consultar una página con resultados tradicionales. Esto sugiere que los resúmenes de IA están cumpliendo su función de ofrecer respuestas rápidas y satisfactorias, aunque esto esté teniendo un costo directo sobre el tráfico hacia otros sitios web.

El estudio también exploró qué tipo de consultas tienden a activar la generación de estos resúmenes por parte de Google. En total, el 18 % de todas las búsquedas realizadas en marzo de 2025 generaron un resumen de IA. No obstante, esta cifra varía ampliamente en función de la longitud y la forma de la consulta. Las búsquedas más extensas (de 10 palabras o más) generaron resúmenes en un 53 % de los casos, mientras que las consultas de una o dos palabras solo lo hicieron en un 8 %.

Asimismo, las búsquedas que incluían preguntas explícitas (“quién”, “qué”, “cuándo”, “por qué”) generaron resúmenes en el 60 % de los casos, y aquellas formuladas como oraciones completas (que contienen al menos un sustantivo y un verbo) lo hicieron en un 36 % de las ocasiones. Esto indica que los algoritmos de IA de Google están más activos cuando la intención de búsqueda es clara, informativa y bien definida.

En cuanto a las fuentes utilizadas para componer los resúmenes, el informe señala que las más citadas son Wikipedia, YouTube y Reddit, que representan el 15 % de las fuentes referenciadas en los resúmenes y un 17 % en los resultados tradicionales. Sin embargo, en los resúmenes de IA es más frecuente encontrar vínculos a sitios gubernamentales (.gov), representando un 6 % de los enlaces, frente al 2 % en los resultados convencionales. En ambos tipos de resultados, las páginas de noticias ocupan un 5 %.

En promedio, los resúmenes de IA tienen una longitud media de 67 palabras, aunque varían enormemente: el más corto encontrado tenía solo 7 palabras y el más largo llegaba a 369. Un 88 % de estos resúmenes incluía al menos tres fuentes citadas, mientras que solo un 1 % se apoyaba en una sola fuente.

El informe pone en evidencia una transformación significativa en la forma en que los usuarios interactúan con Google. Aunque los resúmenes de IA pueden ofrecer comodidad y rapidez, reducen de forma notable la visibilidad y el acceso a las fuentes originales de información, lo que afecta especialmente a medios de comunicación, páginas educativas, blogs y todo tipo de creadores de contenido que dependen del tráfico web para sostenerse económicamente.

Este fenómeno plantea preguntas importantes sobre el futuro de la web abierta, la transparencia de los sistemas de IA y el equilibrio entre ofrecer respuestas eficientes y mantener un ecosistema digital sostenible y diverso.

Programa de alfabetización en IA de la Biblioteca Universitaria de Carolina del Norte

Mitchell, C. (2025, junio 9). Building student AI literacy. UNC University Libraries. https://library.unc.edu/news/building-student-ai-literacy/

La iniciativa Carolina AI Literacy Initiative ofrece recursos educativos, como videos y módulos, para enseñar a los estudiantes a utilizar herramientas de inteligencia artificial (IA) de manera ética y efectiva. Los temas incluyen la redacción de indicaciones (prompts), detección de sesgos, verificación de hechos y prevención del plagio. Además, proporciona apoyo curricular para instructores y oportunidades para que los estudiantes experimenten y aprendan más sobre el uso responsable de la IA en entornos académicos

La bibliotecaria Dayna Durbin, especializada en enseñanza y aprendizaje para estudiantes de primer año, ha recibido numerosas consultas sobre si el uso de estas herramientas constituye una forma de hacer trampa o plagio. Para abordar estas inquietudes, Durbin colaboró con Dan Anderson, director de la Iniciativa de Humanidades Digitales de Carolina y del programa de escritura en el Departamento de Inglés y Literatura Comparada, para crear Carolina AI Literacy Initiative

«Cuando apareció ChatGPT, empezamos a recibir preguntas de estudiantes preocupados por el plagio, por asegurarse de que no estaban infringiendo el Código de Honor o haciendo trampas al utilizar herramientas de IA generativa. Se convirtió en una especie de asesoramiento para las bibliotecas»

Dayna Durbin

Esta iniciativa tiene como objetivo proporcionar materiales educativos que ayuden a los estudiantes a utilizar la inteligencia artificial de manera efectiva y responsable. A través de lecturas, talleres, módulos y videos, los estudiantes aprenden habilidades como la redacción de indicaciones (prompts), la detección de sesgos, la verificación de hechos y la prevención del plagio. El programa se basa en la tradición de las bibliotecas de promover la alfabetización informacional y equipa a los estudiantes con el conocimiento necesario para usar las herramientas de IA de manera reflexiva y segura en entornos académicos.

«Las bibliotecas son excelentes para muchos de estos retos asociados a la IA, porque llevan décadas prestando atención a la alfabetización informacional»

Dan Anderson

La producción de GenAI es plana, y es fácil de identificar para los profesores. Pero es una herramienta útil para hacer una lluvia de ideas de palabras clave y términos de búsqueda si estás atascado o para resumir una investigación que puede dar a los estudiantes familiaridad con un tema.

Los módulos ofrecidos tienen como objetivo guiar a los estudiantes en el aprendizaje de aspectos fundamentales sobre la inteligencia artificial, especialmente en su aplicación responsable y efectiva en contextos académicos.

Creación de preguntas para IA (pompts) 


Este módulo se centra en la relación entre la elaboración de preguntas (prompts) para IA y el proceso de pensamiento humano. Se destaca la importancia de crear prompts que no solo dependan de la IA, sino que también potencien y reflejen el razonamiento propio del usuario. Los estudiantes tienen la oportunidad de practicar y desarrollar sus propias estrategias para interactuar con las herramientas de IA, fomentando un enfoque crítico y activo en el uso de estas tecnologías.

Comprobación de hechos y sesgos


Este módulo aborda los riesgos asociados con el uso de herramientas generativas de IA, tales como la difusión de información incorrecta, la creación de citas y enlaces falsos, y la generación de resultados sesgados. Se ofrecen estrategias prácticas para que los estudiantes puedan verificar la veracidad y la imparcialidad de los contenidos producidos por la IA. Está dirigido a todos los estudiantes, tanto a quienes son nuevos en estas tecnologías como a aquellos que las usan con frecuencia, promoviendo así una alfabetización digital crítica y responsable.

Evitar el plagio y documentar las fuentes


Este módulo introduce los estándares de investigación relacionados con la IA generativa, enfocándose en la integridad académica. Invita a los estudiantes a reflexionar sobre los valores éticos y las expectativas que implica utilizar la inteligencia artificial con honestidad, evitando el plagio y aprendiendo a documentar adecuadamente las fuentes cuando se emplean herramientas de IA en sus trabajos.

El uso intensivo de modelos de inteligencia artificial para redactar textos podría estar debilitando nuestras habilidades cognitivas.

Kosmyna, Nataliya, Pattie Maes, and Deb Roy. “Your Brain on ChatGPT: Effects of AI Assistance on Cognitive Demand and Product Quality.” MIT Media Lab, 2024. Accedido el 22 de julio de 2025. https://www.404media.co/is-chatgpt-rotting-our-brains-new-study-suggests-it-does/

Un estudio del MIT sugiere que el uso intensivo de ChatGPT para escribir reduce la actividad cerebral, la creatividad y la conexión con el propio texto. Los ensayos generados con IA fueron considerados de menor calidad y los usuarios mostraron menor retención. Se recomienda usar la IA como complemento, no como sustituto del pensamiento crítico.

En el experimento participaron 54 estudiantes, divididos en tres grupos: uno escribía ensayos con la ayuda de ChatGPT, otro utilizaba un buscador como Google, y el tercero escribía sin ninguna asistencia tecnológica. A todos se les monitorizó la actividad cerebral mediante EEG durante el proceso de escritura.

Los resultados revelaron que el grupo que utilizó ChatGPT mostró la menor actividad cerebral y la red neuronal menos conectada, en comparación con los otros dos grupos. Además, los ensayos generados con la ayuda de la IA fueron considerados de menor calidad por los evaluadores: eran más homogéneos, menos creativos y carecían de un estilo personal, lo que llevó a algunos docentes a calificarlos como “sin alma”. También se observó que quienes usaron ChatGPT tenían más dificultades para recordar lo que habían escrito y reportaron una menor conexión con sus textos, lo que plantea dudas sobre la apropiación del conocimiento.

Un hallazgo especialmente preocupante fue la aparición de lo que los investigadores llaman “deuda cognitiva”: cuanto más tiempo usaban ChatGPT, menos esfuerzo mental ponían en las tareas, recurriendo con mayor frecuencia a copiar y pegar respuestas con apenas ediciones. En contraste, quienes trabajaron sin IA desde el principio mantuvieron niveles altos de compromiso mental y obtuvieron mejores resultados en creatividad y calidad lingüística. Los usuarios que usaron Google obtuvieron un rendimiento intermedio, mostrando un equilibrio entre búsqueda activa y procesamiento propio de la información.

Cuando se intercambiaron las condiciones entre los grupos, se evidenció que quienes habían empezado con ChatGPT seguían mostrando bajo rendimiento al pasar a tareas sin tecnología. Por el contrario, quienes habían trabajado sin IA al principio mejoraron su rendimiento incluso al usar ChatGPT después, lo que sugiere que el uso consciente y posterior de estas herramientas puede tener efectos menos perjudiciales.

Aunque el estudio aún no ha sido revisado por pares y tiene limitaciones debido al tamaño de la muestra, sus conclusiones invitan a la reflexión. Se plantea que depender excesivamente de la IA para tareas complejas como la escritura puede afectar negativamente a la memoria, el pensamiento crítico y la creatividad. Por ello, se recomienda un uso equilibrado de estas tecnologías: primero desarrollar el pensamiento propio, y luego recurrir a la IA como complemento, no como sustituto.

Conflicto entre el avance de la inteligencia artificial generativa (IA) y los marcos legales del copyright.

Michael D. Smith and Rahul Telang. 2025. “Can Gen AI and Copyright Coexist.” Harvard Business Review, July 2025. https://hbr.org/2025/07/can-gen-ai-and-copyright-coexist

Se analizan el creciente conflicto entre compañías desarrolladoras de IA generativa y los derechos de autor. Subrayan que en EE. UU., las industrias creativas aportaron 1,8 billones de USD al PIB en 2021 (~8%), y muchas de estas empresas sostienen que la IA puede reemplazar a creadores humanos si se entrena sin control sobre material protegido.

A medida que las plataformas de IA como ChatGPT, Midjourney o Sora entrenan sus modelos con enormes cantidades de contenido disponible en línea —mucho del cual está protegido por copyright— han surgido numerosos conflictos legales y éticos. Artistas, escritores y empresas mediáticas han denunciado que sus obras se están utilizando sin permiso ni compensación, mientras que las tecnológicas argumentan que se trata de un uso legítimo según el principio de “uso justo” (fair use).

El artículo señala que esta confrontación podría redefinir el concepto mismo de copyright. Mientras las compañías de IA buscan formas de entrenar modelos sin infringir derechos, emergen propuestas como licencias colectivas, remuneraciones obligatorias o acuerdos voluntarios con creadores. A la vez, se plantea si la salida podría estar en nuevos modelos de compensación o en marcos legales más claros que delimiten qué usos son admisibles y cuáles no.

Los tribunales están empezando a pronunciarse, pero aún no hay un consenso global. En Estados Unidos, las decisiones judiciales pueden cambiar el futuro de la IA generativa dependiendo de cómo interpreten la relación entre innovación tecnológica y protección creativa. El artículo concluye que una solución duradera requerirá colaboración entre tecnólogos, legisladores y artistas para garantizar un desarrollo responsable de la inteligencia artificial sin socavar los derechos de los creadores.

Los autores destacan dos fallos judiciales recientes en el Distrito Norte de California con posturas encontradas sobre el fair use:

  • En Bartz v. Anthropic, el juez Alsup determinó que el uso de obras protegidas para entrenar un modelo es justo siempre que sea transformativo—similar a cómo un lector aprende de textos para escribir nuevos
  • En Kadrey v. Meta, el juez Chhabria concluyó que el uso no autorizado no coincide con el uso formativo humano, pues permite generar obras competidoras en minutos con eficiencia mucho mayor

Estos fallos subrayan la ambigüedad legal actual. En paralelo, estudios externos—incluyendo un informe de la Oficina de Derechos de Autor de EE.UU.—advierten sobre riesgos económicos si se les exige a los titulares de derechos optar por excluir su contenido del conjunto de entrenamiento, un proceso costoso y complejo.

La gestión bibliotecaria en México ante los desarrollos de la inteligencia artificial

La gestión bibliotecaria en México ante los desarrollos de la inteligencia artificial Ulises Campbell Manjarrez (coordinador) ) México: CONPABIES. 2025

Texto completo

Esta publicación, que constituye una de las primeras —si no la primera— en México dedicada específicamente al estudio y análisis de la aplicación, implementación, gestión, uso y evaluación de las tecnologías de la información en el ámbito bibliotecario de las Instituciones de Educación Superior (IES), surge a partir de una convocatoria lanzada en 2004 por el Consejo Nacional para Asuntos Bibliotecarios de Instituciones de Educación Superior A.C. (CONPAB-IES), con el propósito de recopilar y difundir investigaciones, experiencias y reflexiones relacionadas con esta temática desde una perspectiva amplia e integradora.

La presentación y prólogo destacan la relevancia de las bibliotecas como espacios estratégicos para valorar el pensamiento crítico, la calidad del acervo y los retos éticos derivados de la automatización y uso de IA . También subrayan la misión de estas instituciones en impulsar el acceso, análisis y organización responsables de la información.

Se destaca la preocupación por la ética, la integridad académica, y la formación continua del personal de bibliotecas para garantizar un uso responsable y educativo de la IA.

Entre los capítulos principales, encontramos:

  • Iniciativas universitarias que explican proyectos de nueve bibliotecas en México sobre adopción de IA (capacitación, infraestructura, innovación, ética e inclusión)
  • Integridad académica, donde se analiza el caso de CETYS Universidad frente a dilemas éticos producidos por nuevas tecnologías.
  • Pensamiento crítico y metacognición, que resalta el rol formador de las bibliotecas en la educación mediada por IA.
  • Evaluación de usuarios, con datos sobre la percepción de los servicios de la Universidad Autónoma de Chihuahua.
  • Semblanzas históricas, que revisan los 40 años de trayectoria del CONPAB-IES desde 1984 hasta 2023.

En conjunto, la obra propone una visión estratégica de las bibliotecas universitarias como agentes de transición hacia entornos educativos potenciados por IA, con un fuerte énfasis en ética, formación del personal, evaluación y colaboración institucional.

Finalmente, se subraya el rol estratégico de las bibliotecas como agentes de transición hacia entornos educativos y de investigación potenciado por IA, y se invita a otras instituciones a sumar esfuerzos colaborativos

Inteligencia artificial generativa: enfoques prácticos para docentes

Instituto para el Futuro de la Educación (IFE). “Inteligencia artificial generativa: enfoques prácticos para docentes.Observatorio, 11 de julio de 2025.

Texto completo

El Observatorio del Instituto para el Futuro de la Educación (IFE), ofrece una guía práctica para educadores interesados en integrar la inteligencia artificial generativa (IAG) en sus aulas. Presentado como una «caja de herramientas», el documento busca proporcionar recursos y estrategias para que los docentes puedan explorar y aplicar diversas aplicaciones y programas de IAG en su práctica educativa diaria.

El texto explica que la IAG, que se basa en modelos de aprendizaje profundo capaces de generar contenido original, tiene un gran potencial para transformar la educación, permitiendo personalizar el aprendizaje, automatizar tareas repetitivas y fomentar la creatividad entre los estudiantes. Sin embargo, también destaca la importancia del papel del docente como guía y acompañante, que debe supervisar y mediar el uso de estas tecnologías para asegurar un aprendizaje significativo y ético.

Además, el documento anticipa un próximo volumen que abordará los aspectos éticos, sociales y críticos relacionados con la implementación de la IAG en el ámbito educativo. Esto refleja una visión equilibrada que no solo celebra las innovaciones tecnológicas, sino que también considera sus implicaciones y riesgos, promoviendo un uso responsable y consciente.

Entre las aplicaciones prácticas que se proponen, se incluyen herramientas para generación automática de textos, apoyo en la creación de materiales didácticos, asistentes de tutoría personalizados, y plataformas para evaluación adaptativa. La guía está orientada a que los docentes puedan experimentar con estas tecnologías y adaptarlas a sus contextos específicos, contribuyendo a una educación más inclusiva, dinámica y acorde a los desafíos del siglo XXI.

En resumen, el documento es un recurso valioso para la comunidad educativa que busca innovar con inteligencia artificial generativa, ofreciendo pautas claras para su implementación práctica, sin perder de vista la dimensión humana del proceso educativo.

Claude for Education: Anthropic lanza un chatbot de IA para universidades

Zeff, Maxwell. “Anthropic Launches an AI Chatbot Plan for Colleges and Universities.” TechCrunch, April 2, 2025. https://www.anthropic.com/solutions/education

El pasado 2 de abril de 2025, Anthropic presentó Claude for Education, una versión especializada de su chatbot de inteligencia artificial, diseñada para el entorno universitario.

Una de las características más destacadas del producto es el modo de aprendizaje (Learning Mode) dentro de Claude Projects. En lugar de ofrecer respuestas directas, este sistema emplea preguntas socráticas para fomentar el pensamiento crítico. Así, ayuda a los estudiantes a reflexionar sobre los procesos, comprender principios fundamentales y acceder a plantillas útiles para investigaciones, esquemas o guías de estudio. Esta metodología posiciona a Claude como un asistente “inteligente”, enfocado en el desarrollo del razonamiento, más que en la simple generación de respuestas automáticas.

Además de sus beneficios para estudiantes, Claude for Education también ofrece herramientas avanzadas para docentes y personal administrativo. Entre ellas se encuentran la automatización de respuestas a correos frecuentes, el análisis de tendencias de matrícula, y la generación de rúbricas y retroalimentación personalizada. Todo esto se desarrolla en un entorno de chat seguro, con controles de privacidad de nivel empresarial.

Para facilitar su adopción por parte de universidades, Anthropic ha establecido alianzas con Instructure (Canvas) e Internet2, además de acuerdos con instituciones como Northeastern University, London School of Economics and Political Science (LSE) y Champlain College. Northeastern participa como socio de diseño, ayudando a definir marcos de buenas prácticas para la integración de la IA en contextos académicos.

Este movimiento de Anthropic se produce en un contexto de alta competencia: OpenAI lanzó ChatGPT Edu en mayo de 2024 y recientemente ha ofrecido ChatGPT Plus de forma gratuita a estudiantes universitarios en EE. UU. y Canadá, además de promover el consorcio NextGenAI, que cuenta con una inversión de 50 millones de dólares en investigación. Todo esto subraya una creciente disputa por consolidar a Claude o ChatGPT como la herramienta predeterminada en el ámbito universitario, con implicaciones clave en la formación de futuras generaciones y su alfabetización en inteligencia artificial.

Marco de Alfabetización en Inteligencia Artificial para Educadores

Lee, Stella.AI Literacy Framework. Calgary: Paradox Learning, 13 marzo 2025. https://paradoxlearning.com/wp-content/uploads/2025/03/AI-Literacy-Framework_updated_031325.pdf

“AI Literacy Framework” ofrece una guía comprensiva diseñada para cultivar la alfabetización en inteligencia artificial entre equipos de aprendizaje y desarrollo, educadores, profesionales del L&D y responsables políticos.

La estructura del marco se organiza en ocho dimensiones clave, cada una con competencias específicas. Estas dimensiones abarcan desde la comprensión de conceptos fundamentales de IA (qué es la IA, cómo funciona, principales tecnologías) hasta aspectos avanzados como integración pedagógica, análisis crítico, y gobernanza ética. Esta tipología permite a las organizaciones construir rutas de aprendizaje personalizadas según el perfil y rol de cada profesional .

Un elemento distintivo del framework es su enfoque en la evaluación: no basta con enseñar, sino que se debe medir cómo los individuos utilizan la IA, cómo piensa críticamente sobre ella y cómo aplican la tecnología en contextos reales. Este componente garantiza que la alfabetización en IA sea más que teórica, convirtiéndola en una habilidad funcional, aplicable y medible dentro de proyectos y entornos de trabajo.

El documento promueve también un enfoque experiencial. Propone que el desarrollo de habilidades ocurra en contextos auténticos: en proyectos reales de aprendizaje, en la práctica docente, o en entornos laborales con uso activo de IA. Se hace especial hincapié en la mentoría, comunidades de práctica y validación continua mediante feedback, lo que refuerza el aprendizaje colaborativo y permite que las competencias evolucionen conforme lo hace la tecnología .

Finalmente, el framework de Stella Lee destaca su adaptabilidad: aunque fue concebido para entornos educativos y de L&D, se puede aplicar en organizaciones de distintos sectores. Su diseño modular y estructurado por competencias permite escalarlo fácilmente y ajustarlo a necesidades específicas, reforzando su utilidad para educadores, formadores, responsables de políticas y sectores corporativos que buscan integrar la IA de forma confiable, responsable y estratégica.

Las empresas con altos niveles de Alfabetización en AI podrían obtener hasta un 20 % más de rendimiento financiero

Waller, Graham. “AI Literacy: Why and How Business Leaders Must Build It.Gartner, March 27, 2025.

La alfabetización en inteligencia artificial (AI literacy) se está convirtiendo en una competencia clave para los líderes empresariales en un mundo donde la IA está transformando todos los sectores.

La alfabetización en IA va mucho más allá de aprender a usar herramientas generativas: implica comprender los conceptos, capacidades, limitaciones y riesgos de la IA dentro del contexto empresarial y social. Permite que los líderes no solo adopten tecnología, sino que la gestionen de forma estratégica, asegurando que los casos de uso se alineen con los objetivos de negocio y cumplan con estándares éticos.

Uno de los ejes del artículo es la idea del «aprendizaje orientado al rendimiento» o learning-to-earning. Gartner subraya que, para lograr un compromiso real con la formación en IA, los programas educativos deben estar claramente vinculados con los resultados de negocio. Es decir, hay que mostrar cómo la alfabetización en IA se traduce en ventajas como generación de ingresos, aumento de eficiencia, mejora en la experiencia del cliente o fortalecimiento de la ventaja competitiva. La IA no es solo una herramienta tecnológica, sino una palanca para generar valor tangible, por lo que el aprendizaje debe enfocarse en cómo aplicar la IA de manera práctica y rentable.

El artículo también explica que no todos los empleados o líderes necesitan el mismo nivel de alfabetización en IA. Gartner propone dividir los conocimientos en cuatro grandes categorías:

  • Fundamentos (conceptos básicos de IA y su funcionamiento)
  • Valor (identificación de casos de uso y retorno de inversión)
  • Ingeniería (modelado, algoritmos, datos)
  • Gobernanza (ética, transparencia y cumplimiento normativo).

A partir de esta estructura, se recomienda realizar un análisis de brechas de habilidades por perfil profesional. Esta evaluación permite personalizar el aprendizaje según las funciones de cada individuo dentro de la organización y adaptarlo a las necesidades específicas del negocio.

Además, promueve un enfoque de aprendizaje ágil, es decir, continuo, flexible y adaptado al ritmo de cambio de la tecnología. Este enfoque combina distintos métodos: aprendizaje formal a través de cursos y certificaciones; aprendizaje social mediante comunidades de práctica, coaching y mentoría; y aprendizaje experiencial, centrado en proyectos reales que permiten aplicar los conocimientos en contextos concretos. La clave está en ofrecer formación relevante y accesible, que se pueda actualizar con rapidez para mantenerse al día con la evolución constante de la IA.

Por último, el artículo subraya que una organización con líderes alfabetizados en IA estará en mejor posición para aprovechar los beneficios de esta tecnología. Gartner predice que, para 2027, las empresas con altos niveles de AI literacy podrían obtener hasta un 20 % más de rendimiento financiero, y que la inteligencia artificial participará en el 50 % de las decisiones empresariales. Sin embargo, advierte que esto solo será posible si las organizaciones implementan estructuras sólidas de gobernanza y fomentan una cultura crítica en torno a la IA, evitando la adopción ciega de sistemas automatizados sin control humano.

Por lo tanto, la alfabetización en IA es un componente estratégico para cualquier empresa del presente y del futuro. No basta con adoptar tecnologías: es necesario que los líderes y sus equipos comprendan su funcionamiento, sus riesgos y su potencial transformador. El artículo de Gartner proporciona una guía clara para avanzar en esta dirección: vincular el aprendizaje con resultados, adaptar la formación a los distintos roles, aplicar un enfoque ágil y mantener una visión crítica y responsable sobre la inteligencia artificial.

«En la era de la IA las bibliotecas deben pasar de simplemente servir a sus comunidades a salvarlas» (David Lankes)

Lankes, R. David. “An Urgent Conversation.” Words & Money, 11 de julio de 2025.

Lankes aborda de forma crítica y reflexiva el impacto de la inteligencia artificial (IA) en las bibliotecas y en la profesión de la biblioteconomía. El autor, profesor en la Universidad de Texas en Austin, explica que decidió autopublicar su obra Triptych: Death, AI, and Librarianship con el propósito de impulsar un diálogo profundo sobre cómo esta tecnología puede fortalecer o amenazar a las instituciones comunitarias y su misión social

En una época de creciente aislamiento social, división ideológica y agitación tecnológica, las bibliotecas se encuentran en una encrucijada. En Triptych: Death, AI, and Librarianship David Lankes -junto con Jain Orr y Qianzi Cao- hace una llamada a la acción audaz, urgente y profundamente humana para la profesión bibliotecaria.

Estructurado en torno a tres provocadoras conferencias, este libro desafía a los bibliotecarios a ir más allá de los modelos de servicio tradicionales y a abrazar su papel como agentes de transformación social. Lankes sostiene que las bibliotecas no son espacios neutrales, sino infraestructuras sociales vitales, lugares donde las comunidades pueden volver a conectarse, reclamar su autonomía y resistir a la desesperación que amenaza a las sociedades democráticas.

“Triptych es un manifiesto. Es uns llamads a los bibliotecarios a resistir la desesperación, defender la equidad y guiar a las comunidades a través de las complejidades éticas de la inteligencia artificial y el ascenso del autoritarismo — no al mantenerse al margen, sino al ponerse de pie juntos.”

Desde la lucha contra el aumento de las prohibiciones de libros y la erosión de la libertad intelectual hasta la navegación por los campos de minas éticos de la inteligencia artificial, El libro explora la identidad cambiante de la biblioteconomía en el siglo XXI. Defiende el poder de contar historias, la necesidad de la alegría frente a la adversidad y la inclusión radical de los «bibliotecarios salvajes», aquellos que acceden a la profesión por caminos poco convencionales pero que encarnan sus valores más profundos.

Lankes señala que su libro ha generado reacciones muy polarizadas, ya que muchos lo ven como una apuesta valiente por la innovación, mientras otros lo interpretan como una rendición ante las grandes tecnológicas. El autor aborda temas como la inteligencia artificial, la alegría en tiempos difíciles, los bibliotecarios sin título y, sobre todo, el concepto de “Muertes por Desesperación”, que hace referencia a las muertes causadas por suicidio, adicciones y enfermedades relacionadas con el alcohol entre personas marginadas sin estudios universitarios.

A través de Tríptico, Lankes quiere transmitir un mensaje claro: las bibliotecas deben pasar de simplemente servir a sus comunidades a salvarlas. Cree que, aunque la inteligencia artificial aún no contribuye de forma significativa a esta misión, tiene el potencial de hacerlo. Por eso decidió usarla tanto en el contenido como en la creación del libro, como una forma de experimentar y fomentar una comprensión directa de sus posibilidades y riesgos. Advierte, sin embargo, que esta tecnología está siendo liberada sin suficientes salvaguardas por parte de las grandes empresas, lo que agrava los efectos sociales negativos como la desinformación y la degradación de la confianza pública.

Lankes justifica la autopublicación como una necesidad frente a la lentitud de la publicación académica tradicional. A pesar de ser un investigador consolidado con obras premiadas, consideró que los temas urgentes que trata Tríptico —como el uso político de las bibliotecas y las amenazas a la libertad intelectual— no podían esperar el largo proceso editorial habitual. En colaboración con Library Journal, ha logrado publicar el libro con rapidez y así generar discusión en tiempo real. Aunque valora la revisión por pares y no la descarta en el futuro, defiende que la investigación también puede evolucionar a través de métodos ágiles y participativos, como el que ha utilizado.

Sobre la IA, Lankes reconoce que su inclusión en el libro puede desviar el foco del mensaje principal, que es combatir la desesperación y transformar la biblioteconomía. Aun así, insiste en que es necesario que los bibliotecarios se enfrenten directamente con esta tecnología. Critica que el enfoque actual de “alfabetización en IA” se base en modelos de tareas específicas, cuando la verdadera amenaza de la IA es su capacidad para sembrar dudas generalizadas y erosionar la confianza social. Las herramientas modernas ya permiten a cualquier usuario alterar imágenes y textos con facilidad, lo que complica la distinción entre lo real y lo falso, y plantea desafíos cruciales para las bibliotecas como guardianas del conocimiento y la verdad.