La construcción de comunidades ciudadanas inclusivas: papel de las bibliotecas en contextos de crisis y de emergencia social

Alonso‑Arévalo, Julio. 2018. La construcción de comunidades ciudadanas inclusivas: papel de las bibliotecas en contextos de crisis y de emergencia social.” Desiderata 7: 50–55. https://dialnet.unirioja.es/servlet/articulo?codigo=6239039

Se plantea una reflexión profunda sobre la transformación del rol de las bibliotecas públicas en el siglo XXI, especialmente en contextos de crisis y emergencias sociales. Según el autor, las bibliotecas han dejado de ser espacios centrados exclusivamente en la custodia y gestión de colecciones para convertirse en actores activos en la construcción de capital humano y social.

En este nuevo paradigma, las personas —no los materiales— constituyen el centro de la misión bibliotecaria. Las bibliotecas no solo proporcionan acceso a recursos y conocimientos técnicos, sino que también inspiran y cultivan el aprendizaje individual y colectivo, fortaleciendo redes de conocimiento dentro de la comunidad. Esto implica un cambio radical hacia una biblioteca más participativa y conectada con las necesidades y aspiraciones de sus usuarios, fomentando relaciones sociales e inclusión.

En el contexto de crisis —ya sean desastres naturales, emergencias sociales o situaciones de vulnerabilidad—, las bibliotecas tienen un papel especialmente significativo. El autor destaca que su carácter accesible, abierto y cercano a la ciudadanía las posiciona como centros de intervención y resiliencia cuando otras estructuras sociales enfrentan dificultades. Al proporcionar espacios físicos y simbólicos de encuentro, les permite a los individuos no solo acceder a información útil, sino también reconstruir vínculos sociales, compartir experiencias y desarrollar respuestas colectivas. Este enfoque amplía la función tradicional de bibliotecas más allá de la mera difusión de información, integrándolas en los procesos de recuperación y cohesión comunitaria.

Además subraya además el papel del bibliotecario como mediador y facilitador en esta transformación. Más allá de sus funciones técnicas, los profesionales de la información ayudan a las personas a navegar nuevas tecnologías, gestionar datos relevantes y satisfacer sus necesidades informativas en situaciones de cambio constante. Esta labor se traduce en apoyo personalizado y en experiencias de aprendizaje que fortalecen la participación ciudadana y promueven la apropiación comunitaria de la biblioteca. En síntesis, el artículo aboga por concebir las bibliotecas como centros vivos de interacción social y agentes dinamizadores del capital social, capaces de promover la inclusión, la cohesión y la resiliencia en tiempos de crisis, reflejando un giro hacia una visión más amplia y humana del servicio bibliotecario.

Los marcapáginas más extraños encontrados el los libros prestados en bibliotecas

1000 Libraries Magazine. 2026. “Libraries Reveal the Oddest Bookmarks Ever Left in Books. 1000 Libraries Magazine, 23 de febrero de 2026. https://magazine.1000libraries.com/libraries-reveal-the-oddest-bookmarks-ever-left-in-books/

La variedad de objetos que usuarios de bibliotecas han utilizado o dejado inadvertidamente como marcadores dentro de los libros. A partir de relatos recogidos de bibliotecarios, libreros y miembros de comunidades lectora, el artículo destaca que no todo lo que se encuentra entre las páginas son separadores convencionales; a menudo aparecen objetos cotidianos e incluso extraños que revelan comportamientos imprevisibles de los lectores.

Aunque muchos optan por elementos comunes como tickets, notas o hojas de papel, hay casos en los que los ítems hallados son tan inusuales que parecen sacados de anécdotas de humor o curiosidad. Esta colección de hallazgos revela tanto la imaginación de quienes leen como la naturaleza impredecible de los hábitos de lectura que trascienden el uso tradicional de marcadores.

Los objetos más comentados varían en función de su origen y contexto. Por un lado, muchos marcadores improvisados consisten en elementos relacionados con la vida cotidiana: tiquetes de transporte, recibos, tarjetas pequeñas o incluso cartas personales, que sirven momentáneamente para guardar la página hasta que el lector tenga un separador adecuado. Por otro lado, algunos hallazgos rozan lo extravagante o desconcertante, como notas antiguas, fotografías, dibujos o recuerdos con valor sentimental que revelan historias personales inadvertidas. En casos extremos, incluso se han encontrado objetos que no parecen destinados a marcar páginas, pero que han terminado allí por descuido o pragmatismo del lector. Estas anécdotas ponen de relieve cómo los libros pueden convertirse en archivos accidentales de recuerdos humanos, preservando fragmentos de vidas, pensamientos y experiencias diversas más allá del texto impreso.

Además de ilustrar la variedad de objetos encontrados, el artículo también ofrece una reflexión sobre la dimensión social de estos hallazgos. Lo que para un empleado de biblioteca puede ser simplemente un artículo olvidado, para otros puede significar una conexión inesperada con desconocidos que compartieron ese mismo libro. La presencia de notas, tarjetas o fotografías sugiere que los libros viajan no solo a través de manos lectoras, sino también a través de historias personales y momentos significativos para quienes los han leído. En este sentido, los marcadores improvisados funcionan como pequeñas cápsulas de contexto cultural y biográfico, revelando cómo los objetos más inesperados pueden convertirse en testigos silenciosos de la interacción entre los lectores y los libros.

Sesgo geográfico en la inteligencia artificial: por qué nunca deberías decirle a una IA que eres de Nápoles

Kayser‑Bril, Dr. Nicolas. 2026. Never tell an AI you’re from Naples. AlgorithmWatch, 20 de febrero de 2026. https://algorithmwatch.org/en/never-tell-an-ai-youre-from-naples/

Se analiza de forma crítica cómo los modelos de lenguaje de gran tamaño (LLM) reproducen y consolidan prejuicios geográficos presentes en los datos con los que fueron entrenados. El punto de partida es una conversación con un especialista encargada de poner a prueba los límites y salvaguardas de los sistemas de IA— quien explica que cualquier modelo estadístico generativo refleja inevitablemente los sesgos latentes en sus corpus de entrenamiento.

El trabajo consiste precisamente en forzar el sistema hasta que esos prejuicios afloran. Gracias a este tipo de pruebas, por ejemplo, los buscadores basados en IA evitan responder preguntas peligrosas; sin embargo, el artículo demuestra que basta reformular ligeramente una pregunta para sortear ciertas restricciones y revelar inclinaciones subyacentes.

El autor presenta un experimento metodológicamente ingenioso para detectar prejuicios geográficos. Dado que los LLM suelen negarse a responder preguntas directas como “¿En qué ciudad es la gente más inteligente?”, sí acceden a comparaciones binarias del tipo: “¿En qué ciudad es la gente más inteligente, París o Berlín?”. A partir de comparaciones por pares entre ciudades europeas, se elaboró una clasificación según cuatro modelos distintos: dos comerciales —Gemma 3 de Google y Mistral— y dos desarrollados por iniciativas públicas europeas —Lucie (OpenLLM France) y PLLuM (Ministerio de Digitalización de Polonia)—. El resultado fue sorprendentemente consistente: Estocolmo y Viena aparecían sistemáticamente en la parte alta de la jerarquía, mientras que Sofía, Marsella y Nápoles quedaban relegadas a los últimos puestos. Incluso modelos nacionales no mostraban favoritismo hacia sus propias capitales. Las correlaciones entre los resultados oscilaron entre 0,47 y 0,77, lo que indica una notable convergencia pese a haber sido entrenados con conjuntos de datos distintos.

El artículo cuestiona la idea de que los LLM simplemente “reflejan” opiniones sociales cambiantes. Para ilustrarlo, menciona el llamado “efecto Bilbao”, término acuñado en urbanismo para describir cómo la reputación de una ciudad puede transformarse radicalmente en pocos años gracias a un proyecto emblemático —como ocurrió con Bilbao tras la apertura del Museo Guggenheim—. Las percepciones humanas son volátiles, contradictorias y contextuales. En cambio, los modelos de lenguaje, al promediar millones de documentos y cristalizar correlaciones estadísticas, tienden a congelar prejuicios dominantes y a eliminar matices. En este sentido, los LLM serían estructuralmente inmunes al “efecto Bilbao”: no capturan la fluidez de la reputación urbana, sino que fijan estereotipos agregados.

El problema no es meramente teórico. Aunque parezca improbable que alguien utilice un modelo para clasificar las “ciudades más inteligentes”, estos sistemas sí pueden emplearse para evaluar currículos, analizar solicitudes de financiación o priorizar candidaturas. Si ciertos topónimos están estadísticamente asociados a atributos positivos o negativos, podrían producirse efectos discriminatorios reales, aunque difíciles de medir empíricamente. El texto también señala limitaciones metodológicas: los LLM son notoriamente inconsistentes. Cuando se les pidió identificar las ciudades “más estúpidas”, solo uno de los modelos mostró correlación negativa con su propio ranking de inteligencia. Otros tendían a colocar a Viena o Estocolmo en la cima incluso en categorías absurdas, llegando a generar clasificaciones para términos inexistentes. Esta plasticidad revela tanto la fragilidad lógica de los sistemas como la profundidad de sus asociaciones implícitas.

En conjunto, el análisis plantea una advertencia inquietante: los sistemas de IA no solo heredan prejuicios, sino que pueden consolidarlos y proyectarlos con una apariencia de objetividad algorítmica. En un mundo donde la automatización influye cada vez más en decisiones administrativas y económicas, comprender y auditar estos sesgos geográficos se vuelve una cuestión urgente de justicia y responsabilidad tecnológica.

Bibliotecas como refugio ante el frío extremo

Conde, Ximena, y Aubrey Whelan. 2026. “Library warming centers strained workers and left people without help for complex issues, staff say.” The Philadelphia Inquirer, 11 de febrero de 2026. https://www.inquirer.com/news/philadelphia/philadelphia-warming-center-workers-need-support-staff-20260211.htm

Las crecientes tensiones y desafíos que enfrentan los trabajadores y voluntarios de los centros de acogida invernal que se han habilitado en diversas sucursales de la biblioteca pública de Filadelfia durante una prolongada ola de frío extremo.

Ante temperaturas peligrosamente bajas, agencias municipales y organizaciones comunitarias activaron estos espacios para ofrecer refugio temporal a personas en situación de calle, con el objetivo de sacar a los más vulnerables de las calles. En muchos casos, algunas bibliotecas han permanecido abiertas durante más de veinte días consecutivos como centros de alivio ante el frío, una medida que ha sido bien recibida por la comunidad y los usuarios de estos servicios. Sin embargo, esta respuesta de emergencia ha generado múltiples retos para el personal bibliotecario, quienes se han visto obligados a asumir roles para los que no necesariamente cuentan con capacitación ni recursos adecuados.

Los trabajadores y voluntarios cuentan que el flujo de personas que acuden a estos centros no se limita a quienes buscan simplemente un espacio cálido, sino que incluye a individuos con necesidades complejas que requieren apoyo más allá de ofrecerles calor y un lugar para resguardarse. Así, mencionan la presencia de personas con crisis de salud mental, con problemas de adicción o quienes requieren atención médica básica, como curas de heridas, situaciones para las cuales no están capacitados ni cuenta el centro con personal sanitario. Además, se han presentado desafíos logísticos que complican aún más la labor del personal: cambios de última hora en las ubicaciones de los centros, información en mapas en línea que a veces resultó incorrecta o confusa, dificultades para conseguir alimentos y agua por falta de coordinación, y transporte insuficiente para llevar a las personas a refugios nocturnos después del cierre de las bibliotecas. Estas dificultades han puesto a los trabajadores en la disyuntiva de quedarse después de su turno para ayudar o dejar a quienes lo necesitan en la calle, una decisión moralmente angustiante para muchos.

La situación ha generado cuestionamientos más amplios sobre la idoneidad del sistema de centros de acogida invernal tal como está organizado actualmente. Para muchos empleados y defensores de la comunidad, el uso de bibliotecas como centros de respuesta ante emergencias climáticas sin el apoyo adecuado de personal de salud, servicios sociales o asistencia profesional representa una sobrecarga injusta e insostenible. Brett Bessler, agente sindical, criticó que las autoridades locales están aprovechando a un grupo de trabajadores profundamente comprometidos con sus comunidades sin proporcionarles la estructura y los recursos necesarios para enfrentar las situaciones que se presentan. Por su parte, funcionarios municipales han reconocido algunos de los problemas logísticos y apuntan a mejoras o resoluciones en marcha, aunque han minimizado algunas de las preocupaciones respecto al personal. En conjunto, este informe pone de relieve no solo las condiciones laborales tensas de quienes operan estos centros de acogida improvisados, sino también un debate más amplio sobre cómo atender de manera eficaz y humana a las personas más vulnerables en situaciones de crisis climática y social.

Sam Altman, CEO de OpenAI, critica a las empresas que usan la IA como excusa para justificar despidos.

Dellinger, AJ. 2026. “Sam Altman Says Companies Are ‘AI Washing’ Layoffs.” Gizmodo, 21 de febrero de 2026. https://gizmodo.com/sam-altman-says-companies-are-ai-washing-layoffs-2000724759

En un contexto de continuos recortes de plantilla en el sector tecnológico y en diversas industrias, el CEO de OpenAI, Sam Altman, ha ofrecido una perspectiva crítica sobre cómo las empresas están comunicando las causas de sus despidos.

Durante el India AI Impact Summit, Altman advirtió que muchos ejecutivos y corporaciones han empezado a practicar lo que él denomina “AI washing”, es decir, atribuir a la inteligencia artificial la responsabilidad de recortes laborales que probablemente obedecen a otras razones internas, como reducciones de costes, reestructuraciones estratégicas o ajustes post-pandemia que ya estaban en marcha antes de la adopción de herramientas tecnológicas. Altman reconoció que la IA sí está desplazando ciertos tipos de empleos y que, con el tiempo, ese impacto será más palpable, pero señaló que en muchos casos actuales esa atribución está siendo utilizada como una excusa conveniente ante empleados, mercados y público en general.

Los datos recientes respaldan la advertencia de Altman sobre la exageración en torno al papel actual de la IA en la pérdida de empleo. Por ejemplo, un informe de la consultora Challenger, Gray & Christmas indica que alrededor de 55 000 despidos en Estados Unidos en 2025 fueron atribuidos directamente a la IA, cifra que, aunque significativa, representa menos del 1 % del total de recortes de empleo, lo que sugiere que otras causas económicas o estructurales han sido más determinantes para las masas de despidos reportadas. Además, encuestas entre ejecutivos muestran que una mayoría amplia—hasta el **90 % según un estudio citado por medios—no ha observado un impacto sustantivo de la IA en la plantilla durante los últimos años, lo que contradice la narrativa de que la tecnología ha sido la principal fuerza destructora de empleo hasta la fecha.

La crítica de Altman también encierra un doble mensaje sobre la percepción pública y el rol de las corporaciones. Por un lado, evita posicionar la IA como un “asesino de trabajos”, ya que esa idea podría aumentar la resistencia social a la adopción de herramientas que él mismo y su empresa promueven; por otro, desafía a las organizaciones a ser más transparentes sobre sus motivos reales para reducir personal. Altman destacó, como otros líderes tecnológicos han señalado, que las revoluciones tecnológicas históricas suelen derivar también en la creación de nuevas categorías laborales y oportunidades, aunque el equilibrio temporal entre destrucción y creación de empleo puede ser doloroso para muchos trabajadores. Este planteamiento pone de manifiesto la complejidad del debate: aunque la IA tendrá sin duda un impacto profundo en el mundo laboral, el grado, la velocidad real de ese impacto y la honestidad con que se expliquen los factores detrás de los despidos constituyen temas que requieren mayor atención pública y empresarial.

La IA es buena para los científicos, pero empequeñece la ciencia misma

Hao, Qianyue, Fengli Xu, Yong Li, James Evans, et al. 2026. “Artificial intelligence tools expand scientists’ impact but contract science’s focus.” Nature 649: 1237–1243. https://doi.org/10.1038/s41586-025-09922-y

Reflexión crítica sobre cómo la adopción de herramientas de inteligencia artificial en la investigación científica puede estar generando efectos contrapuestos en el avance del conocimiento.

Por un lado, Worlock reconoce que la IA aporta beneficios claros a los investigadores individuales: automatiza tareas rutinarias, acelera la escritura de manuscritos y permite manejar grandes volúmenes de datos con una rapidez que ningún humano podría igualar. Estas ventajas, que están siendo reportadas y cuantificadas en estudios recientes, como el análisis de millones de publicaciones académicas que muestra que los científicos que usan IA publican más trabajos, reciben más citas y alcanzan posiciones de liderazgo más rápido, parecen confirmar de manera empírica que la productividad individual se incrementa significativamente cuando se integra IA en el flujo de trabajo científico.

Sin embargo, Worlock advierte que estos beneficios pueden tener un coste importante para la ciencia en su conjunto. A partir de debates surgidos en foros especializados —como The Coalition of the Curious que él menciona— y de evidencias recientes, el autor sugiere que la IA podría estar “encogiendo” el campo científico al concentrar esfuerzos en áreas de investigación consolidadas y ricas en datos, donde las herramientas pueden operar con mayor eficacia, en detrimento de exploraciones más fundamentales o arriesgadas. Esta crítica coincide con hallazgos académicos que documentan cómo la adopción generalizada de IA tiende a estrechar la diversidad temática de la ciencia y reduce la colaboración entre investigadores, ya que los incentivos se orientan hacia proyectos que son más fácilmente automatizables y citables. La preocupación central de Worlock es que, si la IA sirve sobre todo para acelerar trabajos ya en marcha o bien definidos, podría reforzar tendencias de homogeneización y disminuir la variedad de preguntas científicas que se formulan y se investigan.

Más allá de la productividad y la diversidad temática, Worlock también subraya que la discusión sobre el impacto de la IA en la ciencia no puede limitarse a métricas cuantitativas como número de publicaciones o citas, sino que debe incluir consideraciones más profundas sobre la verdadera naturaleza del descubrimiento científico. Es decir, ¿hasta qué punto una tecnología puede reclamar méritos de invención o comprensión cuando opera como una herramienta que sintetiza y acelera trabajos humanos sin necesariamente generar nuevas perspectivas teóricas? Esta inquietud se conecta con debates emergentes en la comunidad investigadora acerca de la necesidad de mantener el juicio, la creatividad y la colaboración humana como componentes esenciales de la práctica científica, incluso cuando se integran sistemas automatizados en la generación de hipótesis o en el diseño experimental. En este sentido, Worlock invita a sus lectores a “discutir” y reflexionar colectivamente sobre cómo estructurar incentivos, gestionar la integración de la IA y preservar la diversidad intelectual en un momento en que la ciencia y la tecnología están cada vez más entrelazadas.

Colonialismo digital: cómo las empresas de IA siguen el manual del imperio

Russ‑Smith, Jessica y Michelle Lazarus. 2025. “Digital colonialism: How AI companies are following the playbook of empire. The Conversation, 26 de noviembre de 2025. https://theconversation.com/digital-colonialism-how-ai-companies-are-following-the-playbook-of-empire-269285 (consultado el 24 de febrero de 2026).

Las grandes empresas de inteligencia artificial están replicando prácticas históricas de colonialismo en el entorno digital contemporáneo. Según las autoras, compañías como OpenAI y Google utilizan cantidades enormes de datos disponibles en Internet —fotos, textos, videos, obras artísticas y otros contenidos— para entrenar sus algoritmos sin el consentimiento explícito ni compensación de los creadores originales, lo que simboliza una apropiación de recursos culturales y cognitivos parecida a la lógica extractiva de los antiguos imperios coloniales.

Esta dinámica se legitima muchas veces a través de interpretaciones amplias de doctrinas legales como el “uso justo” (fair use) en el derecho de autor estadounidense, mientras que al mismo tiempo las mismas empresas protegen vehementemente su propiedad intelectual.

Las autoras trazan un paralelo entre la noción de terra nullius —un concepto legal colonial que declaraba territorios como “tierra de nadie” para justificar su apropiación— y cómo las empresas de IA tratan los datos personales y comunitarios como si no pertenecieran a nadie. Así como los colonizadores asumían que las tierras indígenas no tenían dueño legítimo, las grandes plataformas tecnológicas asumen implícitamente que la vasta colección de datos en línea está disponible para uso y explotación sin negociación ni consentimiento verdaderos. Esto se ve intensificado por prácticas de “consentimiento agrupado”, donde al usuario se le presenta un único botón de “aceptar todo” para servicios o actualizaciones, lo que en realidad no deja opción real si se quiere continuar accediendo a herramientas esenciales del mundo digital.

En el texto también se exploran formas de resistencia y alternativas a esta situación. Se destaca la importancia de los movimientos por la soberanía de los datos liderados por comunidades originarias, que proponen modelos en los que la propiedad, el control y la gobernanza de los datos pertenecen a las personas o comunidades que los generan. Estas propuestas implican mecanismos como la “continuidad del consentimiento”, en los que cada solicitud de acceso a datos exige un permiso específico y continuo, y la negociación colectiva para decisiones sobre uso y acceso. Asimismo, se mencionan casos de litigios legales contra prácticas de scraping de datos por parte de empresas de IA, como demandas de plataformas digitales o de autores por el uso no autorizado de material para entrenar modelos, lo que indica que la resistencia legal y social contra el colonialismo digital ya está en marcha.

Las autoras concluyen que aunque las empresas de IA pueden parecer todopoderosas, las estrategias históricas de resistencia al colonialismo —desde luchas jurídicas hasta reivindicaciones de derechos colectivos— ofrecen modelos para desafiar la lógica extractiva en el ámbito digital. Construir un futuro digital más justo implica reconocer los derechos sobre los datos como derechos humanos y comunitarios, promover marcos legales que protejan esos derechos, y fomentar prácticas tecnológicas que no reproduzcan desigualdades ni apropiaciones no consentidas de conocimiento y cultura.

Guía práctica para el uso reflexivo y el análisis de herramientas de Inteligencia Artificial en bibliotecas públicas y comunitarias

Programa Iberoamericano de Bibliotecas Públicas-Iberbibliotecas. 2026. Guía práctica para el uso reflexivo y el análisis de herramientas de Inteligencia Artificial en bibliotecas públicas y comunitarias. Secretaría General Iberoamericana (SEGIB) y Agencia Española de Cooperación Internacional para el Desarrollo (AECID).

Descargar

Esta guía surge en un contexto donde la inteligencia artificial (IA) está transformando aceleradamente las prácticas de producción, organización y acceso a la información. Reconociendo que la IA no es simplemente una herramienta técnica más sino un fenómeno que plantea cuestiones éticas, culturales y sociales profundas

La guía se propone como un recurso para bibliotecarias, bibliotecarios y equipos de trabajo en bibliotecas comunitarias y públicas, orientándolos hacia un uso reflexivo, crítico, ético y contextualizado de tecnologías de IA, teniendo siempre presente la misión social y educativa de las bibliotecas.

El documento aborda, en sus secciones conceptuales iniciales, la naturaleza dual de la IA: por un lado, sus potencialidades para apoyar tareas como la búsqueda semántica, la mejora de la accesibilidad, la automatización de procesos internos o la creación de contenidos pedagógicos; por otro, los riesgos asociados a la opacidad algorítmica, la reproducción de sesgos, la vulneración de la privacidad y la posible erosión de criterios profesionales. En este marco, la guía enfatiza que la adopción de IA no debe responder al entusiasmo por la innovación ni a modas tecnológicas, sino a una decisión situada y deliberada, alineada con principios de justicia social, diversidad cultural e inclusión lingüística, y siempre bajo la supervisión y agencia humanas.

Una parte sustancial de la guía está dedicada a los criterios para la reflexión y el análisis de herramientas de IA. Aquí se propone un enfoque que va más allá de evaluar funcionalidades técnicas: se invita a las bibliotecas a considerar cómo cada herramienta se alinea con los valores misionales de la institución, cómo puede afectar a la privacidad de las personas usuarias, qué sesgos puede introducir en los resultados, y qué mecanismos de transparencia, responsabilidad y rendición de cuentas contempla el proveedor tecnológico. Este enfoque reconoce que las bibliotecas actúan en contextos sociales específicos—con necesidades, inequidades y dinámicas propias—y que la introducción de IA debe ser contextualizada, debatida internamente y con participación comunitaria, evitando automatismos que desplacen o desvaloricen el juicio profesional de las y los bibliotecarios.

Además, la guía presenta propuestas prácticas que pueden incluirse en los planes y servicios bibliotecarios: desde la integración de sistemas de búsqueda basada en modelos semánticos hasta la generación de recomendaciones de lectura, la traducción de contenidos, la síntesis documental y la optimización de procesos técnicos como la precatalogación. Sin embargo, cada propuesta se aborda con un marco crítico que subraya la necesidad de mantener siempre opciones de atención humana, garantizar la accesibilidad real para personas con distintas capacidades y promover la alfabetización informacional en torno a la IA entre usuarias y usuarios. Este rol formativo se entiende como parte integral del compromiso de la biblioteca con la comunidad, potenciando no sólo el acceso a la información sino la capacidad de entender, usar críticamente y discutir las implicaciones de la tecnología emergente.

Finalmente, la guía refuerza la idea de que la incorporación de IA debe fortalecer, y no sustituir, el vínculo humano y comunitario que caracteriza a las bibliotecas públicas y comunitarias. Se propone que estas instituciones se conviertan en espacios de diálogo sobre los retos y oportunidades de la IA, fomentando la participación de la comunidad en la evaluación y diseño de servicios, así como en la discusión sobre la gobernanza y el impacto de las tecnologías en la vida colectiva. En conjunto, la Guía práctica aporta un marco estratégico para que las bibliotecas asuman la transformación digital con sentido crítico, ético y orientado a su misión social, evitando replicar prácticas tecnosolucionistas y promoviendo una adopción responsable y democrática de la IA.

La IA está impulsando la demanda de habilidades de comunicación y pensamiento crítico de los profesionales de las Humanidades

Kaplan, Juliana. 2026. AI Is Giving English Majors Some Unexpected Leverage in the Job Market. Business Insider, 22 de febrero de 2026. https://www.businessinsider.com/ai-job-market-english-majors-humanities-demand-2026-2 (consultado el 23 de febrero de 2026).

La expansión de la inteligencia artificial (IA) en el entorno laboral está transformando profundamente el valor de distintas habilidades profesionales, y uno de los efectos más sorprendentes es el renovado interés por las titulaciones en humanidades, especialmente en inglés y áreas afines.

Tradicionalmente percibidos como menos prácticos frente a las disciplinas científicas y tecnológicas, los graduados en humanidades están empezando a experimentar una mayor demanda por parte de empleadores que buscan competencias que las máquinas no pueden replicar fácilmente. Entre estas se encuentran la comunicación compleja, la interpretación de textos, el pensamiento crítico y la creatividad, atributos que se han convertido en herramientas esenciales para gestionar y comprender los resultados generados por sistemas de IA avanzados.

En el ámbito académico, universidades como la de Colorado Boulder y Rice están observando una recuperación en el número de estudiantes interesados en programas de humanidades, tras años de declive. Este renacimiento se debe, en parte, al diseño de cursos interdisciplinarios que combinan estudios de humanidades con aspectos éticos, filosóficos y sociales de la IA. Por ejemplo, asignaturas que exploran cómo evaluar la escritura de una IA frente a la de un ser humano ayudan a cultivar una comprensión más profunda de la creatividad y el juicio interpretativo, reforzando así la relevancia de las humanidades en una economía cada vez más automatizada.

Desde la perspectiva del mercado laboral, expertos en selección y estrategia organizacional señalan que las “habilidades blandas” —como la empatía, la capacidad de contar historias y la comunicación intercultural— están adquiriendo un valor excepcional en un momento en que las máquinas dominan tareas técnicas repetitivas. En sectores pequeños e innovadores, estos atributos se traducen en ventajas competitivas en la gestión de equipos, la elaboración de narrativas de marca y la interacción con clientes y públicos diversos. Este fenómeno, descrito por algunos como la “venganza del graduado en inglés”, sugiere un cambio cultural importante: el reconocimiento de que el pensamiento humanístico es crucial para complementar las capacidades de la IA.

A pesar de estas tendencias prometedoras, el panorama laboral general sigue siendo desafiante para los graduados de humanidades, quienes tradicionalmente han enfrentado mayores tasas de desempleo que sus pares en campos técnicos. Aunque las oportunidades están aumentando, especialmente en empresas que valoran habilidades de comunicación y análisis contextual, no todas las organizaciones han adoptado plenamente esta visión. Sin embargo, la creciente inclusión de estudios sobre IA dentro de los programas de humanidades apunta a una adaptación estratégica de estos títulos tradicionales, preparándolos mejor para los roles híbridos que emergen en la economía digital.

En conjunto, la integración de la IA en los procesos productivos y creativos parece estar redefiniendo las competencias más valoradas en el mercado laboral. Mientras que las habilidades puramente técnicas siguen siendo importantes, la capacidad de pensar, comunicar y contextualizar información compleja se está revelando como un componente indispensable para navegar un mundo en el que las máquinas asumen cada vez más funciones mecánicas y repetitivas. Este cambio no solo beneficia a los graduados en humanidades, sino que también subraya la importancia de enfoques educativos más holísticos que integren conocimiento técnico y humanístico.

Google impulsa transparencia en su búsqueda con mejoras en “AI Overviews” y “AI Mode”: fuentes originales más visibles y uso de enlaces citados

Whitney, Lance. 2026. Fact-Checking Google’s AI Overviews Just Got a Little Easier — Here’s How.”ZDNet, February 20, 2026. https://tech.yahoo.com/ai/gemini/articles/fact-checking-googles-ai-overviews-182700066.html (consultado el 23 de febrero de 2026).

Google ha estado integrando cada vez más características de inteligencia artificial directamente en su motor de búsqueda, destacando dos funciones principales: AI Overviews y AI Mode.

Las AI Overviews ofrecen resúmenes generados por IA encima de los resultados tradicionales de enlaces, proporcionando al usuario una visión panorámica de una consulta sin necesidad de hacer clic en los sitios web originales. Por su parte, AI Mode representa un paso más allá: no se limita a resumir, sino que permite interacciones más conversacionales, manejo de consultas complejas y respuestas multimodales que incluyen texto, imágenes y posibles enlaces de apoyo.

Una de las críticas más persistentes sobre estas funciones ha sido la forma en que la IA sintetiza y reutiliza contenido de páginas web sin que los usuarios siempre identifiquen claramente las fuentes originales. Aunque Google incluye enlaces dentro de sus respuestas, la manera en que estos aparecen no siempre ha sido transparente para los usuarios ni suficiente para los creadores de contenido, lo que ha generado debates sobre la disparidad entre los resúmenes generados por IA y el tráfico real que reciben los sitios citados.

En respuesta a estas preocupaciones, Google ha implementado cambios recientes que buscan hacer más visibles los enlaces de fuentes originales dentro de estos resultados de IA. Por ejemplo, al pasar el cursor sobre los iconos de fuentes en AI Overviews y AI Mode, se despliega un grupo de enlaces con nombres de sitios web y descripciones más completas, lo que facilita la verificación de información y el acceso directo a los contenidos de referencia. Esta actualización busca equilibrar la utilidad de las respuestas generadas por IA con la necesidad de atribuir adecuadamente la información a sus autores originales.

El debate no se limita a cuestiones técnicas. Organizaciones de salud y defensa de los derechos de los usuarios han señalado que, en algunos casos, AI Overviews ha proporcionado información inexacta o potencialmente dañina, especialmente en temas sensibles como la salud mental (lo que ha llevado a investigaciones sobre IA y riesgos para la salud). Estas preocupaciones intensifican la discusión sobre cómo equilibrar conveniencia, precisión y responsabilidad en sistemas de IA que resumen contenido.

En el marco general de la evolución de la búsqueda en línea, AI Overviews y AI Mode representan una tendencia hacia experiencias más “orientadas a respuestas” que a simples listas de enlaces. Google ha señalado que ambas herramientas —especialmente cuando muestran enlaces de respaldo de manera clara y accesible— pueden mejorar la manera en que los usuarios encuentran y verifican información en la web. Sin embargo, la comunidad de creadores de contenido y los expertos en SEO continúan observando de cerca cómo estas funciones impactan la visibilidad de los sitios originales y la economía de la información en internet.