Archivo de la categoría: Tecnologías de la información

Las políticas de IA de las revistas académicas no logran frenar el auge de la escritura académica asistida por IA.

He, Y., & Bu, Y. (2026). Academic journals’ AI policies fail to curb the surge in AI-assisted academic writing. Proceedings of the National Academy of Sciences of the United States of America, 123(9), e2526734123. https://doi.org/10.1073/pnas.2526734123

El artículo aborda una cuestión crítica y de enorme actualidad en el mundo académico: la eficacia real de las políticas de inteligencia artificial (IA) adoptadas por revistas científicas para abordar el uso de herramientas de generación automática de texto.

En respuesta al crecimiento explosivo de herramientas de IA generativas como asistentes de redacción, muchas revistas han implementado políticas que, en teoría, deberían promover la transparencia (por ejemplo, requiriendo divulgación del uso de IA) y limitar la adopción indiscriminada para salvaguardar la integridad y originalidad de la literatura científica. Sin embargo, los autores señalan que el impacto real de estas políticas no se ha evaluado exhaustivamente a gran escala hasta ahora.

Para cuantificar ese impacto, los investigadores analizaron una base de datos consistente de 5 114 revistas académicas y más de 5,2 millones de artículos científicos para observar si las métricas de uso de IA y divulgación variaban entre publicaciones con y sin políticas formales sobre IA. Este enfoque permite ir más allá de los debates teóricos sobre política editorial y aportar evidencia empírica sobre lo que está ocurriendo en la práctica: ¿la existencia de una política de IA en una revista realmente frena el uso de herramientas automáticas o mejora la transparencia declarada?

Los resultados muestran una tendencia sorprendentemente clara: el uso de herramientas de IA en la redacción de artículos científicos crece rápidamente en todos los campos y tipos de revista, independientemente de si existe o no una política formal sobre IA. Incluso entre las revistas que han adoptado políticas de divulgación o restricción, no se observa una reducción significativa en el crecimiento del uso de IA en la escritura de artículos científicos en comparación con aquellas sin políticas. Este hallazgo pone en duda la eficacia de las políticas actuales como mecanismos de control, y sugiere que muchas de las prácticas de supervisión existentes pueden ser insuficientes para moderar la adopción de IA en la producción académica.

Además, los autores realizaron un análisis específico del texto completo de 164 000 publicaciones científicas, con especial atención a 75 000 artículos publicados desde 2023. Este análisis reveló una brecha notable en la transparencia: solo 76 artículos (~0,1 %) declararon explícitamente el uso de IA en su redacción, a pesar de que las herramientas automáticas son ampliamente accesibles y utilizadas. Esto indica no solo un aumento general en el uso de IA, sino también una ausencia de prácticas de divulgación consistentes, incluso cuando las revistas requieren declaraciones obligatorias sobre asistencia automatizada.

Los patrones observados en el crecimiento del uso de IA también varían según la disciplina y las características de las publicaciones. Los autores subrayan que las tasas de adopción de IA son especialmente elevadas en países no anglófonos, en las áreas de ciencias físicas y en revistas de acceso abierto de alto impacto. Este aspecto plantea cuestiones adicionales sobre cómo las diferencias culturales, lingüísticas y de acceso influyen en el uso de IA y en las estrategias de divulgación.

En el corazón de su discusión, los autores critican la ineficacia de las políticas actuales de las revistas como herramienta de regulación o guía ética frente al uso de IA en la escritura académica. Argumentan que las políticas basadas principalmente en declaraciones de uso no han logrado frenar la adopción de estas tecnologías, ni han aumentado la transparencia de manera significativa. En consecuencia, instan a una reevaluación completa de los marcos éticos y normativos que gobiernan la publicación científica, sugiriendo que se necesitan enfoques más robustos y posiblemente mecanismos automatizados que detecten y gestionen el uso de IA para proteger la integridad y fiabilidad de la investigación científica.

¿Pueden las plataformas de IA proporcionar servicios de referencia bibliotecaria de calidad?

Wang, H., Clark, J., & Peña, A. (2026). Responsible Intelligence in Practice: A Fairness Audit of Open Large Language Models for Library Reference Services. arXiv. https://arxiv.org/html/2602.18935v1

El artículo comienza planteando una pregunta central en el contexto actual de la biblioteconomía: ¿pueden los modelos de lenguaje grande (LLMs) proporcionar servicios de referencia bibliotecaria de forma justa y equitativa para todas las personas usuarias, independientemente de su identidad demográfica?

Los autores señalan que, aunque los LLMs ofrecen una oportunidad sin precedentes para ampliar el acceso a servicios de información —por ejemplo, respondiendo consultas a cualquier hora o para personas que no pueden acudir físicamente a la biblioteca— estos modelos también arrastran posibles sesgos derivados de los datos con los que fueron entrenados. Dado que las bibliotecas históricamente se han comprometido con la imparcialidad y el servicio igualitario, es imprescindible evaluar si los LLMs pueden respetar estos valores fundamentales de la profesión.

Para abordar esta cuestión, los investigadores proponen y aplican un protocolo sistemático de evaluación de equidad (“Fairness Evaluation Protocol” o FEP) que combina técnicas de clasificación diagnóstica con análisis lingüísticos interpretativos. En este diseño experimental, sintetizan interacciones tipo “correo electrónico de referencia” con nombres demográficos claramente asociados a sexos y grupos raciales/étnicos distintos. Estas interacciones son luego presentadas a tres modelos LLM abiertos (LLaMA-3.1 8B, Gemma-2 9B y Ministral 8B) configurados para actuar como bibliotecarios virtuales. Este enfoque busca detectar si, con el mismo contenido de consulta, la respuesta generada por el modelo varía sistemáticamente según las pistas demográficas incrustadas en los nombres de usuario.

Los resultados de esta evaluación se presentan en dos dimensiones principales: sexo y raza/etnicidad. Para cada dimensión demográfica, los autores emplean tres métodos distintos de clasificación automática (regresión logística, perceptrón multicapa y XGBoost) para determinar si las respuestas de los modelos contienen patrones lingüísticos que permitan predecir atributos demográficos mejor que al azar. Cuando estos métodos detectan diferencias significativas, se realiza un análisis más detallado para identificar qué palabras o expresiones específicas están asociadas a esas variaciones, lo que ofrece pistas sobre posibles sesgos o diferencias de tratamiento.

En general, los hallazgos sugieren que la mayoría de los modelos abiertos evaluados no muestran pruebas convincentes de tratamiento discriminatorio sistemático por raza o etnia. En la mayoría de los casos, las tasas de clasificación por grupo demográfico no exceden significativamente el nivel aleatorio, lo que indica que los modelos tienden a ofrecer respuestas similares sin importar el grupo al que se asume que pertenece el usuario. De manera similar, en cuanto a la dimensión de sexo, la mayoría de los modelos no evidencian sesgos fuertes; sin embargo, uno de los modelos sí mostró variaciones menores en las respuestas según el sexo, aunque estas diferencias parecieron estar influenciadas por fórmulas de saludo u otras construcciones lingüísticas menores más que por la calidad de la asistencia.

Más allá de los resultados cuantitativos, los autores discuten las implicaciones prácticas de estos hallazgos. Subrayan que la equidad en los servicios automatizados de referencia no es una propiedad estática: puede depender del contexto de uso, del dominio de las preguntas y de las configuraciones específicas de los modelos. Por tanto, incluso si un modelo no muestra sesgos en evaluaciones controladas como esta, sigue siendo esencial monitorizar continuamente su comportamiento conforme evoluciona y se implementa en entornos reales. El estudio también enfatiza que detectar “ausencia de sesgo” técnico no sustituye la necesidad de una gobernanza responsable del uso de IA en bibliotecas, incluyendo políticas explícitas, mecanismos de retroalimentación de usuarios y evaluaciones éticas más amplias.

Finalmente, los autores reflexionan sobre las limitaciones de su propio enfoque —por ejemplo, la simplificación necesaria de las interacciones sintéticas y la reducción de identidades demográficas a categorías binarias o predefinidas— y sugieren direcciones futuras de investigación. Entre ellas se incluyen evaluaciones más amplias en escenarios reales de referencia, la inclusión de identidades de género más allá del binario, y la exploración de matices culturales y lingüísticos que puedan influir en el comportamiento de los modelos. En suma, el artículo aporta una base metodológica rigurosa y ejemplos de análisis crítico que pueden guiar la integración responsable de modelos generativos de lenguaje en servicios bibliotecarios sin comprometer los principios de imparcialidad y justicia que sustentan la profesión.

Tendencias tecnológicas para bibliotecas en 2026

Tanzi, Nick. 2026. Library Tech Trends for 2026.” LinkedIn, 31 de enero de 2026. https://www.linkedin.com/pulse/library-tech-trends-2026-nick-tanzi-7ajle/

El experto en bibliotecas y tecnología Nick Tanzi analiza las principales tendencias tecnológicas que influirán en el funcionamiento de las bibliotecas durante 2026. El autor identifica desafíos emergentes y continuos, especialmente la presencia cada vez mayor de la inteligencia artificial (IA) dentro de las organizaciones bibliotecarias.

Según Tanzi, la IA generativa ya se encuentra integrada en muchas herramientas y servicios utilizados tanto por el personal como por los usuarios, y su presencia seguirá expandiéndose durante el año. Esto plantea la necesidad urgente de desarrollar políticas claras que indiquen cómo manejar el contenido generado por IA en las colecciones, qué usos del personal son permitidos o prohibidos y cómo ofrecer asistencia a los usuarios que interactúan con IA dentro del contexto de la biblioteca.

La expansión de la IA también se refleja en soluciones específicas para bibliotecas, como el uso de funciones basadas en IA en plataformas de distribución digital de libros. Por ejemplo, Libby, una de las plataformas de ebooks más utilizadas por bibliotecas públicas en América del Norte, ha incorporado una funcionalidad que recomienda materiales disponibles a través de algoritmos generativos. Esta clase de innovación transforma la manera en que los usuarios descubren y acceden a recursos, pero también requiere que las bibliotecas definan marcos de política y formación del personal para asegurar que la tecnología se utilice de forma ética, transparente y alineada con los objetivos de servicio comunitario.

Otro aspecto clave resaltado por Tanzi es la accesibilidad digital. En 2026, muchas bibliotecas deben cumplir con las pautas de accesibilidad de contenido web (WCAG 2.1 nivel AA) establecidas por la legislación estadounidense, obligaciones que varían según la población servida. Esto significa que los sitios web de las bibliotecas, sus aplicaciones móviles y cualquier servicio digital deben ser diseñados o adaptados para garantizar que todos los usuarios, incluidos aquellos con discapacidades, puedan acceder y utilizar estos recursos sin barreras. El autor enfatiza la importancia de la formación en prácticas accesibles, desde la creación de PDFs accesibles hasta la inclusión de texto alternativo eficaz para imágenes y mejores prácticas en programación híbrida o virtual.

Además, Tanzi aborda la expansión de la “Library of Things” —colecciones no tradicionales que incluyen herramientas, juegos, aparatos y otros objetos físicos distintos de los materiales impresos o digitales clásicos— como una tendencia que responde tanto a las presiones sobre las colecciones tradicionales como al interés creciente de la comunidad en recursos que promueven la sostenibilidad y la participación activa. La incorporación de estos objetos en el catálogo de servicios bibliotecarios representa una expansión del rol de la biblioteca como espacio comunitario multifuncional y reflejo de las necesidades contemporáneas.

Un desafío adicional que Tanzi identifica es el aumento de las amenazas cibernéticas, especialmente con la proliferación de herramientas de IA que permiten a personas sin experiencia técnica desarrollar malware o realizar ataques de ingeniería social más sofisticados, como deepfakes y clonación de voz. Las bibliotecas han sido blanco de ataques de ransomware, y este tipo de riesgos exige que las instituciones fortalezcan su infraestructura tecnológica, desarrollen capacidades de respuesta rápida ante incidentes y eduquen tanto al personal como a los usuarios sobre prácticas seguras frente a la tecnología digital.

En conjunto, el artículo transmite un panorama de 2026 como un año de profundas transformaciones tecnológicas para las bibliotecas. La integración de la IA, la necesidad de políticas actualizadas, la atención a la accesibilidad digital, la diversificación de las colecciones y la gestión de riesgos de ciberseguridad configuran un entorno en el que las bibliotecas deberán adaptarse de manera proactiva. Tanzi concluye con una nota de confianza en la capacidad de los profesionales de la información para enfrentar estos desafíos, recordando que, históricamente, en los tiempos de mayor disrupción es cuando las bibliotecas hacen su mejor trabajo al servir a sus comunidades.

La biblioteca como espacio estratégico en el marco de alfabetización en IA

Malespina, Elissa. 2026. The U.S. Department of Labor AI Literacy Framework. The AI School Librarians Newsletter, 24 de febrero de 2026. https://aischoollibrarian.substack.com/p/the-us-department-of-labor-ai-literacy

Se describe el reciente Marco de Alfabetización en Inteligencia Artificial publicado por el Departamento de Trabajo de los Estados Unidos como una nueva guía federal voluntaria que define qué significa ser alfabetizado en IA y qué competencias y métodos de formación deberían promoverse tanto en educación como en la fuerza laboral.

Según la autora, el Departamento de Trabajo ha planteado la alfabetización en IA no como un conjunto de herramientas o una lista de recursos tecnológicos, sino como un marco de competencias fundamentales centrado en la capacidad para usar y evaluar tecnologías de IA de forma responsable y eficaz. Este marco es importante porque, aunque es voluntario, su lenguaje y sus definiciones pueden influir en políticas educativas, alineación curricular, solicitudes de financiamiento y expectativas laborales a largo plazo.

El marco se estructura en torno a dos pilares principales: áreas de contenido fundamentales y principios de entrega. Las cinco áreas de contenido que el Departamento considera esenciales para la alfabetización en IA son: comprender los principios de la IA, explorar sus usos, dirigir la IA de forma eficaz (por ejemplo, mediante la elaboración de preguntas y prompts claros), evaluar los resultados que genera y usar la IA de manera responsable. Estas competencias no implican necesariamente codificación ni ingeniería de IA avanzada, sino una fluidez básica que permita interactuar críticamente con estas tecnologías en múltiples contextos.

En cuanto a los principios de entrega, el documento federal enfatiza la importancia de enfoques como el aprendizaje experiencial práctico, la integración del aprendizaje en contextos reales, el desarrollo de habilidades humanas complementarias (como pensamiento crítico y comunicación), y la creación de rutas de aprendizaje continuas y flexibles. También se subraya la necesidad de abordar barreras previas, como la falta de alfabetización digital o de acceso a infraestructura, y de preparar a quienes desempeñan roles de apoyo, como educadores y consejeros.

La autora señala que estos elementos sí coinciden con muchas prácticas ya existentes en educación y bibliotecas, pero que el marco fue diseñado con un enfoque explícitamente orientado al mercado laboral y no aborda de forma profunda cuestiones como la libertad intelectual, la integridad académica o los sesgos algorítmicos en contextos civiles. Esto podría limitar la visión sobre alfabetización en IA si no se complementa con discusiones más amplias sobre ética y crítica social dentro de las escuelas y bibliotecas.

Finalmente, el artículo sostiene que, dada la inclusión explícita de sistemas educativos hasta la capacitación laboral, es un momento estratégico para que educadores y bibliotecarios participen activamente en definir cómo debe interpretarse la alfabetización en IA. De lo contrario, la definición podría quedar reducida a una visión estrecha enfocada en productividad y competencia técnica, sin abordar críticamente el impacto más amplio de la IA en la sociedad, la ética y la equidad educativa.

Anthropic denuncia la extracción masiva de datos de Claude por laboratorios chinos de IA

Bellan, Rebecca. 2026. Anthropic Accuses Chinese AI Labs of Mining Claude as US Debates AI Chip Exports.” TechCrunch, 23 de febrero de 2026. https://techcrunch.com/2026/02/23/anthropic-accuses-chinese-ai-labs-of-mining-claude-as-us-debates-ai-chip-exports/

La empresa estadounidense Anthropic ha denunciado que varios laboratorios chinos de inteligencia artificial habrían llevado a cabo campañas masivas para extraer capacidades de su modelo Claude mediante técnicas de “destilación”. Según la compañía, estas prácticas consistieron en la creación de miles de cuentas fraudulentas que realizaron millones de consultas automatizadas con el objetivo de analizar, replicar y transferir el comportamiento del modelo a sistemas propios en desarrollo.

En concreto, Anthropic señala a DeepSeek, Moonshot AI y MiniMax como responsables de lo que describe como “ataques de destilación a escala industrial”. Esta técnica, habitual en el aprendizaje automático cuando se aplica de forma autorizada, permite que un modelo más pequeño aprenda de las salidas de uno más avanzado. Sin embargo, la empresa sostiene que, en este caso, el procedimiento se utilizó de manera sistemática y en violación de sus términos de servicio, además de eludir restricciones geográficas que impiden el acceso oficial a Claude desde China.

Anthropic afirma haber identificado patrones técnicos —como direcciones IP, comportamientos repetitivos y volúmenes anómalos de tráfico— que le permiten atribuir con alto grado de confianza estas operaciones a los laboratorios mencionados. La compañía considera que este tipo de extracción no solo supone una vulneración de propiedad intelectual, sino también un riesgo para la seguridad, ya que los modelos derivados podrían carecer de los mecanismos de control y salvaguardias éticas incorporados en la versión original.

Las acusaciones se producen en un contexto geopolítico especialmente sensible, en el que Estados Unidos debate el endurecimiento o flexibilización de los controles a la exportación de chips avanzados de inteligencia artificial hacia China. Para Anthropic, estos episodios refuerzan la necesidad de mantener restricciones estrictas sobre hardware de alto rendimiento, dado que la potencia computacional no solo acelera el entrenamiento tradicional de modelos, sino también posibles operaciones de extracción masiva de conocimiento desde sistemas punteros.

En conjunto, el caso pone de relieve las tensiones crecientes en la carrera global por la inteligencia artificial, donde la competencia tecnológica, la protección de la innovación y la seguridad nacional se entrelazan. Más allá de la disputa concreta, la denuncia abre un debate más amplio sobre los límites de la destilación, la protección efectiva de los modelos fundacionales y la gobernanza internacional de la IA en un escenario marcado por la rivalidad entre potencias.

Sesgo geográfico en la inteligencia artificial: por qué nunca deberías decirle a una IA que eres de Nápoles

Kayser‑Bril, Dr. Nicolas. 2026. Never tell an AI you’re from Naples. AlgorithmWatch, 20 de febrero de 2026. https://algorithmwatch.org/en/never-tell-an-ai-youre-from-naples/

Se analiza de forma crítica cómo los modelos de lenguaje de gran tamaño (LLM) reproducen y consolidan prejuicios geográficos presentes en los datos con los que fueron entrenados. El punto de partida es una conversación con un especialista encargada de poner a prueba los límites y salvaguardas de los sistemas de IA— quien explica que cualquier modelo estadístico generativo refleja inevitablemente los sesgos latentes en sus corpus de entrenamiento.

El trabajo consiste precisamente en forzar el sistema hasta que esos prejuicios afloran. Gracias a este tipo de pruebas, por ejemplo, los buscadores basados en IA evitan responder preguntas peligrosas; sin embargo, el artículo demuestra que basta reformular ligeramente una pregunta para sortear ciertas restricciones y revelar inclinaciones subyacentes.

El autor presenta un experimento metodológicamente ingenioso para detectar prejuicios geográficos. Dado que los LLM suelen negarse a responder preguntas directas como “¿En qué ciudad es la gente más inteligente?”, sí acceden a comparaciones binarias del tipo: “¿En qué ciudad es la gente más inteligente, París o Berlín?”. A partir de comparaciones por pares entre ciudades europeas, se elaboró una clasificación según cuatro modelos distintos: dos comerciales —Gemma 3 de Google y Mistral— y dos desarrollados por iniciativas públicas europeas —Lucie (OpenLLM France) y PLLuM (Ministerio de Digitalización de Polonia)—. El resultado fue sorprendentemente consistente: Estocolmo y Viena aparecían sistemáticamente en la parte alta de la jerarquía, mientras que Sofía, Marsella y Nápoles quedaban relegadas a los últimos puestos. Incluso modelos nacionales no mostraban favoritismo hacia sus propias capitales. Las correlaciones entre los resultados oscilaron entre 0,47 y 0,77, lo que indica una notable convergencia pese a haber sido entrenados con conjuntos de datos distintos.

El artículo cuestiona la idea de que los LLM simplemente “reflejan” opiniones sociales cambiantes. Para ilustrarlo, menciona el llamado “efecto Bilbao”, término acuñado en urbanismo para describir cómo la reputación de una ciudad puede transformarse radicalmente en pocos años gracias a un proyecto emblemático —como ocurrió con Bilbao tras la apertura del Museo Guggenheim—. Las percepciones humanas son volátiles, contradictorias y contextuales. En cambio, los modelos de lenguaje, al promediar millones de documentos y cristalizar correlaciones estadísticas, tienden a congelar prejuicios dominantes y a eliminar matices. En este sentido, los LLM serían estructuralmente inmunes al “efecto Bilbao”: no capturan la fluidez de la reputación urbana, sino que fijan estereotipos agregados.

El problema no es meramente teórico. Aunque parezca improbable que alguien utilice un modelo para clasificar las “ciudades más inteligentes”, estos sistemas sí pueden emplearse para evaluar currículos, analizar solicitudes de financiación o priorizar candidaturas. Si ciertos topónimos están estadísticamente asociados a atributos positivos o negativos, podrían producirse efectos discriminatorios reales, aunque difíciles de medir empíricamente. El texto también señala limitaciones metodológicas: los LLM son notoriamente inconsistentes. Cuando se les pidió identificar las ciudades “más estúpidas”, solo uno de los modelos mostró correlación negativa con su propio ranking de inteligencia. Otros tendían a colocar a Viena o Estocolmo en la cima incluso en categorías absurdas, llegando a generar clasificaciones para términos inexistentes. Esta plasticidad revela tanto la fragilidad lógica de los sistemas como la profundidad de sus asociaciones implícitas.

En conjunto, el análisis plantea una advertencia inquietante: los sistemas de IA no solo heredan prejuicios, sino que pueden consolidarlos y proyectarlos con una apariencia de objetividad algorítmica. En un mundo donde la automatización influye cada vez más en decisiones administrativas y económicas, comprender y auditar estos sesgos geográficos se vuelve una cuestión urgente de justicia y responsabilidad tecnológica.

Sam Altman, CEO de OpenAI, critica a las empresas que usan la IA como excusa para justificar despidos.

Dellinger, AJ. 2026. “Sam Altman Says Companies Are ‘AI Washing’ Layoffs.” Gizmodo, 21 de febrero de 2026. https://gizmodo.com/sam-altman-says-companies-are-ai-washing-layoffs-2000724759

En un contexto de continuos recortes de plantilla en el sector tecnológico y en diversas industrias, el CEO de OpenAI, Sam Altman, ha ofrecido una perspectiva crítica sobre cómo las empresas están comunicando las causas de sus despidos.

Durante el India AI Impact Summit, Altman advirtió que muchos ejecutivos y corporaciones han empezado a practicar lo que él denomina “AI washing”, es decir, atribuir a la inteligencia artificial la responsabilidad de recortes laborales que probablemente obedecen a otras razones internas, como reducciones de costes, reestructuraciones estratégicas o ajustes post-pandemia que ya estaban en marcha antes de la adopción de herramientas tecnológicas. Altman reconoció que la IA sí está desplazando ciertos tipos de empleos y que, con el tiempo, ese impacto será más palpable, pero señaló que en muchos casos actuales esa atribución está siendo utilizada como una excusa conveniente ante empleados, mercados y público en general.

Los datos recientes respaldan la advertencia de Altman sobre la exageración en torno al papel actual de la IA en la pérdida de empleo. Por ejemplo, un informe de la consultora Challenger, Gray & Christmas indica que alrededor de 55 000 despidos en Estados Unidos en 2025 fueron atribuidos directamente a la IA, cifra que, aunque significativa, representa menos del 1 % del total de recortes de empleo, lo que sugiere que otras causas económicas o estructurales han sido más determinantes para las masas de despidos reportadas. Además, encuestas entre ejecutivos muestran que una mayoría amplia—hasta el **90 % según un estudio citado por medios—no ha observado un impacto sustantivo de la IA en la plantilla durante los últimos años, lo que contradice la narrativa de que la tecnología ha sido la principal fuerza destructora de empleo hasta la fecha.

La crítica de Altman también encierra un doble mensaje sobre la percepción pública y el rol de las corporaciones. Por un lado, evita posicionar la IA como un “asesino de trabajos”, ya que esa idea podría aumentar la resistencia social a la adopción de herramientas que él mismo y su empresa promueven; por otro, desafía a las organizaciones a ser más transparentes sobre sus motivos reales para reducir personal. Altman destacó, como otros líderes tecnológicos han señalado, que las revoluciones tecnológicas históricas suelen derivar también en la creación de nuevas categorías laborales y oportunidades, aunque el equilibrio temporal entre destrucción y creación de empleo puede ser doloroso para muchos trabajadores. Este planteamiento pone de manifiesto la complejidad del debate: aunque la IA tendrá sin duda un impacto profundo en el mundo laboral, el grado, la velocidad real de ese impacto y la honestidad con que se expliquen los factores detrás de los despidos constituyen temas que requieren mayor atención pública y empresarial.

Colonialismo digital: cómo las empresas de IA siguen el manual del imperio

Russ‑Smith, Jessica y Michelle Lazarus. 2025. “Digital colonialism: How AI companies are following the playbook of empire. The Conversation, 26 de noviembre de 2025. https://theconversation.com/digital-colonialism-how-ai-companies-are-following-the-playbook-of-empire-269285 (consultado el 24 de febrero de 2026).

Las grandes empresas de inteligencia artificial están replicando prácticas históricas de colonialismo en el entorno digital contemporáneo. Según las autoras, compañías como OpenAI y Google utilizan cantidades enormes de datos disponibles en Internet —fotos, textos, videos, obras artísticas y otros contenidos— para entrenar sus algoritmos sin el consentimiento explícito ni compensación de los creadores originales, lo que simboliza una apropiación de recursos culturales y cognitivos parecida a la lógica extractiva de los antiguos imperios coloniales.

Esta dinámica se legitima muchas veces a través de interpretaciones amplias de doctrinas legales como el “uso justo” (fair use) en el derecho de autor estadounidense, mientras que al mismo tiempo las mismas empresas protegen vehementemente su propiedad intelectual.

Las autoras trazan un paralelo entre la noción de terra nullius —un concepto legal colonial que declaraba territorios como “tierra de nadie” para justificar su apropiación— y cómo las empresas de IA tratan los datos personales y comunitarios como si no pertenecieran a nadie. Así como los colonizadores asumían que las tierras indígenas no tenían dueño legítimo, las grandes plataformas tecnológicas asumen implícitamente que la vasta colección de datos en línea está disponible para uso y explotación sin negociación ni consentimiento verdaderos. Esto se ve intensificado por prácticas de “consentimiento agrupado”, donde al usuario se le presenta un único botón de “aceptar todo” para servicios o actualizaciones, lo que en realidad no deja opción real si se quiere continuar accediendo a herramientas esenciales del mundo digital.

En el texto también se exploran formas de resistencia y alternativas a esta situación. Se destaca la importancia de los movimientos por la soberanía de los datos liderados por comunidades originarias, que proponen modelos en los que la propiedad, el control y la gobernanza de los datos pertenecen a las personas o comunidades que los generan. Estas propuestas implican mecanismos como la “continuidad del consentimiento”, en los que cada solicitud de acceso a datos exige un permiso específico y continuo, y la negociación colectiva para decisiones sobre uso y acceso. Asimismo, se mencionan casos de litigios legales contra prácticas de scraping de datos por parte de empresas de IA, como demandas de plataformas digitales o de autores por el uso no autorizado de material para entrenar modelos, lo que indica que la resistencia legal y social contra el colonialismo digital ya está en marcha.

Las autoras concluyen que aunque las empresas de IA pueden parecer todopoderosas, las estrategias históricas de resistencia al colonialismo —desde luchas jurídicas hasta reivindicaciones de derechos colectivos— ofrecen modelos para desafiar la lógica extractiva en el ámbito digital. Construir un futuro digital más justo implica reconocer los derechos sobre los datos como derechos humanos y comunitarios, promover marcos legales que protejan esos derechos, y fomentar prácticas tecnológicas que no reproduzcan desigualdades ni apropiaciones no consentidas de conocimiento y cultura.

Guía práctica para el uso reflexivo y el análisis de herramientas de Inteligencia Artificial en bibliotecas públicas y comunitarias

Programa Iberoamericano de Bibliotecas Públicas-Iberbibliotecas. 2026. Guía práctica para el uso reflexivo y el análisis de herramientas de Inteligencia Artificial en bibliotecas públicas y comunitarias. Secretaría General Iberoamericana (SEGIB) y Agencia Española de Cooperación Internacional para el Desarrollo (AECID).

Descargar

Esta guía surge en un contexto donde la inteligencia artificial (IA) está transformando aceleradamente las prácticas de producción, organización y acceso a la información. Reconociendo que la IA no es simplemente una herramienta técnica más sino un fenómeno que plantea cuestiones éticas, culturales y sociales profundas

La guía se propone como un recurso para bibliotecarias, bibliotecarios y equipos de trabajo en bibliotecas comunitarias y públicas, orientándolos hacia un uso reflexivo, crítico, ético y contextualizado de tecnologías de IA, teniendo siempre presente la misión social y educativa de las bibliotecas.

El documento aborda, en sus secciones conceptuales iniciales, la naturaleza dual de la IA: por un lado, sus potencialidades para apoyar tareas como la búsqueda semántica, la mejora de la accesibilidad, la automatización de procesos internos o la creación de contenidos pedagógicos; por otro, los riesgos asociados a la opacidad algorítmica, la reproducción de sesgos, la vulneración de la privacidad y la posible erosión de criterios profesionales. En este marco, la guía enfatiza que la adopción de IA no debe responder al entusiasmo por la innovación ni a modas tecnológicas, sino a una decisión situada y deliberada, alineada con principios de justicia social, diversidad cultural e inclusión lingüística, y siempre bajo la supervisión y agencia humanas.

Una parte sustancial de la guía está dedicada a los criterios para la reflexión y el análisis de herramientas de IA. Aquí se propone un enfoque que va más allá de evaluar funcionalidades técnicas: se invita a las bibliotecas a considerar cómo cada herramienta se alinea con los valores misionales de la institución, cómo puede afectar a la privacidad de las personas usuarias, qué sesgos puede introducir en los resultados, y qué mecanismos de transparencia, responsabilidad y rendición de cuentas contempla el proveedor tecnológico. Este enfoque reconoce que las bibliotecas actúan en contextos sociales específicos—con necesidades, inequidades y dinámicas propias—y que la introducción de IA debe ser contextualizada, debatida internamente y con participación comunitaria, evitando automatismos que desplacen o desvaloricen el juicio profesional de las y los bibliotecarios.

Además, la guía presenta propuestas prácticas que pueden incluirse en los planes y servicios bibliotecarios: desde la integración de sistemas de búsqueda basada en modelos semánticos hasta la generación de recomendaciones de lectura, la traducción de contenidos, la síntesis documental y la optimización de procesos técnicos como la precatalogación. Sin embargo, cada propuesta se aborda con un marco crítico que subraya la necesidad de mantener siempre opciones de atención humana, garantizar la accesibilidad real para personas con distintas capacidades y promover la alfabetización informacional en torno a la IA entre usuarias y usuarios. Este rol formativo se entiende como parte integral del compromiso de la biblioteca con la comunidad, potenciando no sólo el acceso a la información sino la capacidad de entender, usar críticamente y discutir las implicaciones de la tecnología emergente.

Finalmente, la guía refuerza la idea de que la incorporación de IA debe fortalecer, y no sustituir, el vínculo humano y comunitario que caracteriza a las bibliotecas públicas y comunitarias. Se propone que estas instituciones se conviertan en espacios de diálogo sobre los retos y oportunidades de la IA, fomentando la participación de la comunidad en la evaluación y diseño de servicios, así como en la discusión sobre la gobernanza y el impacto de las tecnologías en la vida colectiva. En conjunto, la Guía práctica aporta un marco estratégico para que las bibliotecas asuman la transformación digital con sentido crítico, ético y orientado a su misión social, evitando replicar prácticas tecnosolucionistas y promoviendo una adopción responsable y democrática de la IA.

La IA está impulsando la demanda de habilidades de comunicación y pensamiento crítico de los profesionales de las Humanidades

Kaplan, Juliana. 2026. AI Is Giving English Majors Some Unexpected Leverage in the Job Market. Business Insider, 22 de febrero de 2026. https://www.businessinsider.com/ai-job-market-english-majors-humanities-demand-2026-2 (consultado el 23 de febrero de 2026).

La expansión de la inteligencia artificial (IA) en el entorno laboral está transformando profundamente el valor de distintas habilidades profesionales, y uno de los efectos más sorprendentes es el renovado interés por las titulaciones en humanidades, especialmente en inglés y áreas afines.

Tradicionalmente percibidos como menos prácticos frente a las disciplinas científicas y tecnológicas, los graduados en humanidades están empezando a experimentar una mayor demanda por parte de empleadores que buscan competencias que las máquinas no pueden replicar fácilmente. Entre estas se encuentran la comunicación compleja, la interpretación de textos, el pensamiento crítico y la creatividad, atributos que se han convertido en herramientas esenciales para gestionar y comprender los resultados generados por sistemas de IA avanzados.

En el ámbito académico, universidades como la de Colorado Boulder y Rice están observando una recuperación en el número de estudiantes interesados en programas de humanidades, tras años de declive. Este renacimiento se debe, en parte, al diseño de cursos interdisciplinarios que combinan estudios de humanidades con aspectos éticos, filosóficos y sociales de la IA. Por ejemplo, asignaturas que exploran cómo evaluar la escritura de una IA frente a la de un ser humano ayudan a cultivar una comprensión más profunda de la creatividad y el juicio interpretativo, reforzando así la relevancia de las humanidades en una economía cada vez más automatizada.

Desde la perspectiva del mercado laboral, expertos en selección y estrategia organizacional señalan que las “habilidades blandas” —como la empatía, la capacidad de contar historias y la comunicación intercultural— están adquiriendo un valor excepcional en un momento en que las máquinas dominan tareas técnicas repetitivas. En sectores pequeños e innovadores, estos atributos se traducen en ventajas competitivas en la gestión de equipos, la elaboración de narrativas de marca y la interacción con clientes y públicos diversos. Este fenómeno, descrito por algunos como la “venganza del graduado en inglés”, sugiere un cambio cultural importante: el reconocimiento de que el pensamiento humanístico es crucial para complementar las capacidades de la IA.

A pesar de estas tendencias prometedoras, el panorama laboral general sigue siendo desafiante para los graduados de humanidades, quienes tradicionalmente han enfrentado mayores tasas de desempleo que sus pares en campos técnicos. Aunque las oportunidades están aumentando, especialmente en empresas que valoran habilidades de comunicación y análisis contextual, no todas las organizaciones han adoptado plenamente esta visión. Sin embargo, la creciente inclusión de estudios sobre IA dentro de los programas de humanidades apunta a una adaptación estratégica de estos títulos tradicionales, preparándolos mejor para los roles híbridos que emergen en la economía digital.

En conjunto, la integración de la IA en los procesos productivos y creativos parece estar redefiniendo las competencias más valoradas en el mercado laboral. Mientras que las habilidades puramente técnicas siguen siendo importantes, la capacidad de pensar, comunicar y contextualizar información compleja se está revelando como un componente indispensable para navegar un mundo en el que las máquinas asumen cada vez más funciones mecánicas y repetitivas. Este cambio no solo beneficia a los graduados en humanidades, sino que también subraya la importancia de enfoques educativos más holísticos que integren conocimiento técnico y humanístico.