Archivo de la etiqueta: Inteligencia artificial

El papel del profesorado en la universidad del futuro en tiempos de la IA

Gamby, Tanya, David Kil, Rachel Koblic, Paul LeBlanc, Mihnea Moldoveanu, y George Siemens. «The Role of Faculty in the University of the FutureEDUCAUSE Review, 3 de marzo de 2026. https://er.educause.edu/articles/2026/3/the-role-of-faculty-in-the-university-of-the-future

Se plantea que la verdadera transformación de la educación superior en la era de la inteligencia artificial (IA) no consiste en reemplazar a los docentes, sino en liberar su tiempo para enfocarse en lo que solo los humanos pueden ofrecer: construir relaciones significativas, cultivar la sabiduría y guiar a los estudiantes en desafíos éticos e intelectuales que las máquinas no pueden resolver.

El documento subraya que el impacto de un buen docente se percibe no solo en la transmisión de conocimiento, sino en la atención personalizada, la exigencia acompañada de apoyo y la capacidad de inspirar sueños más amplios en sus estudiantes, un fenómeno que la psicología social denomina mattering —la sensación de ser importante para otros— y que se reconoce como un elemento crucial para el desarrollo y la resiliencia.

El artículo destaca que la IA puede actuar como un «asistente docente genial», encargándose de tareas de transferencia de conocimiento y evaluación rutinaria con precisión, disponibilidad continua y objetividad. Esto permite a los docentes concentrarse en la enseñanza de habilidades humanas complejas —comunicación, pensamiento crítico, creatividad y empatía— y en la creación de comunidades de aprendizaje auténticas. Se ejemplifica con profesores que, gracias a sistemas de IA, pueden ofrecer intervenciones altamente personalizadas sin repetir contenidos para toda la clase y transformar el tiempo de aula en un espacio dedicado a la interacción humana profunda y al pensamiento de alto nivel. El modelo del aula invertida, popularizado por Eric Mazur, se potencia con la IA, liberando tiempo para debate, resolución colaborativa de problemas y desarrollo de juicio profesional y ético.

Además, el artículo señala tres requisitos clave para esta evolución: primero, la capacitación docente para colaborar efectivamente con asistentes de IA, guiando su interacción con los estudiantes y sabiendo cuándo intervenir; segundo, la necesidad de redefinir el enfoque de la enseñanza hacia la aplicación crítica y la construcción de habilidades humanas avanzadas; y tercero, cultivar un compromiso relacional profundo con los estudiantes, superando estructuras institucionales y cargas de trabajo que tradicionalmente dificultan la interacción significativa. También se enfatiza que el profesorado desempeña roles de servicio institucional y custodia ética que la IA no puede reemplazar, incluyendo participación en comités, políticas académicas y la promoción de la confianza pública en la ciencia y la evidencia.

Finalmente, el artículo plantea que la IA transforma, pero no sustituye, la labor investigadora. Si bien puede automatizar tareas como búsquedas bibliográficas o procesamiento de datos, la interpretación, el planteamiento de preguntas generativas y el análisis moral y contextual siguen siendo dominios humanos. En un mundo donde la IA impulsará avances en áreas críticas como la medicina, el clima o la tecnología militar, los docentes deben enseñar a los estudiantes a comprender estos avances y liderar debates públicos sobre su uso responsable. La educación superior, así concebida, reafirma su valor social no por competir con la IA en rapidez o escala, sino por cultivar juicio, ética y discernimiento, asegurando que el conocimiento se utilice para promover una sociedad justa y floreciente.

Muestreo verbalizado: el avance decisivo que hace que la IA piense más como los humanos

MKWritesHere, “Verbalized Sampling: The Prompting Breakthrough That Makes AI Think More Like Humans,” Towards AI, 10 de febrero de 2026

Texto completo

Una innovación reciente en prompt engineering llamada Verbalized Sampling (muestreo verbalizado), una técnica diseñada para mejorar la diversidad y espontaneidad de las respuestas generadas por modelos de lenguaje grande (Large Language Models, LLM). El nuevo método de Stanford aumenta la diversidad creativa entre un 160 % y un 210 % en GPT-4, Gemini y modelos de código abierto.

A diferencia de los enfoques tradicionales que piden al modelo una sola respuesta a partir de una instrucción, Verbalized Sampling solicita que el modelo produzca varias respuestas posibles junto con sus probabilidades internas. Esta estrategia —simple de aplicar y sin necesidad de modificar ni reentrenar el modelo— invita al sistema a revelar su distribución interna de posibilidades en lugar de entregar la respuesta más típica o “segura” que domina tras procesos de alineamiento como RLHF (Reinforcement Learning from Human Feedback).

El artículo argumenta que muchos modelos actuales sufren de un problema conocido como mode collapse, en el que, tras el afinamiento para que sean útiles y seguros, tienden a producir respuestas repetitivas, previsibles o demasiado comunes. Este fenómeno se debe, según los autores, a un sesgo de tipicidad en los datos de preferencia humana: los evaluadores humanos tienden a premiar respuestas más familiares y accesibles, y ese criterio termina moldeando las respuestas del modelo. Verbalized Sampling contrarresta este efecto al pedirle explícitamente al modelo que ponga en palabras varias posibles salidas con sus probabilidades, lo que estimula la generación de ideas menos convencionales y más ricas en variedad.

Los impactos prácticos de esta técnica son relevantes en tareas donde la creatividad, la simulación de diálogos humanos o la generación de ideas originales son clave. El artículo menciona que al aplicar Verbalized Sampling, la diversidad de respuestas puede aumentar entre 1,6× y 2,1× en tareas como escritura creativa, chistes, relatos o preguntas abiertas, sin sacrificar precisión ni seguridad. Además, se observa que modelos con mayor capacidad se benefician más de este enfoque, y que la técnica funciona de manera consistente con distintas arquitecturas (GPT-4/4.1, Claude, Gemini, etc.) sin requerir acceso profundo a los parámetros internos o entrenamiento adicional. La idea subyacente es que, al exponer explícitamente el rango de posibles respuestas con sus probabilidades, el modelo “piensa” de una forma que se asemeja más al modo humano de considerar múltiples opciones antes de sintetizar una respuesta.

La señal principal de que podrías estar viendo un video generado por IA

Germain, Thomas. “The Number One Sign You Might Be Watching an AI Video.” BBC Future, 31 octubre 2025. https://www.bbc.com/future/article/20251031-the-number-one-sign-you-might-be-watching-ai-video

La detección de videos generados o manipulados por inteligencia artificial (IA) en un entorno en el que estas tecnologías se han vuelto extremadamente sofisticadas y aún más difíciles de distinguir del material real. Su tesis central es que, aunque las herramientas de IA continúan mejorando, todavía existen ciertos indicadores confiables que pueden ayudar a identificar contenido sintético —siempre y cuando los espectadores sepan qué observar.

El autor introduce la idea de que los avances recientes en generación de video mediante IA han erosionado nuestra confianza tradicional en las imágenes como prueba de realidad: “Lo que parece real ya no es garantía de autenticidad”. En este contexto, advierte que la audiencia probablemente será engañada repetidamente con videos falsos antes de que llegue a cuestionar sistemáticamente todo lo que ve.

El artículo presenta la opinión de Hany Farid, profesor de ciencias de la computación en la Universidad de California, Berkeley y pionero en el estudio forense de medios digitales. Farid destaca que el aspecto más revelador de un video generado por IA, en muchos casos, es su calidad visual: los materiales sintéticos suelen exhibir baja resolución, imágenes borrosas o apariencia “grumosa” que se asemeja a grabaciones de muy mala calidad. Esta característica se vuelve particularmente evidente en clips que emulan estilo doméstico o de “found footage”, como cámaras de seguridad o grabaciones improvisadas, donde la compresión y los artefactos introducidos para ocultar imperfecciones pueden ser un signo de síntesis.

Germain también explora cómo los generadores de video por IA deliberadamente reducen la calidad de imagen como técnica para ocultar artefactos o fallos, lo cual puede ser paradójicamente una pista de que el contenido no proviene de una cámara real. La lógica detrás de este fenómeno es que las imperfecciones artificiales se camuflan mejor en clips de mala calidad que en aquellos nítidos y bien definidos: cuando un video parece demasiado familiar o responde a patrones genéricos sin una procedencia clara, esto debería activar las alertas del espectador.

El artículo contextualiza la discusión dentro de un panorama en el que las tecnologías de generación de video han alcanzado tal nivel que incluso expertos pueden ser engañados si no se presta atención a señales sutiles o a la procedencia del material. Este análisis forma parte de un esfuerzo más amplio por promover una alfabetización mediática crítica: es decir, la capacidad de evaluar no solo la calidad visual, sino también la fuente, la metadata disponible y el contexto en que aparece un video antes de aceptarlo como genuino.

Aunque no existe un método infalible para detectar todo video generado por IA, la principal señal —imágenes con mala calidad o artefactos visuales contradictorios con la supuesta fuente del video— ofrece un punto de partida valioso para discernir contenido potencialmente sintético en la era de los deepfakes avanzados.

El uso y la percepción de la inteligencia artificial entre los adolescentes

Pew Research Center (24 de febrero de 2026). How Teens Use and View AI. Pew Research, 2026

Texto completo

El informe del Pew Research Center revela una integración significativa de los chatbots de inteligencia artificial en la vida cotidiana de los adolescentes estadounidenses de 13 a 17 años. Actualmente, el 64% de los jóvenes reporta haber utilizado estas herramientas, una cifra que supera notablemente la percepción de sus padres, quienes creen que solo el 51% de sus hijos las emplea.

Entre las actividades más comunes se encuentra la búsqueda de información (57%), el apoyo en tareas escolares (54%) y el entretenimiento o diversión (47%). La mayoría de los adolescentes considera que la IA es una herramienta valiosa para el aprendizaje; aproximadamente la mitad de los usuarios afirma que los chatbots les han ayudado de manera significativa a completar sus deberes, mientras que solo una mínima fracción del 3% los considera inútiles. No obstante, existe una dependencia variable: mientras el 10% confía en la IA para la mayor parte de su trabajo escolar, un 45% aún no ha recurrido a ella con fines académicos.

El estudio profundiza en las marcadas diferencias demográficas y de género respecto a la adopción y visión del futuro de esta tecnología. Los adolescentes varones tienden a mostrar un optimismo más elevado que las mujeres, tanto sobre el impacto de la IA en sus propias vidas (41% frente a 30%) como en la sociedad en general (35% frente a 27%). Asimismo, se observan variaciones en el uso según el origen étnico y el nivel de ingresos del hogar, lo que sugiere que factores socioeconómicos influyen en cómo se aprovechan estas herramientas para el aprendizaje o el acceso a noticias. En cuanto a las capacidades de la IA frente a los humanos, los jóvenes son mayoritariamente escépticos en áreas que requieren juicio humano complejo, como la contratación de personal, donde el 50% cree que la tecnología tendría un peor desempeño que una persona.

El informe analiza la perspectiva parental y el consenso sobre los límites éticos del uso de la IA. Existe una aceptación mayoritaria entre los padres para que sus hijos utilicen chatbots en búsquedas de información y tareas escolares (aprobado por cerca del 60%), pero el nivel de comodidad desciende drásticamente cuando se trata de interacciones más personales, como conversaciones casuales. A pesar de los beneficios en eficiencia que los adolescentes reconocen —similares a los que percibe el público adulto—, persiste una preocupación compartida sobre las consecuencias a largo plazo, incluyendo el temor a la pérdida de empleos en el futuro. Este panorama refleja una generación que abraza la IA como una herramienta de productividad esencial, pero que mantiene una cautela crítica sobre su capacidad para replicar la esencia del comportamiento y la toma de decisiones humanas.

Aspectos más destacados:

Uso generalizado: El 64% de los adolescentes estadounidenses de entre 13 y 17 años ha utilizado chatbots de IA en algún momento.

Brecha de percepción parental: Existe una desconexión entre padres e hijos; mientras que el 64% de los jóvenes afirma haber usado IA, solo el 51% de sus padres cree que sus hijos lo han hecho.

Propósitos principales del uso:

  • Búsqueda de información: 57% de los adolescentes.
  • Tareas escolares: 54% de los adolescentes.
  • Entretenimiento: 47% de los adolescentes.

Impacto en la educación:

  • Alrededor de la mitad de los usuarios de IA (un 52% de los adolescentes que han usado chatbots) considera que estas herramientas han sido «muy» o «algo» útiles para completar sus tareas escolares.
  • Un 10% de los adolescentes confía en la IA para realizar la mayor parte de su trabajo escolar.

Diferencias de género: Los chicos adolescentes muestran un mayor optimismo que las chicas. El 41% de los varones cree que la IA tendrá un impacto positivo en su vida personal, frente al 30% de las mujeres.

Opinión sobre las capacidades de la IA: El 50% de los adolescentes considera que la IA haría un peor trabajo que los humanos en tareas que requieren juicio, como la contratación de empleados.

Postura de los padres: La mayoría de los padres se siente cómoda con que sus hijos usen IA para aprender cosas nuevas o para labores académicas, pero la aprobación disminuye significativamente cuando se trata de usar la tecnología para interacciones personales o casuales.

Las políticas de IA de las revistas académicas no logran frenar el auge de la escritura académica asistida por IA.

He, Y., & Bu, Y. (2026). Academic journals’ AI policies fail to curb the surge in AI-assisted academic writing. Proceedings of the National Academy of Sciences of the United States of America, 123(9), e2526734123. https://doi.org/10.1073/pnas.2526734123

El artículo aborda una cuestión crítica y de enorme actualidad en el mundo académico: la eficacia real de las políticas de inteligencia artificial (IA) adoptadas por revistas científicas para abordar el uso de herramientas de generación automática de texto.

En respuesta al crecimiento explosivo de herramientas de IA generativas como asistentes de redacción, muchas revistas han implementado políticas que, en teoría, deberían promover la transparencia (por ejemplo, requiriendo divulgación del uso de IA) y limitar la adopción indiscriminada para salvaguardar la integridad y originalidad de la literatura científica. Sin embargo, los autores señalan que el impacto real de estas políticas no se ha evaluado exhaustivamente a gran escala hasta ahora.

Para cuantificar ese impacto, los investigadores analizaron una base de datos consistente de 5 114 revistas académicas y más de 5,2 millones de artículos científicos para observar si las métricas de uso de IA y divulgación variaban entre publicaciones con y sin políticas formales sobre IA. Este enfoque permite ir más allá de los debates teóricos sobre política editorial y aportar evidencia empírica sobre lo que está ocurriendo en la práctica: ¿la existencia de una política de IA en una revista realmente frena el uso de herramientas automáticas o mejora la transparencia declarada?

Los resultados muestran una tendencia sorprendentemente clara: el uso de herramientas de IA en la redacción de artículos científicos crece rápidamente en todos los campos y tipos de revista, independientemente de si existe o no una política formal sobre IA. Incluso entre las revistas que han adoptado políticas de divulgación o restricción, no se observa una reducción significativa en el crecimiento del uso de IA en la escritura de artículos científicos en comparación con aquellas sin políticas. Este hallazgo pone en duda la eficacia de las políticas actuales como mecanismos de control, y sugiere que muchas de las prácticas de supervisión existentes pueden ser insuficientes para moderar la adopción de IA en la producción académica.

Además, los autores realizaron un análisis específico del texto completo de 164 000 publicaciones científicas, con especial atención a 75 000 artículos publicados desde 2023. Este análisis reveló una brecha notable en la transparencia: solo 76 artículos (~0,1 %) declararon explícitamente el uso de IA en su redacción, a pesar de que las herramientas automáticas son ampliamente accesibles y utilizadas. Esto indica no solo un aumento general en el uso de IA, sino también una ausencia de prácticas de divulgación consistentes, incluso cuando las revistas requieren declaraciones obligatorias sobre asistencia automatizada.

Los patrones observados en el crecimiento del uso de IA también varían según la disciplina y las características de las publicaciones. Los autores subrayan que las tasas de adopción de IA son especialmente elevadas en países no anglófonos, en las áreas de ciencias físicas y en revistas de acceso abierto de alto impacto. Este aspecto plantea cuestiones adicionales sobre cómo las diferencias culturales, lingüísticas y de acceso influyen en el uso de IA y en las estrategias de divulgación.

En el corazón de su discusión, los autores critican la ineficacia de las políticas actuales de las revistas como herramienta de regulación o guía ética frente al uso de IA en la escritura académica. Argumentan que las políticas basadas principalmente en declaraciones de uso no han logrado frenar la adopción de estas tecnologías, ni han aumentado la transparencia de manera significativa. En consecuencia, instan a una reevaluación completa de los marcos éticos y normativos que gobiernan la publicación científica, sugiriendo que se necesitan enfoques más robustos y posiblemente mecanismos automatizados que detecten y gestionen el uso de IA para proteger la integridad y fiabilidad de la investigación científica.

¿Pueden las plataformas de IA proporcionar servicios de referencia bibliotecaria de calidad?

Wang, H., Clark, J., & Peña, A. (2026). Responsible Intelligence in Practice: A Fairness Audit of Open Large Language Models for Library Reference Services. arXiv. https://arxiv.org/html/2602.18935v1

El artículo comienza planteando una pregunta central en el contexto actual de la biblioteconomía: ¿pueden los modelos de lenguaje grande (LLMs) proporcionar servicios de referencia bibliotecaria de forma justa y equitativa para todas las personas usuarias, independientemente de su identidad demográfica?

Los autores señalan que, aunque los LLMs ofrecen una oportunidad sin precedentes para ampliar el acceso a servicios de información —por ejemplo, respondiendo consultas a cualquier hora o para personas que no pueden acudir físicamente a la biblioteca— estos modelos también arrastran posibles sesgos derivados de los datos con los que fueron entrenados. Dado que las bibliotecas históricamente se han comprometido con la imparcialidad y el servicio igualitario, es imprescindible evaluar si los LLMs pueden respetar estos valores fundamentales de la profesión.

Para abordar esta cuestión, los investigadores proponen y aplican un protocolo sistemático de evaluación de equidad (“Fairness Evaluation Protocol” o FEP) que combina técnicas de clasificación diagnóstica con análisis lingüísticos interpretativos. En este diseño experimental, sintetizan interacciones tipo “correo electrónico de referencia” con nombres demográficos claramente asociados a sexos y grupos raciales/étnicos distintos. Estas interacciones son luego presentadas a tres modelos LLM abiertos (LLaMA-3.1 8B, Gemma-2 9B y Ministral 8B) configurados para actuar como bibliotecarios virtuales. Este enfoque busca detectar si, con el mismo contenido de consulta, la respuesta generada por el modelo varía sistemáticamente según las pistas demográficas incrustadas en los nombres de usuario.

Los resultados de esta evaluación se presentan en dos dimensiones principales: sexo y raza/etnicidad. Para cada dimensión demográfica, los autores emplean tres métodos distintos de clasificación automática (regresión logística, perceptrón multicapa y XGBoost) para determinar si las respuestas de los modelos contienen patrones lingüísticos que permitan predecir atributos demográficos mejor que al azar. Cuando estos métodos detectan diferencias significativas, se realiza un análisis más detallado para identificar qué palabras o expresiones específicas están asociadas a esas variaciones, lo que ofrece pistas sobre posibles sesgos o diferencias de tratamiento.

En general, los hallazgos sugieren que la mayoría de los modelos abiertos evaluados no muestran pruebas convincentes de tratamiento discriminatorio sistemático por raza o etnia. En la mayoría de los casos, las tasas de clasificación por grupo demográfico no exceden significativamente el nivel aleatorio, lo que indica que los modelos tienden a ofrecer respuestas similares sin importar el grupo al que se asume que pertenece el usuario. De manera similar, en cuanto a la dimensión de sexo, la mayoría de los modelos no evidencian sesgos fuertes; sin embargo, uno de los modelos sí mostró variaciones menores en las respuestas según el sexo, aunque estas diferencias parecieron estar influenciadas por fórmulas de saludo u otras construcciones lingüísticas menores más que por la calidad de la asistencia.

Más allá de los resultados cuantitativos, los autores discuten las implicaciones prácticas de estos hallazgos. Subrayan que la equidad en los servicios automatizados de referencia no es una propiedad estática: puede depender del contexto de uso, del dominio de las preguntas y de las configuraciones específicas de los modelos. Por tanto, incluso si un modelo no muestra sesgos en evaluaciones controladas como esta, sigue siendo esencial monitorizar continuamente su comportamiento conforme evoluciona y se implementa en entornos reales. El estudio también enfatiza que detectar “ausencia de sesgo” técnico no sustituye la necesidad de una gobernanza responsable del uso de IA en bibliotecas, incluyendo políticas explícitas, mecanismos de retroalimentación de usuarios y evaluaciones éticas más amplias.

Finalmente, los autores reflexionan sobre las limitaciones de su propio enfoque —por ejemplo, la simplificación necesaria de las interacciones sintéticas y la reducción de identidades demográficas a categorías binarias o predefinidas— y sugieren direcciones futuras de investigación. Entre ellas se incluyen evaluaciones más amplias en escenarios reales de referencia, la inclusión de identidades de género más allá del binario, y la exploración de matices culturales y lingüísticos que puedan influir en el comportamiento de los modelos. En suma, el artículo aporta una base metodológica rigurosa y ejemplos de análisis crítico que pueden guiar la integración responsable de modelos generativos de lenguaje en servicios bibliotecarios sin comprometer los principios de imparcialidad y justicia que sustentan la profesión.

Tendencias tecnológicas para bibliotecas en 2026

Tanzi, Nick. 2026. Library Tech Trends for 2026.” LinkedIn, 31 de enero de 2026. https://www.linkedin.com/pulse/library-tech-trends-2026-nick-tanzi-7ajle/

El experto en bibliotecas y tecnología Nick Tanzi analiza las principales tendencias tecnológicas que influirán en el funcionamiento de las bibliotecas durante 2026. El autor identifica desafíos emergentes y continuos, especialmente la presencia cada vez mayor de la inteligencia artificial (IA) dentro de las organizaciones bibliotecarias.

Según Tanzi, la IA generativa ya se encuentra integrada en muchas herramientas y servicios utilizados tanto por el personal como por los usuarios, y su presencia seguirá expandiéndose durante el año. Esto plantea la necesidad urgente de desarrollar políticas claras que indiquen cómo manejar el contenido generado por IA en las colecciones, qué usos del personal son permitidos o prohibidos y cómo ofrecer asistencia a los usuarios que interactúan con IA dentro del contexto de la biblioteca.

La expansión de la IA también se refleja en soluciones específicas para bibliotecas, como el uso de funciones basadas en IA en plataformas de distribución digital de libros. Por ejemplo, Libby, una de las plataformas de ebooks más utilizadas por bibliotecas públicas en América del Norte, ha incorporado una funcionalidad que recomienda materiales disponibles a través de algoritmos generativos. Esta clase de innovación transforma la manera en que los usuarios descubren y acceden a recursos, pero también requiere que las bibliotecas definan marcos de política y formación del personal para asegurar que la tecnología se utilice de forma ética, transparente y alineada con los objetivos de servicio comunitario.

Otro aspecto clave resaltado por Tanzi es la accesibilidad digital. En 2026, muchas bibliotecas deben cumplir con las pautas de accesibilidad de contenido web (WCAG 2.1 nivel AA) establecidas por la legislación estadounidense, obligaciones que varían según la población servida. Esto significa que los sitios web de las bibliotecas, sus aplicaciones móviles y cualquier servicio digital deben ser diseñados o adaptados para garantizar que todos los usuarios, incluidos aquellos con discapacidades, puedan acceder y utilizar estos recursos sin barreras. El autor enfatiza la importancia de la formación en prácticas accesibles, desde la creación de PDFs accesibles hasta la inclusión de texto alternativo eficaz para imágenes y mejores prácticas en programación híbrida o virtual.

Además, Tanzi aborda la expansión de la “Library of Things” —colecciones no tradicionales que incluyen herramientas, juegos, aparatos y otros objetos físicos distintos de los materiales impresos o digitales clásicos— como una tendencia que responde tanto a las presiones sobre las colecciones tradicionales como al interés creciente de la comunidad en recursos que promueven la sostenibilidad y la participación activa. La incorporación de estos objetos en el catálogo de servicios bibliotecarios representa una expansión del rol de la biblioteca como espacio comunitario multifuncional y reflejo de las necesidades contemporáneas.

Un desafío adicional que Tanzi identifica es el aumento de las amenazas cibernéticas, especialmente con la proliferación de herramientas de IA que permiten a personas sin experiencia técnica desarrollar malware o realizar ataques de ingeniería social más sofisticados, como deepfakes y clonación de voz. Las bibliotecas han sido blanco de ataques de ransomware, y este tipo de riesgos exige que las instituciones fortalezcan su infraestructura tecnológica, desarrollen capacidades de respuesta rápida ante incidentes y eduquen tanto al personal como a los usuarios sobre prácticas seguras frente a la tecnología digital.

En conjunto, el artículo transmite un panorama de 2026 como un año de profundas transformaciones tecnológicas para las bibliotecas. La integración de la IA, la necesidad de políticas actualizadas, la atención a la accesibilidad digital, la diversificación de las colecciones y la gestión de riesgos de ciberseguridad configuran un entorno en el que las bibliotecas deberán adaptarse de manera proactiva. Tanzi concluye con una nota de confianza en la capacidad de los profesionales de la información para enfrentar estos desafíos, recordando que, históricamente, en los tiempos de mayor disrupción es cuando las bibliotecas hacen su mejor trabajo al servir a sus comunidades.

La biblioteca como espacio estratégico en el marco de alfabetización en IA

Malespina, Elissa. 2026. The U.S. Department of Labor AI Literacy Framework. The AI School Librarians Newsletter, 24 de febrero de 2026. https://aischoollibrarian.substack.com/p/the-us-department-of-labor-ai-literacy

Se describe el reciente Marco de Alfabetización en Inteligencia Artificial publicado por el Departamento de Trabajo de los Estados Unidos como una nueva guía federal voluntaria que define qué significa ser alfabetizado en IA y qué competencias y métodos de formación deberían promoverse tanto en educación como en la fuerza laboral.

Según la autora, el Departamento de Trabajo ha planteado la alfabetización en IA no como un conjunto de herramientas o una lista de recursos tecnológicos, sino como un marco de competencias fundamentales centrado en la capacidad para usar y evaluar tecnologías de IA de forma responsable y eficaz. Este marco es importante porque, aunque es voluntario, su lenguaje y sus definiciones pueden influir en políticas educativas, alineación curricular, solicitudes de financiamiento y expectativas laborales a largo plazo.

El marco se estructura en torno a dos pilares principales: áreas de contenido fundamentales y principios de entrega. Las cinco áreas de contenido que el Departamento considera esenciales para la alfabetización en IA son: comprender los principios de la IA, explorar sus usos, dirigir la IA de forma eficaz (por ejemplo, mediante la elaboración de preguntas y prompts claros), evaluar los resultados que genera y usar la IA de manera responsable. Estas competencias no implican necesariamente codificación ni ingeniería de IA avanzada, sino una fluidez básica que permita interactuar críticamente con estas tecnologías en múltiples contextos.

En cuanto a los principios de entrega, el documento federal enfatiza la importancia de enfoques como el aprendizaje experiencial práctico, la integración del aprendizaje en contextos reales, el desarrollo de habilidades humanas complementarias (como pensamiento crítico y comunicación), y la creación de rutas de aprendizaje continuas y flexibles. También se subraya la necesidad de abordar barreras previas, como la falta de alfabetización digital o de acceso a infraestructura, y de preparar a quienes desempeñan roles de apoyo, como educadores y consejeros.

La autora señala que estos elementos sí coinciden con muchas prácticas ya existentes en educación y bibliotecas, pero que el marco fue diseñado con un enfoque explícitamente orientado al mercado laboral y no aborda de forma profunda cuestiones como la libertad intelectual, la integridad académica o los sesgos algorítmicos en contextos civiles. Esto podría limitar la visión sobre alfabetización en IA si no se complementa con discusiones más amplias sobre ética y crítica social dentro de las escuelas y bibliotecas.

Finalmente, el artículo sostiene que, dada la inclusión explícita de sistemas educativos hasta la capacitación laboral, es un momento estratégico para que educadores y bibliotecarios participen activamente en definir cómo debe interpretarse la alfabetización en IA. De lo contrario, la definición podría quedar reducida a una visión estrecha enfocada en productividad y competencia técnica, sin abordar críticamente el impacto más amplio de la IA en la sociedad, la ética y la equidad educativa.

Anthropic denuncia la extracción masiva de datos de Claude por laboratorios chinos de IA

Bellan, Rebecca. 2026. Anthropic Accuses Chinese AI Labs of Mining Claude as US Debates AI Chip Exports.” TechCrunch, 23 de febrero de 2026. https://techcrunch.com/2026/02/23/anthropic-accuses-chinese-ai-labs-of-mining-claude-as-us-debates-ai-chip-exports/

La empresa estadounidense Anthropic ha denunciado que varios laboratorios chinos de inteligencia artificial habrían llevado a cabo campañas masivas para extraer capacidades de su modelo Claude mediante técnicas de “destilación”. Según la compañía, estas prácticas consistieron en la creación de miles de cuentas fraudulentas que realizaron millones de consultas automatizadas con el objetivo de analizar, replicar y transferir el comportamiento del modelo a sistemas propios en desarrollo.

En concreto, Anthropic señala a DeepSeek, Moonshot AI y MiniMax como responsables de lo que describe como “ataques de destilación a escala industrial”. Esta técnica, habitual en el aprendizaje automático cuando se aplica de forma autorizada, permite que un modelo más pequeño aprenda de las salidas de uno más avanzado. Sin embargo, la empresa sostiene que, en este caso, el procedimiento se utilizó de manera sistemática y en violación de sus términos de servicio, además de eludir restricciones geográficas que impiden el acceso oficial a Claude desde China.

Anthropic afirma haber identificado patrones técnicos —como direcciones IP, comportamientos repetitivos y volúmenes anómalos de tráfico— que le permiten atribuir con alto grado de confianza estas operaciones a los laboratorios mencionados. La compañía considera que este tipo de extracción no solo supone una vulneración de propiedad intelectual, sino también un riesgo para la seguridad, ya que los modelos derivados podrían carecer de los mecanismos de control y salvaguardias éticas incorporados en la versión original.

Las acusaciones se producen en un contexto geopolítico especialmente sensible, en el que Estados Unidos debate el endurecimiento o flexibilización de los controles a la exportación de chips avanzados de inteligencia artificial hacia China. Para Anthropic, estos episodios refuerzan la necesidad de mantener restricciones estrictas sobre hardware de alto rendimiento, dado que la potencia computacional no solo acelera el entrenamiento tradicional de modelos, sino también posibles operaciones de extracción masiva de conocimiento desde sistemas punteros.

En conjunto, el caso pone de relieve las tensiones crecientes en la carrera global por la inteligencia artificial, donde la competencia tecnológica, la protección de la innovación y la seguridad nacional se entrelazan. Más allá de la disputa concreta, la denuncia abre un debate más amplio sobre los límites de la destilación, la protección efectiva de los modelos fundacionales y la gobernanza internacional de la IA en un escenario marcado por la rivalidad entre potencias.

Sesgo geográfico en la inteligencia artificial: por qué nunca deberías decirle a una IA que eres de Nápoles

Kayser‑Bril, Dr. Nicolas. 2026. Never tell an AI you’re from Naples. AlgorithmWatch, 20 de febrero de 2026. https://algorithmwatch.org/en/never-tell-an-ai-youre-from-naples/

Se analiza de forma crítica cómo los modelos de lenguaje de gran tamaño (LLM) reproducen y consolidan prejuicios geográficos presentes en los datos con los que fueron entrenados. El punto de partida es una conversación con un especialista encargada de poner a prueba los límites y salvaguardas de los sistemas de IA— quien explica que cualquier modelo estadístico generativo refleja inevitablemente los sesgos latentes en sus corpus de entrenamiento.

El trabajo consiste precisamente en forzar el sistema hasta que esos prejuicios afloran. Gracias a este tipo de pruebas, por ejemplo, los buscadores basados en IA evitan responder preguntas peligrosas; sin embargo, el artículo demuestra que basta reformular ligeramente una pregunta para sortear ciertas restricciones y revelar inclinaciones subyacentes.

El autor presenta un experimento metodológicamente ingenioso para detectar prejuicios geográficos. Dado que los LLM suelen negarse a responder preguntas directas como “¿En qué ciudad es la gente más inteligente?”, sí acceden a comparaciones binarias del tipo: “¿En qué ciudad es la gente más inteligente, París o Berlín?”. A partir de comparaciones por pares entre ciudades europeas, se elaboró una clasificación según cuatro modelos distintos: dos comerciales —Gemma 3 de Google y Mistral— y dos desarrollados por iniciativas públicas europeas —Lucie (OpenLLM France) y PLLuM (Ministerio de Digitalización de Polonia)—. El resultado fue sorprendentemente consistente: Estocolmo y Viena aparecían sistemáticamente en la parte alta de la jerarquía, mientras que Sofía, Marsella y Nápoles quedaban relegadas a los últimos puestos. Incluso modelos nacionales no mostraban favoritismo hacia sus propias capitales. Las correlaciones entre los resultados oscilaron entre 0,47 y 0,77, lo que indica una notable convergencia pese a haber sido entrenados con conjuntos de datos distintos.

El artículo cuestiona la idea de que los LLM simplemente “reflejan” opiniones sociales cambiantes. Para ilustrarlo, menciona el llamado “efecto Bilbao”, término acuñado en urbanismo para describir cómo la reputación de una ciudad puede transformarse radicalmente en pocos años gracias a un proyecto emblemático —como ocurrió con Bilbao tras la apertura del Museo Guggenheim—. Las percepciones humanas son volátiles, contradictorias y contextuales. En cambio, los modelos de lenguaje, al promediar millones de documentos y cristalizar correlaciones estadísticas, tienden a congelar prejuicios dominantes y a eliminar matices. En este sentido, los LLM serían estructuralmente inmunes al “efecto Bilbao”: no capturan la fluidez de la reputación urbana, sino que fijan estereotipos agregados.

El problema no es meramente teórico. Aunque parezca improbable que alguien utilice un modelo para clasificar las “ciudades más inteligentes”, estos sistemas sí pueden emplearse para evaluar currículos, analizar solicitudes de financiación o priorizar candidaturas. Si ciertos topónimos están estadísticamente asociados a atributos positivos o negativos, podrían producirse efectos discriminatorios reales, aunque difíciles de medir empíricamente. El texto también señala limitaciones metodológicas: los LLM son notoriamente inconsistentes. Cuando se les pidió identificar las ciudades “más estúpidas”, solo uno de los modelos mostró correlación negativa con su propio ranking de inteligencia. Otros tendían a colocar a Viena o Estocolmo en la cima incluso en categorías absurdas, llegando a generar clasificaciones para términos inexistentes. Esta plasticidad revela tanto la fragilidad lógica de los sistemas como la profundidad de sus asociaciones implícitas.

En conjunto, el análisis plantea una advertencia inquietante: los sistemas de IA no solo heredan prejuicios, sino que pueden consolidarlos y proyectarlos con una apariencia de objetividad algorítmica. En un mundo donde la automatización influye cada vez más en decisiones administrativas y económicas, comprender y auditar estos sesgos geográficos se vuelve una cuestión urgente de justicia y responsabilidad tecnológica.