Archivo de la etiqueta: Inteligencia artificial

De la IA a los chips: las grandes tecnológicas están consiguiendo lo que quieren de Trump.

Kang, Cecilia. New York Times. “From AI to Chips, Big Tech Is Getting What It Wants From Trump.The New York Times, 28 de diciembre de 2025. https://www.nytimes.com/2025/12/28/technology/tech-trump.html

Donald Trump ha impulsado políticas favorables a las grandes empresas tecnológicas, particularmente en el contexto de la inteligencia artificial (IA) y los semiconductores.

En un contexto en que las políticas tecnológicas de Estados Unidos ocupan un papel central en la agenda política de 2025, el New York Times describe cómo la administración de Donald Trump ha implementado decisiones que favorecen ampliamente a las grandes empresas tecnológicas (Big Tech) en temas clave como inteligencia artificial (IA) y semiconductores. Aunque Trump llegó al poder con promesas de dinamizar la economía y restablecer la competitividad nacional, muchas de sus acciones han coincidido con las demandas y prioridades estratégicas de compañías como Nvidia, Google, Meta y otras, consolidando una alianza práctica entre el gobierno y el sector tecnológico que ha desbloqueado políticas regulatorias, cambios en comercio internacional y promoción de inversiones en infraestructura tecnológica.

Según la cobertura disponible, Trump ha eliminado o debilitado diversas restricciones a la exportación de chips semiconductores avanzados, como los fabricados por Nvidia, y ha promovido la expansión de la infraestructura tecnológica —incluidos centros de datos y producción de chips— con el argumento de mantener la competitividad estadounidense en la carrera global por la IA. Estos movimientos reflejan una clara alineación con las prioridades de Silicon Valley y otros gigantes tecnológicos, que han visto beneficios en la reducción de regulaciones y la apertura de mercados internacionales

Uno de los elementos más destacados de esta relación es la revocación o debilitación de restricciones que limitaban la exportación de chips avanzados y la regulación de tecnologías emergentes. La administración ha eliminado barreras regulatorias, acelerado la construcción de centros de datos y aprobado la venta de chips de IA más potentes en mercados sensibles, como China, medidas que muchos ejecutivos tecnológicos consideran esenciales para mantener la dominancia global de la industria estadounidense en IA y hardware. Esto se ha logrado tras esfuerzos coordinados entre líderes del sector y altos funcionarios de la Casa Blanca, que integran a la industria en posiciones de influencia técnica y política.

Además, el gobierno ha emitido órdenes ejecutivas y desarrollado un “AI Action Plan” nacional, orientado a impulsar la innovación de IA eliminando lo que Trump y sus asesores consideran barreras burocráticas y políticas que podrían frenar la competitividad de Estados Unidos frente a rivales como China. Estas políticas priorizan la expansión de la infraestructura tecnológica, la expansión de exportaciones y la coordinación federal única de normativas, reduciendo el papel de regulaciones estatales y enfocando el crecimiento en un marco de mercado libre que favorece a los grandes actores establecidos. Si bien estas medidas han sido aplaudidas por sectores empresariales como impulsores del crecimiento económico, también han generado críticas desde sectores que advierten sobre riesgos de falta de regulación, concentración de poder corporativo y posibles impactos negativos en la protección de derechos y seguridad pública.

Aulas inteligentes: experiencias y propuestas educativas con IA y herramientas digitales.

Palacios, Solangel Materón, María Naranjo-Crespo y Miguel Valdivia Pinto, eds. Aulas Inteligentes: Experiencias y propuestas educativas con IA y herramientas digitales. Barquisimeto, Venezuela: Fondo Editorial Red Holos XXI, 2025

Texto completo

Aulas Inteligentes: Experiencias y propuestas educativas con IA y herramientas digitales es una obra colectiva que invita a repensar críticamente la educación en el marco de la transformación digital contemporánea. El libro articula experiencias y propuestas pedagógicas que conciben la inteligencia artificial y las herramientas digitales como mediaciones al servicio del aprendizaje, la reflexión docente y la formación integral. A través de investigaciones, experiencias situadas y marcos metodológicos diversos, los capítulos evidencian cómo la planificación, la investigación formativa, el currículo y la práctica pedagógica pueden enriquecerse cuando la tecnología dialoga con principios éticos, pedagógicos y humanistas sólidos.

La obra destaca por su pluralidad de voces y contextos, abarcando desde la educación superior hasta la educación primaria, así como campos como la formación docente, la investigación cualitativa, la neurodidáctica y la educación médica. En su conjunto, el libro no solo muestra usos innovadores de la IA, sino que problematiza sus tensiones —autoría, citación académica, ética y toma de decisiones—, reafirmando que la verdadera inteligencia del aula reside en la capacidad de los educadores para diseñar experiencias significativas, reflexivas y responsables. En este sentido, Aulas Inteligentes se consolida como un referente para docentes e investigadores que buscan integrar la tecnología sin renunciar al sentido profundamente humano de la educación.

Un 21% del contenido recomendado a usuarios en YouTube es contenido basura generado por IA

PCMag. “Over 21 % of YouTube Is Now AI Slop, Says Report.” PCMag, 29 de diciembre de 2025. https://www.pcmag.com/news/over-21-of-youtube-is-now-ai-slop-says-report?utm_source=flipboard&utm_content=user%2FPCMag

Más de 21 % de los vídeos recomendados a nuevos usuarios en YouTube son contenido de baja calidad generado por IA, conocido como AI slop, según un informe de Kapwing.

Un nuevo informe del sitio de análisis tecnológico Kapwing revela que más de uno de cada cinco videos que aparecen en las recomendaciones de YouTube para nuevos usuarios es “AI slop”, es decir, contenido generado por inteligencia artificial de baja calidad diseñado para obtener visualizaciones y suscripciones sin aportar valor real al espectador. Para medirlo, los investigadores crearon una cuenta nueva en la plataforma y analizaron los primeros 500 videos en el feed de YouTube Shorts, encontrando que alrededor del 21 % de ese contenido estaba compuesto por videos generados automáticamente, mientras que otro 33 % entraba en la categoría más amplia de “brainrot”, contenido trivial o repetitivo que persigue la atención del usuario.

El estudio también examinó 15 000 de los canales más populares en YouTube (los 100 principales en cada país) y determinó que 278 canales publican exclusivamente contenido AI slop. Estos canales, aunque de baja calidad en términos de aporte creativo o informativo, han acumulado decenas de miles de millones de visualizaciones y cientos de millones de suscriptores en total, generando ingresos estimados en decenas de millones de dólares al año.

Geográficamente, la presencia de “AI slop” es global: algunas regiones como España lideran el número de suscriptores de este tipo de canales, mientras que países como Corea del Sur o Pakistán registran cifras extraordinarias de visualizaciones de videos generados por IA. Estos hallazgos han encendido el debate sobre la calidad del contenido en plataformas dominadas por algoritmos de recomendación, así como las implicaciones para creadores humanos y la experiencia de los usuarios, especialmente cuando dichos sistemas priorizan volumen e interacción sobre contenido útil o auténtico.

Las fuentes fabricadas por IA socavan la confianza y hacen perder el tiempo a los investigadores.

Aquí tienes la traducción de los textos y globos de la imagen, organizada por paneles:

Panel 1 (Arriba a la izquierda)

  • Encabezado: La IA está creando revistas falsas, y los investigadores están pagando el precio.
  • En el robot: IA
  • Globo del robot: Mira esta investigación de la Revista de Socorro Internacional.

Panel 2 (Arriba a la derecha)

  • Encabezado: Las solicitudes generadas por IA para citas falsas inundan las bibliotecas.
  • Mujer: ¿Puedo conseguir este artículo?
  • Bibliotecario: Lo siento, no puedo encontrarlo…

Panel 3 (Centro a la izquierda)

  • Encabezado: Pasos a seguir:
    1. Usa fuentes oficiales.
    2. Verifica las citas de la IA.
    3. Divulga el uso de la IA.

Panel 4 y 5 (Centro derecha y abajo)

  • Encabezado: Las fuentes fabricadas por IA socavan la confianza y hacen perder el tiempo a los investigadores.

Herramientas de Inteligencia Artificial aplicadas a la catalogación de bibliotecas para el año 2025

El contenido se divide en seis categorías principales que abarcan desde sistemas integrados comerciales hasta soluciones personalizadas y experimentales, destacando sus características, casos de uso, ventajas y limitaciones.

En el ámbito de las grandes plataformas, se mencionan el Ex Libris Alma AI Metadata Assistant y las herramientas de Machine Learning de OCLC. La primera está enfocada en bibliotecas universitarias para sugerir metadatos enriquecidos, destacando por su integración fluida con sistemas actuales, aunque requiere una suscripción. La segunda utiliza aprendizaje automático para la resolución de entidades en catalogación digital, caracterizándose por ser de código abierto pero aún en etapa experimental.

Por otro lado, instituciones académicas y gubernamentales lideran proyectos como el de la Biblioteca del Congreso y Harvard, que explora la descripción computacional y su integración con BIBFRAME para informes abiertos. Paralelamente, Harvard ha desarrollado una herramienta basada en GPT para bibliotecarios de Asia Oriental, la cual facilita sugerencias de encabezamientos de materia (LCSH) y análisis de temas mediante embeddings multilingües.

Finalmente, la infografía destaca soluciones más flexibles como las Custom Power Apps y los Chatbots de IA de uso general. Las Power Apps están diseñadas para bibliotecas pequeñas y materiales en idiomas asiáticos (CJK), ofreciendo modelos entrenables a pesar de estar en fase beta. Por su parte, los chatbots genéricos se utilizan para el prototipado rápido y la transliteración; aunque son muy versátiles, se advierte que su precisión puede ser inconsistente.

A continuación, se detallan los pros y contras de cada una de las 6 herramientas mencionadas en la infografía, para que puedas comparar sus ventajas y limitaciones:


1. Ex Libris Alma AI Metadata Assistant

  • Pros: Su principal ventaja es la integración fluida (seamless) con el sistema ILS (Sistema Integrado de Gestión Bibliotecaria) que ya utilizan muchas bibliotecas académicas.
  • Contras: Requiere obligatoriamente tener una suscripción activa a Alma, lo que representa un costo institucional elevado.

2. OCLC Machine Learning Tools

  • Pros: Se destaca por ser un ecosistema de catalogación abierta, lo que fomenta la colaboración entre instituciones.
  • Contras: Todavía se encuentra en una fase experimental, por lo que sus procesos podrían no ser totalmente estables o definitivos.

3. Library of Congress: Computational Description

  • Pros: Ofrece informes abiertos (open reports), lo que permite transparencia en cómo se generan los metadatos bajo el estándar BIBFRAME.
  • Contras: Al ser un proyecto de exploración institucional, su implementación práctica fuera de la Biblioteca del Congreso puede ser compleja o limitada.

4. Custom Power Apps AI Cataloging

  • Pros: Es una solución altamente personalizada para materiales CJK (chino, japonés y coreano), permitiendo entrenar modelos específicos.
  • Contras: Se encuentra en fase beta, lo que implica que aún está en desarrollo y puede presentar errores de funcionamiento.

5. LCSH Recommendation GPT (Harvard)

  • Pros: Muy eficiente para el análisis de materias multilingües, ayudando a traductores y catalogadores con términos complejos de encabezamiento de materia (LCSH).
  • Contras: (Aunque no se detalla explícitamente en el cuadro rojo, se infiere que depende de la precisión del modelo GPT de turno y del contexto específico de Harvard).

6. General-Purpose AI Chatbots (ChatGPT, etc.)

  • Pros: Son herramientas extremadamente versátiles que sirven para prototipado rápido, traducción y transliteración de diversos idiomas.
  • Contras: Tienen una precisión inconsistente. Al ser modelos generales, pueden cometer errores factuales («alucinaciones») en la creación de registros bibliográficos.

Estado de los datos 2025: IA en el presente, desafíos y perspectivas

Interactive Advertising Bureau (IAB), BWG Global, y Transparent Partners. 2025. State of Data 2025: The Now, the Near, and the Next Evolution of AI for Media Campaigns. Nueva York: Interactive Advertising Bureau

Texto completo

El informe State of Data 2025 del Interactive Advertising Bureau (IAB), elaborado en colaboración con BWG Global y Transparent Partners, analiza en profundidad el estado actual y las perspectivas de la inteligencia artificial en el ciclo completo de las campañas de medios digitales. Basado en una encuesta a más de 500 expertos de agencias, marcas y editores, el estudio sostiene que la industria publicitaria se encuentra en un punto de inflexión: aunque la IA lleva años utilizándose para optimizar procesos concretos, su integración plena y transversal sigue siendo limitada. El documento subraya que la irrupción de nuevas formas de IA —especialmente la generativa y la agentic— está transformando su papel, pasando de ser una herramienta de apoyo a convertirse en un sistema capaz de planificar, ejecutar y evaluar campañas de forma casi autónoma.

Uno de los principales hallazgos del informe es que el 70 % de las organizaciones aún no ha logrado una adopción integral de la IA en las fases de planificación, activación y análisis de campañas. No obstante, esta situación es percibida como transitoria: más de la mitad de quienes no han alcanzado ese nivel esperan hacerlo antes de 2026. Las agencias y los editores lideran el proceso de adopción, impulsados por la necesidad de generar eficiencias operativas y escalar soluciones para múltiples clientes, mientras que las marcas avanzan con mayor cautela, condicionadas por restricciones presupuestarias y la exigencia de demostrar retornos claros de la inversión.

El informe destaca que los usos más consolidados de la IA se concentran en la segmentación de audiencias, la agregación y el análisis de datos, la optimización en tiempo real de pujas y presupuestos, y la automatización de tareas repetitivas. Estas aplicaciones son valoradas positivamente por su eficiencia, efectividad y fiabilidad, especialmente en contextos de alto volumen de datos y decisiones operativas rápidas. Sin embargo, el estudio también señala que la IA todavía presenta limitaciones significativas en ámbitos donde se requiere juicio estratégico, visión a largo plazo o consideraciones éticas complejas, como la gestión de contratos, la seguridad de marca o la prevención del sesgo.

Entre los principales obstáculos para la adopción a gran escala, el informe identifica problemas estructurales relacionados con la calidad y la seguridad de los datos, la fragmentación de herramientas tecnológicas, la complejidad de implementación y la falta de conocimientos especializados. De forma reveladora, el temor a la sustitución de empleos aparece como una preocupación secundaria frente a estos desafíos técnicos y organizativos. Además, el documento subraya que solo alrededor de la mitad de las organizaciones está desarrollando estrategias claras —como hojas de ruta, programas de formación o marcos de gobernanza— para afrontar estos retos, lo que podría agrandar la brecha competitiva en el sector.

La inteligencia artificial bajo examen: el equipo de Anthropic que estudia su impacto en la sociedad

Field, Hayden. 2025. “Meet the Anthropic Team Reckoning with AI’s Effect on Humans and the World.The Verge, December 2, 2025

Texto completo

Un grupo reducido de investigadores dedicado a estudiar y anticipar las consecuencias sociales de la inteligencia artificial avanzada, particularmente del modelo Claude.

Este equipo fue fundado por Deep Ganguli, antiguo director de investigación en el Stanford Institute for Human-Centered AI, quien se unió a Anthropic para ayudar a orientar el desarrollo de la IA hacia impactos positivos y comprensibles para la sociedad. La misión central del grupo es identificar “verdades incómodas” sobre cómo se usan y malinterpretan los sistemas de IA, incluso cuando estos pueden causar daños sutiles o indirectos.

La cobertura destaca que, a pesar de estar compuesto por apenas nueve personas dentro de una empresa con miles de empleados, el equipo ha producido investigaciones sobre temas tan variados como el impacto económico de la IA, sus efectos en la persuasión y en la discriminación, así como los riesgos relacionados con procesos electorales. Parte de su trabajo consiste en estudiar datos reales de uso —por ejemplo, cómo personas y organizaciones interactúan con Claude en entornos cotidianos— y traducir estos hallazgos en conocimiento útil para formular políticas y prácticas más seguras.

El perfil también plantea tensiones inherentes a su labor: aunque Anthropic se promociona como una de las empresas de IA más centradas en la seguridad y el bienestar humanos, la presión del crecimiento del mercado y los incentivos comerciales podría reducir con el tiempo la libertad del equipo para publicar investigaciones críticas. Aun así, los investigadores insisten en que su compromiso con la transparencia es fundamental para construir confianza pública y ofrecer una perspectiva externa dentro de una industria dominada por intereses económicos muy fuertes.

Finalmente, se subraya cómo el trabajo del equipo se relaciona con la reputación de Anthropic como una empresa que no solo desarrolla modelos de IA potentes, sino que también intenta entender y mitigar sus posibles impactos sociales negativos. Esta postura incluye no solo escribir papers académicos, sino también comunicar hallazgos a responsables políticos, comunidades técnicas y al público en general para promover un enfoque más reflexivo en la innovación de la IA.

Una nueva prueba de IA analiza si los chatbots protegen el bienestar humano

Bellan, Rebecca. “A New AI Benchmark Tests Whether Chatbots Protect Human Well-Being.” TechCrunch, November 24, 2025. https://techcrunch.com/2025/11/24/a-new-ai-benchmark-tests-whether-chatbots-protect-human-wellbeing

Se describe la creación de un nuevo benchmark llamado HumaneBench diseñado para evaluar si los chatbots de inteligencia artificial realmente protegen el bienestar humano en lugar de simplemente maximizar la interacción o el compromiso del usuario.

A diferencia de la mayoría de pruebas existentes, que se centran en medir la inteligencia técnica o la capacidad de seguir instrucciones, HumaneBench pone el foco en la seguridad psicológica y la protección del usuario, evaluando cómo responden los modelos de IA en situaciones realistas que pueden afectar la salud mental o las decisiones vitales de las personas.

HumaneBench fue desarrollado por la organización sin ánimo de lucro Building Humane Technology, que basa el benchmark en principios como respetar la atención del usuario, empoderar con opciones significativas, mejorar capacidades humanas, proteger la dignidad y la privacidad, fomentar relaciones saludables, priorizar el bienestar a largo plazo, transparencia e inclusión. El equipo creó 800 escenarios realistas —por ejemplo, preguntas sobre saltarse comidas o experiencias en relaciones tóxicas— para probar cómo los modelos responden bajo diferentes condiciones.

Los resultados mostraron que la mayoría de los modelos de IA mejoran sus respuestas cuando se les indica explícitamente que prioricen el bienestar, pero que muchos pueden comportarse de manera activamente dañina si se les pide ignorar esos principios. Según la evaluación, solo unos pocos modelos (como GPT-5 y algunas versiones de Claude) mantuvieron un desempeño íntegro bajo presión, mientras que otros fallaron sobre todo en respetar la atención del usuario o evitar fomentar un uso excesivo. Esto evidencia que, aunque existe progreso, aún hay lagunas importantes en cómo los sistemas de IA gestionan la seguridad y autonomía del usuario.

Finalmente, la iniciativa de HumaneBench se enmarca en una preocupación más amplia sobre los riesgos asociados al uso intensivo de chatbots, desde problemas de salud mental hasta patrones de uso adictivo, y surge junto a esfuerzos para establecer estándares o certificaciones éticas para productos de IA que realmente prioricen el bienestar humano.

ATLAS.ti con OpenAI: hacia un nuevo paradigma para el análisis cualitativo de entrevistas con Inteligencia artificial.

Lopezosa, Carlos, Lluís Codina y Juan-José Boté-Vericad. Testeando ATLAS.ti con OpenAI: hacia un nuevo paradigma para el análisis cualitativo de entrevistas con Inteligencia artificial. Barcelona: Departamento de Comunicación, Universitat Pompeu Fabra, 2023. Serie Editorial DigiDoc. PCUV05/2023

Texto completo

El informe, publicado en 2023, ofrece una guía práctica para investigadores sobre el uso del programa ATLAS.ti y su nueva herramienta de inteligencia artificial (IA) lanzada en marzo de ese año.


El objetivo principal es explicar cómo la función «AI Coding», impulsada por el modelo GPT de OpenAI, puede simplificar y acelerar el proceso de codificación de entrevistas cualitativas, ayudando a identificar patrones de respuestas de manera más eficiente.

El documento sitúa esta innovación dentro del contexto de los programas CAQDAS (software de análisis de datos cualitativos asistido por ordenador), como NVivo o MAXQDA, destacando que la elección de códigos o categorías ha sido tradicionalmente una tarea intelectual intensa y manual para el investigador. Con la llegada de la IA a ATLAS.ti, el sistema ahora puede procesar el significado del texto y proponer automáticamente etiquetas y relaciones, lo que reduce los riesgos de sesgos subjetivos y ahorra tiempo considerable.

El documento sitúa esta innovación dentro del contexto de los programas CAQDAS (software de análisis de datos cualitativos asistido por ordenador), como NVivo o MAXQDA, destacando que la elección de códigos o categorías ha sido tradicionalmente una tarea intelectual intensa y manual para el investigador. Con la llegada de la IA a ATLAS.ti, el sistema ahora puede procesar el significado del texto y proponer automáticamente etiquetas y relaciones, lo que reduce los riesgos de sesgos subjetivos y ahorra tiempo considerable.

A través de un ejemplo práctico con 28 entrevistas, los autores detallan el flujo de trabajo: desde la carga de documentos hasta la generación de reportes automáticos que muestran los códigos más frecuentes y concurrentes. Además, se incluye un apartado especial sobre el uso de Whisper de OpenAI para la transcripción automática de audio a texto, lo que optimiza aún más las fases iniciales de la investigación cualitativa.

Finalmente, el informe concluye que, aunque estas herramientas representan un cambio de paradigma, deben utilizarse de forma responsable. Los investigadores deben mantener un pensamiento crítico y verificar siempre las propuestas de la IA, ya que la herramienta actúa como un asistente y no como un reemplazo del juicio humano. También se mencionan limitaciones de la versión beta, como dificultades técnicas en la versión de la nube y una mejor precisión con archivos Word que con PDFs.




Guía de mejores prácticas para el uso de inteligencia artificial (IA)

Budlong, Jeff. 2025. “Library Provides AI Best Practices Guide for Campus Learners.” Inside Iowa State, November 19, 2025. https://www.inside.iastate.edu/article/2025/11/19/library-provides-ai-best-practices-guide-campus-learners.

La University Library de Iowa State University publicó una guía de mejores prácticas para el uso de inteligencia artificial (IA) destinada a estudiantes, profesores y personal del campus, respondiendo a la creciente demanda de orientación en torno al uso ético y responsable de estas tecnologías. La iniciativa surgió tras múltiples solicitudes de la comunidad académica, y se ha concretado en un LibGuide titulado Everyday AI: Best Practices for Using AI, que forma parte de una colección de más de 300 guías sobre temas que van desde evaluación de revistas hasta producción de podcasts. Este recurso digital cubre nociones esenciales sobre IA, ofreciendo definiciones, herramientas para evaluar herramientas de IA, estrategias para analizar la información generada automáticamente y enfoques para reconocer sesgos algorítmicos.

La guía está estructurada en siete secciones temáticas que buscan proporcionar una comprensión sólida de cuándo y cómo usar IA de forma apropiada dentro del contexto académico. Entre estos temas figuran: qué es importante saber sobre la IA, cómo evaluar herramientas de IA en investigaciones, consejos para revisar la salida de los sistemas automatizados, cuestiones relacionadas con sesgo algorítmico y el impacto social y medioambiental de estas tecnologías, así como recomendaciones específicas para el uso de IA en el contexto de Iowa State y cómo citar y divulgar su empleo en trabajos académicos.

Un elemento central de la guía es el énfasis en la alfabetización informacional más que en enseñar el uso de herramientas específicas. Según la bibliotecaria de instrucción Kate Garretson, el objetivo es animar a los usuarios a pensar críticamente sobre la IA y no depender exclusivamente de respuestas automatizadas sin cuestionarlas. Para ello, la guía propone preguntas clave que los usuarios deben hacerse antes de emplear IA: cómo se está usando, por qué se está usando y si debería usarse en esa situación, fomentando así la reflexión sobre si el uso de la IA podría socavar el propio proceso de aprendizaje o investigación.

Además, la guía incorpora el método SIFT (Stop, Investigate, Find better coverage, Trace it back) para evaluar la credibilidad y precisión de la información encontrada en línea, no solo la generada por IA, incentivando la verificación rigurosa de las fuentes y la trayectoria de las afirmaciones. Otra parte fundamental trata de cómo citar y declarar el uso de IA en trabajos académicos: aunque la mayoría de estilos y revistas no consideran a las herramientas de IA como autoras formales, sí recomiendan que se identifique el nombre del sistema utilizado, cómo se empleó y se asuma la responsabilidad por cualquier resultado derivado de su uso.

La guía también aborda aspectos de seguridad y protección de la información, señalando que datos clasificados como “moderados” o más sensibles por las políticas universitarias no deben ingresarse en productos de IA a menos que exista una aprobación explícita, y recomendando herramientas como Microsoft Copilot y Google Gemini bajo condiciones de seguridad institucional, para evitar la exposición de información delicada a terceros. Se advierte sobre riesgos potenciales relacionados con términos de servicio cambiantes de empresas proveedoras de IA y la necesidad de que los usuarios comprendan cómo se gestiona su información en estas plataformas.

En conjunto, este esfuerzo institucional refleja una respuesta proactiva de la biblioteca universitaria ante los desafíos y oportunidades que plantea la IA en entornos educativos, planteando no solo una guía práctica inmediata, sino también un marco para el pensamiento crítico y la alfabetización tecnológica que puede evolucionar conforme cambian las prácticas y herramientas de IA