
Enis, Matt. (9 de febrero de 2026). Setting AI Policy. Library Journal
Se destaca que las bibliotecas se encuentran en un punto de inflexión: la IA ya forma parte de la realidad de sus usuarios y de la gestión interna, pero sin políticas claras existe el riesgo de uso inconsistente, poco ético o inseguro. Por tanto, la elaboración de políticas no solo debe ser proactiva y participativa, sino también flexible y en constante revisión para adaptarse a las transformaciones tecnológicas futuras.
El artículo analiza cómo las bibliotecas públicas están abordando la necesidad urgente de definir políticas claras sobre el uso de herramientas de inteligencia artificial (IA), especialmente a medida que tecnologías como los grandes modelos de lenguaje (por ejemplo, ChatGPT, Gemini, Claude y Copilot) se vuelven omnipresentes en la vida diaria de usuarios y personal bibliotecario.
Por qué se necesitan políticas de IA
A medida que estas herramientas se integran tanto en las búsquedas de información cotidianas de los usuarios (por ejemplo, respuestas de IA en Google) como en las prácticas internas (correo electrónico, generación de contenido, exploración de datos), las bibliotecas enfrentan una diversidad de opiniones sobre su uso aceptable. Esto hace imprescindible establecer normas claras para evitar malentendidos y riesgos éticos o de privacidad.
Enfoque colaborativo y adaptable
El artículo destaca que no siempre es necesario escribir una política desde cero: muchas instituciones pueden revisar y adaptar políticas existentes sobre privacidad, seguridad de datos o uso aceptable de tecnologías para incluir IA como nuevo elemento. Asimismo, se recomienda que la creación de políticas no quede solo en manos de la administración, sino que involucre a personal de diferentes áreas, lo que ayuda a que las normas sean más realistas, útiles y mejor aceptadas.
Políticas como documentos vivos
Dado que la tecnología avanza rápidamente, los expertos mencionados en el artículo sugieren que las políticas sobre IA se diseñen como “documentos vivos”, con revisiones periódicas (por ejemplo, cada seis meses), para reflejar nuevos desarrollos, riesgos o herramientas emergentes.
Usos permitidos y prohibidos
Varias bibliotecas ofrecen ejemplos concretos sobre lo que podría considerarse aceptable o no:
- Aceptable para personal: uso de IA para tareas de bajo riesgo como generación de ideas, corrección de textos, redacción de borradores o resumen de documentos.
- Prohibido: creación de “deepfakes”; uso de IA para vigilancia, decisiones de contratación o evaluaciones de desempeño sin supervisión humana.
Además, se recomiendan políticas que protejan la privacidad de los usuarios, por ejemplo prohibiendo la entrada de datos personales identificables (como nombres o números de tarjeta) en herramientas externas de IA, y exigiendo consentimiento informado cuando se use IA con datos sensibles.
Integración de prácticas y educación
El artículo también sugiere que, más allá de definir normas, las bibliotecas deberían considerar:
- Verificar la seguridad y confiabilidad de las herramientas de IA antes de implementarlas con usuarios.
- Requerir supervisión humana o verificaciones de hechos en respuestas de IA (debido a posibles errores u “alucinaciones” de los modelos).
- Educar tanto al personal como al público sobre qué es la IA, cómo se utiliza y qué implicaciones tiene su uso responsable en servicios y procesos bibliotecarios.