
Tanzi, Nick. «The Risks for Libraries in AI Avoidance». The Digital Librarian, 17 de julio de 2024. https://the-digital-librarian.com/2024/07/17/the-risks-for-libraries-in-ai-avoidance/.
Mientras seguimos identificando los inconvenientes de usar la inteligencia artificial en el entorno de la biblioteca, también es importante abordar los riesgos de evitar la IA.
Para muchos trabajadores de bibliotecas (y el público en general), la IA es una tecnología desconocida y poco entendida. Esto no es sorprendente cuando consideramos la velocidad a la que avanza la IA; estamos en un entorno de cambio constante, rápida innovación y poca regulación.
Existen suficientes aspectos problemáticos de la IA (sesgo algorítmico, alucinaciones, preocupaciones de privacidad, etc.) que parecería prudente simplemente evitar la tecnología, al menos hasta que las cosas se estabilicen. ¡Esto sería un error! La participación temprana es crítica para entender la inteligencia artificial, y un conocimiento práctico de la IA en la biblioteca es necesario porque:
No se puede regular eficazmente una tecnología que no se entiende
Una de nuestras responsabilidades inmediatas en la era de la IA es desarrollar políticas bibliotecarias relevantes y efectivas, lo cual requiere tanto nuevas políticas como la revisión de las existentes. Sin un conocimiento práctico de la IA, fracasaremos en este esfuerzo. La experiencia práctica nos permitirá comprender mejor el potencial de la IA (tanto para bien como para mal), anticipar su impacto en nuestras organizaciones y diseñar medidas de protección adecuadas.
La búsqueda está cambiando
He escuchado que la bibliotecología se describe como «el motor de búsqueda original». Aunque nuestra profesión precede a los motores de búsqueda (hubo un tiempo antes de Google), también es cierto que hemos adoptado los motores de búsqueda y se han convertido en parte de nuestras herramientas. Debemos reconocer que Google y la búsqueda en general están cambiando. De Google y Bing surgen Gemini y Copilot. Estamos presenciando el auge de la búsqueda conversacional impulsada por IA. A medida que evoluciona Internet, también deben evolucionar nuestras estrategias de búsqueda.
Es necesario identificar y gestionar las expectativas de los usuarios
Las expectativas de nuestros usuarios a menudo están informadas por el sector privado, que asocian con conveniencia. Pueden comparar nuestro proceso de préstamo de libros electrónicos con Amazon. Durante la pandemia, tuve usuarios que buscaban recoger medios físicos utilizando el mismo proceso de recogida sin contacto de Target.
Participar en la IA como consumidores en el mercado nos ayudará a ver a través de los ojos de nuestros usuarios. ¿Cuáles son las conveniencias que esperarán de nosotros en el futuro cercano? ¿Cómo «comprarán» en nuestra ubicación y qué calidad de soporte al cliente impulsado por IA esperarán?
Esto no significa que debamos adoptar la IA de la misma manera que el sector privado. Más bien, debemos identificar las expectativas de los usuarios, determinar si y cómo podemos satisfacerlas mientras adherimos a la ética profesional, y si no podemos, planificar para comunicar efectivamente esas razones a nuestros interesados.
Necesitaremos evaluar soluciones de proveedores
Las soluciones de IA proporcionadas por proveedores llegarán a su biblioteca. Es posible que haya visto la IA de Scopus de Elsevier. Para evaluar eficazmente las plataformas de proveedores actuales y futuras, necesitaremos tener un firme conocimiento de la funcionalidad de la IA generativa, poseer habilidades efectivas para generar prompts y comprender las implicaciones éticas. Estas habilidades provienen de la experiencia práctica con herramientas populares y disponibles. El conocimiento adquirido a través de la exposición a la IA nos permitirá gestionar mejor su integración en la biblioteca o determinar cuándo puede ser inapropiada. ¿Es la herramienta necesaria? ¿Viola nuestra ética profesional? ¿Es una adición necesaria o las soluciones gratuitas/de código abierto satisfacen nuestras necesidades?
El factor miedo
Las personas temen lo que no entienden. Esto es ciertamente cierto con la IA. Evitar la tecnología o, más ampliamente, evitar cualquier diálogo al respecto es una receta para el desastre. ¿Está la administración construyendo una comprensión de cómo funciona la tecnología? ¿Están hablando con el personal sobre cómo puede usarse en su propia biblioteca e identificando posibles puntos de fricción? Desmitificar la tecnología para el personal puede contribuir en gran medida a disipar los temores, o al menos a distilarlos en cuestiones reales y no imaginadas.