Archivo de la etiqueta: Servicios de referencia

¿Pueden las plataformas de IA proporcionar servicios de referencia bibliotecaria de calidad?

Wang, H., Clark, J., & Peña, A. (2026). Responsible Intelligence in Practice: A Fairness Audit of Open Large Language Models for Library Reference Services. arXiv. https://arxiv.org/html/2602.18935v1

El artículo comienza planteando una pregunta central en el contexto actual de la biblioteconomía: ¿pueden los modelos de lenguaje grande (LLMs) proporcionar servicios de referencia bibliotecaria de forma justa y equitativa para todas las personas usuarias, independientemente de su identidad demográfica?

Los autores señalan que, aunque los LLMs ofrecen una oportunidad sin precedentes para ampliar el acceso a servicios de información —por ejemplo, respondiendo consultas a cualquier hora o para personas que no pueden acudir físicamente a la biblioteca— estos modelos también arrastran posibles sesgos derivados de los datos con los que fueron entrenados. Dado que las bibliotecas históricamente se han comprometido con la imparcialidad y el servicio igualitario, es imprescindible evaluar si los LLMs pueden respetar estos valores fundamentales de la profesión.

Para abordar esta cuestión, los investigadores proponen y aplican un protocolo sistemático de evaluación de equidad (“Fairness Evaluation Protocol” o FEP) que combina técnicas de clasificación diagnóstica con análisis lingüísticos interpretativos. En este diseño experimental, sintetizan interacciones tipo “correo electrónico de referencia” con nombres demográficos claramente asociados a sexos y grupos raciales/étnicos distintos. Estas interacciones son luego presentadas a tres modelos LLM abiertos (LLaMA-3.1 8B, Gemma-2 9B y Ministral 8B) configurados para actuar como bibliotecarios virtuales. Este enfoque busca detectar si, con el mismo contenido de consulta, la respuesta generada por el modelo varía sistemáticamente según las pistas demográficas incrustadas en los nombres de usuario.

Los resultados de esta evaluación se presentan en dos dimensiones principales: sexo y raza/etnicidad. Para cada dimensión demográfica, los autores emplean tres métodos distintos de clasificación automática (regresión logística, perceptrón multicapa y XGBoost) para determinar si las respuestas de los modelos contienen patrones lingüísticos que permitan predecir atributos demográficos mejor que al azar. Cuando estos métodos detectan diferencias significativas, se realiza un análisis más detallado para identificar qué palabras o expresiones específicas están asociadas a esas variaciones, lo que ofrece pistas sobre posibles sesgos o diferencias de tratamiento.

En general, los hallazgos sugieren que la mayoría de los modelos abiertos evaluados no muestran pruebas convincentes de tratamiento discriminatorio sistemático por raza o etnia. En la mayoría de los casos, las tasas de clasificación por grupo demográfico no exceden significativamente el nivel aleatorio, lo que indica que los modelos tienden a ofrecer respuestas similares sin importar el grupo al que se asume que pertenece el usuario. De manera similar, en cuanto a la dimensión de sexo, la mayoría de los modelos no evidencian sesgos fuertes; sin embargo, uno de los modelos sí mostró variaciones menores en las respuestas según el sexo, aunque estas diferencias parecieron estar influenciadas por fórmulas de saludo u otras construcciones lingüísticas menores más que por la calidad de la asistencia.

Más allá de los resultados cuantitativos, los autores discuten las implicaciones prácticas de estos hallazgos. Subrayan que la equidad en los servicios automatizados de referencia no es una propiedad estática: puede depender del contexto de uso, del dominio de las preguntas y de las configuraciones específicas de los modelos. Por tanto, incluso si un modelo no muestra sesgos en evaluaciones controladas como esta, sigue siendo esencial monitorizar continuamente su comportamiento conforme evoluciona y se implementa en entornos reales. El estudio también enfatiza que detectar “ausencia de sesgo” técnico no sustituye la necesidad de una gobernanza responsable del uso de IA en bibliotecas, incluyendo políticas explícitas, mecanismos de retroalimentación de usuarios y evaluaciones éticas más amplias.

Finalmente, los autores reflexionan sobre las limitaciones de su propio enfoque —por ejemplo, la simplificación necesaria de las interacciones sintéticas y la reducción de identidades demográficas a categorías binarias o predefinidas— y sugieren direcciones futuras de investigación. Entre ellas se incluyen evaluaciones más amplias en escenarios reales de referencia, la inclusión de identidades de género más allá del binario, y la exploración de matices culturales y lingüísticos que puedan influir en el comportamiento de los modelos. En suma, el artículo aporta una base metodológica rigurosa y ejemplos de análisis crítico que pueden guiar la integración responsable de modelos generativos de lenguaje en servicios bibliotecarios sin comprometer los principios de imparcialidad y justicia que sustentan la profesión.

Estudio exploratorio de los modelos modelos de servicio de referencia en las grandes bibliotecas universitarias

Weare, William H., Jaena Alabi y John Fullerton. «What’s Working and What Isn’t: An Exploratory Study of Current Reference Models in Large Academic Libraries.» portal: Libraries and the Academy 25, n.º 4 (2025). https://preprint.press.jhu.edu/portal/sites/default/files/09_25.4weare.pdf

Este estudio cualitativo explora la evolución y el estado actual de los modelos de servicio de referencia en las grandes bibliotecas académicas, centrándose en identificar qué estrategias están resultando exitosas y cuáles enfrentan retos significativos. La investigación se basa en entrevistas semiestructuradas realizadas a 15 coordinadores de servicios de referencia en universidades de gran tamaño, ofreciendo una visión profunda de la gestión de estos servicios en entornos de alta complejidad.

Los autores identificaron siete enfoques principales que las bibliotecas emplean actualmente: el modelo tradicional (mostrador atendido por bibliotecarios), el de servicio único o combinado (circulación y referencia en un mismo punto), el de revisión por pares (peer-to-peer), el servicio por niveles (tiered), el modelo de guardia (on-call), el de referencia por cita (referral) y el chat. El estudio subraya que estos modelos no son excluyentes; la mayoría de las instituciones utilizan una combinación de varios de ellos para adaptarse a diferentes horarios y necesidades de los usuarios. Por ejemplo, es común que una biblioteca ofrezca servicio presencial tradicional durante el día y derive las consultas al mostrador de circulación o al chat durante las noches y fines de semana.

Los investigadores identificaron tres temas interrelacionados que señalan la dirección general de los servicios y personal de referencia: ha habido y continúa habiendo un movimiento hacia combinar múltiples servicios públicos en un solo mostrador de servicio, en conjunto con un esfuerzo para remover bibliotecarios del servicio presencial y usar más empleados estudiantes en el mostrador.

Basándose en el análisis de los hallazgos, los investigadores reconocieron varias conclusiones generales al considerar el mejor modelo para el servicio de referencia: no hay una solución mágica, múltiples modelos están en uso simultáneamente, hay una diferencia considerable entre teoría y aplicación, las soluciones son locales, el cambio es incremental, y la mejora continua es la norma.

El valor de la asistencia presencial A pesar de la narrativa común sobre el declive de los servicios tradicionales, el estudio revela que persiste un valor considerable en la asistencia de investigación cara a cara y en el «punto de necesidad». Los profesionales entrevistados sostienen que el contacto directo con un bibliotecario o personal especializado sigue siendo fundamental para resolver consultas de investigación profundas, permitiendo una interacción que a menudo no se replica con la misma eficacia en los canales digitales. Sin embargo, se reconoce que el volumen de consultas en los mostradores físicos ha disminuido, lo que obliga a repensar su función.

Hacia modelos híbridos y diversificados Uno de los puntos clave del informe es la constatación de que la mayoría de las bibliotecas han abandonado el modelo único de «mostrador de referencia tradicional». En su lugar, están implementando una combinación de enfoques: servicios de chat sincronizados, consultas personalizadas con cita previa, servicios de referencia por niveles (donde el personal de apoyo filtra las dudas básicas) y puntos de servicio combinados con otras áreas, como la de circulación o soporte técnico. Esta transición busca optimizar los recursos humanos y alinearse mejor con los nuevos hábitos de búsqueda de información de los estudiantes y docentes.

Flexibilidad y contexto institucional Los autores subrayan que no existe una solución única o «universal» para configurar el servicio de referencia ideal. La efectividad de un modelo depende intrínsecamente del contexto específico de la institución, su estructura física y la cultura de su comunidad académica. El estudio indica que las transformaciones en estos servicios no suelen ser cambios radicales o repentinos, sino procesos de evolución incremental. Estas decisiones suelen tomarse en respuesta a presiones tanto internas (recortes de presupuesto o reasignación de personal) como externas (avances tecnológicos y cambios en las expectativas de los usuarios).

Los hallazgos sugieren que todavía se percibe un valor en la asistencia a la investigación presencial y en el momento de necesidad, proporcionada por un bibliotecario o personal profesional en un lugar designado, aunque la mayoría de las bibliotecas participantes están utilizando una combinación de enfoques en lugar de depender únicamente de este modelo tradicional. Los datos indican que no existe una solución única para todos; más bien, las soluciones dependen del contexto y se desarrollan a través de cambios incrementales, a menudo en respuesta a presiones internas y/o externas.

Chatbots para los servicios de referencia en bibliotecas universitarias: aplicaciones, tendencias y desafíos éticos

Liu, Guoying, y Shu Liu. 2026. “Chatbots for Reference Services in Academic Libraries: Applications and Trends.” The Journal of Academic Librarianship 52: 103197. https://doi.org/10.1016/j.acalib.2025.103197

El artículo analiza la adopción y el funcionamiento de los chatbots en los servicios de referencia de bibliotecas universitarias a nivel mundial, en un contexto de transformación digital y creciente incorporación de la inteligencia artificial en el ámbito bibliotecario. A través de un estudio comparativo, las autoras examinan tanto sistemas basados en reglas como chatbots impulsados por IA, con el objetivo de identificar tendencias, capacidades tecnológicas y prácticas éticas en su implementación.

La investigación se apoya en un diseño metodológico en dos fases. En primer lugar, se realiza un escaneo ambiental de 205 instituciones académicas de referencia —incluyendo universidades del ranking QS, instituciones chinas de “Doble Primera Clase”, bibliotecas canadienses de investigación y casos destacados en Estados Unidos—, de las cuales solo 31 contaban con chatbots funcionales y accesibles al público. En una segunda fase, estos chatbots fueron evaluados mediante consultas estandarizadas que permitieron analizar su rendimiento en servicios básicos, recuperación de información, recomendaciones complejas y experiencia de usuario.

Los resultados muestran una adopción global limitada de chatbots en bibliotecas universitarias(15 %), con notables diferencias regionales. Mientras que China continental presenta tasas de implantación significativamente más altas, la adopción en América del Norte sigue siendo baja, pese a la abundante literatura sobre casos piloto. La mayoría de los sistemas analizados son chatbots híbridos o basados en IA generativa, capaces de manejar consultas rutinarias con eficacia, aunque presentan dificultades en tareas más complejas como la recuperación semántica avanzada o la generación de recomendaciones contextualizadas.

El estudio también pone de relieve importantes carencias en materia de transparencia y ética. Solo una minoría de los chatbots informa explícitamente sobre políticas de privacidad o el uso de datos, lo que plantea riesgos para la confianza del usuario y la responsabilidad institucional. Las autoras concluyen que, aunque los chatbots ofrecen un notable potencial para ampliar y mejorar los servicios de referencia, su desarrollo futuro debe apoyarse en estándares compartidos, una mejor integración con los sistemas bibliotecarios y un compromiso más firme con los principios de transparencia, inclusión y gobernanza ética.

Los bibliotecarios están desbordados por acusaciones de ocultar libros de referencias inexistentes que realmente fueron inventadas por alucinaciones de la IA

Novak, Matt. 2025. “Librarians Are Tired of Being Accused of Hiding Secret Books That Were Made Up by AI.Gizmodo, 11 de diciembre de 2025. https://gizmodo.com/librarians-arent-hiding-secret-books-from-you-that-only-ai-knows-about-2000698176

Todo el mundo sabe que los chatbots con IA como ChatGPT, Grok y Gemini suelen inventarse fuentes. Pero para las personas encargadas de ayudar al público a encontrar libros y artículos de revistas, las referencias falsas de la IA están pasando factura. Según una nueva publicación de Scientific American, los bibliotecarios parecen absolutamente agotados por las solicitudes de títulos que no existen.

Una problemática creciente en bibliotecas y centros de información provocada por la expansión del uso de chatbots de inteligencia artificial como ChatGPT, Grok o Gemini: la generación de títulos de libros, artículos y citas que en realidad no existen. Estas herramientas, debido a sus frecuentes “alucinaciones” (es decir, respuestas plausibles pero inventadas), han llevado a que muchos usuarios crean que dichos títulos son reales y se dirijan a los bibliotecarios con solicitudes para encontrarlos. Esta situación está causando frustración entre los profesionales de la información, quienes deben invertir tiempo y esfuerzo en demostrar que tales obras no existen en ningún catálogo o archivo conocido.

Según testimonios recopilados, como el de Sarah Falls del Library of Virginia, alrededor del 15% de las consultas de referencia recibidas por correo electrónico provienen directamente de sugerencias generadas por IA, muchas de las cuales incluyen títulos inventados o citas erróneas. Lo que agrava la situación no es solo la frecuencia de estas consultas, sino también el hecho de que parte del público confía más en la respuesta de la IA que en la experiencia de un bibliotecario profesional, lo cual ha generado situaciones tensas en las que usuarios insisten en la existencia de un libro pese a la demostración de que este nunca fue publicado.

Asimismo, el artículo señala que esta tendencia plantea un desafío más amplio para la comunidad académica y científica, ya que diluir la calidad de las referencias podría erosionar la confianza en el sistema de investigación y en la fiabilidad de las fuentes. Mientras que los modelos de IA pueden ser útiles para sintetizar o resumir información, su falta de capacidad para verificar hechos contra bases de datos reales implica que las instituciones y los investigadores deben adoptar prácticas de verificación más estrictas y educar a los usuarios sobre las limitaciones de estas tecnologías. Esto incluye pedir a quienes hagan consultas que indiquen si la referencia proviene de una IA y animarles a validar independientemente cualquier cita recibida.

Buenas prácticas para la implementación de la inteligencia artificial en las bibliotecas

Ehrenpreis, Michelle, y John DeLooper. “Chatbot Assessment: Best Practices for Artificial Intelligence in the Library.” portal: Libraries and the Academy 25, n.º 4 (2025): 669-701. https://preprint.press.jhu.edu/portal/sites/default/files/06_25.4ehrenpreis.pdf

El estudio representa una evaluación pionera de un chatbot de biblioteca que incorpora la API de ChatGPT, proporcionando evidencia práctica de sus capacidades y limitaciones, así como recomendaciones operativas para maximizar su utilidad en entornos académicos.

Evaluación detallada de un chatbot utilizado en una biblioteca universitaria, específicamente Ivy.ai (“IvyQuantum”) en la Lehman College Library (parte del sistema CUNY). Este chatbot fue inicialmente implementado en otoño de 2019, usando un modelo basado en reglas (rules-based), y más adelante, desde abril de 2023, se integró con la API de ChatGPT para convertirse en un sistema híbrido de generación más inteligente (modelo generativo + base de conocimiento local).

Para evaluar el desempeño tras esta actualización, los autores analizaron una muestra aleatoria de 101 interacciones de chatbot durante el semestre de primavera de 2023 (de un total de 816) más las 39 “tickets” generados cuando el chatbot no pudo contestar (es decir, casos en los que el usuario solicitaba asistencia humana). Cada interacción fue valorada mediante un rúbrica desarrollada por los autores que incluyó criterios como confianza del chatbot (respuestas “low confidence”, “no confidence”), si el usuario rechazó generar un ticket, la evaluación del usuario (pulgar arriba/abajo) y variables de comportamiento del usuario (por ejemplo, desconexión prematura, satisfacción explícita, solicitud de agente humano). Además, las respuestas fueron codificadas según temas (por ejemplo, libros, artículos, solicitudes de agente, investigación) para identificar los tipos de preguntas con menor desempeño.

Los resultados muestran que el chatbot tiene un rendimiento moderado: en la muestra aleatoria, aproximadamente el 39 % de las respuestas recibieron una calificación 1 (correctas pero incompletas) según la rúbrica, mientras que el 42 % fueron calificadas como respuestas completas pero incorrectas (puntuación 2). En comparación con la tasa de éxito atribuida a bibliotecarios humanos en servicios de referencia (alrededor del 55 %), su desempeño es destacable para una herramienta automatizada, aunque con limitaciones claras. Las preguntas más problemáticas para el chatbot fueron aquellas que solicitaban hablar con un agente humano, consultas sobre libros (incluyendo disponibilidad, edición o reservas) y peticiones para investigación o artículos académicos. Tras la integración del ChatGPT, se observó una reducción en el número total de consultas sin ticket (−45 %) pero un aumento significativo en el número de tickets generados (+190 %) en comparación con el periodo anterior.

A partir de sus hallazgos, los autores proponen una serie de mejores prácticas para bibliotecas que consideren adoptar chatbots: revisión periódica de las transcripciones y las preguntas de los usuarios para ajustar respuestas personalizadas, mantener actualizada y estructurada la base de conocimiento de la biblioteca (por ejemplo, mediante archivos CSV con datos limpios), diseñar la interfaz para que los usuarios comprendan el propósito del chatbot (por ejemplo, distinguiendo claramente cuándo derivar al chat humano), y asegurar que haya personal bibliotecario dedicado al mantenimiento y mejora del sistema.

También destacan que la participación institucional y el compromiso de los bibliotecarios son factores clave para el éxito, y que la adopción de sistemas híbridos (reglas + generación) puede ofrecer un equilibrio entre control y flexibilidad.

Lo que funciona y lo que no: un estudio exploratorio de los modelos de referencia bibliotecaria actuales en grandes bibliotecas universitarias

Weare, William H., Jaena Alabi, y John Fullerton. “What’s Working and What Isn’t: An Exploratory Study of Current Reference Models in Large Academic Libraries.” portal: Libraries and the Academy 25, n.º 4 (2025): 753-780. https://preprint.press.jhu.edu/portal/sites/default/files/09_25.4weare.pdf

El estudio analiza los modelos actuales de servicio de referencia en grandes bibliotecas universitarias, con el objetivo de identificar qué prácticas funcionan bien, cuáles presentan dificultades y cómo los cambios organizacionales afectan estas funciones.

Para ello, los autores entrevistaron a 15 responsables de servicios de referencia en universidades “land-grant” con alta matrícula (más de 20.000 estudiantes), situadas en Estados Unidos, utilizando un enfoque cualitativo con entrevistas semiestructuradas entre 2018 y 2019. Los entrevistados representaban instituciones sin programa acreditado de ciencias de la información, lo cual evitaba contar con un grupo de profesionales locales del gremio que pudiera distorsionar las dinámicas normales del servicio. Las entrevistas, con duración entre 43 y 73 minutos, fueron transcritas, codificadas y analizadas para identificar modelos de referencia, decisiones de personal y los factores que guiaban los cambios entre las diversas aproximaciones.

Los hallazgos revelan que no existe un modelo universal de referencia aplicado por todas las bibliotecas: muchas adoptan combinaciones adaptadas a su contexto institucional. Los autores identificaron siete enfoques dominantes: tradicional (con bibliotecarios atendiendo físicamente en escritorio), escritorio único combinado (referencia + circulación), peer-to-peer (estudiantes como asistentes de referencia), servicios escalonados (tiered), servicio “on call”, modelo de referencia por derivación (referral) y chat (o referencia virtual). En la práctica, los modelos no son mutuamente excluyentes; muchas bibliotecas combinan distintos enfoques según turno, necesidades del usuario o capacidades del personal. Un patrón frecuente es consolidar múltiples servicios en un solo mostrador para simplificar la experiencia del usuario y reducir la fragmentación de puntos de servicio.

Tres temas centrales atraviesan las decisiones institucionales: (1) la consolidación hacia un escritorio único de servicios, motivada por la necesidad de simplificar la experiencia del usuario y disminuir la confusión entre múltiples mostradores; (2) la retirada progresiva de bibliotecarios del servicio presencial directo, con la intención de liberar su tiempo para tareas especializadas, colaboración, docencia o proyectos externos; y (3) el aumento del uso de estudiantes en los puestos frontales de atención, como primer nivel de contacto, delegando a personal profesional preguntas más complejas. Entre las razones que impulsan estos movimientos destacan la reducción de la demanda presencial (caída de estadísticas de referencia), presiones institucionales para que los bibliotecarios asuman funciones de mayor impacto, cambios administrativos o de clasificación investigadora de la universidad, y un cuestionamiento sobre la eficiencia de tener personal altamente cualificado atendiendo consultas triviales.

Asimismo, el estudio señala que en muchas bibliotecas el volumen de consultas profundas es muy bajo; usando la escala READ (Reference Effort Assessment Data), varios entrevistados reportaron que un gran porcentaje de las preguntas corresponden a niveles bajos de complejidad, lo que sugiere que podrían atenderlas asistentes bien entrenados. Al mismo tiempo, se reconoce que la naturaleza de las preguntas ha evolucionado: aunque disminuye el volumen de preguntas básicas, los desafíos que llegan suelen ser más complejos y requieren intervención experta. En algunos casos, las instituciones mantienen el modelo tradicional por razones de identidad profesional, inercia institucional o porque sus bibliotecarios valoran el contacto directo con los usuarios.

En resumen, este estudio aporta evidencia cualitativa de que el futuro de los servicios de referencia en bibliotecas universitarias grandes se orienta hacia modelos híbridos, adaptativos y escalonados, más que hacia una sustitución total del servicio presencial o su configuración en un solo modelo rígido. La elección óptima depende del contexto institucional, cultura organizativa, recursos humanos y expectativas de los usuarios.

¿Están capacitadas las herramientas de inteligencia artificial generativa para responder a preguntas de referencia en bibliotecas?


Wheatley, Amanda, y Sandy Hervieux. «Comparing generative artificial intelligence tools to voice assistants using reference interactions». The Journal of Academic Librarianship 50, n.o 5 (1 de septiembre de 2024): 102942. https://doi.org/10.1016/j.acalib.2024.102942.

Para responder a las preguntas de investigación, los autores crearon 25 preguntas de referencia basadas en consultas recibidas a través del servicio de referencia virtual de la biblioteca de su universidad. Luego, plantearon estas preguntas a los asistentes de voz y a dos versiones de ChatGPT, registrando las respuestas en una hoja de cálculo.

Los resultados muestran que las herramientas comprenden bien las preguntas de referencia y ofrecen respuestas relevantes, pero la calidad de las referencias proporcionadas y la precisión de las respuestas pueden ser insuficientes.

Uno de los problemas principales es que algunas herramientas no proporcionan referencias o estas son de baja calidad. Los asistentes de voz, como Google Assistant, Siri y Alexa, destacaron en este aspecto, con Google Assistant ofreciendo las mejores respuestas en términos de relevancia, precisión y calidad de las referencias. Esto se debe a que los asistentes de voz buscan en internet en lugar de depender de modelos de lenguaje masivo, lo que reduce el riesgo de citar fuentes falsas. ChatGPT, por su parte, tiene problemas conocidos de «alucinaciones» y citas falsas o inexistentes, lo cual es preocupante para los profesionales de la información.

Aunque estas herramientas pueden ofrecer respuestas relevantes y precisas, ninguna iguala la calidad que un bibliotecario académico podría brindar. Google Assistant fue el que más se acercó, con un 40 % de sus respuestas siendo recomendadas por un bibliotecario, mientras que ChatGPT falló en más del 50 % de los casos.

En términos generales, Google Assistant fue la herramienta que mejor respondió a las preguntas de referencia, seguido por Alexa y Siri. Aunque las herramientas de IA generativa como ChatGPT comprenden bien las preguntas, sus respuestas carecen de la precisión y la autoridad necesarias para competir con los asistentes de voz en este contexto.

El estudio concluye que, si bien los asistentes de voz y herramientas como ChatGPT pueden ser útiles para iniciar una investigación, deben utilizarse en combinación con los servicios tradicionales de referencia. El uso de IA generativa puede ser más adecuado para tareas como la lluvia de ideas o la explicación de conceptos, en lugar de responder preguntas de referencia de manera fiable. El estudio también sugiere que futuras investigaciones podrían explorar cómo las herramientas de IA pueden colaborar con los bibliotecarios para mejorar los servicios de referencia.

Capacidad de los asistentes de voz y las herramientas de inteligencia artificial generativa para responder a preguntas de referencia que tradicionalmente reciben los bibliotecarios universitarios

Wheatley, Amanda, y Sandy Hervieux. «Comparing generative artificial intelligence tools to voice assistants using reference interactions». The Journal of Academic Librarianship 50, n.o 5 (1 de septiembre de 2024): 102942. https://doi.org/10.1016/j.acalib.2024.102942.

El estudio analiza la capacidad de los asistentes de voz y las herramientas de inteligencia artificial generativa para responder a preguntas de referencia que tradicionalmente reciben los bibliotecarios académicos. Los autores crearon una muestra de 25 preguntas basadas en consultas recibidas en el servicio de referencia virtual de su institución. Luego, desarrollaron una rúbrica para evaluar la calidad de las respuestas proporcionadas por las herramientas impulsadas por IA. Los autores concluyeron que las herramientas entienden bien las preguntas de referencia y ofrecen respuestas relevantes, pero la calidad de las referencias proporcionadas y la precisión de las respuestas pueden ser insuficientes. Sugieren que se necesita más investigación para comprender mejor el lugar de las herramientas impulsadas por IA en los servicios de referencia.

Servicios de referencia con chatbots en las bibliotecas universitarias canadienses

Guy, J., Pival, P. R., Lewis, C. J., & Groome, K. (2023). Reference Chatbots in Canadian Academic LibrariesInformation Technology and Libraries42(4). Retrieved from https://ital.corejournals.org/index.php/ital/article/view/16511

Los chatbots son «agentes informáticos que pueden interactuar con el usuario» de una forma parecida a una conversación entre humanos. Aunque el uso de chatbots para el servicio de referencia en las bibliotecas universitarias es un tema de interés tanto para los profesionales de las bibliotecas como para los investigadores, se sabe poco sobre cómo se utilizan en el servicio de referencia de las bibliotecas, especialmente en las bibliotecas universitarias de Canadá.

Este artículo tiene como objetivo llenar este vacío mediante la realización de una encuesta basada en la web de 106 sitios web de bibliotecas académicas en Canadá y el análisis de la prevalencia y las características de los servicios de chatbot y chat en vivo ofrecidos por estas bibliotecas. Los autores descubrieron que sólo dos bibliotecas utilizaban chatbots para el servicio de referencia. En cuanto a los servicios de chat en vivo, los autores descubrieron que 78 bibliotecas ofrecían este servicio. El artículo analiza las posibles razones de la escasa adopción de chatbots en las bibliotecas universitarias, como la accesibilidad, la privacidad, el coste y los problemas de identidad profesional. El artículo también ofrece un estudio de caso de la institución de los autores, la Universidad de Calgary, que integró un servicio de chatbot en 2021. El artículo concluye con sugerencias para futuras investigaciones sobre el uso de chatbot en bibliotecas.

Postal bibliotecaria de 1910 sobre el servicio de referencia

Postal bibliotecaria de 1910 sobre el servicio de referencia publicada por Bamforth & Co. Ltd de Holmfirth, Inglaterra, que comenzó a publicar postales en 1910.

La postal muestra a una señora bastante austera que pregunta al empleado de la biblioteca: «¿Tiene usted el libro titulado ‘Batallas en las que he estado’?». Él responde: «No, señora; pero puedo darle ‘Memorias de un hombre casado'». Aparte del humor matrimonial, la tarjeta tiene también algunos aspectos históricos. El cartel que reza «Únase a nuestra biblioteca circulante» indica que se trata de una biblioteca por suscripción o «con ánimo de lucro». Además, los libros están detrás del mostrador, lo que indica que las estanterías están cerradas, una práctica muy común en todas las bibliotecas del siglo XIX y principios del XX. La postal fue publicada por Bamforth & Co. Ltd de Holmfirth, Inglaterra, que comenzó a publicar postales en 1910.