Archivo de la categoría: Tecnologías de la información

Modelos de IA confiables mediante tecnologías que mejoran la privacidad (PETs)

OECD. 2025. Sharing Trustworthy AI Models with Privacy‑Enhancing Technologies. OECD Artificial Intelligence Papers, no. 38. París: OECD Publishing. https://doi.org/10.1787/a266160b-en.

El documento aborda el papel de las tecnologías que mejoran la privacidad (Privacy-Enhancing Technologies, PETs) en el desarrollo de modelos de IA confiables. Clasifica los usos de estas tecnologías en dos grandes grupos: por un lado, aquellas que permiten mejorar el rendimiento de los modelos sin exponer los datos, como el federated learning, los entornos de ejecución confiables (TEEs) o la computación multipartita segura (SMPC); por otro, tecnologías que posibilitan la creación y compartición confidencial de modelos, como la privacidad diferencial y el cifrado homomórfico. Estas herramientas son fundamentales para proteger la privacidad y la propiedad intelectual, y para fomentar la colaboración en entornos sensibles. El informe señala que, si bien estas tecnologías tienen un gran potencial, no son soluciones mágicas: su utilidad requiere combinaciones cuidadosas y equilibradas, y todavía presentan desafíos en términos de eficiencia y facilidad de uso. Por ello, se recomienda que los gobiernos impulsen su adopción mediante marcos regulatorios flexibles, apoyo a la I+D y espacios de prueba como los regulatory sandboxes.

El uso de tecnologías como trusted execution environments (TEEs), federated learning, y secure multi-party computation para procesar y ensayar datos sin comprometer su confidencialidad. El uso de datos sintéticos y differential privacy ayuda a reducir la dependencia de datos reales. Para colaborar o compartir modelos sin revelar información protegida, se combinan herramientas como MPC, federated learning, HE, TEE y differential privacy. Estas herramientas permiten crear y utilizar modelos manteniendo su confidencialidad y la de sus datos subyacentes.

Aunque prometedoras, las PETs enfrentan retos técnicos —como complejidad, eficiencia, usabilidad y equilibrio entre utilidad y privacidad— y barreras regulatorias o institucionales que dificultan su adopción amplia.

El informe sugiere que los gobiernos fomenten el uso de PETs mediante:

  • Orientaciones y guías reguladoras
  • Regulatory sandboxes para innovación controlada
  • Apoyo a I +D +i
  • Desafíos o concursos para estimular el desarrollo
  • Compras públicas estratégicas
  • Desarrollo de habilidades y competencias institucionales

Efectos de la IA generativa en la productividad, la innovación y el emprendimiento

Calvino, Flavio; Jelmer Reijerink; y Lea Samek. 2025. The effects of generative AI on productivity, innovation and entrepreneurship. OECD Artificial Intelligence Papers, No. 39. OECD Publishing. https://doi.org/10.1787/b21df222‑en

Este primer informe examina cómo la inteligencia artificial generativa afecta la productividad y transforma el panorama de la innovación y el emprendimiento. Destaca el potencial de la IA para automatizar tareas, amplificar capacidades humanas y modificar las operaciones empresariales. También señala su papel en la estimulación de la creatividad, la aceleración del I+D y la reducción de barreras de entrada para nuevos actores económicos. Sin embargo, el estudio advierte que la eficacia de la IA depende en gran medida del nivel de experiencia del usuario y del tipo de tarea realizada. La colaboración entre humanos y sistemas de IA emerge como una clave para maximizar beneficios. Además, se identifican vacíos importantes en la investigación actual, especialmente en lo referente a los efectos a largo plazo de la IA en los negocios y a la comprensión limitada de sus restricciones por parte de los trabajadores. El informe llama a profundizar en estos aspectos para orientar un uso ético y efectivo de estas tecnologías.

1. Automatización, aumento de habilidades y transformación empresarial

  • La IA generativa puede automatizar tareas rutinarias—como redacción, traducción y resúmenes—, con mejoras en eficiencia de hasta un 40 % y calidad entre un 18–40 % .
  • En la traducción y síntesis de textos complejos —por ejemplo, fallos judiciales—, los modelos actuales igualan o superan sistemas especializados .
  • En programación, herramientas como GitHub Copilot permiten desarrollar código un 55 % más rápido .

2. Colaboración humano‑IA como factor clave

  • La sinergia entre humanos y IA es fundamental: el usuario y el contexto determinan el éxito, y no es un sustituto sino un complemento ft.com.
  • Esta colaboración es particularmente efectiva para tareas con alta carga cognitiva, liberando tiempo para tareas estratégicas .

3. Estímulo a la creatividad e innovación

  • En generación de ideas, la IA puede potenciar creatividad, especialmente para personas sin experiencia, aunque puede generar resultados menos diversos o más homogéneos arxiv.org+1arxiv.org+1.
  • En entornos de I+D, la IA acelera la definición de problemas, diseño experimental y fases iniciales del desarrollo de productos y servicios oecd.org.
  • Para grupos de innovación, estudios revelan que herramientas con IA mejoran la originalidad, claridad y calidad de las ideas oecd.org+1arxiv.org+1.

4. Rendimiento económico y mercados de capital

  • El lanzamiento de ChatGPT se asoció con un rendimiento diario superior en acciones de empresas con alta exposición a IA generativa (≈ 0.45 %) oecd.org.
  • Cuando Italia bloqueó ChatGPT temporalmente, las empresas expuestas sufrieron una caída del 9 % en cotización .

5. Vacíos en investigación y recomendaciones

  • Existen lagunas: pocos estudios sobre efectos a largo plazo, comprensión y confianza de los trabajadores, y la evolución del mercado laboral .
  • Se destaca la necesidad de nuevos estudios longitudinales y microeconómicos que examinen la productividad y capacidad de absorción de las empresas arxiv.org.
  • Los autores enfatizan la importancia del capital humano, la formación continua, el rol del pensamiento crítico y políticas que apoyen el despliegue responsable de la IA .

¿Cuánto texto pueden generar las diferentes herramientas de Inteligencia Artificial?

Los modelos de inteligencia artificial basados en lenguaje natural, como ChatGPT, no trabajan directamente con palabras o caracteres completos, sino con tokens, que son unidades básicas de texto. Esta estrategia permite a los modelos manejar y procesar el lenguaje de manera más eficiente y granular. Un token puede corresponder a una palabra completa, una parte de una palabra (como un prefijo o sufijo), un signo de puntuación o incluso espacios. Por ejemplo, la palabra «inteligencia» podría dividirse en varios tokens si el modelo utiliza un método de tokenización subpalabra (como Byte Pair Encoding o WordPiece).

¿Por qué usar tokens?

La tokenización ayuda a los modelos a lidiar con la variedad infinita de combinaciones en el lenguaje natural, permitiendo que puedan aprender patrones y predecir la siguiente unidad con mayor precisión. Según OpenAI, la tokenización es crucial para que los modelos de lenguaje puedan generar texto coherente y fluido, ya que cada token representa un fragmento manejable para los algoritmos de predicción estadística y aprendizaje profundo.

Límite de tokens y generación de texto

La capacidad para generar texto en modelos como GPT está limitada por un máximo de tokens por interacción o llamada al modelo. Esto significa que la suma de los tokens de entrada (el texto que proporcionas) y de salida (el texto generado) no puede superar ese límite. Por ejemplo, el modelo GPT-3.5 tiene un límite de aproximadamente 4,096 tokens por solicitud, mientras que modelos más recientes pueden manejar hasta 8,000 tokens o incluso más, dependiendo de la versión y configuración

Este límite es importante porque afecta la longitud y la complejidad del texto que el modelo puede procesar y generar de manera coherente. Si se excede el límite, el texto de entrada o el de salida deben ser truncados o segmentados, lo que puede afectar la continuidad y calidad del contenido generado.

¿Qué es un token en detalle?

Los tokens no coinciden necesariamente con palabras, especialmente en idiomas con palabras compuestas o con conjugaciones complejas. Por ejemplo, la palabra inglesa «unhappiness» puede dividirse en tokens como «un», «happi», «ness». De forma similar, en español, las terminaciones verbales o sufijos se tratan como tokens separados para que el modelo aprenda mejor las reglas gramaticales y las relaciones semánticas.

Según la explicación de Jurafsky y Martin en su libro Speech and Language Processing, la tokenización es un paso fundamental en el procesamiento del lenguaje natural (PLN) y puede ser tan simple como dividir por espacios o tan complejo como aplicar modelos de segmentación que respeten la morfología del idioma.

Por ejemplo, la frase:

«Hola, ¿cómo estás?»

Podría dividirse en tokens como:

«Hola»

«,»

«¿»

«cómo»

«estás»

«?»

Cada uno de estos es un token para el modelo.

Herramienta / ModeloLímite tokens (entrada + salida)Aproximación de palabras generadas en una sola respuesta
GitHub Copilot~2048 tokens~1000-1500 palabras (para código y texto combinados)
ChatGPT (GPT-3.5)4096 tokens~1500-3000 palabras
ChatGPT (GPT-4)8192 tokens~3000-6000 palabras
Claude (Anthropic)~9000 tokens~3500-6500 palabras
Gemini (Google DeepMind)8192 – 32768 tokensDesde ~3000 hasta ~12,000-25,000 palabras (según versión)
Perplexity AIDepende del modelo que useVaría según modelo (ej., GPT-4: hasta ~6000 palabras)

Aproximación de cantidad de texto generado según límite de tokens

La alfabetización en inteligencia artificial: el nuevo reto de las bibliotecas del futuro

LibLime. “AI Literacy in the Future of Libraries: Adapting to a New Information Landscape.” LibLime Blog, 17 de marzo de 2025.

Texto completo

Las bibliotecas están en un momento crucial ante la evolución digital: la inteligencia artificial (IA) está transformando cómo se crea, accede y evalúa la información, y por ello estas instituciones deben ampliar su rol tradicional hacia la educación en alfabetización digital centrada en IA

Se identifica una «brecha emergente en la alfabetización en IA»: aunque un 75 % de estadounidenses ha oído hablar de herramientas como ChatGPT, solo un 18 % las utiliza, concentrándose principalmente en grupos con mayor nivel educativo y económico, lo que resalta la necesidad de intervención.

La alfabetización en IA va más allá de la mera búsqueda de información: incorpora habilidades para entender las capacidades y limitaciones de la IA, reconocer contenido generado por IA, evaluarlo críticamente y abordar sus implicaciones éticas.

Expertos como Miguel Figueroa señalan que las bibliotecas deben enseñar a las personas a desenvolverse en un ecosistema informativo en el que «actores no humanos» (IA) influyen significativamente.

Varias bibliotecas ya implementan programas orientados a esta alfabetización. La Universidad de Michigan ha integrado la IA en sus planes de alfabetización informacional mediante un marco específico para ello . Por otro lado, la Biblioteca Pública de San Francisco ha lanzado “AI Labs”, espacios donde las personas pueden experimentar con herramientas de IA con el acompañamiento de profesionales capacitados.

No obstante, persisten desafíos: la falta de fondos, la escasa preparación técnica del personal y la rapidez con que cambia la tecnología dificultan estos esfuerzos. Según una encuesta de 2023, aunque el 82 % de los bibliotecarios reconoce la importancia de la alfabetización en IA, solo el 24 % se siente lo suficientemente preparado para impartirla. Además, deben abordarse cuestiones éticas complejas. Como advierte Safiya Noble, es crucial enseñar a reconocer y combatir los sesgos tecnológicos, evitando que estos refuercen injusticias sociales

El futuro de las bibliotecas podría estar en una relación complementaria con la IA: automatizar tareas rutinarias facilitaría que los profesionales se concentren en servicios de valor añadido, como investigación avanzada o educación en IA . La Biblioteca Pública de Nueva York ya está probando esta estrategia con un asistente de referencia basado en IA que deriva las preguntas complejas a los bibliotecarios humanos.

Finalmente, se destaca la necesidad de formar al personal bibliotecario. La Asociación Americana de Bibliotecas está actualizando sus estándares de acreditación para incluir competencias en IA, y ya existen iniciativas como la Library Futures Institute que ofrecen formación especializada. La creación de puestos específicos, como el de “bibliotecario de tecnologías emergentes” en la Universidad de Berkeley, refleja esta tendencia

El estado de la alfabetización en datos e IA en 2025: avances, retos y estrategias

Ampliar

DataCamp Team. 2025. “Introducing the State of Data & AI Literacy Report 2025.” DataCamp Blog, 9 de abril de 2025.

Texto completo

En su tercera edición, el informe State of Data & AI Literacy Report 2025 analiza la preparación de las organizaciones frente al auge de la inteligencia artificial. Se basa en una encuesta a más de 500 líderes empresariales de EE. UU. y Reino Unido, además de incluir aportes de empresas como Colgate, BP, Rolls‑Royce y JPMorgan Chase

Un hallazgo destacado es que el alfabetismo en IA está creciendo rápidamente: el 69 % de los líderes lo considera esencial, frente al 86 % que otorga esa misma importancia a la alfabetización en datos, y representa un aumento de 7 puntos respecto al año anterior. La IA ya no es una novedad: el 91 % informa que al menos alguien en su organización la utiliza, el 82 % hace uso semanal y el 39 % la usa a diario

Las empresas están convirtiendo iniciativas aisladas en programas estructurados de formación. El 46 % ofrece un programa maduro de alfabetización de datos, subiendo desde el 35 %, y el 43 % cuenta con formación avanzada en IA, casi el doble del 25 % del año anterior. No obstante, persisten obstáculos como limitaciones presupuestarias, resistencia interna, escaso apoyo ejecutivo y dificultades para medir el retorno de inversión

El informe también presenta cinco recomendaciones clave basadas en las prácticas de organizaciones exitosas:

  1. Vincular la formación con objetivos de negocio, como reducir tiempos de informe o mejorar procesos.
  2. Abordarlo como una iniciativa de gestión del cambio, con embajadores internos y narrativas inspiradoras.
  3. Priorizar aprendizaje práctico, basado en tareas reales.
  4. Integrar datos e IA como un continuo en el plan de formación.
  5. Personalizar a gran escala, adaptando contenidos por roles dentro de la organización

Por último, el informe subraya que la alfabetización en datos y en IA no solo es una ventaja competitiva, sino también una salvaguarda social frente a desafíos como la desinformación, los sesgos algorítmicos y el riesgo de automatización laboral. Por ejemplo, el 73 % de los líderes lo considera esencial para combatir la desinformación, y el 75 % apoya la formación ética en IA para evitar sesgos .

“Google ya no necesita tu clic”: lo que debes saber sobre el nuevo modelo de búsqueda con AI Overviews

Schwartz, Barry. 2025. “Google Explains the Great Decoupling.” Search Engine Roundtable, June 18, 2025. https://www.seroundtable.com/google-explains-the-great-decoupling-39609.html

“The Great Decoupling” exige un replanteamiento de las estrategias digitales. La optimización para buscadores ya no debe centrarse exclusivamente en atraer visitas, sino en generar contenido que añada verdadero valor, capaz de motivar una acción más allá de una simple lectura. En este nuevo ecosistema, la calidad del tráfico podría volverse más importante que su cantidad.

Desde la implementación de las nuevas funciones de inteligencia artificial en su motor de búsqueda, Google ha introducido un fenómeno conocido como “The Great Decoupling”, que describe la creciente disociación entre el número de impresiones (es decir, cuántas veces aparece una página web en los resultados de búsqueda) y el número de clics (cuando un usuario realmente visita ese sitio). En particular, con la llegada de los AI Overviews —resúmenes generados por inteligencia artificial que Google muestra directamente en la parte superior de la página de resultados— los editores y expertos en SEO han notado un aumento significativo de impresiones, pero una caída considerable en la tasa de clics (CTR).

Este fenómeno fue abordado recientemente en el evento Google Search Central Live celebrado en Varsovia en 2025, donde Martin Splitt, desarrollador defensor de Google, explicó que cuando el contenido de una web es incorporado dentro de un AI Overview, esa página tiende a recibir muchas más impresiones, pero menos clics, ya que el usuario recibe la información que busca directamente en la respuesta automatizada. Sin embargo, Splitt defendió que los clics que sí se generan suelen tener una calidad mucho mayor, ya que provienen de usuarios con una intención más clara, lo que puede traducirse en un mejor desempeño comercial o mayor conversión.

Datos recientes del sector, como los de la plataforma Ahrefs, confirman esta tendencia. La correlación entre impresiones y clics ha pasado de ser positiva a negativa: si antes más impresiones significaban más clics, ahora significan menos. La razón principal es que muchos usuarios obtienen una respuesta suficiente con el resumen generado por IA y no sienten la necesidad de visitar el sitio original. Esto ha generado preocupación entre editores, creadores de contenido y sitios cuya monetización depende en gran medida del volumen de tráfico.

A pesar de las críticas, Google parece estar avanzando hacia un modelo donde los AI Overviews formen parte central de la experiencia de búsqueda. Se ha señalado que el modo por defecto del buscador podría convertirse pronto en un “AI Mode”, lo que consolidaría esta forma de presentar la información. Si bien esto representa un desafío para el SEO tradicional, también abre oportunidades para quienes logren generar contenido más profundo, valioso o enfocado en la conversión.

Búsqueda de información asistida por IA (RAG) en bibliotecas universitarias

Bevara, R. V. K., Lund, B. D., Mannuru, N. R., Karedla, S. P., Mohammed, Y., Kolapudi, S. T., & Mannuru, A. (2025). Prospects of Retrieval Augmented Generation (RAG) for Academic Library Search and Retrieval. Information Technology and Libraries44(2). https://doi.org/10.5860/ital.v44i2.17361

Retrieval Augmented Generation (RAG) es una tecnología que combina dos cosas: por un lado, sistemas que saben buscar información en bases de datos o documentos (esto es el “retrieval” o recuperación), y por otro lado, modelos de inteligencia artificial que pueden entender y generar texto en lenguaje natural (como los chatbots o asistentes virtuales). De manera que cuando Entonces, cuando se hace una pregunta, RAG primero busca la información relevante en fuentes confiables y después usa esa información para crear una respuesta clara y completa, como si estuvieras hablando con un experto que tiene acceso a mucha información precisa.

Se examina el potencial de los sistemas basados en RAG para transformar los métodos tradicionales de búsqueda y recuperación de información en bibliotecas universitarias. RAG combina las capacidades de comprensión del lenguaje natural de los grandes modelos de lenguaje (LLM) con sistemas estructurados de recuperación de información basados en bases de datos verificadas, creando así un enfoque innovador para la búsqueda académica que mejora la precisión y relevancia de los resultados.

El estudio detalla los requerimientos técnicos necesarios para integrar RAG en los sistemas bibliotecarios actuales, destacando la importancia de las arquitecturas middleware que conectan las bases de datos académicas con los procesos de generación y recuperación. Se profundiza en elementos como las canalizaciones de embedding (representaciones vectoriales de datos), las bases de datos vectoriales y la arquitectura técnica que permite que RAG procese consultas en tiempo real, utilizando el contexto y el significado semántico para refinar los resultados de búsqueda.

Además, el artículo resalta cómo los sistemas RAG pueden mejorar significativamente la experiencia del usuario en las bibliotecas académicas, gracias a funcionalidades como la asistencia personalizada en la investigación, interfaces conversacionales para interactuar de forma más natural y la integración multimodal de contenido (texto, imágenes, datos). Sin embargo, también enfatiza la necesidad de cumplir con regulaciones de privacidad de datos y derechos de autor para asegurar un uso responsable y ético de estas tecnologías.

Entre las consideraciones críticas, el estudio aborda aspectos éticos, la transparencia del sistema y la confianza del usuario, indicando que, aunque RAG ofrece grandes oportunidades para modernizar los servicios bibliotecarios, su implementación exitosa depende de un equilibrio cuidadoso entre innovación técnica y responsabilidad social. Finalmente, los autores concluyen que la integración de RAG en bibliotecas académicas tiene un gran potencial para revolucionar la forma en que se accede y se gestiona el conocimiento, pero que aún se requiere investigación continua en áreas como la escalabilidad del sistema, el cumplimiento ético y la optimización de costos para su adopción masiva.

¿Están los robots de inteligencia artificial desplazando al patrimonio cultural?

Weinberg, Michael. 2025. “Are AI Bots Knocking Cultural Heritage Offline?GLAM‑E Lab, abril 2025. https://www.glamelab.org/products/are-ai-bots-knocking-cultural-heritage-offline/.

El informe “Are AI Bots Knocking Cultural Heritage Offline?”, publicado en abril de 2025 por GLAM‑E Lab y escrito por Michael Weinberg, documenta el creciente problema que enfrentan colecciones culturales digitales (museos, bibliotecas, archivos y galerías) frente a bots de IA que rastrean y copian masivamente sus contenidos. En muchas instituciones, una oleada inesperada de tráfico automatizado ha generado sobrecarga en los servidores, ralentizaciones o incluso caídas temporales del servicio.

A finales de 2024, empezaron a surgir relatos aislados de colecciones individuales de patrimonio cultural en línea. Estos relatos describían servidores y colecciones que se agotaban -y a veces se rompían- bajo la carga de un enjambre de bots. Al parecer, los bots extraían todos los datos de las colecciones para crear conjuntos de datos con los que entrenar modelos de inteligencia artificial.

El laboratorio GLAM-E encuestó a docenas de instituciones GLAM (galerías, bibliotecas, archivos y museos) para empezar a responder a estas preguntas. Este informe, publicado en junio de 2025, documenta cómo las instituciones se ven sometidas a la presión de los bots y cómo las cosas pueden empeorar antes de mejorar.

Estas son algunas de las cuestiones más relevantes del informe:

  • Los bots están muy extendidos, aunque no son universales. De los 43 encuestados, 39 experimentaron un aumento reciente en el tráfico. Veintisiete de esos 39 atribuyeron el aumento al tráfico de bots que recolectan datos para entrenamiento de IA, y otros siete sospechan que los bots podrían estar contribuyendo al incremento.
  • Este aumento de tráfico ha sido difícil de anticipar, ya que pocos encuestados estaban monitorizando activamente el tráfico de bots antes de que estos provocaran una crisis en sus colecciones. Muchos no se dieron cuenta de que estaban recibiendo tráfico de bots hasta que dicho tráfico saturó el servicio y dejó las colecciones digitales fuera de línea.
  • Algunos encuestados comenzaron a notar un incremento en el tráfico de bots desde 2021, mientras que otros no lo experimentaron hasta 2025.
  • Algunos bots se identifican claramente, mientras que otros emplean diversas estrategias para ocultar su origen.
  • Cuando los bots aparecen, tienden a hacerlo en enjambres durante períodos relativamente breves. La frecuencia de estos enjambres podría estar aumentando.
  • El archivo robots.txt no es actualmente un método eficaz para impedir que los bots saturen las colecciones.
  • Los encuestados están implementando una variedad de contramedidas, tanto propias como de terceros, basadas en cortafuegos, para intentar filtrar los bots según la dirección IP, la geografía, el dominio o el agente de usuario. Algunas de estas medidas parecen funcionar, aunque pocos tienen confianza en que sean sostenibles a largo plazo.
  • Los encuestados se muestran reacios a adoptar medidas más agresivas, como colocar las colecciones detrás de pantallas de inicio de sesión, por diversas razones: dudas sobre su eficacia a medio plazo, preocupaciones por los efectos negativos en los usuarios legítimos, y el temor de que tales restricciones contradigan su objetivo principal de mantener las colecciones libremente accesibles en línea.
  • Los encuestados temen que los enjambres de bots de entrenamiento de IA generen un entorno de costos crecientes insostenibles para ofrecer acceso en línea a las colecciones.

Los hallazgos exponen que muchas colecciones no detectaron la actividad de los bots hasta que los sistemas dejaron de responder, lo que obligó a implementar contramedidas rápidas, como cortafuegos específicos (e.g., Cloudflare, AWS), o considerar el uso de restricciones por IP, regiones geográficas, o agentes de usuario. Aunque algunas medidas temporales han funcionado, la mayoría de entrevistados reconoce que no son fiables a largo plazo .

El informe concluye que el problema es extensible y creciente, dada la expansión de los bots de IA desde 2021. Advierte que, sin una estrategia concertada que combine soluciones tecnológicas y nuevos estándares comunitarios, la capacidad de mantener colecciones digitales abiertas y accesibles podría verse comprometida por los costos de infraestructura y la presión técnica insostenible .

Preparando a los bibliotecarios para la era de la Inteligencia artificial

Preparando a los bibliotecarios para la era de la Inteligencia artificial por Julio Alonso Arévalo

Ver

Organiza: Asociación de Profesionales de Bibliotecas, Archivos y Gestión de la Información y Documentación en Extremadura (ABAIDEX)

Fecha 2025/06/17

La Asociación de Profesionales de Bibliotecas, Archivos y Gestión de la Información y Documentación en Extremadura (ABAIDEX) organizó un seminario web gratuito centrado en los retos y oportunidades de la transformación digital en las bibliotecas. La sesión estuvo a cargo de Julio Alonso Arévalo, bibliotecario e investigador de la Universidad de Salamanca, y una de las voces más reconocidas en innovación bibliotecaria en el ámbito hispano.

El evento se celebró el martes 17 de junio a las 12:30 horas, con una duración estimada de una hora. La ponencia abordó el impacto de la inteligencia artificial en el ejercicio profesional de los bibliotecarios y abrió un espacio de reflexión sobre el papel de estas tecnologías en los servicios de información, la gestión documental y la formación tanto de profesionales como de usuarios.

Este webinar se enmarcó en el plan formativo de ABAIDEX, orientado a mejorar las competencias profesionales, reforzar el reconocimiento social del sector y consolidar redes de aprendizaje compartido.

La inteligencia artificial generativa en la biblioteca médica: transformando el acceso al conocimiento y el rol profesional. 

García-Puente, María. 2025. “La inteligencia artificial generativa en la biblioteca médica: transformando el acceso al conocimiento y el rol profesional.” Clip, junio. https://doi.org/10.47251/clip.n91.163

La irrupción de la inteligencia artificial (IA) generativa está teniendo un impacto profundo en la manera en que las bibliotecas médicas gestionan la información, ofrecen servicios y se posicionan dentro de los sistemas de salud y conocimiento. Esta tecnología, que permite generar texto, imágenes o código a partir de instrucciones humanas, ofrece una oportunidad transformadora para automatizar tareas, mejorar la experiencia de los usuarios y redefinir el papel del bibliotecario en un entorno cada vez más digitalizado.

Uno de los principales aportes de la IA generativa en este contexto es su capacidad para optimizar la gestión interna de las bibliotecas médicas. Esto incluye desde la organización inteligente de las colecciones hasta la automatización de tareas repetitivas como la redacción de informes o el envío de correos electrónicos. Además, la IA puede servir de soporte a los profesionales de la salud y la investigación mediante la implementación de asistentes virtuales, motores de búsqueda avanzada y herramientas de análisis de la información que permiten detectar patrones, generar resúmenes o visualizar datos complejos con mayor facilidad.

Lejos de sustituir a los bibliotecarios, la IA plantea una redefinición profunda de su rol profesional. Para aprovechar estas herramientas de forma efectiva y ética, se requieren nuevas competencias: alfabetización en inteligencia artificial, dominio del «prompt engineering» (la habilidad para diseñar instrucciones precisas para obtener respuestas útiles), capacidad para evaluar críticamente el funcionamiento de las tecnologías empleadas, y liderazgo para guiar su implementación en entornos sensibles como los médicos. De este modo, los profesionales de la información deben posicionarse como mediadores estratégicos entre la inteligencia humana y la artificial.

Sin embargo, la adopción de estas tecnologías no está exenta de riesgos ni de desafíos. Entre ellos se destacan los problemas asociados con la precisión y fiabilidad de los contenidos generados, los sesgos algorítmicos que pueden perpetuar desigualdades, la protección de los datos personales en entornos clínicos, los costes de implantación y mantenimiento de las herramientas, y la necesidad de una formación continua para mantenerse actualizado. A pesar de ello, el artículo sostiene que la IA generativa no debe entenderse como una amenaza, sino como una oportunidad para que las bibliotecas médicas refuercen su papel en el ecosistema sanitario, se conviertan en centros de innovación y promuevan una colaboración ética y eficaz entre máquinas y humanos.