Uso de la inteligencia artificial (IA) en el ecosistema de la publicación académica y científica

NISO. 2025. Advancing Artificial Intelligence Interoperability in STM Content Through Standards: Report of NISO AI Publishing Workshops, June 2025.

Texto completo

En junio de 2025, la Organización Nacional de Estándares de Información (NISO) publicó el informe preliminar de una serie de talleres dedicados al uso de la inteligencia artificial (IA) en el ecosistema de la publicación académica y científica. Estos talleres, realizados a principios de año, reunieron a profesionales de bibliotecas, editoriales, instituciones académicas y desarrolladores de tecnología con el fin de identificar desafíos comunes y proponer soluciones colaborativas. El documento está actualmente abierto a comentarios públicos hasta el 15 de julio de 2025, como parte de un proceso participativo para refinar futuras recomendaciones normativas.

Uno de los aspectos centrales del informe es la necesidad urgente de establecer estándares para garantizar la interoperabilidad entre plataformas y herramientas que incorporan IA. Esta interoperabilidad no solo permitiría una mayor eficiencia en los procesos editoriales, sino también una mayor transparencia y confianza en los resultados generados por algoritmos. Se subraya la importancia de metadatos detallados y estructurados, así como la documentación clara del funcionamiento de las IA utilizadas.

También se abordaron consideraciones éticas clave, como la protección de datos, la privacidad de autores y revisores, y la necesidad de mitigar sesgos algorítmicos. Los participantes coincidieron en que cualquier uso de IA en entornos académicos debe respetar los principios de equidad, trazabilidad y responsabilidad. Además, se propone la creación de grupos de trabajo interinstitucionales y la elaboración de guías técnicas que orienten a las organizaciones en la adopción segura y eficaz de estas tecnologías.

El informe representa un paso importante para posicionar a la comunidad académica como agente activo en la definición de normas que regulen el uso de la IA en la publicación científica. Con este enfoque colaborativo, NISO busca fomentar el desarrollo de herramientas más confiables, interoperables y éticas, al tiempo que impulsa una cultura de transparencia y mejora continua en la investigación académica.

El libro de cocina de la ciencia abierta

Bongiovanni, Emily, Melanie A. Gainey, Chasz Griego, y Lencia McKee, eds. The Open Science Cookbook. Chicago: ACRL, American Library Association, 2025.

Texto completo

El libro ofrece más de 130 páginas de planes de lecciones, talleres y actividades diseñadas para promover la ciencia abierta: investigación transparente, accesible y reproducible en todas las disciplinas. Su propósito es servir tanto para principiantes como para profesionales avanzados y adaptarse a diversas audiencias en entornos académicos.

La ciencia abierta abarca prácticas como el acceso abierto, los datos abiertos, el software libre y los recursos educativos abiertos. Aunque algunas de sus herramientas son innovadoras, muchas están ligadas a prácticas tradicionales. Su objetivo es impulsar una investigación más accesible, transparente y reproducible en todas las disciplinas.

Gobiernos, agencias de financiación e instituciones de investigación son claves para implementar estos cambios, destacando los beneficios de la ciencia abierta como la colaboración interdisciplinaria, la mayor visibilidad de la investigación y la reutilización de resultados. Este cambio de paradigma se ve reforzado por recursos como The Open Science Cookbook, que guía sobre cómo integrar estas prácticas en la vida académica.

Este libro está diseñado para profesionales de bibliotecas universitarias, tanto principiantes como avanzados, que buscan inspiración y pasos prácticos para ofrecer servicios de ciencia abierta. Las propuestas, llamadas «recetas», se adaptan a distintos niveles de experiencia, presupuestos y realidades institucionales.

Muchas recetas sugieren cómo adaptar o ampliar servicios existentes, como la gestión de datos de investigación, la publicación en acceso abierto o la síntesis de evidencia. Algunas recetas proponen servicios completamente nuevos.

El contenido está organizado en cinco secciones según actividades comunes en bibliotecas:

  1. Desarrollo de programas: Cómo crear o evaluar un programa de ciencia abierta, y establecer puestos especializados dentro de la biblioteca.
  2. Formación: Integración de la ciencia abierta en talleres y clases sobre temas como derechos de autor y reproducibilidad.
  3. Proyección comunitaria: Estrategias de difusión en el campus, materiales de divulgación y actividades de sensibilización.
  4. Eventos: Cómo organizar eventos relacionados con la ciencia abierta que promuevan la colaboración y la comunidad.
  5. Colaboraciones y alianzas: Métodos para colaborar con otros departamentos y grupos de interés dentro de la institución.

Las empresas tecnológicas están recurriendo a bibliotecas y archivos históricos para enriquecer los datos de entrenamiento de inteligencia artificial

O’Brien, Matt. “AI Chatbots Need More Books to Learn From. These Libraries Are Opening Their Stacks.” Associated Press, 12 junio 2025.

Las empresas tecnológicas están recurriendo ahora a bibliotecas y archivos históricos para enriquecer los datos de entrenamiento de inteligencia artificial (IA). La riqueza histórica, lingüística y cultural de estos textos —que abarcan desde literatura y derecho hasta ciencias— ofrece a los chatbots una base más sólida y precisa, en contraste con los datos actuales, a menudo superficiales o generados artificialmente

Con el apoyo de «donaciones sin restricciones» de Microsoft y del fabricante de ChatGPT OpenAI, Institutional Data Initiative con sede en Harvard está trabajando con bibliotecas y museos de todo el mundo sobre cómo hacer que sus colecciones históricas estén preparadas para la IA de una manera que también beneficie a las comunidades a las que sirven.

Harvard ha puesto a disposición casi un millón de libros digitalizados (desde el siglo XV en adelante, en más de 250 idiomas), sumando 394  millones de páginas —aproximadamente 242 000 millones de “tokens”— para desarrolladores de IA. El nuevo conjunto de datos de Harvard, Institutional Books 1.0, contiene más de 394 millones de páginas de papel escaneadas. Una de las primeras obras es del siglo XIV: las reflexiones manuscritas de un pintor coreano sobre el cultivo de flores y árboles. La mayor concentración de obras es del siglo XIX, sobre temas como literatura, filosofía, derecho y agricultura, todo ello meticulosamente conservado y organizado por generaciones de bibliotecarios.

Bibliotecas como la Pública de Boston y la Bodleian de Oxford también digitalizan periódicos antiguos y manuscritos, con fondos de Microsoft y OpenAI, integrándose en la Iniciativa de Datos Institucionales (IDI). El objetivo es utilizar principalmente obras en dominio público, evitando problemas legales por derechos de autor.

Se espera que este enfoque democratice el acceso a datos de calidad para investigación en IA, fomentando una ética en el uso de información histórica. No obstante, también plantea desafíos: el contenido puede incluir teorías anticuadas o prejuicios racistas, por lo que se requieren filtros y guías para su uso responsable

OpenAI, que también está luchando contra una serie de demandas por derechos de autor, donó este año 50 millones de dólares a un grupo de instituciones de investigación, entre ellas la Biblioteca Bodleian de la Universidad de Oxford, de 400 años de antigüedad, que está digitalizando textos raros y utilizando IA para ayudar a transcribirlos. Los fondos también ayudan a las propias bibliotecas a financiar proyectos de digitalización, beneficiando estudios culturales y lingüísticos. La colección ya está disponible en plataformas como Hugging Face, potenciando modelos más diversos en idiomas (menos de la mitad están en inglés)

Este movimiento impulsa el acceso equitativo a datos históricos, mejora la fiabilidad de la IA y promueve el rol activo de las bibliotecas como custodias del conocimiento.

¿Es la alfabetización en IA el caballo de Troya de la alfabetización informacional?

Chen, Zhuo, Nathan Kelber y Ruby MacDougall. 2025. “Is AI Literacy the Trojan Horse to Information Literacy? Insights from our AI Literacy Cohort Workshops.” Ithaka S+R, 10 de junio de 2025. https://sr.ithaka.org/blog/is-ai-literacy-the-trojan-horse-to-information-literacy/

El texto explora cómo la alfabetización en inteligencia artificial (IA) puede transformarse en una vía estratégica para enriquecer la alfabetización informacional tradicional dentro del ámbito académico

Un marco de alfabetización (Literacy Framework) es un conjunto estructurado de conceptos, habilidades, competencias y valores que sirven como guía para enseñar y desarrollar una forma específica de alfabetización. Aunque el término «alfabetización» solía referirse solo a la capacidad de leer y escribir, hoy se aplica a muchos otros ámbitos, como la alfabetización digital, informacional, mediática, científica… o, como en este caso, la alfabetización en inteligencia artificial (AI Literacy).

El estudio se basa en talleres realizados en abril de 2025, donde participaron bibliotecarios y docentes de 45 instituciones de educación superior, como parte del proyecto “Integrating AI Literacy into the Curricula”

Durante las sesiones, se confrontaron marcos conceptuales existentes: el ACRL (Association of College & Research Libraries) centrado en la alfabetización informacional, y varios marcos de alfabetización en IA más pragmáticos (UNESCO, Choice 360, Educause, Digital Education Council). Se observó que los marcos tradicionales son más conceptuales y modulados, mientras que los de IA adoptan enfoques secuenciales y aplicados, lo que facilita su integración curricular

Los distintos marcos de alfabetización en IA coinciden en la necesidad de dotar a los ciudadanos —especialmente a estudiantes y profesionales del ámbito educativo— de competencias que les permitan comprender, usar, evaluar y reflexionar críticamente sobre la inteligencia artificial. Aunque cada marco responde a su contexto institucional y geográfico, comparten una estructura organizada en torno a dimensiones o competencias clave.

En primer lugar, muchos marcos giran en torno a tres grandes ejes: la comprensión técnica (cómo funciona la IA), la dimensión ética y crítica (identificación de sesgos, impactos sociales, privacidad), y la aplicación práctica (uso responsable y efectivo de herramientas de IA). Por ejemplo, tanto el marco de la Universidad de Adelaida como el de Educause y el de la UNESCO incluyen estas tres dimensiones, si bien con distintos niveles de profundidad y enfoque. El marco de la UNESCO es particularmente exhaustivo, al dividir las competencias en cuatro dimensiones (ética, técnica, diseño de sistemas y mentalidad humanista) y establecer niveles progresivos: comprender, aplicar y crear.

El marco de ACRL (Association of College and Research Libraries), aunque no está centrado específicamente en IA, ofrece una estructura conceptual sobre la alfabetización informacional que ha influido en otros marcos como el de Choice360. Este último adapta los principios de ACRL para entornos donde la IA ya forma parte del proceso de búsqueda, evaluación y producción de información académica.

Por su parte, marcos como el del Digital Education Council y el del World Economic Forum adoptan una visión más global y orientada al desarrollo de ciudadanía digital, el pensamiento computacional y las habilidades para el siglo XXI, incorporando la IA como herramienta clave en el desarrollo económico y social. En este sentido, coinciden con el enfoque de Educause, que además integra competencias para distintos actores de la educación superior: estudiantes, docentes y personal técnico.

Los marcos centrados en bibliotecas, como AI Literacy: A Guide for Academic Libraries (Lo, 2023) y el de la Universidad de Adelaida, tienen un enfoque más operativo y cercano a la práctica profesional, diseñados para ayudar a bibliotecarios a enseñar o guiar en el uso de IA en contextos académicos. Estos marcos suelen ser más concisos, pero incluyen ejemplos, buenas prácticas y estrategias de implementación.

Las principales diferencias entre estos marcos se relacionan con el nivel de detalle, el público destinatario (desde estudiantes de primaria hasta personal universitario), y la orientación institucional (educativa, bibliotecaria o política). Algunos, como el de la UNESCO o Educause, son más prescriptivos y completos; otros, como el de ACRL o el de Lo, permiten una mayor flexibilidad e interpretación local.

Todos estos marcos ofrecen una base sólida y complementaria para abordar la alfabetización en inteligencia artificial. Todos reconocen la importancia de desarrollar una comprensión profunda y crítica de la IA, más allá del simple uso técnico de las herramientas, fomentando una ciudadanía digital ética, inclusiva y preparada para los desafíos del presente y del futuro. La combinación de elementos de estos marcos puede ser especialmente útil para diseñar programas educativos o bibliotecarios adaptados a diferentes contextos.

Uno de los hallazgos más relevantes surgió cuando un participante definió la alfabetización en IA como “un cubo bajo el paraguas de la alfabetización informacional”. Este concepto propone que la IA no solo está contenida dentro de la alfabetización informacional, sino que moldea y modifica su paradigma, recordando que detrás de toda tecnología hay supuestos culturales, técnicos y éticos que requieren una evaluación crítica.

Los participantes destacaron que ambos marcos comparten el énfasis en el pensamiento crítico sobre la información. No obstante, las prácticas de alfabetización en IA demandan además una capacidad técnica mínima y una comprensión ética más profunda: es necesario comprender cómo los sistemas generan información, reconocer sus sesgos y limitaciones, y evaluar fuentes con conciencia tecnológica .

También se identificaron brechas en los marcos: la alfabetización en IA suele centrarse únicamente en la IA generativa, ignorando otros tipos de IA; además, se utilizan términos como “ética” de manera vaga sin esclarecer a quién se aplican los principios. El ritmo acelerado del desarrollo tecnológico exige marcos educativos más dinámicos y actualizables .

De este modo, el artículo concluye que la alfabetización en IA podría actuar como una especie de “caballo de Troya” dentro de la alfabetización informacional: aporta una capa adicional que exige un enfoque más técnico, crítico y contextualizado. Esto representa una oportunidad para modernizar los programas curriculares, impulsar colaboraciones entre bibliotecas, centros educativos y docentes, y preparar a estudiantes y académicos para abordar la complejidad actual de la cultura informativa .

Integración de la AI en los planes de estudios

Chen, Zhuo, Nathan Kelber y Ruby MacDougall. 2025. “Applying AI Literacy to Student and Faculty Persons.” Ithaka S+R Blog, 10 de junio de 2025. https://sr.ithaka.org/blog/applying-ai-literacy-to-student-and-faculty-personas/.

En mayo de 2025, Ithaka S+R organizó los primeros talleres del proyecto “Integrating AI Literacy in the Curricula”, en colaboración con bibliotecarios y docentes de 45 instituciones educativas de nivel superior. El objetivo fue vincular la alfabetización en inteligencia artificial (IA) con los marcos tradicionales de alfabetización informacional y generar herramientas prácticas para su implementación académica

Durante la primera sesión, los participantes analizaron marcos teóricos y definiciones existentes sobre IA y alfabetización informacional. En la segunda, se formaron grupos que trabajaron a partir de uno de seis personas predefinidos (tres perfiles de estudiantes: universitario, posgrado y adulto; y tres perfiles docentes: humanista, científico social y natural), para explorar sus riesgos, beneficios y necesidades específicas relacionadas con la IA

Dos ejemplos representativos surgieron:

  • Callie, estudiante de 38 años de fisioterapia en línea, necesita acceso a herramientas de IA relevantes, formación práctica y certificaciones para destacar en el ámbito laboral de la salud. Sin embargo, su falta de experiencia con IA implica riesgos como el uso inapropiado de datos o el incumplimiento de normativas de privacidad (HIPAA). Los participantes definieron su alfabetización en IA como “comprender la IA, reconocer casos adecuados de uso y evaluar su repercusión en la preparación profesional”
  • Sue, profesora de sociología reacia al uso de IA frente a la presión institucional, podría centrarse únicamente en detectar trampas estudiantiles. Los participantes la instaron a reorientar su enfoque: en lugar de buscar mecanismos de detección, desarrollar ejemplos positivos de uso docente, construir políticas institucionales y comprender las limitaciones de las herramientas. Su definición se formuló como “tener acceso a modelos de IA bien integrados en el aula y conocer los límites de los detectores”

Al final, los facilitadores sintetizaron las ideas en común y alentaron a las instituciones a profundizar en las prioridades identificadas para impulsar la alfabetización en IA. Ithaka S+R continuará diseñando instrumentos cualitativos para recoger experiencias de estudiantes y docentes, con el fin de desarrollar soluciones tangibles adaptadas a sus necesidades.

Este enfoque centrado en personas evidencia una necesidad de diseñar definiciones flexibles y relevantes de alfabetización en IA, que respondan a disciplinas, niveles de experiencia y roles institucionales. El proyecto reconoce el potencial transformador de integrar la IA de forma ética y contextualizada en entornos educativos reales.

¿Por qué aceptamos o rechazamos la inteligencia artificial?

Lu, Jackson. 2025. “How We Really Judge AI.MIT News, 10 de junio de 2025. https://news.mit.edu/2025/how-we-really-judge-ai-0610.

El estudio del Instituto de Tecnología de Massachusetts (MIT) revela que las personas no se dividen simplemente entre optimistas y detractores de la inteligencia artificial (IA), sino que evalúan su uso según dos factores clave: la percepción de la capacidad de la IA y la necesidad de personalización en el contexto de la decisión.

Un estudio reciente realizado por investigadores del Instituto de Tecnología de Massachusetts (MIT) ha revelado nuevas perspectivas sobre cómo las personas evalúan y perciben la inteligencia artificial (IA) en distintos contextos. Contrario a la idea simplista de que las opiniones sobre la IA se dividen únicamente entre quienes la apoyan y quienes la rechazan, este estudio propone un modelo más complejo y matizado que explica por qué aceptamos o resistimos su uso dependiendo de dos factores fundamentales: la capacidad percibida de la IA para realizar una tarea específica y la necesidad de personalización o atención individual en la toma de decisiones.

El estudio, dirigido por el profesor Jackson Lu, presenta el “Marco de Capacidad–Personalización”, que sostiene que las personas tienden a valorar más positivamente la IA cuando consideran que ésta tiene una capacidad superior a la humana en ciertas tareas y cuando dichas tareas no requieren una adaptación personalizada basada en circunstancias individuales. En estos casos, la IA es vista como una herramienta eficiente, confiable y útil para apoyar la toma de decisiones o automatizar procesos.

Por ejemplo, en actividades como la detección de fraudes financieros, la revisión masiva de datos, o el análisis estadístico, la IA sobresale porque puede procesar grandes cantidades de información con rapidez y precisión, superando claramente el rendimiento humano. Además, estas tareas suelen ser rutinarias y no necesitan un enfoque personalizado, lo que facilita la confianza en las respuestas generadas por la IA.

Sin embargo, el estudio también señala que existe una notable resistencia hacia el uso de la inteligencia artificial en contextos donde la personalización es fundamental y la comprensión de las circunstancias particulares es clave para una buena decisión. Áreas como la atención médica, la terapia psicológica, las entrevistas laborales o los diagnósticos médicos son ejemplos donde las personas prefieren la intervención humana porque valoran la empatía, la experiencia subjetiva y la capacidad de interpretar matices que las máquinas aún no pueden replicar adecuadamente.

Esta investigación se basa en un meta-análisis exhaustivo que abarca 163 estudios previos, analizando más de 82.000 respuestas de participantes en 93 contextos diferentes relacionados con decisiones apoyadas por IA. Gracias a esta amplia muestra, el estudio proporciona una comprensión sólida y generalizable sobre los patrones de aceptación y rechazo de la IA en la sociedad.

El modelo de Capacidad–Personalización no solo ayuda a explicar por qué ciertas aplicaciones de IA son bien recibidas mientras que otras generan dudas o rechazo, sino que también ofrece una guía útil para desarrolladores, diseñadores y responsables de políticas. Comprender estas percepciones puede facilitar la creación de tecnologías que respondan mejor a las expectativas y necesidades humanas, equilibrando la eficiencia tecnológica con la sensibilidad social.

En definitiva, este trabajo académico aporta un marco conceptual valioso para entender que la aceptación de la inteligencia artificial no es un fenómeno binario, sino un proceso complejo que depende del contexto específico de uso, las capacidades percibidas de la tecnología y el grado en que se requiere una atención personalizada en la toma de decisiones. Este conocimiento es fundamental para avanzar hacia una integración ética, efectiva y confiable de la IA en nuestra vida cotidiana.

Alfonso López Yepes presenta el libro «Cine español en línea (1982-2024)». Planeta Biblioteca 2025/06/11

Alfonso López Yepes presenta el libro «Cine español en línea (1982-2024)»

Planeta Biblioteca 2025/06/11.

ESCUCHAR

Descargar

En la entrevista, Alfonso López Yepes presenta su libro Cine español en línea (1982-2024), una obra que documenta y analiza el patrimonio fílmico informativo, especialmente centrado en el cine español e iberoamericano. Destaca la evolución del tratamiento documental del cine en el entorno digital y el papel clave de las filmotecas en línea, el canal RTVDoc y la Inteligencia Artificial en la preservación y difusión audiovisual. Subraya la importancia de una narrativa transmedia y de las redes sociales como herramientas útiles pero ambivalentes. El libro está dirigido tanto al ámbito académico como al público general interesado.

GLAT: herramienta para evaluar la alfabetización en inteligencia artificial generativa

Yueqiao Jin, Roberto Martinez-Maldonado, Dragan Gašević, Lixiang Yan, GLAT: The generative AI literacy assessment test, Computers and Education: Artificial Intelligence,
Volume 9, 2025, 10 de junio de 2025. https://www.sciencedirect.com/science/article/pii/S2666920X25000761

Se presenta «GLAT: The Generative AI Literacy Assessment Test» una herramienta para el desarrollo y validación del rendimiento para medir la alfabetización en inteligencia artificial generativa (GenAI).

Esta prueba, denominada GLAT, fue diseñada para evaluar la capacidad de los individuos para utilizar herramientas de GenAI de manera efectiva y ética, abordando la creciente necesidad de evaluar habilidades en un entorno digital cada vez más automatizado.

La investigación destaca que, a pesar del aumento en el uso de tecnologías de GenAI, existe una falta de herramientas estandarizadas para medir la competencia en este ámbito. GLAT se diferencia de las evaluaciones tradicionales al centrarse en tareas prácticas que simulan escenarios reales donde los usuarios deben interactuar con sistemas de GenAI, evaluando su capacidad para generar, analizar y aplicar contenido de manera crítica.

Además, el estudio valida la fiabilidad y validez del GLAT a través de pruebas empíricas, demostrando que la herramienta es efectiva para medir la alfabetización en GenAI en diversos grupos demográficos. Los resultados sugieren que el GLAT puede ser una herramienta valiosa para instituciones educativas, organizaciones y gobiernos que buscan evaluar y mejorar las competencias digitales relacionadas con la inteligencia artificial generativa.

GLAT es una solución innovadora para abordar la necesidad urgente de evaluar la alfabetización en GenAI, proporcionando una base para el desarrollo de políticas educativas y formativas que promuevan el uso responsable y competente de las tecnologías de inteligencia artificial generativa

Las herramientas de inteligencia artificial están afectando negativamente al numero de visitas web y a los ingresos por publicidad

Axios. «Other News Sites Are Getting Crushed by Google’s New AI Tools.» Axios, 10 de marzo de 2025. https://www.axios.com/2025/03/17/alden-newspapers-openai-google-copyright

Las herramientas de inteligencia artificial (IA) de Google están afectando negativamente a los medios de comunicación tradicionales. Estas herramientas, como los resúmenes automáticos y las respuestas generadas por IA, están desplazando el contenido original de los sitios de noticias en los resultados de búsqueda, lo que reduce el tráfico web y los ingresos publicitarios de los editores.

Además, Google ha implementado resúmenes (Overview) de IA en sus resultados de búsqueda, lo que eleva el contenido generado por IA por encima del contenido original de los editores. Esta tendencia está alterando el ecosistema digital y generando preocupaciones sobre el futuro del periodismo en línea.

En respuesta, algunos editores están tomando medidas legales para proteger sus derechos de autor y asegurar que se les compense por el uso de su contenido por parte de las herramientas de IA. Por ejemplo, Alden Global Capital, propietario de varios periódicos, ha demandado a OpenAI y Google por infracción de derechos de autor y ha instado al gobierno de EE. UU. a rechazar propuestas que permitirían a las empresas de tecnología utilizar datos públicos para entrenar modelos de IA sin el consentimiento de los editores.

Este conflicto resalta la creciente lucha por el control y la monetización de la información en la era de la IA, donde los editores buscan proteger sus intereses frente al uso no autorizado de su contenido por parte de las herramientas de IA de las grandes empresas tecnológicas.

Ataques de bots maliciosos impulsados por IA a los catálogos de las bibliotecas

Panitch, Judy. 2025. “Library IT vs. the AI bots.” University Libraries News, 9 de junio de 2025. https://library.unc.edu/news/library-it-vs-the-ai-bots/.

A principios de diciembre de 2024, se produjo un incidente inusual en el catálogo en línea de las bibliotecas de la Universidad de Carolina del Norte: los usuarios informaron que les aparecían de mensajes de error como “este sitio web está bajo alta carga (cola llena)”. Esto no era normal, incluso durante épocas de alta demanda, como las finales de curso. Las investigaciones internas revelaron que el problema no era un aumento normal de tráfico, sino un ataque deliberado potenciado por inteligencia artificial.

Las investigaciones internas revelaron que el problema no era un aumento normal de tráfico, sino un ataque deliberado potenciado por inteligencia artificial. El sistema del catálogo estaba siendo bombardeado con peticiones automatizadas generadas por bots, cuyo volumen superaba cualquier uso legítimo, y saturaba la infraestructura técnica.

Este escenario puso a prueba la capacidad del equipo de TI de las bibliotecas. El personal tuvo que responder con rapidez e ingenio para implementar filtros y bloqueos contra las IP sospechosas, ajustar límites de conexión y optimizar la gestión de sesiones. El objetivo era mitigar el ataque sin interrumpir el acceso auténtico de estudiantes, docentes y personal, exponiendo así la necesidad de sistemas capaces de distinguir entre tráfico legítimo y malicioso automatizado.

El suceso sacó a la luz un lado oscuro de la inteligencia artificial: su capacidad para coordinar ataques automatizados y sofisticados, que pueden desestabilizar recursos digitales de alta demanda. A pesar de su carácter invisible, estas IA maliciosas pueden generar consecuencias reales y perjudiciales para servicios imprescindibles.

El artículo destaca el valor de contar con equipos de TI ágiles, bien entrenados y preparados para responder ante amenazas automatizadas. Asimismo, subraya la importancia de incorporar inteligencia artificial defensiva: sistemas capaces de identificar tráfico sospechoso, analizar patrones anómalos y responder en tiempo real.

En última instancia, “Library IT vs. the AI bots” no solo narra un incidente técnico, sino que actúa como llamada de atención sobre los riesgos emergentes en un mundo donde la inteligencia artificial —usada tanto para bien como para fines maliciosos— exige una seguridad más sofisticada y adaptativa.