Impacto de la inteligencia artificial generativa en bibliotecas y entornos de información

Wong, Melissa A., ed. 2025. Generative AI and Libraries: Applications and Ethics, Part I. Special issue, Library Trends 73 (3). https://doi.org/10.1353/lib.2025.a961188.

Monográfico dedicado al impacto de la inteligencia artificial generativa en bibliotecas y entornos de información. Editado por Melissa A. Wong, este volumen recoge 14 artículos de acceso abierto que abordan desde distintos enfoques el papel, las aplicaciones y los desafíos éticos que esta tecnología plantea para los profesionales de la información.

El número incluye investigaciones originales, ensayos críticos y reflexiones especulativas sobre futuros posibles. Los temas abarcan la alfabetización crítica en IA, el uso de IA para codificación cualitativa, su aplicación en procesos editoriales y de publicación científica, la generación de metadatos, el sesgo informativo, y el papel de la IA en la búsqueda de información y la alfabetización informacional. También se exploran cuestiones éticas fundamentales como la autoría, la precisión de los contenidos generados, el impacto medioambiental y las condiciones laborales asociadas al desarrollo de herramientas de IA.

Algunos autores celebran el potencial transformador de estas herramientas, otros adoptan una postura pragmática, y varios alertan sobre sus riesgos y proponen una postura crítica o incluso de rechazo. En conjunto, la publicación proporciona una panorámica rigurosa y plural sobre cómo la IA generativa está reconfigurando el campo de la bibliotecología y la ciencia de la información.

Los artículos se agrupan en tres grandes ejes temáticos:

  1. Aplicaciones profesionales de la IAG: varios estudios exploran cómo se está utilizando la IAG en tareas concretas de la práctica bibliotecaria. Esto incluye:
    • su papel en la codificación cualitativa de datos (Gustavsen et al.),
    • la modelización colaborativa de metadatos entre humanos y LLMs (Bagchi),
    • la automatización en revisiones de literatura académica (Sparkman y Witt),
    • el uso de IA por parte de editores de revistas científicas (Hosier y Cantwell-Jurkovic),
    • y su aplicación en la vida cotidiana de bibliotecarios (Luo).
  2. Cuestiones éticas, epistemológicas y pedagógicas: varios autores analizan los peligros asociados al uso de IAG:
    • los sesgos y las desigualdades informativas que puede perpetuar (Mazel),
    • la necesidad de una alfabetización crítica en IA como marco pedagógico (Baer),
    • y los dilemas en torno a la autoría, los derechos de uso y la sostenibilidad ecológica de estas tecnologías.
  3. Modelos de futuro y posicionamientos ideológicos: mientras que algunos autores adoptan posturas esperanzadas o pragmáticas, otros argumentan por una mayor resistencia a la penetración de la IAG en las prácticas profesionales y académicas. Los textos promueven una reflexión colectiva sobre el rol que deben adoptar las bibliotecas como mediadoras críticas en el debate sobre IA, y sobre su responsabilidad en la formación de una ciudadanía informacionalmente competente y éticamente consciente.

Riesgos de seguridad asociados con los agentes de inteligencia artificial (IA) autónomos

Dal Cin, Paolo, Daniel Kendzior, Yusof Seedat, y Renato Marinho. 2025. “Three Essentials for Agentic AI Security.” MIT Sloan Management Review, 4 de junio de 2025. https://sloanreview.mit.edu/article/agentic-ai-security-essentials/

El artículo destaca la importancia de gestionar la seguridad en agentes de IA autónomos mediante un enfoque de tres fases: modelado de amenazas, pruebas de seguridad y protección en tiempo real. Muchas empresas aún no están preparadas para estos riesgos, lo que puede comprometer datos y operaciones. Implementar estas medidas es clave para adoptar IA responsablemente y evitar vulnerabilidades.

Estos agentes, que operan de forma independiente utilizando modelos de lenguaje a gran escala (LLMs), tienen la capacidad de interactuar con múltiples sistemas, tomar decisiones y automatizar procesos complejos dentro de organizaciones. Su autonomía, si bien es una ventaja importante para aumentar la eficiencia, también introduce riesgos significativos que requieren una atención especializada para evitar vulnerabilidades que puedan poner en peligro la integridad de los datos y la seguridad organizacional.

Uno de los puntos clave que resaltan los autores es que muchas empresas no están suficientemente preparadas para enfrentar estos riesgos. Según encuestas realizadas, solo un 42% de los ejecutivos equilibra el desarrollo y la implementación de herramientas de IA con inversiones adecuadas en seguridad. Peor aún, apenas un 37% ha establecido procesos formales para evaluar la seguridad de estas tecnologías antes de incorporarlas en sus operaciones diarias. Esto revela una brecha preocupante entre la adopción acelerada de IA y la preparación para gestionar sus implicaciones de seguridad.

Para responder a este desafío, el artículo propone un marco estructurado basado en tres fases esenciales. La primera fase es el modelado de amenazas, que consiste en identificar y comprender los riesgos específicos que los agentes de IA autónomos pueden generar. Esto implica analizar cómo la autonomía y la interacción con sistemas externos pueden abrir puertas a posibles ataques o fallos. La segunda fase son las pruebas de seguridad, donde los agentes se someten a simulaciones y escenarios controlados que permiten detectar y corregir vulnerabilidades antes de su despliegue real. Finalmente, la tercera fase es la implementación de protecciones en tiempo de ejecución, es decir, mecanismos de supervisión y control que garanticen que estos agentes actúan conforme a las políticas y objetivos de la organización, previniendo comportamientos no deseados o maliciosos durante su funcionamiento.

El artículo también ejemplifica cómo este enfoque puede aplicarse en la práctica con el caso de una empresa brasileña del sector salud. Esta organización enfrentaba un problema común en muchas instituciones: un cuello de botella costoso causado por el procesamiento manual de solicitudes de exámenes médicos. Al implementar agentes de IA para automatizar esta tarea, aplicaron el marco de seguridad propuesto, logrando identificar riesgos, mitigarlos y asegurar que la automatización no comprometiera la seguridad de los datos ni la calidad del servicio. Este ejemplo ilustra cómo la aplicación rigurosa de principios de seguridad puede facilitar la adopción responsable y efectiva de tecnologías avanzadas en sectores sensibles.

En conclusión, el artículo subraya la importancia de un enfoque proactivo y sistemático en la gestión de la seguridad de los agentes de IA autónomos. Solo mediante la identificación temprana de riesgos, pruebas rigurosas y controles continuos en tiempo real, las organizaciones podrán aprovechar al máximo las ventajas de estas tecnologías sin poner en riesgo su integridad, privacidad o cumplimiento normativo. La seguridad, por tanto, debe ser una prioridad inseparable del desarrollo y despliegue de agentes de IA para asegurar que su impacto sea positivo y sostenible a largo plazo.

Perspectivas de los estudiantes sobre los beneficios y riesgos de la inteligencia artificial en la educación

Pitts, Griffin, Viktoria Marcus, y Sanaz Motamedi. “Student Perspectives on the Benefits and Risks of AI in Education.” arXiv, 2025. https://arxiv.org/abs/2505.02198v2

Se ofrece una visión detallada sobre cómo perciben los estudiantes universitarios el uso de chatbots de inteligencia artificial (IA) en el ámbito educativo. Basado en una encuesta a 262 estudiantes de grado en una universidad pública estadounidense de gran tamaño, el estudio busca comprender no solo los aspectos positivos que los alumnos asocian con estas tecnologías, sino también sus inquietudes y temores respecto a su integración en el proceso de aprendizaje.

Entre los beneficios más valorados, los estudiantes resaltaron que los chatbots facilitan el estudio mediante un apoyo constante, ofreciendo respuestas rápidas y retroalimentación inmediata, lo que les permite aclarar dudas al instante y avanzar en su formación sin depender exclusivamente de la disponibilidad de profesores o tutores. También reconocieron que estas herramientas pueden complementar la instrucción tradicional, proporcionando explicaciones accesibles y ayudando a reforzar conceptos clave. Asimismo, valoran la posibilidad de acceder a información de manera ágil y en formatos variados, lo que les permite adaptar el aprendizaje a sus ritmos y estilos personales.

Sin embargo, el estudio también expone preocupaciones profundas que los estudiantes tienen sobre los riesgos y limitaciones de la IA en educación. Entre ellas, destaca la amenaza a la integridad académica, ya que temen que el uso de IA para generar trabajos o respuestas pueda fomentar el plagio y dificultar la evaluación justa del esfuerzo individual. Además, existe la preocupación de que la dependencia excesiva de estas herramientas pueda erosionar habilidades esenciales como el pensamiento crítico, el análisis profundo y la resolución creativa de problemas, capacidades que son fundamentales para el desarrollo académico y profesional. La fiabilidad de las respuestas generadas por los chatbots también es cuestionada, pues los estudiantes advierten que la IA puede ofrecer información inexacta o incompleta, lo que podría inducir a errores en el aprendizaje.

Los aspectos éticos también aparecen como una dimensión clave en la percepción estudiantil. Los alumnos expresan inquietudes relacionadas con la privacidad de sus datos, la posibilidad de sesgos algorítmicos que reproduzcan desigualdades o prejuicios, y el impacto ambiental asociado al alto consumo energético que requiere el entrenamiento y funcionamiento de estos sistemas. Finalmente, subrayan la importancia de mantener un componente humano en la educación, valorando la interacción personal, el juicio y la empatía que los docentes aportan, aspectos que consideran irremplazables por la inteligencia artificial.

Un tema particularmente delicado es la dificultad para distinguir entre trabajos realizados por estudiantes y aquellos generados total o parcialmente por IA, lo que genera incertidumbre sobre cómo evaluar la autoría y la autenticidad académica. Existe el temor de que trabajos legítimos puedan ser erróneamente señalados como producidos por IA, con consecuencias negativas para los estudiantes.

Ante estas complejas realidades, el artículo recomienda que las instituciones educativas desarrollen políticas claras y transparentes sobre el uso de IA, definiendo límites y condiciones que fomenten un empleo responsable y ético de estas tecnologías. Además, sugiere que se promueva una alfabetización digital sólida entre estudiantes y docentes para que comprendan las capacidades, limitaciones y riesgos de la IA, y puedan integrarla como una herramienta complementaria en su proceso de aprendizaje. Solo así se podrá maximizar el potencial de la inteligencia artificial para enriquecer la educación, garantizando al mismo tiempo la calidad, la equidad y la integridad del entorno académico.

Pros y contras

Pros:

  • Apoyo al estudio: La IA proporciona ayuda constante y personalizada, facilitando la comprensión de conceptos complejos.
  • Retroalimentación inmediata: Los chatbots responden al instante, lo que acelera el proceso de aprendizaje y resolución de dudas.
  • Capacidades instructivas: La IA complementa la enseñanza tradicional con explicaciones claras y adaptadas.
  • Acceso ágil a la información: Permite a los estudiantes encontrar rápidamente datos y recursos útiles.
  • Flexibilidad: Los estudiantes pueden aprender a su propio ritmo y según sus necesidades.

Contras:

  • Riesgo para la integridad académica: Posibilidad de plagio o trabajos generados por IA que dificultan la evaluación justa.
  • Pérdida de habilidades críticas: Dependencia excesiva que puede afectar el desarrollo del pensamiento crítico y creativo.
  • Fiabilidad cuestionable: La IA puede generar respuestas inexactas o incompletas, afectando el aprendizaje.
  • Cuestiones éticas: Problemas relacionados con la privacidad de datos, sesgos algorítmicos y el impacto ambiental.
  • Dificultad para distinguir autorías: Complica la identificación de trabajos auténticos frente a los generados por IA.
  • Necesidad de mantener el componente humano: La interacción y juicio de docentes siguen siendo esenciales y no reemplazables.

Una guía práctica para el uso eficaz de las Normas APA 7ma edición

Ramírez Martínez, Jorge Enrique, et al.. Una guía práctica para el uso eficaz de las Normas APA 7ma edición: Primeros pasos en la citación y referenciación académica. Villavicencio: Universidad Santo Tomás, 2024.

Texto completo

En esta guía se encuentra un conjunto de herramientas, recomendaciones, ejemplos y usos de la citación y referenciación bajo las normas APA – Séptima Edición. Se busca que la comunidad académica tenga una guía práctica hacer más eficaz este proceso en los procesos académicos e investigativos en general y correspondientes con las opciones de grado en particular.

Loli Sánchez y el Coro de AFIBROSAL Viviendo en la era pop 2025/06/06

Loli Sánchez y el Coro de AFIBROSAL

Viviendo en la era pop 2025/06/06

ESCUCHAR

Descargar

El Coro de Afibrosal, la Asociación de Personas con Fibromialgia y Síndrome de Fatiga Crónica de Salamanca, actúa este sábado 7 de Junio a las 12 del mediodía en el Mercado Central (plaza del Mercado).

Un buen momento para charlar con la directora del Coro, Dolores Sánchez, una de las cantantes, María Mercedes y Pilar Rodríguez , vicepresidenta de la Asociación, que nos hablaron de la Fibromialgia y otras dolencias, las dificultades del diagnóstico y tratamiento, las actividades de Afibrosal, y la trayectoria y objetivos del Coro.

Reddit demanda a Anthropic por utilizar sus datos sin autorización para entrenar su modelo

Zeff, Maxwell. “Reddit Sues Anthropic for Allegedly Not Paying for Training Data.” TechCrunch, 4 de junio de 2025. https://techcrunch.com/2025/06/04/reddit-sues-anthropic-for-allegedly-not-paying-for-training-data/

El 4 de junio de 2025, Reddit interpuso una demanda contra Anthropic, una empresa dedicada a la inteligencia artificial, en un tribunal de California. La denuncia se basa en que Anthropic habría utilizado sin autorización los datos de Reddit para entrenar su modelo de lenguaje, conocido como Claude. Reddit acusa a Anthropic de incumplir sus normas de uso y de ignorar las restricciones técnicas impuestas para proteger su contenido.

Específicamente, la demanda señala que Anthropic empleó bots automatizados para acceder al sitio de Reddit más de 100.000 veces desde julio de 2024, a pesar de que Reddit había establecido en su archivo robots.txt la prohibición expresa de este tipo de acceso no autorizado. Este archivo es una herramienta estándar que permite a los sitios web controlar y limitar el acceso de bots a sus contenidos.

Reddit destaca que, a diferencia de otras grandes compañías de tecnología como OpenAI y Google, con quienes tiene acuerdos de licencia para el uso de sus datos, Anthropic no obtuvo ningún permiso para utilizar la información alojada en Reddit. Esta falta de autorización constituye, según Reddit, una violación de derechos y una explotación indebida de su patrimonio digital.

Como consecuencia, Reddit solicita que se le otorguen daños compensatorios por el uso no autorizado de su contenido y que el tribunal emita una orden que prohíba a Anthropic seguir utilizando los datos de la plataforma sin consentimiento. Este caso se suma a un creciente debate legal y ético sobre el uso de datos en la formación de modelos de inteligencia artificial y la protección de los derechos de los creadores y propietarios de contenido en internet.

Políticas sobre el uso de la inteligencia artificial generativa (IA Gen) en la enseñanza superior

EDUCAUSE. 2025. “In the Room Where It Happens: Generative AI Policy Creation in Higher Education.” EDUCAUSE Review, May 7, 2025. https://er.educause.edu/articles/2025/5/in-the-room-where-it-happens-generative-ai-policy-creation-in-higher-education

Se analiza el modo en que las universidades están respondiendo al auge de la inteligencia artificial generativa (IA Gen) mediante la creación de políticas institucionales. A medida que herramientas como ChatGPT, Copilot o Bard se integran en la vida académica, las instituciones enfrentan el reto de formular directrices claras, responsables y equitativas sobre su uso.

Según datos del estudio EDUCAUSE AI Landscape 2025, menos del 40 % de las universidades encuestadas han desarrollado políticas específicas relacionadas con el uso aceptable de estas herramientas. Esto refleja una desconexión entre el crecimiento del uso de la IA y la gobernanza que debería acompañarlo.

Una de las principales preocupaciones que aborda el artículo es que muchas de las conversaciones sobre IA generativa ocurren de forma fragmentada dentro de las instituciones. Los debates se dan por separado en unidades como servicios de TI, bibliotecas, centros de enseñanza y aprendizaje, oficinas de accesibilidad o departamentos académicos, sin una coordinación transversal. Esta falta de conexión impide un enfoque coherente y compartido sobre cómo incorporar la IA en la docencia, la investigación, la administración y los servicios al estudiante. Además, al tratarse de un fenómeno que impacta de forma transversal, la ausencia de colaboración puede generar vacíos normativos o inconsistencias en su aplicación.

El artículo hace una llamada a crear “espacios comunes” donde confluyan las distintas voces de la comunidad universitaria, desde estudiantes y profesorado hasta personal técnico y administrativo. Sostiene que incluir una diversidad de perspectivas en la creación de políticas no solo promueve un enfoque más justo y reflexivo, sino que también fortalece el sentido de pertenencia institucional. Esta participación amplia y deliberativa puede contribuir a identificar riesgos éticos, brechas en el acceso o preocupaciones sobre privacidad que de otro modo podrían quedar fuera del debate.

Asimismo, se subraya la importancia de fomentar una cultura institucional basada en la colaboración y la transparencia, en lugar de limitarse a imponer normas desde arriba. El desarrollo de políticas inclusivas, señala el texto, es un proceso tanto técnico como cultural. Se trata de alinear la gobernanza tecnológica con los valores educativos y sociales de la institución, garantizando que la IA generativa se utilice de manera responsable, creativa y crítica.

En conclusión, el artículo propone que la formulación de políticas sobre IA en la educación superior debe hacerse «en la sala donde ocurre», es decir, en espacios reales de deliberación colectiva, abiertos a todas las voces. Solo así será posible construir un marco normativo robusto y alineado con los desafíos actuales de la enseñanza, la equidad y la transformación digital en las universidades.

El legado Otto Piert: una vida de coleccionismo dedicada al grabado

Ministerio de Cultura, Secretaría General Técnica, Subdirección General de Publicaciones, Información y Documentación, eds. El legado Otto Piert: una vida de coleccionismo dedicada al grabado. Madrid: Ministerio de Cultura, 2024.

Texto completo

Este libro es el catálogo de la exposición El legado Otto Piert. Una vida de coleccionismo dedicada al grabado, celebrada en el Museo Nacional de Cerámica y Artes Suntuarias «González Martí» del 29 de junio al 17 de octubre de 2021.

La obra ofrece una visión detallada de la trayectoria de Otto Piert como coleccionista, destacando su dedicación al grabado. Incluye estudios sobre su vida, la importancia de su colección y las estrategias de conservación preventiva aplicadas a sus obras.

Cómo pueden colaborar las bibliotecas y las editoriales académicas para lograr una edición accesible desde el nacimiento

Muguira, Wendy. 2025. “Guest Post — How Libraries and Scholarly Publishers Can Work Together Toward Born Accessible Publishing.” The Scholarly Kitchen, May 1, 2025. https://scholarlykitchen.sspnet.org/2025/05/01/guest-post-how-libraries-and-scholarly-publishers-can-work-together-toward-born-accessible-publishing/

La colaboración entre bibliotecas y editoriales académicas es crucial para avanzar hacia una publicación accesible desde su origen, garantizando que todos los usuarios, independientemente de sus capacidades, tengan acceso equitativo al conocimiento.

Una publicación verdaderamente accesible permite a los lectores consumir el contenido de la manera que elijan, ya sea leyendo con los ojos, escuchando con los oídos o sintiendo con los dedos (por ejemplo, mediante Braille). Modelos basados en XML, como JATS, son fundamentales para la accesibilidad, ya que permiten el consumo multimodal del contenido

El artículo destaca la colaboración entre bibliotecas y editoriales académicas para promover la publicación accesible desde su origen, se destaca que menos del 10% de las obras publicadas globalmente incluyen características que las hacen utilizables por personas con discapacidades, como la inclusión de metadatos de accesibilidad o descripciones de imágenes.

Para abordar esta brecha, se proponen varias estrategias:

  • Aprovechar iniciativas nacionales: La legislación, como el European Accessibility Act (EAA), establece estándares y plazos específicos que impulsan a bibliotecas y editoriales a trabajar conjuntamente para garantizar el acceso equitativo a obras digitales
  • Colaboración en pruebas y remediación: La cooperación entre bibliotecas y editoriales puede acelerar la corrección de contenidos inaccesibles y facilitar el intercambio de conocimientos sobre prácticas efectivas para aumentar la accesibilidad.
  • Involucrar a usuarios con necesidades de accesibilidad: Es esencial incluir a personas con discapacidades en el proceso de validación de características de accesibilidad, asegurando que las soluciones implementadas realmente satisfagan sus necesidades.
  • Utilizar herramientas y recursos disponibles: Existen herramientas gratuitas, como el validador ACE de DAISY para ePub y el verificador de accesibilidad de PDF de Adobe, que ayudan a identificar y corregir errores de accesibilidad en las publicaciones.

Tesauro y Diccionario de toponimia histórica de la península ibérica, Baleares y Canarias: Diccionario geográfico de Toponimia Histórica.

Martín Bañón, Asunción. Tesauro y Diccionario de toponimia histórica de la península ibérica, Baleares y Canarias: Diccionario geográfico de Toponimia Histórica. Madrid: Ministerio de Cultura, Secretaría General Técnica, Subdirección General de Atención al Ciudadano, Documentación y Publicaciones, 2025

Texto completo

Esta obra, elaborada por Asunción Martín Bañón y publicada por el Ministerio de Cultura de España en 2025, se centra en la toponimia histórica de la península ibérica, Baleares y Canarias. Forma parte de una labor continuada durante más de veinte años por la Subdirección General de Museos Estatales, que ha desarrollado vocabularios relacionados con el patrimonio cultural, especialmente con los bienes custodiados en museos y centros con colecciones museográficas. El libro actúa como un tesauro y diccionario geográfico, proporcionando definiciones y relaciones terminológicas que facilitan la comprensión y el estudio de los nombres de lugares históricos en estas regiones.