Archivo de la categoría: Procesos técnicos

Catalogar con inteligencia artificial: retos y límites de la IA en los metadatos

Bryant, Rebecca y Annette Dortmund. “Striking the Right Balance: Opportunities and Challenges of AI in Metadata Workflows.Hanging Together, OCLC Research Library Partnership, 2025. https://hangingtogether.org/striking-the-right-balance-opportunities-and-challenges-of-ai-in-metadata-workflows/

La inteligencia artificial (IA) tiene un gran potencial para mejorar los flujos de trabajo de metadatos, ya que ofrece herramientas para aumentar la eficiencia, mejorar la búsqueda y abordar retos que llevan mucho tiempo presentes en las bibliotecas. Sin embargo, como ocurre con cualquier tecnología transformadora, la adopción de la IA requiere una reflexión profunda sobre sus limitaciones, sus implicaciones éticas y su impacto en la práctica profesional. La clave está en encontrar el equilibrio adecuado, uno que aproveche las capacidades de la IA y, al mismo tiempo, mantenga la calidad y los estándares profesionales de los que dependen las bibliotecas.

Entre abril y junio de 2024, la OCLC Research Library Partnership (RLP) convocó al Grupo de Trabajo sobre la Gestión de la IA en los Flujos de Trabajo de Metadatos. Este grupo de trabajo reunió a gestores de metadatos para explorar cómo se podría integrar la IA en los flujos de trabajo de catalogación, colecciones especiales y repositorios institucionales. A lo largo de estos debates, los bibliotecarios y archiveros expresaron tanto entusiasmo como cautela sobre la adopción de la IA, y surgieron una serie de temas transversales, ideas que van más allá de los flujos de trabajo específicos y destacan las oportunidades y los retos de la adopción responsable de la IA en las bibliotecas.

Un tema fundamental en todos los debates fue la importancia crítica de la calidad de los metadatos. Los participantes en los grupos de trabajo afirmaron de manera sistemática que crear registros utilizando IA es contraproducente si los recursos no se describen con precisión o si se induce a error a los usuarios. Este énfasis en la calidad no es un obstáculo para la adopción de la IA, sino un marco para su implementación responsable.

A partir de las conclusiones del grupo de trabajo “Managing AI in Metadata Workflows” de la OCLC, se destacan varias tensiones: por un lado, la IA ofrece eficiencia, puede automatizar tareas repetitivas y liberar tiempo para que los catalogadores se centren en trabajos de mayor valor; por otro, se plantea la necesidad de preservar la calidad de los metadatos, evitar “alucinaciones” (errores de la IA), y mantener el control humano mediante revisiones.

Se plantearon repetidamente varias consideraciones relacionadas con la calidad:

  • Alucinaciones que introducen información falsa en los registros del catálogo.
  • Resultados inconsistentes a partir de entradas idénticas, lo que socava la fiabilidad.
  • Puntuaciones de confianza poco fiables que no siempre reflejan con precisión la calidad del contenido generado por la IA.
  • Fallos en el reconocimiento de entidades, en los que los resultados generados por la IA pueden parecer sintácticamente correctos, pero no identifican a la persona, el lugar o la organización correctos.

Sin embargo, estos retos están impulsando innovaciones productivas en lugar de suponer barreras insuperables. El enfoque de OCLC para la deduplicación basada en IA en WorldCat demuestra cómo se pueden abordar las preocupaciones sobre la calidad mediante enfoques híbridos que combinan la eficiencia de la IA con la experiencia humana. OCLC ha colaborado estrechamente con la comunidad de catalogación para ayudar a validar la comprensión de su modelo de aprendizaje automático de los registros duplicados en WorldCat. Hasta la fecha, OCLC ha eliminado más de 9 millones de registros duplicados de WorldCat gracias a este modelo de IA, que seguimos probando y perfeccionando. El proceso incluye protocolos de toma de decisiones conservadores y supervisión humana para casos complejos, lo que demuestra cómo la IA puede ampliar el trabajo de calidad en lugar de comprometerlo.

Una cuestión recurrente es la dificultad de los modelos actuales para entender contexto cultural o terminología especializada, lo que puede llevar a imprecisiones semánticas. Además, se discute cómo los roles profesionales están cambiando: la IA puede encargarse del volumen bajo, pero los especialistas siguen siendo indispensables para revisar, validar y ajustar los resultados. Esto implica diseñar nuevos perfiles profesionales con habilidades para evaluar salidas de IA y para intervenir cuando la máquina se equivoca.

El texto también profundiza en los aspectos éticos: subraya la importancia de la transparencia (se debe dejar constancia de cuándo un metadato ha sido generado por IA), la trazabilidad y los estándares para gestionar la autoría de la IA. Además, apunta a las preocupaciones medioambientales relacionadas con el consumo energético de los modelos de IA y reclama una implementación sostenible. El análisis termina señalando que no se trata de sustituir al profesional, sino de colaborar con la IA de manera que se potencien sus fortalezas sin sacrificar rigor, equidad ni responsabilidad.

Cuando la inteligencia artificial reemplaza la experiencia: bibliotecas y catalogación en riesgo

Olson, Mike. «Beyond Classification: The Human Cost of Library and Information Labor Under Digital CapitalismThe Scholarly Kitchen, 26 de agosto de 2025. https://scholarlykitchen.sspnet.org/2025/08/26/guest-post-beyond-classification-the-human-cost-of-library-and-information-labor-under-digital-capitalism/

Las bibliotecas y su personal se ven afectados por la automatización, la externalización y la mercantilización del trabajo informativo en la era del capitalismo digital.

Se destaca cómo la consolidación de proveedores y la automatización mediante inteligencia artificial están eliminando el trabajo invisible que sostiene los sistemas bibliotecarios. Por ejemplo, la reciente reducción de personal en OCLC, la organización sin fines de lucro que gestiona el Sistema Dewey y WorldCat, refleja una contradicción fundamental en la valoración de la experiencia en catalogación: mientras que la organización cita la inteligencia artificial como justificación para los recortes laborales, también está desarrollando herramientas de inteligencia artificial para el procesamiento de metadatos. Esta contradicción pone de manifiesto cómo los avances tecnológicos celebrados por su eficiencia están borrando la experiencia humana que crea los metadatos de alta calidad de los que dependen estos sistemas para funcionar.

Además, el artículo señala que la mano de obra bibliotecaria ejemplifica lo que Maurizio Lazzarato identifica como «trabajo inmaterial»: trabajo que produce tanto contenido informativo como estandarización cultural, convirtiéndose en directamente productivo para el capitalismo digital a través de sistemas controlados por proveedores que agregan y monetizan metadatos estandarizados. La devaluación de la experiencia en catalogación se hace visible cuando las instituciones eliminan estos puestos durante los recortes presupuestarios. Por ejemplo, el despido de Violet Fox, una de las voces líderes en catalogación crítica y creadora del Cataloging Lab, ejemplifica el tipo de conocimiento especializado en catalogación que las instituciones están eliminando precisamente cuando más se necesita. Los catalogadores como Fox realizan el trabajo invisible de desafiar los sistemas de clasificación coloniales, asegurando que los encabezamientos de materia reflejen las necesidades de la comunidad en lugar de los términos genéricos proporcionados por los proveedores, haciendo que las colecciones sean descubribles y accesibles, y manteniendo la calidad de los metadatos que permite la investigación académica.

El artículo también destaca cómo los catálogos en línea actuales funcionan cada vez más como interfaces de sistemas de descubrimiento controlados por proveedores que agregan metadatos de múltiples fuentes con una supervisión local mínima. Esto representa una pérdida de autonomía institucional, ya que las decisiones sobre encabezamientos de materia, clasificación y referencias cruzadas se toman cada vez más en función de las necesidades de los proveedores en lugar de las necesidades de las colecciones y comunidades locales.

Inteligencia artificial y catalogación en bibliotecas

Getaneh Alemu, Anna Maria Tammaro; Navigating the artificial intelligence frontier on cataloguing and metadata work in libraries: an interview with Getaneh AlemuDigital Library Perspectives 20 August 2025; 41 (3): 587–592. https://doi.org/10.1108/DLP-08-2025-208

Se reflexiona sobre cómo la inteligencia artificial (IA) está transformando la catalogación. Plantea que la relación ideal entre la IA y los representantes humanos debe basarse en la complementariedad, más que en la sustitución. Según el autor, las máquinas pueden hacerse cargo de tareas repetitivas y estructuradas —como la clasificación inicial o el etiquetado automático—, mientras que los bibliotecarios y catalogadores deben conservar el papel de brindar juicio experto, interpretación contextual y garantía de calidad, elementos que aún son difícilmente automatizables

Además, Alemu insiste en que la implementación responsable de la IA en entornos bibliotecarios debe partir de los principios éticos de transparencia y precisión. Es fundamental que los sistemas automatizados actúen con transparencia, de modo que los usuarios puedan entender cómo se generan los metadatos y qué criterios siguen los algoritmos

La entrevista también destaca una visión esperanzadora para el futuro: la IA no debería percibirse como una amenaza, sino como una herramienta para potenciar la eficiencia, liberando a los profesionales de la biblioteconomía de labores mecánicas para enfocarse en aspectos más complejos y creativos de su labor. Alemu vislumbra un ecosistema en que la tecnología permita una mejor organización del conocimiento, sin sacrificar la supervisión humana ni el cuidado por la calidad bibliográfica.

La postura de Alemu subraya la necesidad de un enfoque equilibrado: integrar la IA como aliada, no como reemplazo, reforzando el rol humano a través de la ética, la transparencia y la experiencia profesional en catalogación y metadatos.

Chewy Decimal System: una crítica satírica a la clasificación decimal en bibliotecas

Video humorístico compartido en el blog Kottke.org, en el que se presenta la propuesta del divulgador científico Hank Green, quien argumenta que la forma en la que están organizados las bibliotecas es ineficiente y frustrante para los usuarios. Como solución, sugiere reorganizarlos siguiendo una lógica inspirada en el sistema de clasificación bibliotecario, al que llama irónicamente el “Chewy Decimal System” (Sistema Decimal Masticable), parodiando el Dewey Decimal System usado en bibliotecas.

El artículo también sirve como una crítica indirecta a dicho sistema bibliotecario. Se menciona que muchos bibliotecarios no lo aprecian, ya que fue diseñado en el siglo XIX con una visión eurocentrista y colonial, reflejando prejuicios como:

  • Priorizar el cristianismo en la clasificación religiosa.
  • Colocar a los pueblos indígenas en la sección de historia como si fueran del pasado.
  • Separar arbitrariamente animales salvajes y domésticos.

Además, se cuestiona su utilidad para niños, ya que exige comprensión de decimales antes de que se enseñen en la escuela, y se señala que existen sistemas alternativos más intuitivos, aunque su implementación es costosa.

La propuesta de Hank Green es, en esencia, un comentario satírico sobre la rigidez de los sistemas organizativos tradicionales, tanto en bibliotecas como en supermercados, y una invitación a repensar cómo organizamos la información (o los productos) en función de la experiencia del usuario.

Análisis comparativo de chatbots de IA para la extracción de metadatos en bibliotecas universitarias

González-Espinoza, Alfredo, Dom Jebbia, y Haoyong Lan. «Metadata Augmentation Using NLP, Machine Learning and AI-Chatbots: A ComparisonarXiv, abril 25, 2025. https://arxiv.org/abs/2504.17189

El estudio ofrece un análisis exhaustivo sobre el uso de herramientas de inteligencia artificial (IA) y aprendizaje automático para la tarea de recogida de metadatos, especialmente en el contexto de bibliotecas universitarias. Los avances recientes en estas tecnologías han permitido que tareas repetitivas, como la clasificación de documentos y la curación de datos, sean más automatizadas, lo que puede optimizar significativamente los flujos de trabajo en instituciones como las bibliotecas. Sin embargo, el desarrollo y la integración efectiva de estas herramientas en entornos de trabajo reales aún enfrentan desafíos importantes.

Los autores, Alfredo González-Espinoza, Dom Jebbia y Haoyong Lan, quienes son parte del equipo de Bibliotecas Universitarias en la Universidad Carnegie Mellon, realizan un estudio comparativo entre diferentes enfoques para la extracción de metadatos. En particular, se enfocan en el uso de chatbots comerciales basados en IA y su capacidad para realizar tareas de clasificación de documentos con datos limitados. Además, comparan estos resultados con los obtenidos mediante métodos tradicionales de aprendizaje automático y procesamiento de lenguaje natural (PLN), como XGBoost y el ajuste fino de BERT.

El análisis revela que, aunque los chatbots de IA muestran un rendimiento similar entre ellos, superan a los métodos de aprendizaje automático que fueron probados, especialmente cuando los chatbots se entrenan utilizando datos locales. Este hallazgo es significativo, ya que sugiere que, en situaciones con datos limitados, las soluciones basadas en IA pueden ser más efectivas que los enfoques tradicionales. Sin embargo, los autores también subrayan que, a pesar de su facilidad de uso en comparación con los métodos de programación tradicionales, los chatbots aún presentan retos para los usuarios en términos de obtener resultados útiles. A pesar de que la interacción con los chatbots puede parecer más accesible, los resultados no siempre son confiables y pueden requerir ajustes adicionales.

Un hallazgo preocupante del estudio fue la identificación de errores conceptuales alarmantes en algunos chatbots, tales como la incapacidad de contar correctamente el número de líneas de los textos de entrada. Curiosamente, algunos chatbots justificaron estos errores como «errores humanos», lo que resalta la necesidad de mejorar la precisión y la comprensión de estos sistemas. Este tipo de error pone en duda la fiabilidad de los chatbots de IA para tareas que requieren una precisión absoluta, como la clasificación de metadatos en bibliotecas, donde los detalles son cruciales.

A pesar de estos problemas, los autores concluyen que la información proporcionada en su estudio es valiosa para bibliotecarios y curadores de datos que deseen explorar el uso de herramientas de IA en la curación de datos o en el aumento de metadatos. Aunque los resultados no son concluyentes sobre la eficacia total de los chatbots de IA para la clasificación de metadatos, el artículo ofrece una visión importante sobre las ventajas y limitaciones de estas herramientas emergentes. En este sentido, el estudio puede servir como base para futuras investigaciones y como guía para los profesionales que están considerando integrar estas tecnologías en sus prácticas diarias.

Chatbots de IA y catalogación por materias: una prueba de rendimiento

​Dobreski, Brian, and Christopher Hastings. «AI Chatbots and Subject Cataloging: A Performance Test.» Library Resources & Technical Services 69, no. 2 (2025): https://doi.org/10.5860/lrts.69n2.8440

Se analiza el uso de chatbots basados en inteligencia artificial (IA) para realizar tareas de catalogación temática en bibliotecas. En un contexto donde las tecnologías basadas en modelos de lenguaje están en expansión, y las bibliotecas exploran nuevas formas de integrar herramientas digitales para optimizar sus flujos de trabajo, este estudio aporta evidencia empírica al debate sobre si los chatbots gratuitos como ChatGPT, Gemini y Copilot pueden asumir tareas complejas de catalogación, en particular la asignación de encabezamientos de materia y números de clasificación.

Los autores enmarcan su investigación en el creciente interés que ha despertado la IA en el mundo bibliotecario. Numerosos profesionales han empezado a experimentar con estas herramientas en áreas como servicios de referencia, gestión de colecciones y asesoría a lectores. Sin embargo, en el área específica de la catalogación temática, persisten dudas significativas sobre la precisión, fiabilidad y utilidad de los chatbots. La catalogación por materias implica analizar el contenido intelectual de los recursos para identificar su “aboutness” o tema central, y luego representar ese contenido mediante sistemas normativos como el Library of Congress Subject Headings (LCSH), el Library of Congress Classification (LCC) y el Dewey Decimal Classification (DDC). Estos sistemas son altamente estructurados, complejos y requieren formación especializada para ser utilizados con precisión.

Para poner a prueba las capacidades de los chatbots, los investigadores diseñaron un experimento basado en el libro didáctico Essential Classification de Vanda Broughton, una obra ampliamente reconocida en el ámbito de la catalogación. De este libro se extrajeron una serie de ejercicios reales de catalogación que fueron transformados en 98 preguntas, diseñadas para ser comprensibles incluso para estudiantes principiantes. Estas preguntas fueron clasificadas en tres categorías: 50 sobre LCSH, 25 sobre LCC y 23 sobre DDC. Las preguntas fueron presentadas directamente a los chatbots en su versión gratuita, sin uso de ingeniería de prompts ni ajustes en la formulación, con el objetivo de simular una interacción básica y accesible para cualquier bibliotecario sin experiencia técnica avanzada.

Las respuestas obtenidas por los tres chatbots fueron evaluadas minuciosamente y comparadas con las soluciones propuestas por el texto de Broughton. Para determinar su calidad, se tomaron en cuenta criterios como exactitud, validez dentro del sistema de clasificación, adecuación al tema y presencia de errores evidentes o alucinaciones (es decir, invenciones de términos o números inexistentes). Los resultados fueron reveladores. En el caso de los ejercicios de clasificación Dewey (DDC), el desempeño general fue bajo en todos los modelos. ChatGPT logró la puntuación más alta con un 26% de respuestas correctas o aceptables, mientras que Gemini obtuvo un 17% y Copilot apenas un 9%. Los errores comunes incluyeron el uso de números demasiado amplios, números correspondientes a temas incorrectos y, en algunos casos, números inexistentes.

El panorama fue aún más desalentador en la asignación de números de clasificación de la Biblioteca del Congreso (LCC). Gemini mostró un rendimiento particularmente deficiente, con una tasa de éxito del 4%, frente al 20% de ChatGPT y el 24% de Copilot. En esta categoría, los errores fueron más graves: se detectaron alucinaciones frecuentes de números inexistentes, uso incorrecto de clases generales, y asignaciones sin fundamento temático adecuado. Además, las herramientas mostraron una preocupante tendencia a reutilizar códigos ya vistos en preguntas anteriores para temas completamente diferentes, un comportamiento que pone en duda la capacidad de los chatbots para mantener consistencia temática.

En cuanto a la asignación de encabezamientos de materia LCSH, los resultados mostraron diferencias más marcadas entre los modelos. ChatGPT destacó en esta categoría, alcanzando un 54% de aciertos entre respuestas correctas, cercanas o aceptables. Gemini quedó atrás con un 26%, y Copilot tuvo el rendimiento más bajo con un 10%. Aunque la mayoría de las respuestas contenían múltiples encabezamientos sugeridos, los investigadores evaluaron el mejor de cada caso para determinar la puntuación final. ChatGPT no solo generó una mayor cantidad de encabezamientos por pregunta (promedio de 6), sino que también mostró una tasa más alta de validez semántica y estructural (63% de todos los encabezamientos sugeridos eran válidos según el sistema LCSH). Sin embargo, también cometió errores notables, como omitir subdivisiones esenciales o proponer encabezamientos demasiado generales.

Un hallazgo interesante fue la divergencia en los tipos de errores cometidos por cada chatbot. Por ejemplo, Gemini tendía a agregar subdivisiones innecesarias o inventadas, muchas veces encerradas entre corchetes, lo que indicaba inseguridad en la elección de términos. Copilot, por otro lado, proponía encabezamientos muy generales o usaba una estrategia facetada sin combinarlos en una sola cadena coherente, lo que podría hacerlo más apto para sistemas como FAST en lugar de LCSH. ChatGPT, aunque más preciso, también incurría en errores típicos de omisión o simplificación excesiva.

Los autores argumentan que, aunque ningún chatbot fue capaz de reemplazar el juicio experto del catalogador, ChatGPT mostró un nivel de rendimiento que sugiere un potencial moderado como herramienta de apoyo, especialmente en la generación de encabezamientos de materia. Sin embargo, recalcan que la intervención humana sigue siendo indispensable para verificar la existencia y pertinencia de los términos propuestos, así como para ajustar los resultados a las reglas específicas de cada sistema. De hecho, la utilidad real de estas herramientas podría residir más en su capacidad para ofrecer un punto de partida que en su aptitud para realizar tareas completas de forma autónoma.

El estudio no estuvo exento de limitaciones importantes, como el uso exclusivo de versiones gratuitas de los chatbots, la falta de interacción iterativa o de re-prompting, y el hecho de evaluar solo una respuesta por pregunta, lo cual puede dar una imagen más positiva de la real capacidad de estas herramientas. Además, los ejercicios seleccionados estaban diseñados para formar estudiantes en proceso de aprendizaje, y no necesariamente para ser evaluados bajo criterios estrictos de rendimiento profesional.

A modo de cierre, los autores señalan varias líneas prometedoras para futuras investigaciones. Entre ellas se incluyen la repetición del estudio con versiones futuras o de pago de los chatbots, la incorporación de ingeniería de prompts más compleja, y la comparación del rendimiento entre chatbots, catalogadores novatos y catalogadores que utilizan IA como apoyo. También sugieren explorar el uso de chatbots con otros sistemas de clasificación más simples o especializados, como FAST o MeSH, que podrían ser más compatibles con las limitaciones de las herramientas actuales.

En conclusión, este estudio ofrece una valiosa contribución al debate sobre el uso de IA en bibliotecas, evidenciando que aunque los chatbots no están listos para asumir tareas de catalogación temática de forma autónoma, podrían desempeñar un papel útil si son usados con criterio profesional. La clave está en combinar el potencial de la IA con el conocimiento experto del personal bibliotecario, así como en fomentar una alfabetización en IA que permita a los profesionales utilizar estas herramientas de manera crítica, efectiva y ética en el contexto de la gestión de la información.

Revisión de los Principios Internacionales de Catalogación (ICP) de IFLA

International Cataloguing Principles (ICP) Worldwide Review IFLA, 2025

borrador revisada de los ICP

El grupo de trabajo de los Principios Internacionales de Catalogación (ICP) ha presentado la versión revisada de los Principios, aprobada en 2025 por la Sección de Catalogación de la IFLA. Actualmente, se ha lanzado una revisión mundial para recopilar comentarios de todas las comunidades e individuos interesados.

Para comprender completamente el propósito y alcance de la revisión, se invita a los participantes a leer la Declaración de Intención publicada en la página. A continuación, se puede acceder a la versión borrador revisada de los ICP.

Se agradecen especialmente los comentarios sobre los siguientes temas:

  • ¿Considera que el lenguaje del documento es fácil de entender desde el punto de vista de un hablante no nativo de inglés?
  • ¿Cree que la estructura del documento es clara y coherente?
  • ¿Está el propósito del documento claramente expresado?
  • ¿Le fue útil la declaración de intención para evaluar el documento?
  • Una vez aprobado, ¿cómo le gustaría que IFLA se comunicara sobre el documento en el futuro?

Envíe sus respuestas por correo electrónico en un documento PDF o MS Word adjunto a: melanie.roche@bnf.fr y christian.Aliverti@nb.admin.ch

Formación Básica sobre Documentación Musical para Agrupaciones Instrumentales

Formación Básica sobre Documentación Musical para Agrupaciones Instrumentales 2024

AEDOM Asociación Española de Documentación Musical

Formación básica sobre gestión de archivos para agrupaciones instrumentales, impartida por Margarita Jaume Teruel. Diplomada en Biblioteconomía y Documentación por la Universitat de València, licenciada en Documentación y máster en Gestión Cultural por la Universitat Politècnica de València. Además, ha realizado estudios de grado medio en el Conservatorio Profesional de Música de València, especializándose en flauta y canto. Desde 2019, trabaja como técnico documentalista en el OAM Palau de la Música, Congressos i Orquestra de València, donde se enfoca principalmente en la gestión del archivo musical.»

ChatGPT ya es capaz de catalogar libros en formato Marc 21

ChatGPT puede ayudarte a crear un registro MARC 21 de manera manual, proporcionando el formato correcto y ayudándote a organizar los campos de manera adecuada.

A continuación os proporciono un ejemplo de cómo sería el registro en formato MARC 21 para el libro Luisa Mora Villarejo, Un legado común: las donaciones recibidas en el siglo XXI en la Biblioteca Islámica «Félix María Pareja» (Agencia Española de Cooperación Internacional para el Desarrollo, 2023), Para ello he copiado la información textual del catálogo y lo he pegado en ChatGPT, pidiendo que me elabore un registro MARC 21 de este libro. El resultado es este:

=LDR  01716cam a2200361 i 4500
=001 0000000001
=005 20231211
=008 231211s2023 sp 000 0 spa
=020 ## $a 9788483471937
=020 ## $a 109-23-042-X
=035 ## $a (NIPO) 0000000001
=035 ## $a (DL) M 33141-2023
=041 0# $a spa
=100 1# $a Mora Villarejo, Luisa, $e autor.
=245 10 $a Un legado común : $b las donaciones recibidas en el siglo XXI en la Biblioteca Islámica 'Félix María Pareja' / $c Luisa Mora Villarejo.
=260 ## $a Madrid : $b Agencia Española de Cooperación Internacional para el Desarrollo, Ministerio de Asuntos Exteriores, Unión Europea y Cooperación, $c 2023.
=300 ## $a 184 p. : $b il. col. ; $c 24 cm.
=490 1# $a Ciencias y humanismo (Agencia Española de Cooperación Internacional)
=504 ## $a Bibliografía: p. 155-159.
=520 ## $a El libro aborda las donaciones recibidas en el siglo XXI por la Biblioteca Islámica 'Félix María Pareja', destacando las bibliotecas personales donadas por figuras del arabismo y la cooperación cultural entre España y los países árabes.
=650 0# $a Agencia Española de Cooperación Internacional para el Desarrollo. $v Biblioteca.
=650 0# $a Bibliotecas $x Historia.
=650 0# $a Cooperación cultural de España.
=650 0# $a Arabistas españoles.
=650 0# $a Relaciones España-Países árabes.
=650 0# $a Colecciones especiales.
=710 2# $a Agencia Española de Cooperación Internacional para el Desarrollo, $e emisor.
=830 0# $a Ciencias y humanismo (Agencia Española de Cooperación Internacional)
=856 41 $u http://creativecommons.org/licenses/by-nc-sa/4.0/ $z Licencia Creative Commons - Attribution, Non-Commercial, ShareAlike (BY-NC-SA)

La herramienta también nos explica que es cada uno de los campos.

Explicación de los campos principales:

  • =245: Título completo, en este caso incluye el título y subtítulo del libro.
  • =260: Información de publicación, que incluye el lugar de publicación, el editor y la fecha de publicación.
  • =300: Descripción física del libro, que indica el número de páginas y el tamaño.
  • =504: Nota bibliográfica que incluye la bibliografía.
  • =520: Resumen o sinopsis del contenido del libro.
  • =650: Descriptores de temas que ayudan a clasificar el libro, en este caso relacionados con bibliotecas, makerspaces e innovación.
  • =852: Información sobre la ubicación del libro, en este caso, una biblioteca central.

Este es un ejemplo de cómo se podría estructurar el registro de este libro en un sistema de catalogación MARC 21 para una biblioteca.

Reglas de catalogación de la IASA para la descripción de registros sonoros y documentos audiovisuales relacionados

Texto completo

El Manual para la descripción de registros sonoros y documentos audiovisuales relacionados es una obra recopilada y editada por el Grupo Redactor de IASA bajo la dirección de Mary Milano. La versión en español fue traducida y adaptada con nuevos ejemplos por María del Pilar Gallego Cuadrado, de la Biblioteca Nacional.

ANABAD ha puesto a disposición de los profesionales de la documentación estas reglas de catalogación, originalmente publicadas por la International Association of Sound and Audiovisual Archives (IASA), para mejorar la normalización del trabajo en el ámbito de los documentos sonoros y audiovisuales. La traducción incluye ejemplos adaptados al mundo de habla hispana, enriqueciendo la utilidad del manual para los profesionales del sector.