Archivo de la etiqueta: Metadatos

¿Qué es la evaluación de metadatos?

Hannah Tarver y Steven Gentry. What is Metadata Assessment? DLF 2021

Texto completo

Esta entrada del blog ha sido redactada por Hannah Tarver y Steven Gentry, miembros del Grupo de Trabajo de Evaluación de Metadatos del Grupo de Interés de la Biblioteca Digital (DLF AIG MWG). Su objetivo es proporcionar una visión general resumida de la evaluación de metadatos en las bibliotecas digitales, incluyendo su importancia y beneficios.

La evaluación de metadatos consiste en valorar los metadatos para mejorar su utilidad tanto para los usuarios internos como externos. Hay tres categorías principales de metadatos:

[1] Los metadatos administrativos proporcionan información sobre la gestión o la conservación de los objetos digitales, como por ejemplo cuándo se archivó, qué acceso o restricciones tiene un elemento, un identificador único/permanente para un objeto, cuándo se migraron/copiaron/revisaron los archivos por última vez, etc.

2] Los metadatos descriptivos son el texto legible por el ser humano que describe la creación y el contenido de un elemento, como por ejemplo quién lo hizo, de qué trata y cuándo se hizo/publicó. Esta información se muestra en una interfaz de usuario de acceso público y con capacidad de búsqueda (mientras que los metadatos administrativos y estructurales pueden ser menos visibles o sólo accesibles internamente).

3] Los metadatos estructurales nombran todos los archivos asociados a un elemento (por ejemplo, un único PDF o varios archivos de imágenes individuales, archivos de metadatos, archivos OCR, etc.) y describen la relación entre ellos. Por ejemplo, si hay imágenes para páginas de texto individuales, o múltiples vistas de un objeto físico, los metadatos estructurales expresarían cuántas imágenes hay y el orden en que deben mostrarse.

En función del sistema local, pueden almacenarse datos específicos en distintos tipos de metadatos (por ejemplo, parte de la información de acceso puede estar en los metadatos descriptivos de cara al público, o parte de la información de preservación puede estar incorporada en los metadatos estructurales). Una organización podría evaluar varias características de cualquiera de estos tipos de metadatos o de todos ellos para asegurarse de que una biblioteca digital funciona correctamente; sin embargo, la mayoría de los investigadores y profesionales se centran en los metadatos descriptivos porque esta información determina si los usuarios pueden encontrar los materiales que se ajustan a sus intereses personales o académicos.

Errores en los metadatos

La evaluación de los metadatos es necesaria porque los errores y/o incoherencias se cuelan inevitablemente en los registros. Las colecciones suelen construirse a lo largo del tiempo, lo que significa que muchas personas diferentes participan en el ciclo de vida de los metadatos; las normas o directrices pueden cambiar; y la información puede trasladarse o combinarse. Hay una serie de aspectos de calidad que las organizaciones pueden querer evaluar dentro de los valores de los metadatos; he aquí algunos ejemplos:

Precisión

Errores tipográficos. Los errores ortográficos o de formato pueden producirse por accidente o debido a un malentendido sobre las reglas de formato. Incluso cuando se utilizan listas controladas, los valores pueden copiarse o seleccionarse incorrectamente.
Identificación errónea. Los creadores de metadatos pueden nombrar incorrectamente a personas o lugares representados o descritos en un elemento. Esto es especialmente problemático en el caso de las imágenes.

Registros erróneos.

Dependiendo de cómo se emparejen los ítems y sus registros de metadatos en un sistema concreto, un registro que describa un ítem puede aplicarse a un ítem totalmente diferente

Integridad

Información que falta. Ya sea por falta de recursos o simplemente por accidente, puede faltar información en los registros de metadatos. Puede tratarse de datos necesarios que afectan a la funcionalidad del sistema o de información opcional que podría ayudar a los usuarios a encontrar un elemento.

Información desconocida. Especialmente en el caso de los objetos del patrimonio cultural -como las fotos y los documentos históricos- puede faltar información que beneficiaría a los investigadores (por ejemplo, detalles sobre la creación de un elemento o personas o lugares importantes).

Conformidad con las expectativas

Terminología inadecuada. A veces, el lenguaje utilizado en los registros no se ajusta a los términos que podría preferir un grupo de usuarios primario (por ejemplo, un valor de materia para “gatitos” en lugar de “felinos” en un registro de una base de datos científica). Esto puede deberse a un uso incoherente de las palabras (por ejemplo, “coches” frente a “automóviles”) o a la falta de conocimiento de un editor sobre los descriptores más apropiados o precisos (por ejemplo, “broche de flores” para ramillete, o “tejado en forma de caricia” para tejados a dos aguas).

Lenguaje anticuado. Las colecciones que describen a determinados grupos de personas -como los grupos históricamente subrepresentados o marginados- pueden utilizar un lenguaje inapropiado y perjudicial. Esto es especialmente importante en el caso de los registros que se basan en vocabularios que cambian lentamente y que son compartidos por todos, como los Congress Subject Headings

Coherencia

Diferencias de formato. Si la coincidencia de cadenas exactas es importante, o si los campos utilizan vocabularios controlados, cualquier diferencia de formato (por ejemplo, “FBI” frente a “F.B.I.”) podría afectar a la búsqueda o a los filtros de búsqueda de la interfaz pública.

Variaciones del nombre. El mismo nombre puede introducirse de forma diferente en distintos registros en función de cómo se escriba en los artículos (por ejemplo, “tía Betty” frente a “Beatrice”), de los cambios de nombre (por ejemplo, nombres de soltera o fusiones organizativas), de la información disponible a lo largo del tiempo o del uso incoherente de una autoridad de nombres.

Oportunidad

Datos heredados o recolectados. Si las reglas de formateo han cambiado con el tiempo, o si la información ha sido migrada o importada desde otro sistema, puede haber valores incoherentes o artefactos en los registros. Entre ellos se encuentran las subdivisiones MARC en los valores de nombre/sujeto (véase la figura 4), el marcado técnico de las bases de datos (por ejemplo, “. pi. /sup +/, p”), o codificaciones de caracteres rotas (por ejemplo, “‘” en lugar de un apóstrofe).

Beneficios

La evaluación y mejora de los metadatos a lo largo del tiempo tiene una serie de beneficios para los usuarios y las organizaciones. Por ejemplo:

Los usuarios:

  • Los registros con metadatos completos, precisos y coherentes son más fáciles de encontrar en las búsquedas en línea.
  • Los materiales descritos de forma similar permiten que los elementos relevantes se coloquen más fácilmente.
  • Unos buenos metadatos pueden permitir que las interfaces públicas mejoren la experiencia del usuario (por ejemplo, mediante el filtrado de los resultados de las búsquedas).

Organizaciones que mantienen colecciones digitales:

  • Los metadatos sin errores son más fáciles de migrar de un sistema a otro o de integrar con otros recursos (por ejemplo, una capa de descubrimiento).
  • Los registros completos facilitan al personal la búsqueda y la promoción/anuncio de artículos especiales cuando surgen oportunidades.
  • Los registros de metadatos bien formados se comparten más fácilmente con otras organizaciones (por ejemplo, la Digital Public Library of America), lo que hace que esos materiales sean más accesibles.
  • Los buenos registros dan buena imagen de la organización, ya que los usuarios podrían desanimarse por la ortografía, la gramática o los problemas relacionados.

Métodos/Recursos

Aunque la evaluación de los metadatos es tremendamente beneficiosa, a menudo requiere un apoyo organizativo, como un compromiso amplio o continuo de personas y otros recursos. En primer lugar, el personal con conocimientos es crucial para el éxito de la evaluación y la mejora de los metadatos; los profesionales formados aportan su experiencia en metadatos (por ejemplo, la capacidad de determinar qué valores deben ser revisados o modificados) y las especialidades temáticas necesarias para el éxito de los esfuerzos de evaluación de los metadatos (en particular para los proyectos más grandes). Además, la evaluación y la mitigación o mejora de las colecciones requieren un tiempo considerable del personal para evaluar y editar los metadatos.

Otro componente importante de las actividades de evaluación de metadatos son las herramientas, que pueden incluir recursos basados en hojas de cálculo (por ejemplo, OpenRefine), o scripts especializados escritos en una variedad de lenguajes de programación. Es importante tener en cuenta que, aunque las herramientas pueden agilizar los esfuerzos de evaluación de metadatos, pueden requerir experiencia técnica y formación para ser utilizadas con eficacia.

Aparte del uso de herramientas para un análisis amplio, un método de evaluación popular es la evaluación manual de los registros (es decir, mirar un registro individual y revisar todos los valores). El empleo de este tipo de flujo de trabajo resulta atractivo para los profesionales por varias razones:

  • La evaluación manual de los metadatos requiere la menor cantidad de formación tecnológica.
  • Especialmente en el caso de las colecciones más pequeñas, la comprobación de todos los valores de un registro puede permitir menos ediciones y revisiones (es decir, los registros no se “tocan” tan a menudo).
  • Algunos aspectos de la calidad de los metadatos (por ejemplo, la precisión) sólo pueden determinarse mediante una evaluación manual.

Sin embargo, hay que tener en cuenta algunos retos a la hora de evaluar los metadatos. Una evaluación manual eficaz, por ejemplo, puede ser difícil de escalar a medida que aumentan los registros, y puede no proporcionar información a nivel de colección. Además, a medida que las colecciones aumentan de tamaño, la evaluación exhaustiva se vuelve más difícil y requiere mayores recursos para revisar y corregir errores o valores obsoletos. Por último, es importante reconocer que la mejora de los registros es un proceso continuo y a menudo iterativo. En general, la evaluación de los metadatos es un ejercicio de equilibrio de recursos.

Más información

Los siguientes recursos proporcionan información adicional si quiere saber más sobre varios aspectos de la evaluación de metadatos:

Papers/Publications

Metadata Assessment Working Group Resources

Example images come from the Digital Collections at the University of North Texas (UNT) — https://digital2.library.unt.edu/search — and from the Digital Public Library of America (DPLA) — https://dp.la/

Transformar metadatos en datos vinculados para mejorar la capacidad de descubrimiento de la colección digital: un proyecto piloto de CONTENTdm de OCLC

Bahnemann, Greta. Transforming Metadata into Linked Data to Improve Digital Collection Discoverability. Ohio: OCLC, 2021

Texto completo

Este informe comparte los hallazgos del proyecto piloto de datos vinculados de CONTENTdm. En este proyecto piloto, OCLC y cinco instituciones asociadas investigaron métodos para, y la viabilidad de, transformar metadatos en datos vinculados para mejorar la capacidad de descubrimiento y la gestión de materiales culturales digitalizados.

En este proyecto piloto, OCLC se asoció con cinco instituciones que administran sus colecciones digitales con el servicio CONTENTdm de OCLC para investigar métodos y la viabilidad de transformar metadatos en datos vinculados para mejorar la capacidad de descubrimiento y la administración de materiales culturales digitalizados y sus descripciones. Los hallazgos detallados en este informe examinan los beneficios de trabajar en un entorno de datos vinculados, el potencial para desarrollar un modelo de datos compartidos y los desafíos que enfrentan los esfuerzos para transformar metadatos en datos vinculados.

Cinco instituciones se asociaron con OCLC para colaborar en este proyecto de datos vinculados, que representan una muestra representativa diversa de diferentes tipos de instituciones.

Dublin Core y Metadatos para las comunidades electrónicas

Proceedings of the International conference on Dublin core and metadata for  e-Communities, 2002 : DC-2002 ... : October 13-17, 2002, Florence, Italy -  Firenze University Press

Proceedings of the International Conference on Dublin Core and Metadata for e-Communities. Firenze, Firenze University Press, 2002

Texto completo


El DC-2002 es el décimo de la serie de talleres internacionales sobre Dublín Core, y el segundo que incluye un programa completo de tutorías y documentos de conferencias revisados por pares. El interés en los metadatos de Dublin Core ha crecido desde una pequeña colección de proyectos pioneros hasta su adopción por los gobiernos y las organizaciones internacionales de todo el mundo. El mayor desafío de la fase actual de desarrollo de metadatos es reunir la diversidad de convenciones locales, los requisitos específicos de los dominios y las diferentes convenciones de codificación, de modo que se pueda lograr la interoperabilidad entre dominios.

Transición a la próxima generación de metadatos

 

Karen Smith-Yoshimura.  Transitioning to the Next Generation of Metadata synthesizes six years (2015-2020) of OCLC Research Library Partners Metadata Managers Focus Group. OCLC Research, 2020

Texto completo

Bibliografía comentada

El informe sintetiza seis años (2015-2020) de discusiones de grupos focales de administradores de metadatos de socios de bibliotecas de investigación de OCLC y lo que pueden predecir para la “próxima generación de metadatos”. La firme creencia de que los metadatos son la base de todo descubrimiento, independientemente del formato, ahora y en el futuro, impregna todas las discusiones de los Grupos de discusión.

Sin embargo, los metadatos están cambiando. Las innovaciones en bibliotecología están ejerciendo presión sobre las prácticas de gestión de metadatos para que evolucionen, ya que los bibliotecarios deben proporcionar metadatos para muchos más recursos de varios tipos y colaborar en proyectos institucionales o multiinstitucionales con menos personal.

Este informe considera:

  • ¿Por qué cambian los metadatos?
  • ¿Cómo está cambiando el proceso de creación?
  • ¿Cómo están cambiando los metadatos en sí?
  • ¿Qué impacto tendrán estos cambios en los requisitos futuros de personal y cómo pueden prepararse las bibliotecas?

Este informe propone que la transición a la próxima generación de metadatos es un proceso en evolución, entrelazado con estándares, infraestructuras y herramientas cambiantes. Juntos, los miembros del grupo de enfoque llegaron a un entendimiento común de los desafíos, compartieron posibles enfoques para abordarlos e inocularon estas ideas en otras comunidades con las que interactúan.

Archivos y Colecciones Especiales de Datos Vinculados: Navegando entre notas y nodos

 

2020-07-21_16-15-27-768x1004-1

 

“Archives and Special Collections Linked Data: Navigating Between Notes and Nodes”. OCLC Research, 2020

Texto completo

Con el fin de ampliar el trabajo de OCLC tanto en datos vinculados como en colecciones especiales y para responder a las necesidades identificadas de la comunidad, OCLC reclutó a 16 profesionales de Research Library Partnership para formar un “Grupo de Revisión de Datos Vinculados a Archivos y Colecciones Especiales”. Este grupo, con el apoyo del personal de OCLC, exploró las áreas clave de preocupación en la transición a un entorno de datos vinculados. Los miembros del grupo hicieron presentaciones sobre una variedad de proyectos para ayudar a mostrar áreas prometedoras para datos vinculados para colecciones especiales, así como para explorar áreas de fricción. Esta publicación de OCLC Research es un resumen de las conclusiones de esos debates.

Entre los temas tratados en esta publicación:

  • Modelos de datos descriptivos para colecciones especiales en entornos de datos vinculados
  • Desafíos en torno al multilingüismo
  • Cuestiones éticas, compromiso con la comunidad
  • Expresar las relaciones y el cambio a lo largo del tiempo
  • Autoridades e identificadores en las colecciones especiales
  • Sostenibilidad

 

 

 

Metadata 2020 Proyectos de evaluación de metadatos

 

8t-c4tza_400x400

 

Habermann, Ted. Metadata 2020 Metadata Evaluation Projects. Research Ideas and Outcome (RIO) 6: e54176.
DOI: 10.3897/rio.6.e54176

Texto completo

Metadata 2020: una colaboración intercomunitaria que aboga por metadatos más ricos, conectados, reutilizables y abiertos para todos los resultados de la investigación para avanzar en las actividades académicas en beneficio de la sociedad. Un grupo de voluntarios que trabajan juntos tratando de alentar y facilitar el progreso hacia este objetivo desafiante. El gurú de la gestión Peter Druker dijo: “Si no puedes medirlo, no puedes mejorarlo”. Con esto en mente, varios proyectos de Metadata 2020 examinaron los enfoques para la evaluación de metadatos y las conexiones entre evaluación y orientación. Lograr este progreso en la amplia extensión del panorama de Metadata 2020 requiere conectar dialectos de metadatos y recomendaciones de la comunidad y análisis de múltiples cuerpos de metadatos. Este documento describe un marco para abordar esa tarea y algunos ejemplos potenciales.

 

Encuesta sobre la calidad de los metadatos. Libro blanco de la Federación de Bibliotecas Digitales

 

2020-05-05_17-13-31

Steven Gentry.. [et al.]. “Survey of Benchmarks in Metadata Quality: Initial Findings” (A New White Paper From the Digital Library Federation).

Texto completo

Libro blanco en el que se ofrece un análisis general y una documentación de los resultados recogidos por una encuesta Qualtrics para reunir información sobre las prácticas de evaluación de metadatos en las bibliotecas digitales. Incluye un panorama general de las respuestas y un breve análisis, con alguna interpretación de las tendencias.

 

Recomendaciones para la comunicación transparente de precios y servicios de acceso abierto

 

samuel-zeller-_es6l-apda0-unsplash-150x150-1

Final report price transparency project. Information Power, 2020

Ver

Un informe independiente publicado por Information Power tiene como objetivo mejorar la transparencia de los precios y servicios de acceso abierto (OA).

 

El informe es el resultado de un proyecto financiado por Wellcome y UK Research and Innovation (UKRI) en nombre de la COOlición S para informar el desarrollo del Plan S. Durante el proyecto, los financiadores, bibliotecas, editoriales y universidades trabajaron juntos para informar sobre el desarrollo de un marco destinado a proporcionar información sobre los servicios y precios de OA de forma transparente, práctica y perspicaz.

El marco brinda oportunidades a los editores para crear una mejor conciencia y apreciación por parte de los clientes del valor de sus servicios, y para demostrar el compromiso del editor con los modelos comerciales abiertos y las culturas comerciales.

La implementación de este marco requerirá cambios en las prácticas, una mayor alineación entre las partes interesadas, el esfuerzo y la infraestructura. Estos metadatos serían puestos a disposición de manera más conveniente por plataformas y editores a través del servicio CrossRef, a través de una licencia abierta para ingerir y usar en una amplia gama de servicios. Muchos servicios relevantes ya están operativos actualmente, y también hay potencial para nuevos servicios.

Este marco se pondrá a prueba en el primer trimestre de 2020.

 

Ontologías posiblemente imperfectas para la recuperación efectiva de la información.

 

417ece92ojl._sx352_bo1204203200_

Nagypál, G. (2007). [e-Book] Possibly imperfect ontologies for effective information retrieval. Karlsruhe, KIT Scientific Publishing, 2007.

Texto completo

 

Las ontologías y los metadatos semánticos pueden resolver teóricamente todos los problemas de los motores de búsqueda de texto completo tradicionales. En la práctica, sin embargo, siempre son imperfectos. Este trabajo se analizó si el efecto negativo de la imperfección de la ontología es mayor que el efecto positivo de la explotación de las características de la ontología para la recuperación de la información. Para responder a esta pregunta, se implementó y evaluó exhaustivamente un sistema completo de recuperación de información basado en la ontología.

 

La Biblioteca Nacional de los Países Bajos está experimentando con inteligencia artificial para describir automáticamente las publicaciones

whitepaper_omslag_engels

“Exploration Possibilities: Automated Generation Of Metadata” National Library of the Netherlands, 2019.

Texto completo

 

En los últimos meses, un equipo de empleados de la Biblioteca Nacional de los Países Bajos (KB), junto con investigadores de diferentes universidades, ha explorado las posibilidades de describir automáticamente las publicaciones. Los resultados provisionales de esa exploración ahora están disponibles en un documento técnico.

Mientras los bibliotecarios han estado describiendo libros manualmente durante décadas, varias bibliotecas ahora están experimentando con métodos para crear metadatos automáticamente.

Gracias al creciente volumen de publicaciones en formato electrónico y al aumento de las aplicaciones de inteligencia artificial (IA) como el aprendizaje automático, se da una posibilidad cada vez mayor para que los ordenadores interpreten textos electrónicos y ayuden a los bibliotecarios al describir publicaciones.

Durante el webinar de LIBER, Martijn Kleppe, jefe de investigación de la  Biblioteca Nacional de los Países Bajos (KB) enfatizó las lecciones aprendidas y aconsejó a los colegas que estaban considerando experimentar con técnicas de IA para describir automáticamente las publicaciones.

En el libro blanco ‘Explorando posibilidades de generación automatizada de metadatos’, los autores presentan los resultados de sus primeras exploraciones.