Archivo de la etiqueta: Evaluación

Evaluación Responsable de la Investigación

Responsible Research Assessment
Global Research Council (GRC)
Conference Report 2021

Texto completo

La Conferencia sobre Evaluación Responsable de la Investigación se realizó con el apoyo del Global Research Council el 23 al 27 de noviembre de 2020. Este informe presenta el contexto de la conferencia, algunos análisis clave y los principales resultados de la discusión. También propone próximos pasos para el GRC.

  1. La evaluación de la Investigación da forma a la cultura de la investigación
  • La evaluación de la investigación influye en cómo se realiza y difunde la investigación
  • Lo que los financiadores valoran y miden influirá en lo que se valora en el ecosistema
  • Los financiadores pueden iniciar un cambio de cultura positivo mediante un diseño y una de la evaluación de la investigación.
  • Como administradores del sistema de I+D, los financiadores deben abordar los obstáculos al cambio cultural, especialmente las presiones para obtener resultados en los ranking universitarios.

2. Diversos sectores de I+D generan una investigación de alta calidad e impacto

  • La definición de excelencia en la investigación de un financiador debe ser multidimensional
  • La excelencia en la investigación debe abarcar las perspectivas y experiencias de
    personas de todos los orígenes
  • Los financiadores deben apoyar la diversidad mediante una amplia cartera de financiación.

3. Fomentar un sistema de sistema de I+D que que no perjudique a la diversidad

  • Los financiadores deben emplear criterios claros, indicadores pertinentes y una autoevaluación
  • Los financiadores deben experimentar con nuevos procesos y comprobar que tienen los resultados deseados
  • La lucha contra los prejuicios y la igualdad de oportunidades son esenciales para la de la investigación y no deberían verse obstaculizados por una resistencia al cambio.

4. La investigación y la erudición son esfuerzos transnacionales

  • Los enfoques deben tener en cuenta el contexto local, la cultura, el idioma y las consecuencias imprevistas que repercuten en otros países
  • Los financiadores de todo el mundo deben ponerse de acuerdo sobre las condiciones necesarias para apoyar un sistema de I+D sano y vibrante
  • Los financiadores deben trabajar juntos para lograr una coordinación de alto nivel sobre lo que se valora y evalúa, ya que la colaboración puede generar un cambio sistémico.

5. Todas las partes interesadas en el ecosistema de I+D desempeñan un papel vital en su construcción

  • Todas las partes interesadas deben colaborar en el desarrollo y la evaluación de la investigación y resistirse a a echar la culpa a otras partes.
  • La resistencia al cambio debe contrarrestarse recompensando las evaluaciones responsables
  • La aceptación de nuevos enfoques puede lograrse mediante la cocreación.

Proceso de evaluación y criterios de selección de la revista Web of Science

Web of Science Core Collection journal evaluation criteria

PDF Inglés

Ver completo

Según Clarivate los principios básicos del proceso de selección siguen siendo los mismos: objetividad, selectividad y dinámica de cobranza. Se usa un conjunto de 28 criterios para evaluar revistas; estos se dividen en 24 criterios de calidad diseñados para seleccionar el rigor editorial y las mejores prácticas a nivel de revista, y cuatro criterios de impacto diseñados para seleccionar las revistas más influyentes en sus respectivos campos utilizando la actividad de citas como el principal indicador de impacto.

Las revistas que cumplen con los criterios de calidad ingresan al Emerging Sources Citation Index ™ (ESCI). Las revistas que cumplen con los criterios de impacto adicionales ingresan al Science Citation Index Expanded ™ (SCIE), Social Sciences Citation Index ™ (SSCI) o Arts & Humanities Citation Index (AHCI) según su área temática.

En este proceso, las revistas se reevalúan primero para determinar su calidad y la evaluación de impacto está sujeta a que se cumpla con la calidad. Si se cumplen los criterios de calidad e impacto, las revistas se trasladan a una colección emblemática. El equipo editorial de Web of Science se centra en las nuevas evaluaciones durante la primera mitad del año, la segunda mitad está dedicada a las reevaluaciones. Las revistas cubiertas se evalúan continuamente para determinar su calidad.

Cuando se completa la evaluación, se informará al editor del resultado y la revista:

  • ser eliminado de la cobertura si ya no cumple con los criterios de calidad
  • o permanecer si continúa cumpliendo con los criterios de calidad.

Si la revista cumple con los criterios de calidad, se indexará cualquier contenido que falte. Si la revista se elimina de la cobertura, el contenido no se completará. En los casos más graves de incumplimiento de los estándares editoriales de la revista, según lo determinen nuestros criterios de selección, el contenido publicado puede eliminarse de Web of Science ™. Los plazos para completar una reevaluación dependerán de las circunstancias particulares de cada caso.

Triaje inicial

El propósito principal de este paso de clasificación es garantizar una identificación inequívoca de la revista enviada para evaluación y saber a quién contactar si tenemos alguna duda o inquietud. No hay un período de embargo para volver a enviarlo si una revista no pasa la clasificación inicial.

  • Contiene ISSN,
  • Título, editor,
  • URL,
  • Acceso al contenido,
  • Presencia de la política de revisión por pares,
  • Detalles de contacto.

Triaje editorial

En este paso, los editores de Web of Science revisan la revista para determinar si se merece una evaluación editorial completa. No existe un período de embargo para reenvío si una revista no pasa la clasificación editorial. Exigencias:

  • Contenido académico
  • Títulos de artículos y resúmenes de artículos en inglés
  • Información bibliográfica en escritura romana
  • Claridad del lenguaje,
  • Puntualidad y / o volumen de publicación
  • Funcionalidad del sitio web / formato de revista
  • Presencia en declaraciones éticas
  • Detalles de afiliación editorial
  • Detalles de afiliación del autor

Evaluación editorial (calidad)

En este paso, los editores de Web of Science están verificando la alineación entre el título de la revista, el alcance declarado, la composición de su comité editorial y autoría, y su contenido publicado. También buscan pruebas de rigor editorial y adherencia a los estándares de la comunidad. Si una revista no pasa este paso, el reenvío está sujeto a un período de embargo de al menos dos años.

  • Composición de la Junta Editorial
  • Validez de las declaraciones
  • Revisión por pares
  • Relevancia del contenido
  • Detalles de la subvención
  • Adherencia a los estándares comunitarios
  • Distribución de autor
  • Citas apropiadas a la literatura

Evaluación editorial (impacto)

Los criterios en este paso están diseñados para seleccionar las revistas más influyentes en un campo de investigación determinado, utilizando la actividad de citas como un indicador principal de impacto. Si una revista no pasa este paso, la reevaluación está sujeta a un período de embargo de al menos dos años.

  • Análisis comparativo de citas
  • Análisis de citas del autor
  • Análisis de citas de la junta editorial
  • Importancia del contenido

El impacto de las bibliotecas públicas en Dinamarca: Un refugio para la comunidad

The impact of public libraries in Denmark: A haven in our community. conducted by Seismonaut and Roskilde Central Library
February 2021

Texto completo

A guide to the Impact Compass : The impact of public libraries in Denmark: A haven in our community conducted by Seismonaut and Roskilde Central Library
March 2021

Texto completo

Un reciente informe de Dinamarca que arroja luz sobre las diferentes formas en que las bibliotecas públicas marcan la diferencia en la vida de las personas, y cómo podemos medirlo.

¿Cómo entendemos y hablamos del valor y el impacto de una biblioteca? ¿Cómo afecta a las personas y a las comunidades? En el público danés el debate sobre las bibliotecas suele referirse a un puñado de cifras clave establecidas: Cuántas personas visitan nuestras bibliotecas públicas y cuántos materiales toman prestados. Son datos importantes que dicen algo sobre el uso de las bibliotecas públicas, pero no nos dan realmente una idea del valor y el impacto que tienen las bibliotecas públicas en las personas y las comunidades.

La Biblioteca Central de Roskilde se ha asociado con Seismonaut para poner a las personas y las comunidades en el centro del debate de la biblioteca pública por ello ha publica esta guía del usuario de la metodología en inglés para que otros puedan utilizarla. El objetivo es tanto crear una visión significativa de lo que significa la biblioteca pública danesa para la gente y el impacto y el valor que aportan a las comunidades, como inspirar a otras bibliotecas e instituciones de la cultura a adoptar esta lógica, asumir el método y diseñar y construir nuevas ideas y conocimientos locales.

Estudio de asignación de tiempo de los bibliotecarios universitarios

Winterman, B. ; Asher, A. Libraries and the Academy, Vol. 21, No. 3 (2021), pp. 531–551

Texto completo

Las prácticas típicas de evaluación interna de las bibliotecas universitarias, como las estadísticas de instrucción o de referencia, pueden ser medidas valiosas, pero proporcionan una visión limitada del impacto del trabajo de los bibliotecarios universitarios. Para analizar el trabajo de los bibliotecarios de forma más exhaustiva y con énfasis en los resultados institucionales, las Bibliotecas de la Universidad de Indiana en Bloomington realizaron un estudio de asignación de tiempo de las actividades de los bibliotecarios de servicios públicos. Este artículo describe los objetivos, métodos y resultados del Librarian Activity Project, que pretende determinar qué actividades del trabajo bibliotecario pueden ser evaluadas con precisión para demostrar empíricamente el valor y el impacto de la biblioteca.

Indicadores de impacto normalizado: origen, cálculo, limitaciones y aplicaciones a la política científica.

Indicadores de impacto normalizado: origen, cálculo, limitaciones y aplicaciones a la política científica. UNIR. Con Daniel Torres-Salinas

Los indicadores de Impacto Normalizado son adecuados para monitorizar, contextualizar y comparar el impacto de nuestro currículum y artículos científicos. También para analizar la trayectoria de un grupo de investigación… Se pueden utilizar como indicio de calidad en las solicitudes de ANECA, CNEAI, Ramón y Cajal, en la defensa de plazas de profesorado, etc. Estos indicadores se han popularizado ampliamente en España por las convocatorias Apoyo y acreditación de Centros de Excelencia Severo Ochoa y Unidades de Excelencia María de Maeztu. Desde el punto de vista bibliométrico uno de los criterios de evaluación más llamativos es la necesidad de que los investigadores garantes tengan un Impacto Normalizado de, como mínimo, 1,5. En este Seminario, Daniel-Torres Salinas, director de la Unidad de evaluación científica de la Universidad de Granada, analiza críticamente el origen de los indicadores de impacto normalizado de citación, como por ejemplo Crown Indicator, Category Normalized Citation Impact (Incites) o Field Weighted Citation Impact (SciVal). Y muestra cómo se calculan sus diferentes versiones, así como sus ventajas y limitaciones.

Análisis conjunto de las preferencias ocultas de los investigadores por la bibliometría, la altmetría y las métricas de uso. 

Indicadores del experimento seleccionados como más útiles para decidir qué publicaciones leer

Lemke, S, Mazarakis, A, Peters, I. Conjoint analysis of researchers’ hidden preferences for bibliometrics, altmetrics, and usage metricsJ Assoc Inf Sci Technol. 2021; 72: 777– 792. https://doi.org/10.1002/asi.24445

Texto completo

El número de artículos académicos que se publican anualmente no deja de crecer, al igual que el número de indicadores con los que se mide el impacto de las publicaciones. Se sabe poco sobre cómo la creciente variedad de indicadores disponibles afecta a los procesos de selección de la literatura que leen los investigadores.

Se realizaron experimentos de clasificación integrados en una encuesta en línea con 247 investigadores participantes, la mayoría de ellos de ciencias sociales. Los participantes completaron una serie de tareas en las que se les pedía que clasificaran publicaciones ficticias en función de su relevancia esperada, basándose en sus puntuaciones respecto a seis métricas prototípicas. Mediante la aplicación de la regresión logística, el análisis de conglomerados y la codificación manual de las respuestas a la encuesta, se obtuvieron datos detallados sobre el modo en que las métricas destacadas del impacto de la investigación influyeron en los participantes a la hora de decidir qué artículos científicos leer.

Las respuestas a la encuesta revelaron una combinación de características cualitativas y cuantitativas que los investigadores consultan a la hora de seleccionar la bibliografía, mientras que el análisis de regresión mostró que, entre las métricas cuantitativas, el recuento de citas tiende a ser el que más preocupa, seguido de los factores de impacto de las revistas.

Los resultados sugieren una opinión comparativamente favorable de muchos investigadores sobre la bibliometría y un escepticismo generalizado hacia la altmetría. Los resultados subrayan la importancia de dotar a los investigadores de conocimientos sólidos sobre las limitaciones de las métricas específicas, ya que parecen desempeñar un papel importante en la evaluación diaria de la relevancia por parte de los investigadores.

Recomendaciones sobre la monitorización del acceso abierto

Recomendaciones sobre la monitorización del acceso abierto. Madrid: REBIUN, 2019

Texto completo

La finalidad de la guía Rebiun “Recomendaciones sobre la monitorización del acceso abierto” es fomentar dicha monitorización por parte de las instituciones académicas. Su alcance se limita a artículos científicos por ser el exponente más genuino de la comunicación científica, y también el más fácil de monitorización. En ella se repasan las estrategias nacionales relativas al acceso abierto seguidas por Reino Unido, Dinamarca y Holanda, todos ellos países punteros en el tema. La guía se centra en los dos posibles escenarios para abordar la monitorización. El primero de ellos requiere la existencia de un CRIS institucional como herramienta de gestión de la producción institucional, que además cuente con una decidida política de depósito, un conjunto mínimo de metadatos y una infraestructura técnica y logística. En ausencia de un CRIS la institución puede optar por un segundo escenario formado por APIs externas. Se recomienda la monitorización mediante unos indicadores y descriptores concretos: porcentaje de acceso abierto, porcentaje de cumplimiento y porcentaje de acceso abierto potencial. En el caso de utilizar el escenario CRIS se propone también un indicador para monitorizar el porcentaje de depósito en el mismo. Los escenarios repasados se ilustran con dos casos de monitorización llevados a cabo en dos universidades españolas, Universitat Politècnica de València y Universitat Politècnica de Catalunya. El documento termina con unas recomendaciones dirigidas a tres ámbitos de decisión: instituciones nacionales, universidades y bibliotecas.

La evaluación de los programas de alfabetización en información en la educación superior: estrategias e instrumentos

García-Quismondo,Miguel Ángel Marzal. La evaluación de los programas de alfabetización en información en la educación superior: estrategias e instrumentos. rusc vol. 7 n.º 2 | Universitat Oberta de Catalunya | Barcelona, julio de 2010 | ISSN 1698-580X

Texto completo

A partir de las transformaciones en el modelo educativo, por el cambio desde «producir» a «generar» conocimiento, así como por el impacto de la amenaza de la brecha digital, el auge de la «responsabilidad social corporativa» y la alfabetización en información, se analizan las acciones políticas de la Unión Europea para fomentar la inclusión social frente a la brecha digital, como proceso que otorga una función primordial a las competencias en información.

Este fenómeno competencial provoca que la evaluación adquiera una relevancia social y educativa de primera magnitud, por lo que se analiza su concepto, modalidad, diseño, tipificación e instrumentos, como forma de realizar una aplicación eficaz en programas de alfabetización en información. Se presenta, finalmente, una propuesta de integración de la evaluación y sus instrumentos en un programa de alfabetización en información.

El futuro de la evaluación académica: cinco principios, cinco metas para 2025

The future of assessment: five principles, five targets for 2025. London: JISC, 2020

Descargar

Este informe es el resultado de una reunión de expertos que explora la evaluación en universidades y colegios y cómo la tecnología podría usarse para ayudar a abordar algunos de los problemas y oportunidades. 

La evaluación es fundamental para el proceso educativo. Si se hace correctamente, impulsa la mejora, da forma al comportamiento del alumno y brinda responsabilidad a los empleadores y a otras personas. 

También puede ser una fuente de insatisfacción, frustración y ansiedad. ¿Evalúa las cosas correctas? ¿Está obteniendo lo mejor de los alumnos? ¿Tiene lugar en los puntos correctos del viaje al aprendizaje? ¿Es susceptible a las trampas? ¿Implica una carga de trabajo sostenible?

Las tecnologías existentes y emergentes están comenzando a desempeñar un papel en el cambio de la evaluación y podrían ayudar a abordar estos problemas, tanto hoy como mirando hacia el futuro. La visión de Educación 4.0 es hacer que la evaluación sea más inteligente, más rápida, más justa y más efectiva.

El informe establece cinco objetivos para los próximos cinco años para avanzar en la evaluación hacia una mayor autenticidad, accesibilidad, apropiadamente automatizada, continua y segura.

  • Evaluaciones auténticas diseñadas para preparar a los estudiantes para lo que harán a continuación, utilizando la tecnología que utilizarán en sus carreras.
  • Evaluaciones accesibles diseñadas con un principio de accesibilidad primero
  • Apropiadamente automatizado Se encontró un equilibrio entre la evaluación automática y humana para brindar el máximo beneficio a los estudiantes
  • Datos de evaluación continua utilizados para explorar oportunidades de evaluación continua para mejorar la experiencia de aprendizaje.
  • Detección de creación segura y autenticación biométrica adoptada para identificación y supervisión remota

¿Qué es la evaluación de metadatos?

Hannah Tarver y Steven Gentry. What is Metadata Assessment? DLF 2021

Texto completo

Esta entrada del blog ha sido redactada por Hannah Tarver y Steven Gentry, miembros del Grupo de Trabajo de Evaluación de Metadatos del Grupo de Interés de la Biblioteca Digital (DLF AIG MWG). Su objetivo es proporcionar una visión general resumida de la evaluación de metadatos en las bibliotecas digitales, incluyendo su importancia y beneficios.

La evaluación de metadatos consiste en valorar los metadatos para mejorar su utilidad tanto para los usuarios internos como externos. Hay tres categorías principales de metadatos:

[1] Los metadatos administrativos proporcionan información sobre la gestión o la conservación de los objetos digitales, como por ejemplo cuándo se archivó, qué acceso o restricciones tiene un elemento, un identificador único/permanente para un objeto, cuándo se migraron/copiaron/revisaron los archivos por última vez, etc.

2] Los metadatos descriptivos son el texto legible por el ser humano que describe la creación y el contenido de un elemento, como por ejemplo quién lo hizo, de qué trata y cuándo se hizo/publicó. Esta información se muestra en una interfaz de usuario de acceso público y con capacidad de búsqueda (mientras que los metadatos administrativos y estructurales pueden ser menos visibles o sólo accesibles internamente).

3] Los metadatos estructurales nombran todos los archivos asociados a un elemento (por ejemplo, un único PDF o varios archivos de imágenes individuales, archivos de metadatos, archivos OCR, etc.) y describen la relación entre ellos. Por ejemplo, si hay imágenes para páginas de texto individuales, o múltiples vistas de un objeto físico, los metadatos estructurales expresarían cuántas imágenes hay y el orden en que deben mostrarse.

En función del sistema local, pueden almacenarse datos específicos en distintos tipos de metadatos (por ejemplo, parte de la información de acceso puede estar en los metadatos descriptivos de cara al público, o parte de la información de preservación puede estar incorporada en los metadatos estructurales). Una organización podría evaluar varias características de cualquiera de estos tipos de metadatos o de todos ellos para asegurarse de que una biblioteca digital funciona correctamente; sin embargo, la mayoría de los investigadores y profesionales se centran en los metadatos descriptivos porque esta información determina si los usuarios pueden encontrar los materiales que se ajustan a sus intereses personales o académicos.

Errores en los metadatos

La evaluación de los metadatos es necesaria porque los errores y/o incoherencias se cuelan inevitablemente en los registros. Las colecciones suelen construirse a lo largo del tiempo, lo que significa que muchas personas diferentes participan en el ciclo de vida de los metadatos; las normas o directrices pueden cambiar; y la información puede trasladarse o combinarse. Hay una serie de aspectos de calidad que las organizaciones pueden querer evaluar dentro de los valores de los metadatos; he aquí algunos ejemplos:

Precisión

Errores tipográficos. Los errores ortográficos o de formato pueden producirse por accidente o debido a un malentendido sobre las reglas de formato. Incluso cuando se utilizan listas controladas, los valores pueden copiarse o seleccionarse incorrectamente.
Identificación errónea. Los creadores de metadatos pueden nombrar incorrectamente a personas o lugares representados o descritos en un elemento. Esto es especialmente problemático en el caso de las imágenes.

Registros erróneos.

Dependiendo de cómo se emparejen los ítems y sus registros de metadatos en un sistema concreto, un registro que describa un ítem puede aplicarse a un ítem totalmente diferente

Integridad

Información que falta. Ya sea por falta de recursos o simplemente por accidente, puede faltar información en los registros de metadatos. Puede tratarse de datos necesarios que afectan a la funcionalidad del sistema o de información opcional que podría ayudar a los usuarios a encontrar un elemento.

Información desconocida. Especialmente en el caso de los objetos del patrimonio cultural -como las fotos y los documentos históricos- puede faltar información que beneficiaría a los investigadores (por ejemplo, detalles sobre la creación de un elemento o personas o lugares importantes).

Conformidad con las expectativas

Terminología inadecuada. A veces, el lenguaje utilizado en los registros no se ajusta a los términos que podría preferir un grupo de usuarios primario (por ejemplo, un valor de materia para «gatitos» en lugar de «felinos» en un registro de una base de datos científica). Esto puede deberse a un uso incoherente de las palabras (por ejemplo, «coches» frente a «automóviles») o a la falta de conocimiento de un editor sobre los descriptores más apropiados o precisos (por ejemplo, «broche de flores» para ramillete, o «tejado en forma de caricia» para tejados a dos aguas).

Lenguaje anticuado. Las colecciones que describen a determinados grupos de personas -como los grupos históricamente subrepresentados o marginados- pueden utilizar un lenguaje inapropiado y perjudicial. Esto es especialmente importante en el caso de los registros que se basan en vocabularios que cambian lentamente y que son compartidos por todos, como los Congress Subject Headings

Coherencia

Diferencias de formato. Si la coincidencia de cadenas exactas es importante, o si los campos utilizan vocabularios controlados, cualquier diferencia de formato (por ejemplo, «FBI» frente a «F.B.I.») podría afectar a la búsqueda o a los filtros de búsqueda de la interfaz pública.

Variaciones del nombre. El mismo nombre puede introducirse de forma diferente en distintos registros en función de cómo se escriba en los artículos (por ejemplo, «tía Betty» frente a «Beatrice»), de los cambios de nombre (por ejemplo, nombres de soltera o fusiones organizativas), de la información disponible a lo largo del tiempo o del uso incoherente de una autoridad de nombres.

Oportunidad

Datos heredados o recolectados. Si las reglas de formateo han cambiado con el tiempo, o si la información ha sido migrada o importada desde otro sistema, puede haber valores incoherentes o artefactos en los registros. Entre ellos se encuentran las subdivisiones MARC en los valores de nombre/sujeto (véase la figura 4), el marcado técnico de las bases de datos (por ejemplo, «. pi. /sup +/, p»), o codificaciones de caracteres rotas (por ejemplo, «‘» en lugar de un apóstrofe).

Beneficios

La evaluación y mejora de los metadatos a lo largo del tiempo tiene una serie de beneficios para los usuarios y las organizaciones. Por ejemplo:

Los usuarios:

  • Los registros con metadatos completos, precisos y coherentes son más fáciles de encontrar en las búsquedas en línea.
  • Los materiales descritos de forma similar permiten que los elementos relevantes se coloquen más fácilmente.
  • Unos buenos metadatos pueden permitir que las interfaces públicas mejoren la experiencia del usuario (por ejemplo, mediante el filtrado de los resultados de las búsquedas).

Organizaciones que mantienen colecciones digitales:

  • Los metadatos sin errores son más fáciles de migrar de un sistema a otro o de integrar con otros recursos (por ejemplo, una capa de descubrimiento).
  • Los registros completos facilitan al personal la búsqueda y la promoción/anuncio de artículos especiales cuando surgen oportunidades.
  • Los registros de metadatos bien formados se comparten más fácilmente con otras organizaciones (por ejemplo, la Digital Public Library of America), lo que hace que esos materiales sean más accesibles.
  • Los buenos registros dan buena imagen de la organización, ya que los usuarios podrían desanimarse por la ortografía, la gramática o los problemas relacionados.

Métodos/Recursos

Aunque la evaluación de los metadatos es tremendamente beneficiosa, a menudo requiere un apoyo organizativo, como un compromiso amplio o continuo de personas y otros recursos. En primer lugar, el personal con conocimientos es crucial para el éxito de la evaluación y la mejora de los metadatos; los profesionales formados aportan su experiencia en metadatos (por ejemplo, la capacidad de determinar qué valores deben ser revisados o modificados) y las especialidades temáticas necesarias para el éxito de los esfuerzos de evaluación de los metadatos (en particular para los proyectos más grandes). Además, la evaluación y la mitigación o mejora de las colecciones requieren un tiempo considerable del personal para evaluar y editar los metadatos.

Otro componente importante de las actividades de evaluación de metadatos son las herramientas, que pueden incluir recursos basados en hojas de cálculo (por ejemplo, OpenRefine), o scripts especializados escritos en una variedad de lenguajes de programación. Es importante tener en cuenta que, aunque las herramientas pueden agilizar los esfuerzos de evaluación de metadatos, pueden requerir experiencia técnica y formación para ser utilizadas con eficacia.

Aparte del uso de herramientas para un análisis amplio, un método de evaluación popular es la evaluación manual de los registros (es decir, mirar un registro individual y revisar todos los valores). El empleo de este tipo de flujo de trabajo resulta atractivo para los profesionales por varias razones:

  • La evaluación manual de los metadatos requiere la menor cantidad de formación tecnológica.
  • Especialmente en el caso de las colecciones más pequeñas, la comprobación de todos los valores de un registro puede permitir menos ediciones y revisiones (es decir, los registros no se «tocan» tan a menudo).
  • Algunos aspectos de la calidad de los metadatos (por ejemplo, la precisión) sólo pueden determinarse mediante una evaluación manual.

Sin embargo, hay que tener en cuenta algunos retos a la hora de evaluar los metadatos. Una evaluación manual eficaz, por ejemplo, puede ser difícil de escalar a medida que aumentan los registros, y puede no proporcionar información a nivel de colección. Además, a medida que las colecciones aumentan de tamaño, la evaluación exhaustiva se vuelve más difícil y requiere mayores recursos para revisar y corregir errores o valores obsoletos. Por último, es importante reconocer que la mejora de los registros es un proceso continuo y a menudo iterativo. En general, la evaluación de los metadatos es un ejercicio de equilibrio de recursos.

Más información

Los siguientes recursos proporcionan información adicional si quiere saber más sobre varios aspectos de la evaluación de metadatos:

Papers/Publications

Metadata Assessment Working Group Resources

Example images come from the Digital Collections at the University of North Texas (UNT) — https://digital2.library.unt.edu/search — and from the Digital Public Library of America (DPLA) — https://dp.la/