Archivo de la etiqueta: Procesos técnicos

Manual de indización de Encabezamientos de Materia

Manual de indización de Encabezamientos de Materia. Servicio de Clasificación. Departamento de Proceso Técnico. 2a. edición actualizada. Madrid: BNE, 2019

Texto completo

Este documento, elaborado por el Departamento de Clasificación de la Biblioteca Nacional de España, contiene directrices y acuerdos llevados a cabo en el trabajo de la indización y clasificación y pretende llevar llenar un vacío de publicaciones en español en relación a estos temas.

¿Qué es la evaluación de metadatos?

Hannah Tarver y Steven Gentry. What is Metadata Assessment? DLF 2021

Texto completo

Esta entrada del blog ha sido redactada por Hannah Tarver y Steven Gentry, miembros del Grupo de Trabajo de Evaluación de Metadatos del Grupo de Interés de la Biblioteca Digital (DLF AIG MWG). Su objetivo es proporcionar una visión general resumida de la evaluación de metadatos en las bibliotecas digitales, incluyendo su importancia y beneficios.

La evaluación de metadatos consiste en valorar los metadatos para mejorar su utilidad tanto para los usuarios internos como externos. Hay tres categorías principales de metadatos:

[1] Los metadatos administrativos proporcionan información sobre la gestión o la conservación de los objetos digitales, como por ejemplo cuándo se archivó, qué acceso o restricciones tiene un elemento, un identificador único/permanente para un objeto, cuándo se migraron/copiaron/revisaron los archivos por última vez, etc.

2] Los metadatos descriptivos son el texto legible por el ser humano que describe la creación y el contenido de un elemento, como por ejemplo quién lo hizo, de qué trata y cuándo se hizo/publicó. Esta información se muestra en una interfaz de usuario de acceso público y con capacidad de búsqueda (mientras que los metadatos administrativos y estructurales pueden ser menos visibles o sólo accesibles internamente).

3] Los metadatos estructurales nombran todos los archivos asociados a un elemento (por ejemplo, un único PDF o varios archivos de imágenes individuales, archivos de metadatos, archivos OCR, etc.) y describen la relación entre ellos. Por ejemplo, si hay imágenes para páginas de texto individuales, o múltiples vistas de un objeto físico, los metadatos estructurales expresarían cuántas imágenes hay y el orden en que deben mostrarse.

En función del sistema local, pueden almacenarse datos específicos en distintos tipos de metadatos (por ejemplo, parte de la información de acceso puede estar en los metadatos descriptivos de cara al público, o parte de la información de preservación puede estar incorporada en los metadatos estructurales). Una organización podría evaluar varias características de cualquiera de estos tipos de metadatos o de todos ellos para asegurarse de que una biblioteca digital funciona correctamente; sin embargo, la mayoría de los investigadores y profesionales se centran en los metadatos descriptivos porque esta información determina si los usuarios pueden encontrar los materiales que se ajustan a sus intereses personales o académicos.

Errores en los metadatos

La evaluación de los metadatos es necesaria porque los errores y/o incoherencias se cuelan inevitablemente en los registros. Las colecciones suelen construirse a lo largo del tiempo, lo que significa que muchas personas diferentes participan en el ciclo de vida de los metadatos; las normas o directrices pueden cambiar; y la información puede trasladarse o combinarse. Hay una serie de aspectos de calidad que las organizaciones pueden querer evaluar dentro de los valores de los metadatos; he aquí algunos ejemplos:

Precisión

Errores tipográficos. Los errores ortográficos o de formato pueden producirse por accidente o debido a un malentendido sobre las reglas de formato. Incluso cuando se utilizan listas controladas, los valores pueden copiarse o seleccionarse incorrectamente.
Identificación errónea. Los creadores de metadatos pueden nombrar incorrectamente a personas o lugares representados o descritos en un elemento. Esto es especialmente problemático en el caso de las imágenes.

Registros erróneos.

Dependiendo de cómo se emparejen los ítems y sus registros de metadatos en un sistema concreto, un registro que describa un ítem puede aplicarse a un ítem totalmente diferente

Integridad

Información que falta. Ya sea por falta de recursos o simplemente por accidente, puede faltar información en los registros de metadatos. Puede tratarse de datos necesarios que afectan a la funcionalidad del sistema o de información opcional que podría ayudar a los usuarios a encontrar un elemento.

Información desconocida. Especialmente en el caso de los objetos del patrimonio cultural -como las fotos y los documentos históricos- puede faltar información que beneficiaría a los investigadores (por ejemplo, detalles sobre la creación de un elemento o personas o lugares importantes).

Conformidad con las expectativas

Terminología inadecuada. A veces, el lenguaje utilizado en los registros no se ajusta a los términos que podría preferir un grupo de usuarios primario (por ejemplo, un valor de materia para “gatitos” en lugar de “felinos” en un registro de una base de datos científica). Esto puede deberse a un uso incoherente de las palabras (por ejemplo, “coches” frente a “automóviles”) o a la falta de conocimiento de un editor sobre los descriptores más apropiados o precisos (por ejemplo, “broche de flores” para ramillete, o “tejado en forma de caricia” para tejados a dos aguas).

Lenguaje anticuado. Las colecciones que describen a determinados grupos de personas -como los grupos históricamente subrepresentados o marginados- pueden utilizar un lenguaje inapropiado y perjudicial. Esto es especialmente importante en el caso de los registros que se basan en vocabularios que cambian lentamente y que son compartidos por todos, como los Congress Subject Headings

Coherencia

Diferencias de formato. Si la coincidencia de cadenas exactas es importante, o si los campos utilizan vocabularios controlados, cualquier diferencia de formato (por ejemplo, “FBI” frente a “F.B.I.”) podría afectar a la búsqueda o a los filtros de búsqueda de la interfaz pública.

Variaciones del nombre. El mismo nombre puede introducirse de forma diferente en distintos registros en función de cómo se escriba en los artículos (por ejemplo, “tía Betty” frente a “Beatrice”), de los cambios de nombre (por ejemplo, nombres de soltera o fusiones organizativas), de la información disponible a lo largo del tiempo o del uso incoherente de una autoridad de nombres.

Oportunidad

Datos heredados o recolectados. Si las reglas de formateo han cambiado con el tiempo, o si la información ha sido migrada o importada desde otro sistema, puede haber valores incoherentes o artefactos en los registros. Entre ellos se encuentran las subdivisiones MARC en los valores de nombre/sujeto (véase la figura 4), el marcado técnico de las bases de datos (por ejemplo, “. pi. /sup +/, p”), o codificaciones de caracteres rotas (por ejemplo, “‘” en lugar de un apóstrofe).

Beneficios

La evaluación y mejora de los metadatos a lo largo del tiempo tiene una serie de beneficios para los usuarios y las organizaciones. Por ejemplo:

Los usuarios:

  • Los registros con metadatos completos, precisos y coherentes son más fáciles de encontrar en las búsquedas en línea.
  • Los materiales descritos de forma similar permiten que los elementos relevantes se coloquen más fácilmente.
  • Unos buenos metadatos pueden permitir que las interfaces públicas mejoren la experiencia del usuario (por ejemplo, mediante el filtrado de los resultados de las búsquedas).

Organizaciones que mantienen colecciones digitales:

  • Los metadatos sin errores son más fáciles de migrar de un sistema a otro o de integrar con otros recursos (por ejemplo, una capa de descubrimiento).
  • Los registros completos facilitan al personal la búsqueda y la promoción/anuncio de artículos especiales cuando surgen oportunidades.
  • Los registros de metadatos bien formados se comparten más fácilmente con otras organizaciones (por ejemplo, la Digital Public Library of America), lo que hace que esos materiales sean más accesibles.
  • Los buenos registros dan buena imagen de la organización, ya que los usuarios podrían desanimarse por la ortografía, la gramática o los problemas relacionados.

Métodos/Recursos

Aunque la evaluación de los metadatos es tremendamente beneficiosa, a menudo requiere un apoyo organizativo, como un compromiso amplio o continuo de personas y otros recursos. En primer lugar, el personal con conocimientos es crucial para el éxito de la evaluación y la mejora de los metadatos; los profesionales formados aportan su experiencia en metadatos (por ejemplo, la capacidad de determinar qué valores deben ser revisados o modificados) y las especialidades temáticas necesarias para el éxito de los esfuerzos de evaluación de los metadatos (en particular para los proyectos más grandes). Además, la evaluación y la mitigación o mejora de las colecciones requieren un tiempo considerable del personal para evaluar y editar los metadatos.

Otro componente importante de las actividades de evaluación de metadatos son las herramientas, que pueden incluir recursos basados en hojas de cálculo (por ejemplo, OpenRefine), o scripts especializados escritos en una variedad de lenguajes de programación. Es importante tener en cuenta que, aunque las herramientas pueden agilizar los esfuerzos de evaluación de metadatos, pueden requerir experiencia técnica y formación para ser utilizadas con eficacia.

Aparte del uso de herramientas para un análisis amplio, un método de evaluación popular es la evaluación manual de los registros (es decir, mirar un registro individual y revisar todos los valores). El empleo de este tipo de flujo de trabajo resulta atractivo para los profesionales por varias razones:

  • La evaluación manual de los metadatos requiere la menor cantidad de formación tecnológica.
  • Especialmente en el caso de las colecciones más pequeñas, la comprobación de todos los valores de un registro puede permitir menos ediciones y revisiones (es decir, los registros no se “tocan” tan a menudo).
  • Algunos aspectos de la calidad de los metadatos (por ejemplo, la precisión) sólo pueden determinarse mediante una evaluación manual.

Sin embargo, hay que tener en cuenta algunos retos a la hora de evaluar los metadatos. Una evaluación manual eficaz, por ejemplo, puede ser difícil de escalar a medida que aumentan los registros, y puede no proporcionar información a nivel de colección. Además, a medida que las colecciones aumentan de tamaño, la evaluación exhaustiva se vuelve más difícil y requiere mayores recursos para revisar y corregir errores o valores obsoletos. Por último, es importante reconocer que la mejora de los registros es un proceso continuo y a menudo iterativo. En general, la evaluación de los metadatos es un ejercicio de equilibrio de recursos.

Más información

Los siguientes recursos proporcionan información adicional si quiere saber más sobre varios aspectos de la evaluación de metadatos:

Papers/Publications

Metadata Assessment Working Group Resources

Example images come from the Digital Collections at the University of North Texas (UNT) — https://digital2.library.unt.edu/search — and from the Digital Public Library of America (DPLA) — https://dp.la/

Diez claves para la elaboración del resumen en un artículo científico

 

abstract-900

Diez claves para la elaboración del resumen en un artículo científico
Manuel AMEZCUA
Cátedra Index de Investigación en Cuidados de Salud
UCAM-Fundación Index. Granada, España
Correspondencia: secretaria@ciberindex.com

 

La elaboración del resumen determina el futuro de un artículo. Durante el proceso de evaluación del manuscrito, orientará al editor sobre el interés de la investigación, pues junto con el título es lo primero que será leído. Una vez publicado, será la parte del artículo más consultada, sirviendo de escaparate los repositorios, bases de datos bibliográficas y metabuscadores donde la revista está incluida. Es la tarjeta de presentación del artículo: su redacción ayudará al lector a decidir si le interesa acceder al contenido completo. ¿Te parece importante dedicar un tiempo y esfuerzo a la correcta elaboración del resumen?

1. Sintetizar en 150 palabras lo más destacable del mismo, separando lo sustancial de lo accesorio. Evita las premuras y tómate tu tiempo. Verifica las especificaciones de la revista elegida en cuanto a tamaño y estructura del resumen.

2. El estilo debe ser necesariamente claro, conciso y directo para que pueda ser comprendido por una población más generalista. Elude palabras innecesarias y expresiones vagas, así como acrónimos o abreviaturas (salvo de dominio general). Tampoco incluyas citas bibliográficas, notas, etc.

3. Redáctalo en impersonal, utilizando el tiempo pasado o pretérito salvo para la conclusión, que ha de escribirse en tiempo presente. No utilices frases textuales extraídas del artículo, procura darle un estilo uniforme, con frases cortas y gramaticalmente bien construidas.

4. Utiliza el modelo de Resumen estructurado, explicitando los contenidos del artículo

en sus enunciados esenciales: Objetivo, Metodología, Resultados y Conclusión. Cuida sus principales atributos: la objetividad (exento de crítica), la consistencia (fiel al original) y la coherencia entre sus apartados (evitando redundancias).

5. Comienza enunciando el Objetivo general del estudio, que ha de estar en consonancia con la pregunta de investigación. Si la pregunta fue tan estimulante que te incitó a realizar la investigación, transmite al lector tu entusiasmo cuando expongas tu propósito y alcance.

6. En Metodología se espera que informes concisamente del tipo de estudio, población, intervenciones o fuentes de datos y mediciones principales. No incluyas fórmulas, ecuaciones ni diagramas si no es estrictamente necesario.

7. Incluye en Resultados solo los hallazgos más relevantes y novedosos, exponiendo aquellos valores que apoyen la conclusión principal. No deben aparecer tablas, gráficos u otras ilustraciones, en cambio puedes interpretar brevemente el significado del resultado principal.

8. En la Conclusión principal intenta seducir al lector enfatizando tu descubrimiento, que ha de ser coherente con el objetivo y estar apoyado en el resultado. Es posible también plantear la utilidad práctica que se deriva directamente del estudio, pero evita realizar abstracciones teóricas sobre aspectos no estudiados.

9. Anota entre 3-12 palabras clave o descriptores que identifiquen con precisión la temática del artículo, mejor si están contenidos en tesauros reconocidos (MeHS, DeCS).

Coloca en primer lugar los descriptores por los que te gustaría que el artículo fuese recuperado en una búsqueda bibliográfica, favorece la efectividad de los buscadores.

10. La versión del resumen en otros idiomas debe concordar en la forma y contenidos. Utiliza servicios de traducción especializados en lenguaje científico, en lugar de aportar traducciones automatizadas mediante aplicativos informáticos

 

Más sobre

Evaluación empírica de los catálogos de las bibliotecas

 

OLYMPUS DIGITAL CAMERA

 

Péter Király, Empirical evaluation library catalogues. Issue 15: SWIB 2019, 2020

Texto completo

 

¿Cómo se debe describir un libro correctamente? Esta pregunta tiene un pasado largo (y un futuro aún más largo) con varios métodos propuestos que evolucionaron con el tiempo. En la época actual en la historia de la catalogación o, en otras palabras, en el control bibliográfico, vemos el final de un período y el comienzo de uno nuevo. En las últimas décadas, los profesionales e investigadores llamaron la atención sobre los diferentes inconvenientes de la catalogación legible por máquina, en breve MARC (ver frases ingeniosas famosas como “MARC debe morir” o “Síndrome de Estocolmo de MARC”), y hay una investigación intensiva sobre la próximo generación del esquema y el formato de metadatos bibliográficos adecuados, pero MARC no solo sigue con nosotros, sino que también genera la gran mayoría de los registros del catálogo.

 

Cuando en la década de 1960 Henriette Avram y sus colegas inventaron el formato MARC, el espacio de almacenamiento de información disponible era mucho menor que el de hoy en día, por lo que la información debería estar comprimida, por lo que una de las principales características técnicas del MARC es que siempre que una información puede ser descrita por un elemento de una lista cerrada de términos se optaría por este camino. El registro contiene formas abreviadas, mientras que la norma describe los términos abreviados en detalle. Esto dificulta la comprensión humana de MARC en su forma nativa, pero hace que la legibilidad de la máquina y por lo tanto la validación sea fácil. Al menos en teoría. El problema es que durante los decenios en que la estructura básica del MARC permaneció igual, éste siguió creciendo hasta convertirse en un estándar gigante, con una serie de diccionarios tan pequeños o grandes (que a veces son desarrollados y mantenidos externamente por otras organizaciones, como los esquemas de clasificación del contenido).

El propósito de esta investigación es estimar la calidad de los registros mediante la medición de las características estructurales, y encontrar los registros que podrían mejorarse. Con el análisis estadístico, los bibliotecarios y quienes deseen trabajar con datos o comprenderlos para diferentes fines pueden obtener una visión general del catálogo. Esta visión general podría ser útil también en la transición al nuevo formato bibliográfico. Conocer los datos es necesario cada vez, independientemente del formato. La investigación se manifiesta como un software de código abierto llamado Metadata quality assessment tool for MARC records. El código fuente de la herramienta se encuentra disponible en los siguientes repositorios: https://github.com/pkiraly/metadata-qa-marc (backend con una guía detallada para el usuario), https://github.com/pkiraly/metadata-qa-marc-web (interfaz de usuario basada en la web). Un sitio de demostración con los catálogos de la Universiteitsbibliotheek Gent (Bélgica) está disponible en http://134.76.163.21/gent/.

La forma ideal de flujo de trabajo de aseguramiento de metadatos sigue un ciclo particular (del cual la herramienta cubre los pasos 2-4):

  • Ingerir/transferir datos del catálogo a la herramienta de medición
    midiendo los registros individuales
  • Agregación y análisis estadístico de las métricas de nivel de registro
    informando
  • Evaluación con expertos en la materia para mejorar los registros dentro del catálogo (si es necesario)

En comparación con otras herramientas MARC de código abierto, la principal característica de ésta, es que maneja la semántica de los datos. La herramienta contiene un modelo Java del estándar MARC21, por lo que lleva un registro de la siguiente información sobre los elementos de datos MARC: nombre, URL de la definición, códigos aceptables y su significado, restricciones de valor, reglas de indexación, funciones FRBR correspondientes, códigos históricos, diccionarios aplicables, nombre del BIBFRAME (si lo hay) y otras reglas. Está construido de manera extensible, por lo que el conjunto de reglas no sólo cubre MARC21, sino también varias variaciones MARC, como la versión MARC de la Deuthche Nationalbibliothek, OCLC MARC (no implementada completamente), y campos definidos localmente en diferentes bibliotecas (Gante, Szeged, Biblioteca Nacional de Finlandia). Cuando la herramienta lee un registro MARC, crea un triplete para cada elemento de datos: ubicación (campo, subcampo, etc.), valor, la definición del elemento de datos. De esta manera, puede validar todos los datos contra su definición. Dado que la definición, o un formato legible por la máquina del estándar MARC no está disponible en ningún otro lugar, la herramienta proporciona una forma de exportar este modelo de datos a un esquema JSON llamado Avram (llamado así por el creador de MARC).

La herramienta ejecuta un par de mediciones. Sus resultados (almacenados en archivos CSV) se visualizan mediante una interfaz web ligera. La interfaz de usuario está destinada al bibliotecario, y también contiene una interfaz de búsqueda para el catálogo, con el fin de conectar los resultados de los análisis y los registros.

 

validation

Los resultados de la validación agrupados por tipos de error (CC BY-SA)

 

validation-details

Errores individuales. Las columnas son: ubicación (donde se produjo el error), valores problemáticos, enlace con la norma, número de ocurrencias, número de registros (CC BY-SA)

El análisis de validación itera todas las partes de los registros y comprueba si el valor se ajusta a las reglas de contenido, por ejemplo, si tiene una abreviatura adecuada, si la codificación de la fecha representa una fecha real o si los números ISBN/ISSN son válidos. Agrupa los errores según su ubicación (nivel de registro, campo de control, subcampo, etc.). Un problema común en casi todos los catálogos es que utilizan elementos de datos definidos localmente pero sin publicar su documentación. En esos casos, no es posible decidir si el valor de tal elemento sigue las reglas o no, por lo que la interfaz de usuario proporciona dos estadísticas: los errores que incluyen estos problemas y los errores “claros”. El resultado de la validación de 16 catálogos de diferentes bibliotecas.

completeness

 

Este análisis comprobó cómo se distribuyen los grupos de campos y subcampos en la colección. Los grupos de campos son las grandes categorías bajo las cuales la norma MARC enumera los campos individuales, tales como Números y Código (campos 01X-09X), o Edición, Impresión (25X-28X). Las tablas resultantes muestran cuántos registros contienen un elemento de datos particular (tanto en recuento como en porcentaje), muestra las ocurrencias, sus tendencias centrales (media, desviación estándar, mínimo, máximo). La herramienta también muestra los términos principales dentro del elemento de datos, y el usuario puede ver qué registros contienen ese elemento.

Análisis funcional

 

functions-with-scales

Análisis funcional (detalles). El eje y representa el número de registros, el eje x representa el porcentaje de los campos habilitantes disponibles en los registros.(CC BY-SA)

 

El FRBR define 12 funciones (como buscar, identificar, clasificar, mostrar) que deben ser apoyadas por los registros bibliográficos. Delsey inicializó un mapa entre estas funciones y los elementos de datos individuales. El análisis en esta etapa comprueba cuántas porciones de los elementos de datos pertenecientes a una función están disponibles en cada registro, y luego visualiza los histogramas del soporte de las funciones. Dado que un registro habitual contiene unos 200 elementos de datos, mientras que el mapa maneja más de 2000 elementos que apoyan funciones (el MARC21 define unos 3000 elementos), incluso los registros “más ricos” no pueden apoyar más del 10-15% de las funciones, por lo que los histogramas muestran un apoyo relativo. Su uso previsto es comparar el soporte de las funciones individuales, de modo que el bibliotecario puede concluir que un catálogo tiene más datos que apoyan la selección que la búsqueda.

 

Análisis de la materia (clasificación)

 

classification

Figura 5.  En la sección “Análisis de la materia (clasificación)”) (CC BY-SA)

 

En el MARC, hay campos para apoyar diferentes métodos de la descripción del contenido. El análisis comprueba todos estos campos y explora cómo se utilizan: cuántos registros tienen por lo menos un contenido, cuántos términos se adjuntan al registro, qué tipos de esquemas de clasificación o sistemas de organización del conocimiento (SCO) se utilizan, cuáles son los campos adicionales junto al término (como la fuente del término, la versión del SCO, etc.) La interfaz de usuario proporciona enlaces a la lista de términos individuales dentro de un SCO, donde los enlaces de los términos desencadenan las búsquedas.

Análisis del nombre de la autoridad

Los nombres de las autoridades son más similares que los temas en cuanto a que proporciona nombres normalizados para personas, reuniones, sociedades e incluso títulos, que pueden o no contener información adicional, como identificadores de vocabularios, fechas y títulos asociados al nombre, naturaleza de la contribución en el registro actual. Este análisis sigue la estructura del análisis del tema.

weighted-completeness

Figura 6. (en la sección ‘Integridad ponderada’) (CC BY-SA)

 

Integridad de los campos MARC

La simple integridad tiene la misma importancia para cada campo. En la literatura, se sugieren dos soluciones para agregar pesos de campos para enfatizar la importancia. Thompson y Traill configuran un cálculo de puntuación para 19 elementos de datos que dan puntos por ocurrencias (en el rango de 0 a teóricamente ilimitado). Su propósito era seleccionar lo mejor de los proveedores de registros MARC proporcionados junto con los libros electrónicos. Carlstone siguió una estrategia similar pero estaba interesada en los registros MARC de series electrónicas (aquí un registro puede tener números negativos si pierde determinados elementos de datos). La herramienta implementa ambos análisis y proporciona visualizaciones para los histogramas de puntuación (tanto para la puntuación total como para los factores individuales).

Planes futuros

En el próximo período, nos gustaría concentrarme en los detalles del KOS, particularmente en dos cuestiones 1) si el registro se refiere a un KOS jerárquico, ya sea que utilice términos genéricos o específicos (situados cerca o lejos de los términos de nivel superior de la jerarquía) 2) si vemos el catálogo como un gráfico en el que los registros representan los nodos y los sujetos representan los bordes que conectan los registros entre sí, ¿cuál es la naturaleza de esta red? Otra dirección de desarrollo es mejorar la herramienta para cubrir otros formatos como PICAplus y UNIMARC. Trabajo en estas tareas con Verbundzentrale des GBV (Göttingen), ZBW – Leibniz-Informationszentrum Wirtschaft (Hamburgo) y la Agence bibliographique de l’emseignement supérieur (Montpellier). Estamos buscando una cooperación adicional con bibliotecas, por lo que si está interesado en esta investigación, ponte en contacto en pkiraly.github.io/contact/

 

References:

 

 

¿Cómo hacer un resumen documental?

 

abstract-1

Alonso-Arévalo, Julio El resumen documental., 2004

Texto completo

Presentación abreviada

Los resúmenes documentales forman parte de la vida científica y tienen una importancia fundamental en la comunicación y transmisión de la información, especialmente en el área de la ciencia y la tecnología. El resumen forma parte de la cadena documental. Se trata de un punto de partida de las operaciones documentales en virtud de su capacidad de respuesta a las necesidades informativas y comunicativas de los investigadores. Es un proceso de identificación y representación del contenido del documento.

RDA en la Biblioteca Nacional de España en 2020-2021

 

785861d5467a11cfd47fb7f12883cc8b

 

RDA en la Biblioteca Nacional de España en 2020-2021.

Publicado el 30/01/2020

 

Ver noticia

Información relacionada

RDA, el primer paso de un cambio (Blog BNE)separador

Perfil de aplicación de RDA para monografías modernasseparador

RDA establece su hoja de ruta para 2020-2021separador

 

El 2 de enero de 2019 la Biblioteca Nacional de España comenzó la catalogación de las monografías modernas según la norma RDA. Ese mismo día se publicó en la web, a disposición de la comunidad bibliotecaria, el perfil de aplicación de RDA para monografías modernas, documento guía que detalla las características y políticas particulares en la adaptación de estas directrices, que resulta necesario por la flexibilidad de este texto normativo. En junio del mismo año, se publicó una nueva revisión de este perfil.

Durante 2019, se ha venido al mismo tiempo trabajando en sendos perfiles de aplicación de RDA para música notada, grabaciones sonoras y material audiovisual que, tomando como base el perfil de monografías modernas, contemple además las especificidades y necesidades de estos materiales. Como consecuencia de ello, a lo largo de estos primeros meses de 2020 se publicarán sus respectivos perfiles de aplicación, y se comenzará la catalogación según estos documentos de los respectivos materiales.

Paralelamente, a lo largo de este año se trabajará en el análisis y redacción de nuevos perfiles para monografías antiguas, manuscritos y material cartográfico, con el objetivo de tenerlos terminados y listos para su publicación y aplicación en 2021.

También se trabajará en 2020 en un nuevo perfil que determinará la política de la BNE para la descripción de Agentes, esto es, para la creación de registros de autoridad de Persona, Familia y Entidad Corporativa, añadiendo también aspectos de Obra y Expresión comunes a todos los materiales.

 

La Universidad de Virginia lleva a cabo un programa para preservar el catálogo de fichas de la biblioteca

 

2019-12-10_20-07-27

The Old Card Catalog: Collaborative Effort Will Preserve Its History

Ver original

A medida que continúan los preparativos para la renovación de la Biblioteca Alderman, que reemplazó a la Rotonda como la biblioteca central de UVA en 1938, un esfuerzo voluntario preserva una pequeña parte de su pasado: el catálogo de fichas.

Creado en un lapso de 50 años desde 1939 hasta 1989, el catálogo llegó a aproximadamente 4 millones de tarjetas en 65 gabinetes con 4.000 cajones.

Estas pequeñas fichas del antiguo catálogo de tarjetas físicas de la biblioteca pueden contener información única sobre un libro en particular, y por lo tanto, las existencias de la biblioteca y la historia de la Universidad. La información cuidadosamente escrita en las tarjetas, que los trabajadores de la biblioteca a veces complementan con notas escritas a mano en el anverso y reverso, incluye detalles que, en muchos casos, no suelen formar parte del sistema de catálogo electrónico, Virgo, que la Biblioteca de la Universidad cambió en 1989. una vez, el catálogo se transfirió mediante escaneo que capturó solo la información frontal de las tarjetas.

La semana pasada, mientras la profesora de inglés Elizabeth Fowler movía grupos de tarjetas de manera ordenada en cajas de archivo etiquetadas con secuencias de números de llamada particulares, dijo: “No sabemos cómo será la investigación futura. No podemos predecir eso “. Fowler, quien describió la biblioteca como “el laboratorio de las humanidades”, fue uno de los 40 voluntarios que respondieron a una llamada para ayudar a empacar las tarjetas. Dos doctorados. Los candidatos en el departamento de inglés, Neal Curtis y Samuel Lemley, encabezan el proyecto de voluntariado. Fowler los describió como “desinteresados” por tomarse el tiempo para ayudar a la próxima generación de investigadores. Además de los voluntarios que empacan las tarjetas esta semana, su esfuerzo continuará con la recaudación de fondos para garantizar que la información de las tarjetas del catálogo estará disponible eventualmente a través del catálogo en línea.

 

Diccionario de organización del conocimiento: Clasificación, Indización, Terminología

 

largepreview-1

Barité, Mario, Diccionario de Organización del Conocimiento : Clasificación, Indización, Terminología / Mario Barité et al. 6.a ed. corregida y aumentada. Montevideo: csic, 2015.

Texto completo

 

La presente es la sexta edición (tercera edición impresa) del Diccionario de Organización del Conocimiento, que ha seguido la siguiente evolución desde el año 1990 hasta el presente: 1990. Barité, Mario. Mini-glosario de Teoría de la Clasificación. Montevideo: eubca. 16 p. Se elaboró como apoyo a un seminario de educación permanente y, posteriormente, como material de referencia para los estudiantes del curso de grado «Clasificación» de la Licenciatura en Bibliotecología de la Escuela Universitaria de Bibliotecología y Ciencias Afines de la Universidad de la República del Uruguay. Esta edición en español fue impresa a mimeógrafo, solo tuvo distribución interna y registró veinticuatro términos. 1997. Barité, Mario. Glosario sobre Organización y Representación del Conocimiento: Clasificación, Indización, Terminología. Montevideo: Universidad de la República, csic. 170 p. Recogió 1300 términos en español, con equivalencias en inglés. Esta edición contó con la financiación de la Comisión Sectorial de Investigación Científica (csic) de la Universidad de la República del Uruguay y tuvo amplia distribución en América y Europa. Edición agotada. 2000. Barité, Mario. Diccionario de Organización del Conocimiento: Clasificación, Indización, Terminología. Montevideo: eubca. Primera edición digital que estuvo en línea hasta el año 2009. Colaboró en su implementación la Lic. Alicia Ocaso. Revisó los contenidos de la edición 1997 y amplió el caudal de términos a 1.500, con sus respectivas equivalencias en inglés. 2008. Barité, Mario y equipo de investigación. Diccionario de Organización del Conocimiento: Clasificación, Indización, Terminología. Montevideo: eubca. Segunda edición digital, hoy discontinuada. Estuvo disponible en línea hasta el mes de julio de 2013. Dispuso de 429 términos seleccionados con equivalencias en inglés y portugués. Esta edición se financió con aportes parciales de la Comisión Sectorial de Enseñanza y del Programa de Desarrollo Académico de la Información y la Comunicación (prodic) de la Universidad de la República Oriental del Uruguay. Equipo de investigación: Gabriela Cabrera Castromán, Inés Coira, José Fager, Leticia Furtado, Valeria Lemes, Mónica Miranda, María Luisa Odella y Orlando Dapueto, este último como pasante estudiantil. 2013. Barité, Mario y equipo de investigación. Diccionario de Organización del Conocimiento: Clasificación, Indización, Terminología. Montevideo: prodic. Tercera edición digital, que está disponible desde setiembre de 2013 en: <www.prodic.edu.uy/investigacion/kod>. Se financió con el Barité_2015-09-08.indd 7 16/9/15 13:12 8 Universidad de la República apoyo parcial del Programa de Desarrollo Académico de la Información y la Comunicación (prodic) de la Universidad de la República Oriental del Uruguay. Recoge cerca de 900 términos del dominio, de los cuales más de 760 fueron términos autorizados con sus definiciones en español y sus equivalencias en inglés y portugués. Los términos restantes se consideraron sinónimos marcados con referencias de véase. Equipo de investigación: Gabriela Cabrera Castromán, Stephanie Colombo, Amanda Duarte Blanco, María Luisa Odella, Lucía Simón y Mario Vergara. Participaron como pasantes estudiantiles Gonzalo Alonso, Andrea Florín, Exequiel Fontáns, Irene Kutscher, Mariana Martuchello y Mayra Victoria. 2015. Barité, Mario y equipo de investigación. Diccionario de Organización del Conocimiento: Clasificación, Indización, Terminología. Montevideo: csic, prodic. Sexta edición, tercera edición impresa. Se publica con el apoyo parcial del Programa de Desarrollo Académico de la Información y la Comunicación (prodic) y de la Comisión Sectorial de Investigación Científica (csic) de la Universidad de la República Oriental del Uruguay. Registra 1000 términos del dominio, de los cuales 789 son términos autorizados con sus definiciones revisadas en español, y sus equivalencias en inglés y portugués. Los 211 términos restantes se consideraron sinónimos marcados con referencias de véase. Esta edición corrige y amplía la del año 2013, que se encuentra disponible en Internet a la fecha, y ha sido revisada por los cuatro consultores internacionales. Equipo de investigación para esta edición: Stephanie Colombo, Amanda Duarte Blanco y Lucía Simón, con aportes anteriores realizados por Gabriela Cabrera Castromán, María Luisa Odella y Mario Vergara.

Escanear un documento en linea con Online OCR

 

screenshot2b25283125292bcropped

OnlineOCR.net

https://www.onlineocr.net/

 

OnlineOCR.net es una web gratuita basada en software de Reconocimiento Óptico de Caracteres (OCR), que permite convertir documentos PDF escaneados (incluyendo archivos de múltiples páginas), faxes, fotografías o imágenes capturadas de una cámara digital en documentos electrónicos editables y de búsqueda, incluyendo Adobe PDF, Microsoft Word, Microsoft Excel, Rtf, Html y Txt. Para ello subes el documento en SELECT FILE, eliges el idioma, la salida a PDF, TXTX, etc. y pulsar en CONVERT.

Si tienes un documento escaneado y desea evitar volver a escribirlo, el servicio de Free Online OCR es la forma más rápida de hacerlo. Además OnlineOCR.net admite 46 idiomas, incluidos occidentales y asiáticos, como inglés, danés, holandés, francés, alemán, italiano, portugués, ruso, español, japonés, chino, coreano y otros.

El registro te dará acceso a las funciones adicionales que no están disponibles para usuarios invitados: reconocimiento de imágenes de gran tamaño, archivos ZIP y PDF de varias páginas, elegir idiomas de reconocimiento, convertir en formatos editables y otras opciones de configuración.

OnlineOCR.net también permite y soporta:

  • Rotación automática de la imagen
  • Vista de página completa en imágenes
  • Creación de imágenes en blanco y negro a partir de archivos de imagen a color y escala de grises
  • Retener las regiones de color sin texto para la reinserción en el documento de salida

 

 

Declaración de Principios Internacionales de Catalogación (ICP).

statement2bof2binternational2bcataloguing2bprinciples2b2528icp25292b2016

 

Statement of International Cataloguing Principles (ICP). The Hague: IFLA Cataloguing Section, 2017

Texto completo

Se aprobó la Declaración de Principios original, comúnmente conocida como los “Principios de París”. por la Conferencia Internacional sobre Principios de Catalogación en 1961.1 Su objetivo de servir de base para la estandarización internacional de la catalogación se ha logrado sin duda: la mayoría de las los códigos de catalogación que se desarrollaron en todo el mundo desde entonces han seguido los Principios estrictamente o al menos en un alto grado. Esta edición de 2016 tiene en cuenta la consideración de nuevas categorías de usuarios, el entorno de acceso abierto, la interoperabilidad y el la accesibilidad de los datos, las características de las herramientas de descubrimiento y el cambio significativo del comportamiento de los usuarios en general.

 

Más de cincuenta años después, disponer de un conjunto común de principios de catalogación internacional sigue siendo una tarea ardua. necesarios, ya que los catalogadores y usuarios de todo el mundo utilizan los catálogos en línea como medio de búsqueda y descubrimiento. sistemas. A principios del siglo XXI, la IFLA elaboró una nueva declaración de principios (publicada en 2009) aplicable a los catálogos de las bibliotecas en línea y en adelante. La versión actual tiene ha sido revisado y actualizado en 2014 y 2015, y aprobado en 2016.

La Declaración de Principios de 2009 sustituyó y amplió explícitamente el alcance de la Declaración de París. Principios que van desde los recursos textuales a todos los tipos de recursos, y desde la elección y la forma de entrada a todos los aspectos de los datos bibliográficos y de autoridad utilizados en los catálogos de las bibliotecas. Incluía no sólo los principios y objetivos, pero también las normas de orientación que deben incluirse en los códigos de catalogación a nivel internacional, así como orientación sobre las capacidades de búsqueda y recuperación. Esta edición de 2016 tiene en cuenta la consideración de nuevas categorías de usuarios, el entorno de acceso abierto, la interoperabilidad y el la accesibilidad de los datos, las características de las herramientas de descubrimiento y el cambio significativo del comportamiento de los usuarios en general.