Archivo de la etiqueta: Bases de datos

Gestión de grandes conjuntos de datos de imágenes: captura, bases de datos, procesamiento de imágenes, almacenamiento, visualización.

 

management-of-large-sets-of-image-data

Kozak, K. (2014). [e-Book]  Management of large sets of image data: Capture, Databases, Image Processing, Storage, Visualization BookBoom, 2014.

Texto completo

 

“Digital Imaging” proporciona las habilidades y conocimientos esenciales para producir datos de alta calidad. En su forma más básica, un sistema de información de imágenes debe almacenar con precisión los datos de las imágenes obtenidos de cámaras digitales con una amplia gama de capacidades de imagenología, junto con información accesoria (metadatos de datos), el sistema de adquisición, e información básica sobre el usuario, ubicación, fecha, etc. El libro ofrece una visión integral de las imágenes digitales introduciendo: formatos de imagen, cámaras digitales, soluciones de almacenamiento, métodos de visualización, métodos de procesamiento de imágenes desde la adquisición de imágenes hasta la extracción de los datos de interés. El libro cubre además la descripción del hardware, la introducción en archivos digitales, la gestión de datos de imagen, la historia y el ejemplo de pocas disciplinas en las que la imagen digital desempeña un papel esencial. Este libro puede ayudar a entender el fondo de las imágenes digitales, incluyendo herramientas de software para manejar una gran cantidad de datos de imagen.

Extracción de Conocimiento en Grandes Bases de Datos Utilizando Estrategias Adaptativas

 

extraccion-conocimiento-grandes-bbdd-openlibra

Hasperué, W. (2012). [e-Book]  Extracción de Conocimiento en Grandes Bases de Datos Utilizando Estrategias Adaptativas. La Plata, EDULP, 2012.

 

Texto completo

 

El objetivo general de esta tesis es el desarrollo de una técnica adaptativa para la extracción de conocimiento en grandes bases de datos. Hoy en día, la tecnología posibilita el almacenamiento de enormes volúmenes de información. Por tal motivo, resulta de interés contar con técnicas que permitan, en una primera etapa, analizar tal información y obtener conocimiento que pueda ser expresado como reglas de clasificación. Sin embargo, es de esperar que la información disponible se modifique o incremente a lo largo del tiempo y por lo tanto, en una segunda etapa, sería relevante poder adaptar el conocimiento adquirido a los cambios o variaciones que ocurran en el conjunto de datos original. El aporte de la tesis está centrado en la definición de una técnica adaptativa que permite extraer conocimiento de grandes bases de datos a partir de un modelo dinámico capaz de adaptarse a los cambios de la información, obteniendo así una técnica de minería de datos que sea capaz de generar conocimiento útil, produciendo resultados que sean de provecho al usuario final. Los resultados de esta investigación pueden aplicarse en áreas tales como análisis de suelos, análisis genético, biología, robótica, economía, medicina, detección de fallas en plantas y comunicación de sistemas móviles. En estos casos es importante la obtención de un resultado óptimo, de modo de mejorar la calidad de las decisiones que se toman a partir del procesamiento. Desde el punto de vista informático estos problemas son un desafío interesante debido al volumen y distribución de los datos a analizar (incluso su complejidad) para obtener el conocimiento buscado.

Open Data: base de datos sobre información de la historia del clima de la tierra desde hace 2.000 años

 

PDFsdata201788-f1

 

“A global multiproxy database for temperature reconstructions of the Common Era.” vol. 4, n. (2017). pp. 170088. http://dx.doi.org/10.1038/sdata.2017.88

PDF

La base de datos contiene la historia del clima de la Tierra desde hace 2.000 años
Los científicos del clima podrán estudiar con mayor precisión los cambios de temperatura de la Tierra, gracias a una base de datos global compilada con la ayuda de una Universidad Victoria de Wellington y GNS Science. Siendo la única herramienta para probar y verificar de forma independiente los modelos climáticos más allá de los últimos cuarenta años. PAGES ha publicado la base de datos como un recurso abierto, lo que permite a cualquiera descargar y utilizar los datos.

 

Es la colección más completa de información sobre el cambio de temperatura global de todos los tiempos, los datos que proporciona han tardado más de 2 años en reunirse. La base de datos reúne cerca de 700 registros de 648 localidades, compilados por 98 expertos regionales de 22 países, incluyendo todas las regiones continentales y las principales cuencas oceánicas. El proyecto fue coordinado por la red de científicos paleoclimáticos internacionales de PAGES (Past Global Changes)

La base de datos recoge información sobre la temperatura del pasado basada en la evidencia de varias fuentes de información, incluyendo anillos de árboles, corales, glaciares y sedimentos marinos y lacustres. La base de datos permite evaluar críticamente y mejorar los modelos de sistemas de tierra utilizados para proporcionar proyecciones futuras. La importancia de esta base de datos es que proporciona información muy necesaria sobre tendencias y patrones regionales de temperatura.

la colección completa se archiva como archivos pdf en Data Citation 1: figshare (Data Citation 1: figshare https://doi.org/10.6084/m9.figshare.c.3285353

PAGES 2k Consortium, figshare https://doi.org/10.6084/m9.figshare.c.3285353 (2017).

 

 

 

Evaluación de la Calidad de las Bases de Datos: monográfico

data-quality

Descargar Monográfico

PDF

 Una base de datos o banco de datos es un conjunto de datos pertenecientes a un mismo contexto y almacenados sistemáticamente para su posterior uso. En este sentido; una biblioteca puede considerarse una base de datos compuesta en su mayoría por documentos y textos impresos en papel e indexados para su consulta. Actualmente, y debido al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las bases de datos están en formato digital, siendo este un componente electrónico, por tanto se ha desarrollado y se ofrece un amplio rango de soluciones al problema del almacenamiento de datos. (Wikipedia)

Impulsar la calidad de los datos requiere un proceso repetible que incluye:

  • La definición de requisitos específicos de “datos de buena calidad”, allá donde se utilicen.
  • El establecimiento de reglas para certificar la calidad de esos datos.
  • La integración de esas reglas en un flujo de trabajo existente para comprobar y permitir la gestión de excepciones.
  • La continuidad de la supervisión y la evaluación de la calidad de los datos durante su ciclo de vida (normalmente realizadas por los administradores de datos).

De: Calidad de los datos: Porque los datos óptimos son un buen negocio. https://www.informatica.com/es/products/data-quality.html

Lista de bases de datos y motores de búsqueda de información científica

 

ple_redinv

Esta página de Wikipedia contiene una lista representativa de las principales bases de datos y motores de búsqueda útiles en un entorno académico para encontrar y acceder a artículos en revistas, repositorios, archivos, u otras colecciones de artículos científicos.

Ver listado

Además