Archivo de la etiqueta: Bases de datos

Periodicals Index Online (PIO): acceso a 6.000 revistas populares y académicas de 1965 hasta finales del siglo XX

proquest-primary-source-materials-69-638

Periodicals Index Online (PIO)

Periodicals Index Online (PIO) es el índice multidisciplinar líder en artes, humanidades y ciencias sociales. Se incluyen más de 6.000 revistas, con cerca de un millón de registros de nuevas revistas añadidos anualmente. Las series completas de estos títulos están indexadas, desde la primera emisión hasta 1995 o desde la fecha de cese. El alcance es internacional, incluyendo revistas en inglés, francés, alemán, alemán, italiano, español y la mayoría de los demás idiomas occidentales

Tres siglos de artes, humanidades y ciencias sociales indexadas, desde el primer número hasta 1995 o hasta la fecha de su desaparición, se ofrecen en esta nueva base de datos de ProQuest, con acceso a una colección creciente de más de 18 millones de citas.

  • Incluye tanto publicaciones populares o periodísticas, como académicasaunque estas últimas son mayoritarias.
  • Desde el punto de vista temático, las publicaciones se centran en Humanidades y Ciencias Sociales. 

El objetivo de esta base de datos (PIO) es centrarse en el periodo indicado debido a que, a partir de fines de los noventa del siglo XX e inicio del 2000 la posibilidad de conseguir acceso a las publicaciones, por su progresiva digitalización, mejora notablemente hacia adelante. En cambio, hacia atrás empeora cada vez más.

PIO permite a los usuarios buscar artículos por palabras o frases en los títulos, por autor y por título de la revista. La búsqueda puede restringirse por el idioma del artículo, el tema de la revista, el año de publicación o un rango de fechas.

Fuente:

El Mercurio salmantino. Blog de la Biblioteca Histórica de la Universidad de Salamanca

Anuncios

Gestión de grandes conjuntos de datos de imágenes: captura, bases de datos, procesamiento de imágenes, almacenamiento, visualización.

 

management-of-large-sets-of-image-data

Kozak, K. (2014). [e-Book]  Management of large sets of image data: Capture, Databases, Image Processing, Storage, Visualization BookBoom, 2014.

Texto completo

 

“Digital Imaging” proporciona las habilidades y conocimientos esenciales para producir datos de alta calidad. En su forma más básica, un sistema de información de imágenes debe almacenar con precisión los datos de las imágenes obtenidos de cámaras digitales con una amplia gama de capacidades de imagenología, junto con información accesoria (metadatos de datos), el sistema de adquisición, e información básica sobre el usuario, ubicación, fecha, etc. El libro ofrece una visión integral de las imágenes digitales introduciendo: formatos de imagen, cámaras digitales, soluciones de almacenamiento, métodos de visualización, métodos de procesamiento de imágenes desde la adquisición de imágenes hasta la extracción de los datos de interés. El libro cubre además la descripción del hardware, la introducción en archivos digitales, la gestión de datos de imagen, la historia y el ejemplo de pocas disciplinas en las que la imagen digital desempeña un papel esencial. Este libro puede ayudar a entender el fondo de las imágenes digitales, incluyendo herramientas de software para manejar una gran cantidad de datos de imagen.

Extracción de Conocimiento en Grandes Bases de Datos Utilizando Estrategias Adaptativas

 

extraccion-conocimiento-grandes-bbdd-openlibra

Hasperué, W. (2012). [e-Book]  Extracción de Conocimiento en Grandes Bases de Datos Utilizando Estrategias Adaptativas. La Plata, EDULP, 2012.

 

Texto completo

 

El objetivo general de esta tesis es el desarrollo de una técnica adaptativa para la extracción de conocimiento en grandes bases de datos. Hoy en día, la tecnología posibilita el almacenamiento de enormes volúmenes de información. Por tal motivo, resulta de interés contar con técnicas que permitan, en una primera etapa, analizar tal información y obtener conocimiento que pueda ser expresado como reglas de clasificación. Sin embargo, es de esperar que la información disponible se modifique o incremente a lo largo del tiempo y por lo tanto, en una segunda etapa, sería relevante poder adaptar el conocimiento adquirido a los cambios o variaciones que ocurran en el conjunto de datos original. El aporte de la tesis está centrado en la definición de una técnica adaptativa que permite extraer conocimiento de grandes bases de datos a partir de un modelo dinámico capaz de adaptarse a los cambios de la información, obteniendo así una técnica de minería de datos que sea capaz de generar conocimiento útil, produciendo resultados que sean de provecho al usuario final. Los resultados de esta investigación pueden aplicarse en áreas tales como análisis de suelos, análisis genético, biología, robótica, economía, medicina, detección de fallas en plantas y comunicación de sistemas móviles. En estos casos es importante la obtención de un resultado óptimo, de modo de mejorar la calidad de las decisiones que se toman a partir del procesamiento. Desde el punto de vista informático estos problemas son un desafío interesante debido al volumen y distribución de los datos a analizar (incluso su complejidad) para obtener el conocimiento buscado.

Open Data: base de datos sobre información de la historia del clima de la tierra desde hace 2.000 años

 

PDFsdata201788-f1

 

“A global multiproxy database for temperature reconstructions of the Common Era.” vol. 4, n. (2017). pp. 170088. http://dx.doi.org/10.1038/sdata.2017.88

PDF

La base de datos contiene la historia del clima de la Tierra desde hace 2.000 años
Los científicos del clima podrán estudiar con mayor precisión los cambios de temperatura de la Tierra, gracias a una base de datos global compilada con la ayuda de una Universidad Victoria de Wellington y GNS Science. Siendo la única herramienta para probar y verificar de forma independiente los modelos climáticos más allá de los últimos cuarenta años. PAGES ha publicado la base de datos como un recurso abierto, lo que permite a cualquiera descargar y utilizar los datos.

 

Es la colección más completa de información sobre el cambio de temperatura global de todos los tiempos, los datos que proporciona han tardado más de 2 años en reunirse. La base de datos reúne cerca de 700 registros de 648 localidades, compilados por 98 expertos regionales de 22 países, incluyendo todas las regiones continentales y las principales cuencas oceánicas. El proyecto fue coordinado por la red de científicos paleoclimáticos internacionales de PAGES (Past Global Changes)

La base de datos recoge información sobre la temperatura del pasado basada en la evidencia de varias fuentes de información, incluyendo anillos de árboles, corales, glaciares y sedimentos marinos y lacustres. La base de datos permite evaluar críticamente y mejorar los modelos de sistemas de tierra utilizados para proporcionar proyecciones futuras. La importancia de esta base de datos es que proporciona información muy necesaria sobre tendencias y patrones regionales de temperatura.

la colección completa se archiva como archivos pdf en Data Citation 1: figshare (Data Citation 1: figshare https://doi.org/10.6084/m9.figshare.c.3285353

PAGES 2k Consortium, figshare https://doi.org/10.6084/m9.figshare.c.3285353 (2017).

 

 

 

Evaluación de la Calidad de las Bases de Datos: monográfico

data-quality

Descargar Monográfico

PDF

 Una base de datos o banco de datos es un conjunto de datos pertenecientes a un mismo contexto y almacenados sistemáticamente para su posterior uso. En este sentido; una biblioteca puede considerarse una base de datos compuesta en su mayoría por documentos y textos impresos en papel e indexados para su consulta. Actualmente, y debido al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las bases de datos están en formato digital, siendo este un componente electrónico, por tanto se ha desarrollado y se ofrece un amplio rango de soluciones al problema del almacenamiento de datos. (Wikipedia)

Impulsar la calidad de los datos requiere un proceso repetible que incluye:

  • La definición de requisitos específicos de “datos de buena calidad”, allá donde se utilicen.
  • El establecimiento de reglas para certificar la calidad de esos datos.
  • La integración de esas reglas en un flujo de trabajo existente para comprobar y permitir la gestión de excepciones.
  • La continuidad de la supervisión y la evaluación de la calidad de los datos durante su ciclo de vida (normalmente realizadas por los administradores de datos).

De: Calidad de los datos: Porque los datos óptimos son un buen negocio. https://www.informatica.com/es/products/data-quality.html

Lista de bases de datos y motores de búsqueda de información científica

 

ple_redinv

Esta página de Wikipedia contiene una lista representativa de las principales bases de datos y motores de búsqueda útiles en un entorno académico para encontrar y acceder a artículos en revistas, repositorios, archivos, u otras colecciones de artículos científicos.

Ver listado

Además