Archivo de la etiqueta: Bases de datos

Big Deals Survey, primera cartografía de los principales contratos de publicación científica en Europa

2018-04-11_07-49-53

EUA Big Deals surve report: The First Mapping of Major Scientific Publishing Contracts in Europe [Report]  Brussels, Belgium, EUA.

Texto completo

 

EUA ha publicado los resultados de su primera encuesta Big Deals Survey, una iniciativa original llevada a cabo por la asociación para recopilar más información sobre los grandes contratos de publicación científica desde la perspectiva de las universidades (conocida como “Big Deals”).

The EUA Big Deals Survey Report presenta datos de 28 consorcios de negociación. Los datos, que se recogieron entre julio de 2016 y junio de 2017, eran anónimos para respetar de ese modo el carácter confidencial de la información proporcionada por los encuestados. La encuesta se centró en las funciones y el proceso de trabajo de los consorcios, así como en las condiciones de los contratos para grandes contratos relativos a publicaciones periódicas científicas, bases de datos y libros electrónicos. Los resultados de la encuesta muestran que los consorcios representan ampliamente los intereses de las partes interesadas de los sectores universitario y bibliotecario, y que están impulsados en gran medida por las necesidades de los investigadores.

Los resultados de la encuesta revelaron, por primera vez a escala europea, la magnitud del gasto en contratos con editoriales científicas. También se identificaron marcadas variaciones en el gasto en contratos de grandes proyectos entre los diferentes países europeos. Además, los resultados de esta encuesta indican que el liderazgo universitario sólo participa directamente en el proceso de negociación con los editores en aproximadamente un tercio de todos los consorcios, mientras que la financiación de estos contratos procede en gran medida de la universidad y del sector público.

 

Scopus alcanza los 70 millones de registros

https://www.scopus.com

Este mes el número total de registros indexados en Scopus superó los 70 millones y continúa creciendo diariamente. A medida que se agrega cada registro a Scopus, los metadatos son meticulosamente capturados para asegurar la profundidad y calidad de los datos. Estos datos de alta calidad no sólo permiten una búsqueda y recuperación más precisa en Scopus, sino que también proporcionan una investigación importante.

Scopus es una de las bases de datos de resúmenes y citas más grande del mundo sobre  literatura de investigación revisada por pares. Con más de 22.000 títulos de más de 5.000 editoriales internacionales. Se trata de un recurso de vital importancia para los procesos de acreditación académica, ya que recoge las citas recibidas por los autores de todos los campos del conocimiento de las revistas indexadas por la compañía Elsevier. La medición del impacto de esta base de datos de citas puede consultarse en Scimago Journal & Country Rank

 

Según datos de la propia compañía Scopus incluye:

  • Más de 70 millones de registros
  • 39,5+ millones de registros posteriores a 1995, incluidas las referencias (84% incluye resúmenes)
  • 24+ millones de registros anteriores a 1996 que se remontan hasta 1823.
  • Más de 21.500 revistas revisadas por pares, de las cuales más de 3.500 son totalmente Gold Open Access http://bit.ly/1SrAf40
  • Más de 131.000 libros http://bit.ly/2aLH1o8. Incluyendo monografías, volúmenes editados, principales referencias trabajos y libros de texto para graduados
  • Se centra en las ciencias sociales y las artes y humanidades, pero también incluye ciencia, tecnología y medicina (STM)
  • Más de 540 series de libros
  • Más de 7,5 millones de documentos de conferencias
  • Más de 320 publicaciones comerciales
  • Artículos en prensa (es decir, artículos que han sido aceptados para ) de más de 3.750 títulos de editoriales internacionales, incluyendo Cambridge University Press, el Instituto de Electricidad y Ingenieros Electrónicos (IEEE), Nature Publishing Group, Springer, Wiley-Blackwell y, por supuesto, Elsevier.

 

Cobertura por áreas de conocimiento de Scopus

 

Periodicals Index Online (PIO): acceso a 6.000 revistas populares y académicas de 1965 hasta finales del siglo XX

proquest-primary-source-materials-69-638

Periodicals Index Online (PIO)

Periodicals Index Online (PIO) es el índice multidisciplinar líder en artes, humanidades y ciencias sociales. Se incluyen más de 6.000 revistas, con cerca de un millón de registros de nuevas revistas añadidos anualmente. Las series completas de estos títulos están indexadas, desde la primera emisión hasta 1995 o desde la fecha de cese. El alcance es internacional, incluyendo revistas en inglés, francés, alemán, alemán, italiano, español y la mayoría de los demás idiomas occidentales

Tres siglos de artes, humanidades y ciencias sociales indexadas, desde el primer número hasta 1995 o hasta la fecha de su desaparición, se ofrecen en esta nueva base de datos de ProQuest, con acceso a una colección creciente de más de 18 millones de citas.

  • Incluye tanto publicaciones populares o periodísticas, como académicasaunque estas últimas son mayoritarias.
  • Desde el punto de vista temático, las publicaciones se centran en Humanidades y Ciencias Sociales. 

El objetivo de esta base de datos (PIO) es centrarse en el periodo indicado debido a que, a partir de fines de los noventa del siglo XX e inicio del 2000 la posibilidad de conseguir acceso a las publicaciones, por su progresiva digitalización, mejora notablemente hacia adelante. En cambio, hacia atrás empeora cada vez más.

PIO permite a los usuarios buscar artículos por palabras o frases en los títulos, por autor y por título de la revista. La búsqueda puede restringirse por el idioma del artículo, el tema de la revista, el año de publicación o un rango de fechas.

Fuente:

El Mercurio salmantino. Blog de la Biblioteca Histórica de la Universidad de Salamanca

Gestión de grandes conjuntos de datos de imágenes: captura, bases de datos, procesamiento de imágenes, almacenamiento, visualización.

 

management-of-large-sets-of-image-data

Kozak, K. (2014). [e-Book]  Management of large sets of image data: Capture, Databases, Image Processing, Storage, Visualization BookBoom, 2014.

Texto completo

 

“Digital Imaging” proporciona las habilidades y conocimientos esenciales para producir datos de alta calidad. En su forma más básica, un sistema de información de imágenes debe almacenar con precisión los datos de las imágenes obtenidos de cámaras digitales con una amplia gama de capacidades de imagenología, junto con información accesoria (metadatos de datos), el sistema de adquisición, e información básica sobre el usuario, ubicación, fecha, etc. El libro ofrece una visión integral de las imágenes digitales introduciendo: formatos de imagen, cámaras digitales, soluciones de almacenamiento, métodos de visualización, métodos de procesamiento de imágenes desde la adquisición de imágenes hasta la extracción de los datos de interés. El libro cubre además la descripción del hardware, la introducción en archivos digitales, la gestión de datos de imagen, la historia y el ejemplo de pocas disciplinas en las que la imagen digital desempeña un papel esencial. Este libro puede ayudar a entender el fondo de las imágenes digitales, incluyendo herramientas de software para manejar una gran cantidad de datos de imagen.

Extracción de Conocimiento en Grandes Bases de Datos Utilizando Estrategias Adaptativas

 

extraccion-conocimiento-grandes-bbdd-openlibra

Hasperué, W. (2012). [e-Book]  Extracción de Conocimiento en Grandes Bases de Datos Utilizando Estrategias Adaptativas. La Plata, EDULP, 2012.

 

Texto completo

 

El objetivo general de esta tesis es el desarrollo de una técnica adaptativa para la extracción de conocimiento en grandes bases de datos. Hoy en día, la tecnología posibilita el almacenamiento de enormes volúmenes de información. Por tal motivo, resulta de interés contar con técnicas que permitan, en una primera etapa, analizar tal información y obtener conocimiento que pueda ser expresado como reglas de clasificación. Sin embargo, es de esperar que la información disponible se modifique o incremente a lo largo del tiempo y por lo tanto, en una segunda etapa, sería relevante poder adaptar el conocimiento adquirido a los cambios o variaciones que ocurran en el conjunto de datos original. El aporte de la tesis está centrado en la definición de una técnica adaptativa que permite extraer conocimiento de grandes bases de datos a partir de un modelo dinámico capaz de adaptarse a los cambios de la información, obteniendo así una técnica de minería de datos que sea capaz de generar conocimiento útil, produciendo resultados que sean de provecho al usuario final. Los resultados de esta investigación pueden aplicarse en áreas tales como análisis de suelos, análisis genético, biología, robótica, economía, medicina, detección de fallas en plantas y comunicación de sistemas móviles. En estos casos es importante la obtención de un resultado óptimo, de modo de mejorar la calidad de las decisiones que se toman a partir del procesamiento. Desde el punto de vista informático estos problemas son un desafío interesante debido al volumen y distribución de los datos a analizar (incluso su complejidad) para obtener el conocimiento buscado.

Open Data: base de datos sobre información de la historia del clima de la tierra desde hace 2.000 años

 

PDFsdata201788-f1

 

“A global multiproxy database for temperature reconstructions of the Common Era.” vol. 4, n. (2017). pp. 170088. http://dx.doi.org/10.1038/sdata.2017.88

PDF

La base de datos contiene la historia del clima de la Tierra desde hace 2.000 años
Los científicos del clima podrán estudiar con mayor precisión los cambios de temperatura de la Tierra, gracias a una base de datos global compilada con la ayuda de una Universidad Victoria de Wellington y GNS Science. Siendo la única herramienta para probar y verificar de forma independiente los modelos climáticos más allá de los últimos cuarenta años. PAGES ha publicado la base de datos como un recurso abierto, lo que permite a cualquiera descargar y utilizar los datos.

 

Es la colección más completa de información sobre el cambio de temperatura global de todos los tiempos, los datos que proporciona han tardado más de 2 años en reunirse. La base de datos reúne cerca de 700 registros de 648 localidades, compilados por 98 expertos regionales de 22 países, incluyendo todas las regiones continentales y las principales cuencas oceánicas. El proyecto fue coordinado por la red de científicos paleoclimáticos internacionales de PAGES (Past Global Changes)

La base de datos recoge información sobre la temperatura del pasado basada en la evidencia de varias fuentes de información, incluyendo anillos de árboles, corales, glaciares y sedimentos marinos y lacustres. La base de datos permite evaluar críticamente y mejorar los modelos de sistemas de tierra utilizados para proporcionar proyecciones futuras. La importancia de esta base de datos es que proporciona información muy necesaria sobre tendencias y patrones regionales de temperatura.

la colección completa se archiva como archivos pdf en Data Citation 1: figshare (Data Citation 1: figshare https://doi.org/10.6084/m9.figshare.c.3285353

PAGES 2k Consortium, figshare https://doi.org/10.6084/m9.figshare.c.3285353 (2017).

 

 

 

Evaluación de la Calidad de las Bases de Datos: monográfico

data-quality

Descargar Monográfico

PDF

 Una base de datos o banco de datos es un conjunto de datos pertenecientes a un mismo contexto y almacenados sistemáticamente para su posterior uso. En este sentido; una biblioteca puede considerarse una base de datos compuesta en su mayoría por documentos y textos impresos en papel e indexados para su consulta. Actualmente, y debido al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las bases de datos están en formato digital, siendo este un componente electrónico, por tanto se ha desarrollado y se ofrece un amplio rango de soluciones al problema del almacenamiento de datos. (Wikipedia)

Impulsar la calidad de los datos requiere un proceso repetible que incluye:

  • La definición de requisitos específicos de “datos de buena calidad”, allá donde se utilicen.
  • El establecimiento de reglas para certificar la calidad de esos datos.
  • La integración de esas reglas en un flujo de trabajo existente para comprobar y permitir la gestión de excepciones.
  • La continuidad de la supervisión y la evaluación de la calidad de los datos durante su ciclo de vida (normalmente realizadas por los administradores de datos).

De: Calidad de los datos: Porque los datos óptimos son un buen negocio. https://www.informatica.com/es/products/data-quality.html