Archivo de la etiqueta: Gestión de datos de investigación

Mapeo del panorama actual del compromiso de la biblioteca de investigación con las tecnologías emergentes en investigación y aprendizaje

 

technologies-for-industry-40

 

Lippincott, Sarah. Mapping the Current Landscape of Research Library Engagement with Emerging Technologies in Research and Learning: Executive Summary. Edited by Mary Lee Kennedy, Clifford Lynch, and Scout Calvert. Association of Research Libraries, Born-Digital, Coalition for Networked Information, and EDUCAUSE, March 2020. https://doi.org/10.29242/report.emergingtech2020.landscape.summa.

Texto completo

 

Parte de la iniciativa conjunta ARL-CNI-EDUCAUSE para avanzar en el impacto de las bibliotecas de investigación en un mundo conformado por tecnologías emergentes , este informe es un resumen ejecutivo de recursos secundarios y discusiones con los líderes de bibliotecas de investigación sobre la adopción de tecnologías emergentes por parte de sus organizaciones.

La generación, difusión y análisis de la información digital es un importante motor y consecuencia del cambio tecnológico. Como administradores de datos e información en el espacio físico y virtual, las bibliotecas de investigación están profundamente comprometidas en los desafíos que presenta la Cuarta Revolución Industrial: Industria 4.0, un cambio social impulsado no por el vapor o la electricidad, sino por los datos, y caracterizado por una fusión de los mundos físico y digital. Organizar, estructurar, preservar y proporcionar acceso a volúmenes cada vez mayores de los datos digitales generados y requeridos por la investigación y la industria se convertirá en una función de importancia crítica. En su calidad de asociados de la comunidad de investigadores y estudiosos, las bibliotecas de investigación también están reconociendo y adaptándose a las consecuencias del cambio tecnológico en las prácticas de la erudición y la comunicación académica.

 

Covid-19: cómo el intercambio de datos sin precedentes ha llevado a una investigación de brotes más rápida que nunca

 

Virology Lab Work As Europe On Coronavirus High Alert

 

Covid-19: How unprecedented data sharing has led to faster-than-ever outbreak research Horizon, 23 March 2020 by Ian Le Guillou

Ver completo.

«El impulso hacia la ciencia abierta, los datos abiertos y los preprints realmente ha cambiado la forma en que experimentamos el discurso científico en este brote en comparación con los anteriores», dijo el profesor Richard Neher, de la Universidad de Basilea, Suiza.

Los avances en la secuenciación de genes han permitido a los científicos rastrear y monitorear la pandemia de COVID-19 más rápido que cualquier brote anterior. Sin embargo, las lagunas en nuestro conocimiento de cómo funcionan los coronavirus ha dificultado la comprensión de lo que hace especial al nuevo coronavirus.

 

Cuando se identificó el nuevo coronavirus (conocido formalmente como SARS-CoV-2) en China en enero, los científicos de todo el mundo estaban listos para responder. Toda la composición genética del virus, o genoma, se publicó en línea en cuestión de días. En comparación, durante el brote de coronavirus del SARS en 2003, esto tomó casi tres meses, después de que la enfermedad se atribuyera originalmente a la clamidia

Los avances en la tecnología han reducido significativamente el costo de la secuenciación de genes y las máquinas ahora son lo suficientemente pequeñas como para caber en la palma de su mano. Esto ha facilitado la secuenciación de una gran cantidad de muestras en todo el mundo.

‘Puede ver en las secuencias cómo se propaga el virus, la velocidad a la que se propaga y estimar la cantidad de personas infectadas. A medida que tenemos más y más secuencias, los números son cada vez más precisos », dijo la profesora Anne-Mieke Vandamme de KU Leuven, Bélgica.

La secuenciación de próxima generación, o NGS, puede generar enormes cantidades de datos, y el desafío es encontrar formas de analizarlos adecuadamente.

Una de las herramientas desarrolladas, llamada Genome Detective, puede tomar los datos sin procesar de la máquina de secuenciación, filtrar los resultados de los no virus, juntar el genoma y usarlo para identificar el virus. No se basa en conjeturas o hipótesis anteriores, por lo que incluso puede identificar virus que no se han visto antes. Esto se utilizó para confirmar el primer caso de COVID-19 en Bélgica, identificándolo como un coronavirus relacionado con el SARS.

El poder de la secuenciación de genes proviene de comparar los resultados en diferentes casos. El profesor Vandamme dice que ha sido ‘fantástico’ ver el nivel de colaboración internacional: ‘Hay mucho más intercambio de datos y secuencias en línea … en comparación con el pasado porque tenemos muchas más herramientas de intercambio en línea disponibles’.

Una de estas herramientas es NextStrain, un recurso en línea que utiliza datos del genoma para monitorear la evolución de los organismos que causan enfermedades como los virus en tiempo real. Ha rastreado varios brotes, incluidos el zika, el ébola y el dengue, e incluso se ha utilizado para informar la política de la Organización Mundial de la Salud sobre la gripe estacional.

Los trabajos de investigación generalmente tardan meses en publicarse, un eón en la carrera actual para enfrentar la pandemia. La necesidad de compartir información rápidamente ha alentado un mayor intercambio de ‘preprints, borradores de documentos que aún no han sido revisados ​​por pares.

«El impulso hacia la ciencia abierta, los datos abiertos y los preprints realmente ha cambiado la forma en que experimentamos el discurso científico en este brote en comparación con los anteriores», dijo el profesor Richard Neher, de la Universidad de Basilea, Suiza, que lidera el proyecto NextStrain.

El no conocimiento y las culturas digitales

 

5c92ad90a6a5124211c040472bff03cd

 

Andreas, B., K. Matthias, et al.. [e-Book]  Non-Knowledge and Digital Cultures. Meson Press, 2018

Texto completo

 

Al poner a disposición cantidades masivas de datos que se generan, distribuyen y modelan, los medios digitales nos ofrecen la posibilidad de disponer de abundante información y conocimiento. Esta posibilidad ha ido atrayendo varios escenarios en los que la tecnología o bien elimina el no conocimiento o bien lo sitúa en lo profundo de las culturas contemporáneas a través del poder universal y la opacidad de los algoritmos.

El impacto humano de la alfabetización de datos. Guía del líder para democratizar los datos, impulsar la productividad y potenciar la fuerza de trabajo

 

captura-33

The Human Impact of Data Literacy. A leader’s guide to democratizing data, boosting productivity and empowering the workforce. Accenture y Qlik, 2020

Texto completo

El nuevo informe de Accenture (NYSE: ACN) y Qlik, titulado «The Human Impact of Data Literacy» y realizado en nombre del Proyecto de Alfabetización de Datos, encontró que aunque la mayoría de las organizaciones entienden la increíble oportunidad de los datos, ha surgido una brecha entre las aspiraciones de las organizaciones de estar basadas en los datos y la capacidad de sus empleados de crear valor empresarial con los datos.

 

 

 

COVID-19 Open Research Dataset (CORD-19): la mejor arma contra coronavirus, una web con más de 29.000 documentos y datos de investigación

 

1ddcc6cf-40c9-47df-acd9-dca1d7d0ab66

COVID-19 Open Research Dataset (CORD-19)

Acceder

 

En respuesta a la pandemia de COVID-19, el Instituto Allen de Inteligencia Artificial se ha asociado con los principales grupos de investigación para preparar y distribuir el Conjunto de Datos de Investigación Abierta COVID-19 (CORD-19), un recurso gratuito de más de 29.000 artículos académicos, incluidos más de 13.000 con texto completo, sobre COVID-19 y la familia de virus coronavirus para su uso por la comunidad de investigación mundial.

Este conjunto de datos tiene por objeto movilizar a los investigadores para que apliquen los recientes avances en el procesamiento del lenguaje natural con el fin de generar nuevos conocimientos en apoyo de la lucha contra esta enfermedad infecciosa. El corpus se actualizará semanalmente a medida que se publiquen nuevas investigaciones en publicaciones revisadas por pares y servicios de archivo como bioRxiv, medRxiv y otros.

Kaggle está organizando el COVID-19 Open Research Dataset Challenge, una serie de preguntas importantes diseñadas para inspirar a la comunidad a usar CORD-19 para encontrar nuevos conocimientos sobre la pandemia de COVID-19, incluyendo la historia natural, la transmisión y el diagnóstico del virus, las medidas de gestión en la interfaz humano-animal y las lecciones de estudios epidemiológicos anteriores .

 

Los asesores científicos piden que los editores den acceso gratuito a toda información sobre el coronavirus

Long Island Laboratory To Start Semi-Automated Coronavirus Testing

 

A dozen national science advisers ask publishers to make all coronavirus research available for AI by Alan Boyle on March 13, 2020 at 9:53 am

Ver completo

 

Las principales editoriales científicas del mundo, como Science and Nature, tradicionalmente cobran por el acceso a sus revistas de primera categoría. Pero  en una carta emitida hoy, los asesores científicos de la Casa Blanca y otros 11 gobiernos nacionales están pidiendo a los editores de todo el mundo que brinden acceso libre y gratuito a todas las investigaciones relacionadas con los coronavirus.

Si se responde a la declaración, todas las investigaciones relacionadas con COVID-19, el virus SARS-CoV-2 que causa la enfermedad, así como otros coronavirus, se pondrían a disposición abierta en una forma que permita la minería de datos habilitada para IA. Ello es fundamental para el Instituto Allen de Inteligencia Artificial de Seattle y su motor de búsqueda académica Semantic Scholar. 

Los firmantes de la carta representan a Estados Unidos, así como a Australia, Brasil, Gran Bretaña, Canadá, Alemania, India, Italia, Japón, Nueva Zelanda, Singapur y Corea del Sur. Aunque ya muchos editores están proporcionando acceso abierto a la investigación de coronavirus, pero no siempre en forma legible por máquina.

Dryad & Zenodo inician un proyecto de colaboración para promover de manera más eficiente los objetivos de la Ciencia Abierta

 

2020-03-10_13-47-57

 

Tanto Dryad como Zenodo han sido líderes en la publicación de datos, software y otros productos de investigación de código abierto durante la última década. Si bien nuestro enfoque y mecanismos de adopción pueden haber sido diferentes, hemos tenido valores y objetivos similares todo el tiempo: publicar y archivar productos de investigación no tradicionales de una manera abierta y accesible que promueva las mejores prácticas.

Dryad se ha centrado durante mucho tiempo en los datos de investigación, curando cada conjunto de datos publicados y trabajando en estrecha coordinación con los editores y las sociedades para apoyar las políticas de datos de las revistas. Zenodo, con sede en el CERN, se basa en una fuerte capacidad de infraestructura y se ha centrado en la publicación y citación de software.

Por lo que a principios de febrero, se reunieron ambos equipos para comprender los sistemas de reposición, las hojas de ruta y para trazar nuestro trabajo futuro. Dividiendo el trabajo en un par de segmentos y comenzaremos con un primer proyecto de colaboración, como se indica en Github, como «DJ D-Zed»: Mezclando Repositorios». En otras palabras, integrando dos sistemas para facilitar a los investigadores que quieran seguir las mejores prácticas publicando su software, datos e información de apoyo. La primera dirección de enfoque es la publicación de Dryad a Zenodo.

Este proyecto implica reimaginar la interfaz de carga de Dryad para ampliar el alcance de la carga para dar cabida a los investigadores que depositan algo más que datos. Dentro de esta interfaz, a través de una serie de declaraciones y lecturas de la máquina, datos, software y archivos de apoyo (otros). Los datos deben ser curados y publicados en Dryad. El software requiere una serie de diferentes opciones de licencia, metadatos y otros atributos y los archivos de apoyo se benefician de un previsor, por lo que estos archivos se publican más apropiadamente en Zenodo.

Después de la curaduría, una vez que los elementos están listos para ser publicados, es esencial vincular el trabajo con sus DOI y citas a ambos. Como Dryad y Zenodo cada uno acuña sus DOIs para los trabajos publicados, por ello es esencial exponer la relación entre el software, los datos y otras citas para que los usuarios puedan encontrar todos los trabajos relacionados. El beneficio de tener citas separadas para el software y los datos permitirá prácticas de citación más específicas en revistas, en preprints, etc.

 

La importancia de crear una infraestructura de datos

 

oreilly-ebook-575x863-1_0

 

LaPlantte, Alicia. Building a Unified Data Infrastructure. Sebastopol, California: O’Really, 2020

Texto completo

 

Este informe demuestra la importancia de crear una infraestructura de datos holística. Explica cómo la virtualización de datos, la gestión de datos maestros y la gestión de metadatos en combinación ayudan a cumplir los objetivos organizacionales. Descubre los beneficios de combinar estas capacidades en una plataforma de datos unificada y aprende a:

  • Cómo las operaciones, el análisis y la gestión pueden utilizar los datos con gran ventaja
  • Un enfoque pragmático y holístico para construir una infraestructura de datos unificada
  • Las capacidades críticas necesarias para un enfoque holístico, incluida la capacidad de aprovechar la tecnología existente
  • Seis prácticas óptimas para combinar las capacidades de gestión de datos

Este informe es de lectura obligada para los directores de datos, arquitectos de empresas, líderes analíticos y ejecutivos de línea de negocios.

 

La ética de la privacidad en la era de los Big Data

 

cable_racks_at_grid_computing_center_fermilab_with_blue_lights-2-min-1744x1159-1

Data, privacy & the individual | IE CGC, 2020

Texto completo

 

Los datos son el principal combustible de nuestras economías digitales. Nuestras transacciones financieras, movimientos, comunicaciones, relaciones e interacciones con gobiernos y empresas, tanto en línea como fuera de ella, generan datos que son recopilados, comprados y vendidos por corredores de datos y empresas interesadas en establecer perfiles de personas.

 

A medida que la recopilación y el análisis de datos se hacen más sofisticados y precisos, y a medida que los conjuntos de datos crecen hasta convertirse en Big Data, las oportunidades que se presentan parecen infinitas. Sin embargo, los riesgos también son grandes, ya que la información que se maneja sobre los individuos es extremadamente sensible. Conseguir la privacidad correcta es uno de los mayores retos de esta nueva década del siglo XXI. Los últimos años han demostrado que todavía hay mucho trabajo por hacer en la privacidad para domar los aspectos más oscuros de la economía de los datos. A medida que siguen surgiendo escándalos relacionados con los datos, abundan las preguntas sobre cómo interpretar y hacer cumplir la reglamentación, cómo diseñar nuevas y mejores leyes, cómo complementar la reglamentación con una mejor ética y cómo encontrar soluciones técnicas a los problemas de los datos.

Este proyecto de investigación explora algunas de las cuestiones éticas clave planteadas por las tecnologías emergentes de hoy en día, y analiza nuevos métodos técnicos que los gobiernos y las empresas pueden utilizar para sacar provecho de la información respetando las reglamentaciones y manteniendo la confianza tanto de sus clientes como de los ciudadanos.

 

Estudio sobre blockchain: aspectos legales, de gobernanza e interoperabilidad

 

450_1000

 

Study on Blockchains – Legal, governance and interoperability aspects SMART 2018/0038. Luxembourg: Publications Office of the European Union, 2020

Texto completo

 

Blockchain y Distributed Ledger Technologies (DLT) como un conjunto de tecnología de confianza es una clave en el flujo libre de datos que sustenta cada sociedad impulsada por los datos. El estudio proporciona un análisis extenso sobre escenarios en la construcción de un marco legal de la UE para desarrollar e implementar blockchain y DLT.

El objetivo general del estudio es proporcionar pruebas y apoyo a los enfoques de política y las medidas concretas en el marco de la iniciativa europea de blockchain y contribuir a la elaboración de una estrategia de la UE a la luz de la la tecnología de blockchain. Por consiguiente, en el estudio se analiza y evalúa el marco jurídico de la UE en relación con la tecnología blockchain y se presentan opciones de política en los casos en que es necesario hacer ajustes o aclaraciones. En el estudio también se evalúa los efectos de la blockchain y estas opciones de política con miras a considerar la evolución futura de la política de la cadena en bloque.