Archivo de la etiqueta: Gestión de datos de investigación

Nube de Ciencia Abierta Europea (EOSC)

 

osc

 

 ‘Realising the European Open Science Cloud’ Report. European Commision, 2016

Texto completo

Portal ESOC

Esta es una nube de datos de investigación en Europa. Antecedentes, información sobre políticas, eventos y publicaciones relacionados con la EOSC. En octubre de 2016, la Comisión Europea publicó el primer informe del Grupo de Expertos de Alto Nivel de la Comisión sobre la Nube Europea de Ciencia Abierta (HLEG EOSC). En el informe se recomienda enmarcar la EOSC como la contribución de la Unión Europea a una futura Internet mundial de datos y servicios de la Nube Científica Abierta (FAIR) sustentada en protocolos abiertos.

 

«Imagina un entorno federado y accesible a nivel mundial en el que los investigadores, los innovadores, las empresas y los ciudadanos puedan publicar, encontrar y reutilizar los datos y herramientas de cada uno para fines de investigación, innovación y educación. Imagina que todo esto funciona bajo condiciones bien definidas y confiables, apoyado por un modelo sostenible y justo de valor por el dinero… Esto creemos que encapsula el concepto de la Nube Europea de Ciencia Abierta (EOSC)», –

La EOSC es una nueva iniciativa emblemática de la Comisión Europea que tiene por objeto establecer una guía viva para acelerar y apoyar la actual transición hacia una ciencia abierta y una innovación abierta más eficaces en el mercado único digital. La EOSC fomentará las prácticas óptimas de localización y accesibilidad de datos a nivel mundial (datos FAIR), así como el acceso fiable a servicios, sistemas y la reutilización de datos científicos compartidos a través de las fronteras disciplinarias, sociales y geográficas.

El modelo de financiación de los datos de investigación (desde la generación de datos hasta la preservación) debe modificarse radicalmente, pasando de los tradicionales y rígidos planes de financiación del pasado a un plan general de financiación cofinanciado por la CE.

En el informe se recomienda cerrar los debates sobre la «necesidad percibida» de una nube científica y adoptar medidas inmediatas sobre la EOSC en estrecha colaboración con los Estados Miembros, aprovechando la capacidad y los conocimientos especializados existentes. También recomiendan que se redacten normas de compromiso claras para el acceso a la EOSC y para la prestación de servicios basados en datos de investigación (por ejemplo, TDM, análisis de datos, etc.). Pero las repercusiones del informe se extienden más allá en varios aspectos de la política de ciencia abierta en general. Recomiendan que se enmarque a la EOSC como la contribución de la UE a una futura Internet mundial de datos y servicios FAIR respaldada por protocolos abiertos. Recomiendan que se establezca y financie un esfuerzo concertado para desarrollar los conocimientos básicos de datos en Europa. Calculan que se necesita medio millón de «científicos de datos básicos» para aprovechar al máximo los datos de investigación abiertos en Europa. Por último, recomiendan cambiar radicalmente el modelo de financiación de los datos de investigación, pasando de los tradicionales y rígidos planes de financiación del pasado -por ejemplo, la parte pequeña y no contabilizada de una subvención limitada en el tiempo y en el espacio- a un plan general de financiación cofinanciado por los Estados y la Comunidad Europea. Estiman que, en promedio, alrededor del 5% de los gastos totales de investigación debería dedicarse a la gestión adecuada y a la «administración» de los datos de manera integrada.

Las recomendaciones del Grupo de expertos de alto nivel sobre la ciencia y la tecnología constituyen un sólido punto de partida para una mayor reflexión y participación de las comunidades de usuarios científicos, los financiadores de la investigación y los Estados Miembros en la elaboración de la iniciativa

 

Data sharing: qué son y cómo se pueden compartir los datos de investigación

 

captura

 

Andrea Sixto-Costoya, Rafael Aleixandre-Benavent, Antonio Vidal-Infer, Rut Lucas-Domínguez, Lourdes Castelló-Cogollos. Data sharing: qué son y cómo se pueden compartir los datos de investigación. Manual de recomendación para gestores de la información. Documento de trabajo nº 7, 2019 /

Texto completo

 

El uso compartido de datos es la acción de compartir con el resto de la comunidad científica el material sin procesar generado durante el curso de la investigación que sirve para extraer y validar resultados. Actualmente, el data sharing se engloba dentro de la filosofía de acceso abierto, entendiéndose el compartir datos como una práctica que favorece que la ciencia sea más abierta y accesible.

Desde esta perspectiva de open access, el data sharing promueve que los datos sin procesar puedan tener una “segunda vida” y se puedan utilizar más allá del fin para el que fueron generados en un principio. Estos usos pueden ir desde la reutilización de los datos para producir nuevos estudios, a servir como verificadores de resultados de investigación.

El manejo de datos. Aproximación desde los estudios de la información

 

e4eda25fca23de1ea2906f91d3d2fc00

 

Torres Vargas, Georgina Araceli. El manejo de datos. Aproximación desde los estudios de la información. Universidad Nacional Autónoma de México. Coordinación General de Estudios de Posgrado, 2020

Texto completo

ePub

 

En los estudios de la información, se ha vuelto necesario abordar cómo aprovechar las tecnologías y métodos que existen para efectuar el análisis de datos con el fin de derivar servicios y productos de información acordes con los requerimientos que se tienen en el ámbito de la investigación, de la empresa o de cualquier otro ámbito. Frente a la amplitud de temas que circundan el estudio de los datos, la presente obra tiene por objetivo ofrecer algunas reflexiones en torno al tema del manejo de datos, que por lo general consta de la obtención de datos, su almacenamiento y su tratamiento. Este libro conjunta varias voces de especialistas que nos ayudan a pensar en problemáticas y resoluciones actuales al respecto.

Mapeo del panorama actual del compromiso de la biblioteca de investigación con las tecnologías emergentes en investigación y aprendizaje

 

technologies-for-industry-40

 

Lippincott, Sarah. Mapping the Current Landscape of Research Library Engagement with Emerging Technologies in Research and Learning: Executive Summary. Edited by Mary Lee Kennedy, Clifford Lynch, and Scout Calvert. Association of Research Libraries, Born-Digital, Coalition for Networked Information, and EDUCAUSE, March 2020. https://doi.org/10.29242/report.emergingtech2020.landscape.summa.

Texto completo

 

Parte de la iniciativa conjunta ARL-CNI-EDUCAUSE para avanzar en el impacto de las bibliotecas de investigación en un mundo conformado por tecnologías emergentes , este informe es un resumen ejecutivo de recursos secundarios y discusiones con los líderes de bibliotecas de investigación sobre la adopción de tecnologías emergentes por parte de sus organizaciones.

La generación, difusión y análisis de la información digital es un importante motor y consecuencia del cambio tecnológico. Como administradores de datos e información en el espacio físico y virtual, las bibliotecas de investigación están profundamente comprometidas en los desafíos que presenta la Cuarta Revolución Industrial: Industria 4.0, un cambio social impulsado no por el vapor o la electricidad, sino por los datos, y caracterizado por una fusión de los mundos físico y digital. Organizar, estructurar, preservar y proporcionar acceso a volúmenes cada vez mayores de los datos digitales generados y requeridos por la investigación y la industria se convertirá en una función de importancia crítica. En su calidad de asociados de la comunidad de investigadores y estudiosos, las bibliotecas de investigación también están reconociendo y adaptándose a las consecuencias del cambio tecnológico en las prácticas de la erudición y la comunicación académica.

 

Covid-19: cómo el intercambio de datos sin precedentes ha llevado a una investigación de brotes más rápida que nunca

 

Virology Lab Work As Europe On Coronavirus High Alert

 

Covid-19: How unprecedented data sharing has led to faster-than-ever outbreak research Horizon, 23 March 2020 by Ian Le Guillou

Ver completo.

«El impulso hacia la ciencia abierta, los datos abiertos y los preprints realmente ha cambiado la forma en que experimentamos el discurso científico en este brote en comparación con los anteriores», dijo el profesor Richard Neher, de la Universidad de Basilea, Suiza.

Los avances en la secuenciación de genes han permitido a los científicos rastrear y monitorear la pandemia de COVID-19 más rápido que cualquier brote anterior. Sin embargo, las lagunas en nuestro conocimiento de cómo funcionan los coronavirus ha dificultado la comprensión de lo que hace especial al nuevo coronavirus.

 

Cuando se identificó el nuevo coronavirus (conocido formalmente como SARS-CoV-2) en China en enero, los científicos de todo el mundo estaban listos para responder. Toda la composición genética del virus, o genoma, se publicó en línea en cuestión de días. En comparación, durante el brote de coronavirus del SARS en 2003, esto tomó casi tres meses, después de que la enfermedad se atribuyera originalmente a la clamidia

Los avances en la tecnología han reducido significativamente el costo de la secuenciación de genes y las máquinas ahora son lo suficientemente pequeñas como para caber en la palma de su mano. Esto ha facilitado la secuenciación de una gran cantidad de muestras en todo el mundo.

‘Puede ver en las secuencias cómo se propaga el virus, la velocidad a la que se propaga y estimar la cantidad de personas infectadas. A medida que tenemos más y más secuencias, los números son cada vez más precisos », dijo la profesora Anne-Mieke Vandamme de KU Leuven, Bélgica.

La secuenciación de próxima generación, o NGS, puede generar enormes cantidades de datos, y el desafío es encontrar formas de analizarlos adecuadamente.

Una de las herramientas desarrolladas, llamada Genome Detective, puede tomar los datos sin procesar de la máquina de secuenciación, filtrar los resultados de los no virus, juntar el genoma y usarlo para identificar el virus. No se basa en conjeturas o hipótesis anteriores, por lo que incluso puede identificar virus que no se han visto antes. Esto se utilizó para confirmar el primer caso de COVID-19 en Bélgica, identificándolo como un coronavirus relacionado con el SARS.

El poder de la secuenciación de genes proviene de comparar los resultados en diferentes casos. El profesor Vandamme dice que ha sido ‘fantástico’ ver el nivel de colaboración internacional: ‘Hay mucho más intercambio de datos y secuencias en línea … en comparación con el pasado porque tenemos muchas más herramientas de intercambio en línea disponibles’.

Una de estas herramientas es NextStrain, un recurso en línea que utiliza datos del genoma para monitorear la evolución de los organismos que causan enfermedades como los virus en tiempo real. Ha rastreado varios brotes, incluidos el zika, el ébola y el dengue, e incluso se ha utilizado para informar la política de la Organización Mundial de la Salud sobre la gripe estacional.

Los trabajos de investigación generalmente tardan meses en publicarse, un eón en la carrera actual para enfrentar la pandemia. La necesidad de compartir información rápidamente ha alentado un mayor intercambio de ‘preprints, borradores de documentos que aún no han sido revisados ​​por pares.

«El impulso hacia la ciencia abierta, los datos abiertos y los preprints realmente ha cambiado la forma en que experimentamos el discurso científico en este brote en comparación con los anteriores», dijo el profesor Richard Neher, de la Universidad de Basilea, Suiza, que lidera el proyecto NextStrain.

El no conocimiento y las culturas digitales

 

5c92ad90a6a5124211c040472bff03cd

 

Andreas, B., K. Matthias, et al.. [e-Book]  Non-Knowledge and Digital Cultures. Meson Press, 2018

Texto completo

 

Al poner a disposición cantidades masivas de datos que se generan, distribuyen y modelan, los medios digitales nos ofrecen la posibilidad de disponer de abundante información y conocimiento. Esta posibilidad ha ido atrayendo varios escenarios en los que la tecnología o bien elimina el no conocimiento o bien lo sitúa en lo profundo de las culturas contemporáneas a través del poder universal y la opacidad de los algoritmos.

El impacto humano de la alfabetización de datos. Guía del líder para democratizar los datos, impulsar la productividad y potenciar la fuerza de trabajo

 

captura-33

The Human Impact of Data Literacy. A leader’s guide to democratizing data, boosting productivity and empowering the workforce. Accenture y Qlik, 2020

Texto completo

El nuevo informe de Accenture (NYSE: ACN) y Qlik, titulado «The Human Impact of Data Literacy» y realizado en nombre del Proyecto de Alfabetización de Datos, encontró que aunque la mayoría de las organizaciones entienden la increíble oportunidad de los datos, ha surgido una brecha entre las aspiraciones de las organizaciones de estar basadas en los datos y la capacidad de sus empleados de crear valor empresarial con los datos.

 

 

 

COVID-19 Open Research Dataset (CORD-19): la mejor arma contra coronavirus, una web con más de 29.000 documentos y datos de investigación

 

1ddcc6cf-40c9-47df-acd9-dca1d7d0ab66

COVID-19 Open Research Dataset (CORD-19)

Acceder

 

En respuesta a la pandemia de COVID-19, el Instituto Allen de Inteligencia Artificial se ha asociado con los principales grupos de investigación para preparar y distribuir el Conjunto de Datos de Investigación Abierta COVID-19 (CORD-19), un recurso gratuito de más de 29.000 artículos académicos, incluidos más de 13.000 con texto completo, sobre COVID-19 y la familia de virus coronavirus para su uso por la comunidad de investigación mundial.

Este conjunto de datos tiene por objeto movilizar a los investigadores para que apliquen los recientes avances en el procesamiento del lenguaje natural con el fin de generar nuevos conocimientos en apoyo de la lucha contra esta enfermedad infecciosa. El corpus se actualizará semanalmente a medida que se publiquen nuevas investigaciones en publicaciones revisadas por pares y servicios de archivo como bioRxiv, medRxiv y otros.

Kaggle está organizando el COVID-19 Open Research Dataset Challenge, una serie de preguntas importantes diseñadas para inspirar a la comunidad a usar CORD-19 para encontrar nuevos conocimientos sobre la pandemia de COVID-19, incluyendo la historia natural, la transmisión y el diagnóstico del virus, las medidas de gestión en la interfaz humano-animal y las lecciones de estudios epidemiológicos anteriores .

 

Los asesores científicos piden que los editores den acceso gratuito a toda información sobre el coronavirus

Long Island Laboratory To Start Semi-Automated Coronavirus Testing

 

A dozen national science advisers ask publishers to make all coronavirus research available for AI by Alan Boyle on March 13, 2020 at 9:53 am

Ver completo

 

Las principales editoriales científicas del mundo, como Science and Nature, tradicionalmente cobran por el acceso a sus revistas de primera categoría. Pero  en una carta emitida hoy, los asesores científicos de la Casa Blanca y otros 11 gobiernos nacionales están pidiendo a los editores de todo el mundo que brinden acceso libre y gratuito a todas las investigaciones relacionadas con los coronavirus.

Si se responde a la declaración, todas las investigaciones relacionadas con COVID-19, el virus SARS-CoV-2 que causa la enfermedad, así como otros coronavirus, se pondrían a disposición abierta en una forma que permita la minería de datos habilitada para IA. Ello es fundamental para el Instituto Allen de Inteligencia Artificial de Seattle y su motor de búsqueda académica Semantic Scholar. 

Los firmantes de la carta representan a Estados Unidos, así como a Australia, Brasil, Gran Bretaña, Canadá, Alemania, India, Italia, Japón, Nueva Zelanda, Singapur y Corea del Sur. Aunque ya muchos editores están proporcionando acceso abierto a la investigación de coronavirus, pero no siempre en forma legible por máquina.

Dryad & Zenodo inician un proyecto de colaboración para promover de manera más eficiente los objetivos de la Ciencia Abierta

 

2020-03-10_13-47-57

 

Tanto Dryad como Zenodo han sido líderes en la publicación de datos, software y otros productos de investigación de código abierto durante la última década. Si bien nuestro enfoque y mecanismos de adopción pueden haber sido diferentes, hemos tenido valores y objetivos similares todo el tiempo: publicar y archivar productos de investigación no tradicionales de una manera abierta y accesible que promueva las mejores prácticas.

Dryad se ha centrado durante mucho tiempo en los datos de investigación, curando cada conjunto de datos publicados y trabajando en estrecha coordinación con los editores y las sociedades para apoyar las políticas de datos de las revistas. Zenodo, con sede en el CERN, se basa en una fuerte capacidad de infraestructura y se ha centrado en la publicación y citación de software.

Por lo que a principios de febrero, se reunieron ambos equipos para comprender los sistemas de reposición, las hojas de ruta y para trazar nuestro trabajo futuro. Dividiendo el trabajo en un par de segmentos y comenzaremos con un primer proyecto de colaboración, como se indica en Github, como «DJ D-Zed»: Mezclando Repositorios». En otras palabras, integrando dos sistemas para facilitar a los investigadores que quieran seguir las mejores prácticas publicando su software, datos e información de apoyo. La primera dirección de enfoque es la publicación de Dryad a Zenodo.

Este proyecto implica reimaginar la interfaz de carga de Dryad para ampliar el alcance de la carga para dar cabida a los investigadores que depositan algo más que datos. Dentro de esta interfaz, a través de una serie de declaraciones y lecturas de la máquina, datos, software y archivos de apoyo (otros). Los datos deben ser curados y publicados en Dryad. El software requiere una serie de diferentes opciones de licencia, metadatos y otros atributos y los archivos de apoyo se benefician de un previsor, por lo que estos archivos se publican más apropiadamente en Zenodo.

Después de la curaduría, una vez que los elementos están listos para ser publicados, es esencial vincular el trabajo con sus DOI y citas a ambos. Como Dryad y Zenodo cada uno acuña sus DOIs para los trabajos publicados, por ello es esencial exponer la relación entre el software, los datos y otras citas para que los usuarios puedan encontrar todos los trabajos relacionados. El beneficio de tener citas separadas para el software y los datos permitirá prácticas de citación más específicas en revistas, en preprints, etc.