Archivo de la etiqueta: Gestión de datos de investigación

Métricas para repositorios de datos y bases de conocimiento

Metrics for Data Repositories and Knowledgebases: Working Group Report” NIH, 2021

Texto completo

Este informe presenta los resultados de una exploración del panorama actual de las métricas de los repositorios de datos biomédicos de datos biomédicos realizado por el Grupo de Trabajo NIH Lifecycle and Metrics Working Group and the NIH Metrics for Repositories (MetRe) Working Group. Los grupos de trabajo (WG) reunieron información de la comunidad de repositorios de datos biomédicos mediante un proceso de dos partes. En la primera fase, el grupo de trabajo MetRe identificó varios repositorios financiados por NIH y desarrolló una lista de métricas que se recogen con mayor frecuencia. Esta lista de Esta lista de métricas se utilizó para desarrollar un instrumento de encuesta que el grupo de trabajo sobre el ciclo de vida y las métricas utilizó para recoger las aportaciones de la comunidad de repositorios biomédicos en general en la fase 2. Este informe describe los resultados de estas dos actividades, proporcionando información sobre el estado actual de los datos y datos y métricas de los repositorios en la comunidad de la investigación biomédica y complementa los esfuerzos en curso en la en la comunidad de métricas más amplia.Este informe incluye las aportaciones de los representantes de 13 repositorios de los NIH de la fase 1 y de 92 gestores de repositorios de la fase 2. en la fase 2. Las métricas que estos encuestados declararon utilizar se dividen en varias categorías generales categorías amplias, incluyendo (de la más a la menos común) Características del comportamiento del usuario, Contribución/impacto Contribución/Impacto Científico, y Operaciones del Repositorio, y los encuestados de los dos grupos reportaron patrones similares en las métricas que recogen. La mayoría de los encuestados en la fase 2 (77%) también indicaron compartir los datos de sus métricas, un hallazgo alentador dado que dichas métricas pueden ser útiles a los NIH para comprender mejor cómo se utilizan los conjuntos de datos y los repositorios. Muchos de los encuestados de ambos grupos informaron de que utilizaban Google Analytics para recopilar métricas, principalmente en las áreas de de comportamiento de los usuarios, dada su facilidad de uso y su capacidad para realizar un seguimiento preciso de dichas métricas. Sin embargo, muchos de los encuestados también indicaron que les gustaría recopilar métricas adicionales, pero que actualmente no lo hacen o no pueden hacerlo debido a la falta de herramientas para ello.

Los resultados de este informe proporcionan una mejor comprensión de las métricas utilizadas actualmente en la comunidad de repositorios biomédicos, lo que puede informar sobre los futuros esfuerzos de los NIH para ayudar a desarrollar este espacio y para comprender los patrones de uso entre los conjuntos de datos y los repositorios. Los NIH también deberían estar al tanto de de los desarrollos en la comunidad más amplia de métricas de repositorios para asegurar la alineación.

Guía sobre la alfabetización de datos para principiantes

A Beginner’s Guide to Data & Analytics, London: Harvard Business School, 2021

Texto completo

Con este libro electrónico, obtendrás una introducción a la alfabetización de datos que puede ponerle en el camino de ser un profesional orientado a los datos. Entrar en el espacio de los datos como un principiante puede parecer desalentador, pero con el conocimiento básico, puedes comprender la alfabetización de datos y aprovechar el poder de los datos para el éxito de tu organización.

Inteligencia artificial, robótica y ciencia de los datos

Sara Degli Esposti; Carles Sierra. Artificial intelligence, robotics & data science.  Madrid : Consejo Superior de Investigaciones Científicas, 2021

Texto completo

El libro blanco del CSIC sobre Inteligencia Artificial, Robótica y Ciencia de Datos esboza una hoja de ruta preliminar para abordar los actuales retos de I+D asociados a las máquinas automatizadas y autónomas. En ocho capítulos se presentan más de 50 retos de investigación investigados en toda España por más de 150 expertos del CSIC. El capítulo uno introduce conceptos clave y aborda la cuestión de la integración del conocimiento (representación), el razonamiento y el aprendizaje en el diseño de entidades artificiales. El capítulo dos analiza los retos asociados al desarrollo de teorías -y tecnologías de apoyo- para modelar el comportamiento de los agentes autónomos. En concreto, presta atención a la interacción entre los elementos a nivel micro (las interacciones individuales de los agentes autónomos) con el mundo macro (las propiedades que buscamos en las sociedades grandes y complejas). Mientras que el capítulo tres analiza la variedad de aplicaciones de la ciencia de datos que se utilizan actualmente en todos los campos de la ciencia, prestando especial atención a las técnicas de aprendizaje automático (ML), el capítulo cuatro presenta el desarrollo actual en diversas áreas de la robótica. El capítulo cinco explora los retos asociados a los modelos cognitivos computacionales. El capítulo seis presta atención a los retos éticos, legales, económicos y sociales que acompañan al desarrollo de los sistemas inteligentes. El capítulo siete aborda el problema de la sostenibilidad medioambiental del despliegue de sistemas inteligentes a gran escala. Por último, el capítulo ocho aborda la complejidad de garantizar la seguridad, la resistencia y la protección de la privacidad de los sistemas inteligentes frente a las ciberamenazas.

Capacidad de los datos de investigación de resultados centrada en el paciente

National Academies of Sciences, Engineering, and Medicine. Building Data Capacity for Patient-Centered Outcomes Research: Interim Report One – Looking Ahead at Data Needs. The National Academies Press, 2021.

Texto completo

La Oficina del Subsecretario de Planificación y Evaluación (ASPE), en colaboración con otras agencias y divisiones del Departamento de Salud y Servicios Humanos de los Estados Unidos, coordina una cartera de proyectos que crean capacidad de datos para llevar a cabo una investigación de resultados centrada en el paciente (PCOR). La investigación de resultados centrada en el paciente se centra en la producción de pruebas científicas sobre la eficacia de las opciones de prevención y tratamiento para fundamentar las decisiones de atención sanitaria de los pacientes, las familias y los proveedores de atención sanitaria, teniendo en cuenta las preferencias, los valores y las preguntas a las que se enfrentan los pacientes a la hora de elegir la atención sanitaria.

ASPE pidió a las Academias Nacionales que nombraran un comité de estudio de consenso para identificar cuestiones críticas para el desarrollo continuo de la infraestructura de datos para el PCOR. El trabajo del comité contribuirá al desarrollo por parte de ASPE de un plan estratégico que guiará su trabajo relacionado con la capacidad de datos del PCOR durante la próxima década.

Como parte de sus actividades de recopilación de información, el comité organizó tres talleres para recoger las aportaciones de las partes interesadas en la infraestructura de datos del PCOR. El presente informe, el primero de una serie de tres informes provisionales, resume el debate y las conclusiones del comité del primer taller, centrado en las necesidades de los usuarios de datos durante la próxima década. En el taller participaron representantes de grupos de pacientes con un amplio alcance e investigadores con amplios intereses de investigación, así como un conocimiento de la infraestructura del PCOR.

Conferencia: Gestión de datos de investigación (GDI)

Julio Alonso-Arévalo. Conferencia: Gestión de datos de Investigación el día 30 de septiembre de 2021 a las 11:00 hs. Argentina, 16:00 hs. España. Asociación Bibliotecarios de Córdoba (A.B.C.) (Argentina

La sociedad TIC necesita, hace uso y proporciona de una enorme cantidad de datos; procesarlos, entenderlos y transformarlos en decisiones de valor es el reto del análisis de los llamados “big data”, un término utilizado para referirse a la explosión de una ingente cantidad y diversidad de datos digitales de alta frecuencia, que se están convirtiendo en un elemento esencial para la competencia, y que según la mayoría de los expertos en el tema serán clave para el crecimiento de la productividad, la innovación y la posibilidad de generar el suficiente excedente para la sostenibilidad de la sociedad. La gestión de los datos de investigación se plantea como uno de los grandes retos que han de asumir durante los próximos años las bibliotecas científicas y de investigación. Ya la mitad de las universidades estadounidenses tienen un plan de trabajo sobre esta cuestión, todos los informes de tendencias están de acuerdo en que la Gestión de Datos de Investigación (RDM) será una de las cuestiones prioritarias y de futuro que deberán asumir las bibliotecas de investigación. En este artículo se hace un análisis del estado de la cuestión sobre la gestión de datos de investigación, normativa, repositorios de datos, prácticas y políticas que están desarrollando las bibliotecas en torno al tema.

Del acceso abierto a la ciencia abierta: el punto de vista de un editor científico

Penev, Lyubomir. «From Open Access to Open Science from the Viewpoint of a Scholarly Publisher». Research Ideas and Outcomes, vol. 3, Pensoft Publishers, febrero de 2017, p. e12265. riojournal.com, https://doi.org/10.3897/rio.3.e12265.

Texto completo

El modelo de publicación de acceso abierto provocó cambios drásticos en la forma en que los científicos comunican sus resultados. El acceso abierto también desafió los modelos de negocio tradicionales de las editoriales académicas que se han mantenido durante cientos de años. Sin embargo, el acceso abierto al contenido de los artículos pronto pareció insuficiente en lo que respecta al acceso a los datos subyacentes. La apertura de los datos de investigación fue la segunda etapa lógica de este desafío, que pronto se incluyó en la agenda de las comunidades científicas, las organizaciones de financiación y los gobiernos. Los datos abiertos, por sí mismos, plantearon la cuestión de cómo podemos reutilizar los datos y reproducir los resultados de la investigación, cómo de transparente es la revisión por pares y, más en general, cómo se realiza la evaluación científica. Con el tiempo, estos y otros desarrollos similares se transformaron en lo que ahora llamamos “ciencia abierta” o, en términos más generales, en la transformación de la investigación en un esfuerzo principalmente colaborativo en lugar de competitivo.

Guía práctica para la alineación internacional de la gestión de datos de investigación

Practical Guide to the International Alignment of Research Data Management – Extended Edition. Science Europe, 2021

Texto completo

Este recurso ofrece una guía específica para organizaciones, comunidades científicas e investigadores individuales, para organizar los datos de investigación y preservarlos adecuadamente.

Publicada originalmente en 2019, y tras su exitosa aceptación por parte de muchas organizaciones, la edición ampliada presenta una rúbrica completamente nueva para facilitar la evaluación de un plan de gestión de datos (DMP). La guía también presenta los requisitos básicos para los DMP, los criterios para la selección de repositorios confiables y la orientación para que los investigadores cumplan con los requisitos de la organización.

Science Europe trabajará para promover estos requisitos con el fin de garantizar que sean aceptados por el mayor número posible de partes interesadas.

Estado de los datos abiertos

“The State of the Union of Open Data” (3rd Ed.). The Data Foundation, 2019

Texto completo

The State of the Union of Open Data, que se basa en 33 entrevistas en profundidad con altos cargos de la administración pública y el sector privado. El informe de este año ha encuestado a los líderes del mundo de los datos abiertos sobre el panorama actual en tres categorías: normalización de datos, publicación e intercambio, y uso. El objetivo es informar al público sobre la historia y las tendencias actuales de los datos abiertos y destacar las perspectivas de los líderes de los datos abierto, y todo indica que los datos abiertos están avanzando. Sus beneficios son exponenciales: el uso de los datos abiertos puede aplicarse a muchos sectores diferentes de la sociedad y la administración, como la sanidad, la vivienda, la educación y la defensa nacional.

El aumento de la estandarización, el intercambio y, lo que es más importante, el uso de los datos abiertos ha dado lugar a una mayor eficiencia de los programas gubernamentales, una mayor transparencia y mejores resultados. Lo que ayudará a acelerar las mejoras en los programas y servicios gubernamentales y permitirá a los líderes de las agencias tomar mejores decisiones en aspectos tan decisivos cómo asignar los escasos recursos del gobierno.

Resultados clave:

  • Casi el 84% de los encuestados informaron de avances en la normalización de datos en su agencia u organización en el último año, en comparación con el 81,8% del año pasado.
  • Casi el 85 por ciento de los encuestados informaron de una mejora en la publicación o el intercambio de datos en su agencia u organización en el último año, frente al 76,2 por ciento del informe del año pasado.
  • Casi todos los encuestados, el 96,9%, afirman que el uso de datos para la toma de decisiones informadas y el conocimiento ha mejorado en su agencia u organización durante el último año.
  • El 93,6 por ciento de los encuestados indica que cree que la normalización, el intercambio y el uso de datos abiertos mejorarán en el futuro inmediato, en comparación con el 79,2 por ciento de los encuestados de 2017.
  • Los encuestados identifican la gestión interna como el principal beneficio de los datos abiertos, seguido de la transparencia y la automatización de los informes.

Ciencia abierta: permitir el descubrimiento en la era digital

Open Science – Enabling Discovery in the Digital Age. OECD, 2021

Texto completo

La innovación impulsada por los datos y la ciencia de uso intensivo de datos son muy prometedoras para abordar los grandes retos de la sociedad. Las iniciativas de ciencia abierta, que facilitan el acceso abierto a las publicaciones, los datos, los algoritmos, el software y los flujos de trabajo, desempeñan un papel esencial en la aceleración de la investigación científica necesaria y del propio proceso de innovación.

Esta informe de Going Digital Toolkit ofrece una visión general del movimiento de la ciencia abierta, destaca los logros de la ciencia abierta, incluidos los obtenidos en el contexto de la pandemia de COVID-19, identifica los desafíos para lograr todos los beneficios que la ciencia abierta puede ofrecer, y arroja luz sobre la evolución de las políticas de ciencia abierta en una serie de economías. El informe también aboga por un camino a seguir que implica los siete pilares de la Recomendación revisada del Consejo sobre el acceso a los datos de investigación procedentes de la financiación pública:

(1) Gobernanza de los datos para la confianza;

(2) Normas y prácticas técnicas;

(3) Incentivos y recompensas;

(4) Responsabilidad, propiedad y tutela;

(5) Infraestructuras sostenibles;

(6) Capital humano; y

(7) Cooperación internacional para el acceso a los datos de investigación.

Cómo triunfar en los hackatones de ciencia de datos

Amit Raja Naik – How To Ace Data Science Hackathons
OIM, 08/08/2021

Texto completo

Un hackathon, es un termino de la informática que describe un evento social de codificación que reúne a programadores informáticos y otras personas interesadas para mejorar o construir un nuevo programa de software. La palabra hackathon es una contracción de las palabras hacker, que significa programador inteligente, y maratón, un evento marcado por la resistencia, que también se utiliza para la reunión competitiva de cualquiera de otros expertos en un campo para resolver problemas de investigación que de otro modo podrían llevar meses o años. En este caso interesados y expertos en ciencia de los datos.

Los hackathones son una forma estupenda de perfeccionar las habilidades en la ciencia de los datos, aunque pueden ser difíciles de resolver, especialmente para los principiantes. Plataformas como  KaggleMachineHack están ayudando a las empresas a contratar a los mejores talentos de la ciencia de datos utilizando el modelo de los hackathones. El mes pasado,  MATHCO.thon concluyó su reto de “predicción del precio de los coches”.

En esta experiencia participaron 2.383 profesionales de la ciencia de datos, de los cuales 50 pasaron el corte. Los tres primeros de la clasificación se llevaron premios en metálico. El profesor del IIT Madras, Chandrasekharan Rajendra, dijo que los candidatos deben actualizar continuamente sus conocimientos y diferenciarse participando activamente en hackathones internacionales.

A menudo, cuando hablamos de proyectos de ciencia de datos, nadie parece ser capaz de dar una explicación sólida de cómo se desarrolla todo el proceso. Desde la recopilación de los datos, hasta el análisis y la presentación de los resultados. El marco OSEMN cubre cada paso del ciclo de vida del proyecto de ciencia de datos, desde la obtención, la depuración, la exploración, el modelado y la interpretación de los datos.