Archivo de la etiqueta: Gestión de datos de investigación

Minería de datos de la web social: Facebook, Twitter, LinkedIn, Google +, GitHub, Amazon.es y otros

51vin54vc5l-_sx258_bo1204203200_

Russell, M. A. (2013). [e-Book] Mining the Social Web: Data Mining Facebook, Twitter, LinkedIn, Google+, GitHub, and More: Amazon.es: , O’Reilly Media, 2013.

Texto completo

¿Cómo se puede aprovechar la gran cantidad de datos de la web social para descubrir quién está haciendo conexiones con quién, lo que están hablando, y dónde se encuentran? Con esta edición ampliada y revisada a fondo, aprenderás cómo recopilar, analizar y resumir los datos de todos los rincones de la web social, incluyendo Facebook, Twitter, LinkedIn, Google +, GitHub, correo electrónico, páginas web y blogs.

La importancia de los resultados negativos de una investigación

 

crushed-by-criticism-vector-image-640x385

En la actualidad, la evaluación de la investigación es una cuestión que se está replanteando en todo el mundo. En algunos casos, los trabajos de investigación están generando resultados muy buenos, en la mayoría de los casos los resultados son mediocres, y en algunos casos negativos. El nuevo entono tecnológico favorece nuevas posibilidades y oportunidades para la publicación, el impacto y la medición de la calidad. Que una obra sea citada no quiere decir que haya sido citada por su alta calidad. Existe un mito sobre las citas negativas, y se dice que cualquiera puede incluir a propósito un error importante en una investigación con el fin de conseguir más citas. Esto que en principio puede ser posible, no lo es en la práctica, ya que se hay estudios que ponen de manifiesto que los investigadores no suelen citar los trabajos con errores; en una investigación que incluía 10.400 artículos científicos, sólo se encontró que los comentarios negativos que acompañan de forma explícita a una cita solo fueron 10. Por lo general si se piensa que un documento es malo, simplemente no se cita.

Pero, con la llegada de la Gestión de Datos de Investigación (GDI), se está dando aún relevancia a los datos procedentes de procesos fallidos o erróneos de una investigación. El intercambio de datos permite a los científicos utilizar, analizar y reproducir los resultados de los demás, con importantes beneficios derivados del intercambio de datos que van más allá de la mera posibilidad de replicación, ya que permiten la comprobación de los métodos nuevos o alternativos, además de la capacidad de utilizar esos datos de una manera que los investigadores originales nunca hubieran previsto. Para cualquier investigador es de vital importancia conocer porque algo no funciono, que falló en concreto o no permitió obtener los resultados esperados de la aplicación de una metodología o un proceso determinado. De ahí que la mayoría de repositorios de datos instan a los investigadores a facilitar todos los datos de una investigación, no sólo los resultados finales como ocurría hasta ahora; por lo que es importante para un investigador conocer porque una determinada metodología no obtuvo los resultados esperados. Para la ciencia es de una valor primordial poder disponer de la información de todo el proceso de investigación, por ello son importantes y necesarios los datos de resultados positivos y/o negativos, incluidos estos últimos que tradicionalmente no han contado para la ciencia, y que ahora son tenidos en cuenta, ya que informan sobre que método no ha funcionado, y porque razón, entre otras cuestiones para no cometer el mismo error o para buscar una alternativa válida. Ya que en término estrictamente económicos, dentro de un proceso de investigación probablemente lo que consume más insumos es la compilación de datos, disponer de todos los datos de las investigaciones precedentes incluidas los datos de investigaciones fallidas es económicamente sostenible para la ciencia.

Ciencia abierta es más que sólo el acceso abierto a las publicaciones o datos; ya que además incluye otros aspectos como las etapas de los procesos de investigación. Intentos fallidos y metodologías de trabajo. Dentro de los movimientos open hay uno denominado Open Notebook Science, que se refiere a la aplicación del concepto de datos abiertos en el proceso científico, incluidos los experimentos fallidos y los datos en bruto.

F1000Research es una plataforma de publicación de la ciencia abierta original que ofrece la posibilidad de publicación inmediata en acceso abierto, transparente y un sistema de revisión por pares posterior a la publicación. Además de ofrecer la posibilidad de depositar y compartir todos los datos subyacentes utilizados en el desarrollo de la investigación. F1000Research no sólo recopila los resultados finales de la investigación, también acepta documentos relativos a casos clínicos, posters, presentaciones, protocolos, repeticiones y resultados nulos o negativos. F1000Research utiliza un proceso dirigido por el autor, facilitando la publicación de todos los documentos relacionados con la investigación científica en un plazo de pocos días, a través de un sistema de revisión post-publicación, centrado en la solidez científica en lugar de en la novedad o en el impacto.

En la actualidad Figshare es un repositorio de datos ciencia abierta con más de 1,5 millones de datos y objetos públicos, se trata de un desarrollo operado por Macmillan Publishers que puso en marcha Mark Hahnel en enero de 2011, y que desde 2013 colabora con PLOS, y también en esa fechas se integró con ImpactStory para apoyar la recolección de datos altmétricos. Figshare es un repositorio digital en línea donde los investigadores pueden preservar y compartir todos los datos y resultados que genera un proceso de investigación, incluyendo figuras, bases de datos, imágenes y vídeos; de este modo cualquier investigador pueden cargar todos estos importantes datos haciéndoles accesibles al público mediante un número DOI que asigna de manera automática a cada set que se genera con la aplicación: y una cuestión muy importante Figshare también permite a los investigadores publicar los datos negativos de una investigación.

Existe una revista Journal of Negative and No Positive Results, dedicada al tema de los resultados negativos de la ciencia. El objetivo de la misma es para dar valor a los investigadores que han contribuido al avance de la ciencia y el conocimiento de diferentes maneras, decisiones e hipótesis.

 La GDI se tienen en cuenta y se aplica a todo el ciclo vital de los datos, y cuenta con todos los datos, abarcando todo el proceso de archivo y difusión de los datos, incluso antes de que los propios datos lleguen a existir.

 

Geovisualización de grandes volúmenes de datos ambientales: diseño e implementación de un sistema para el acceso y la difusión de datos globales

20150720-congreso-ci-geovisualizacion-1

Álvarez Francoso, J. I., M. F. Pita López, et al. (2016). [e-Book] Geovisualización de grandes volúmenes de datos ambientales: Diseño e implementación de un sistema para el acceso y la difusión de datos globales. Sevilla, Universidad de Sevilla, 2016.

Texto completo

PDF

El dato climático es una representación abstracta que se utiliza para intentar alcanzar un mayor grado de comprensión de una realidad extraordinariamente compleja. De forma paradójica, el formidable crecimiento de la capacidad para registrar y almacenar datos los ha convertido en otra realidad tan compleja, que se revela imprescindible la utilización de sistemas que ayuden a descifrarlos. Uno de los aspectos fundamentales de la información climática es la importancia de su dimensión espacial, que se presta especialmente bien a la exploración mediante herramientas de visualización. Además, el desarrollo de las tecnologías de la información ha propiciado que hoy en día, el número de usuarios interesados que pueden acceder a la información climática haya aumentado también de manera sustancial. Pero el simple acceso no es suficiente para una transmisión efectiva de la información, sino que esta debe organizarse de manera adecuada y acompañarse de los medios y herramientas para su exploración y comunicación. En este sentido, la geovisualización web juega un papel fundamental. Esta tesis doctoral hace una aportación en el campo de la geovisualización web de datos climáticos haciendo en primer lugar una revisión de los principales aspectos de la misma: los datos, los sistemas de geovisualización y los usuarios; y proponiendo posteriormente una metodología para el diseño e implementación de dos sistemas abiertos para la geovisualización web de datos climáticos a dos escalas: global y regional. Los resultados demuestran la efectividad de la metodología propuesta, basada en un adecuado diseño, tanto del modelo de datos en el que se sustentan los sistemas, como de los flujos de los procesos implicados en el funcionamiento de los mismos.

La biblioteca de la Universidad de Michigan lanza Deep Blue Data un respositorio de servicios de datos de investigación

29312939863_9ee9e7673a_o_d

Deep Blue Data

La biblioteca de la Universidad de Michigan ha puesto en marcha un conjunto de servicios, así como un repositorio que incluye la planificación, creación, organización, intercambio y preservación de los datos de investigación para apoyar la tarea de los investigadores a lo largo de todas las fases del ciclo de vida de datos de investigación.

 

Los conjuntos de datos que subyacen a los resultados de la investigación son cada vez más demandados. Los organismos de financiación exigen que los datos de la investigación sean visibles, accesibles y conservado para su uso futuro. Los editores piden conjuntos de datos para ser incluidos junto de publicaciones como archivos suplementarios para apoyar los resultados de la investigación. Los investigadores buscan conjuntos de datos existentes para poner a prueba las nuevas teorías o generar nuevos descubrimientos.

Deep Blue Data es un repositorio que proporciona servicios de acceso y conservación de los datos digitales de investigación para apoyar las actividades de investigación en la U-M. El objetivo de este proyecto es fundamental maximizar los beneficios de los 1.3 mil millones de dólares que gastan anualmente los investigadores U-M, y para asegurar el cumplimiento con el creciente número de mandatos de gestión y distribución de datos recomendados por el gobierno y otros proveedores de fondos.

Para ello el personal, formado fundamentalmente por bibliotecarios de referencia, se ha formado y ha desarrollado un programa de planes de gestión de datos, esquemas de metadatos, sistemas de acceso y publicación, visualización y preservación para una variedad amplia de conjuntos de datos. Deep Blue ofrece una nueva plataforma especializada para conjuntos de datos que permite a los investigadores U-M cumplir con los mandatos de intercambio de datos y lograr sus objetivos de hacer que sus conjuntos de datos de investigación sean más fácilmente reutilizados por los propios colegas de todo el mundo y que los investigadores de la U-M sean más visibles;  ya que el sistema asigna un Identificador de Objetos Digitales (DOI) por cada depósito, por lo que es fácil que otros investigadores les citen y dispongan de una identificación persistente y adecuada de sus datos de investigación.

 

Informe sobre la publicación de datos de investigación en Humanidades

dariah-eu-logo-cmyk-1-1

research-data-management-in-the-humanities-and-social-sciences-9-638

Buddenbohm, S., N. Cretin, et al. [e-Book] State of the art report on open access publishing of research data in the humanities, Paris: DARIAH, 2016.

Texto completo

Annex 1: A comparison of infrastructures for publishing research data

Annex 2
State-of-the-art open access research data for the Humanities in
FRANCE

La publicación de datos de la investigación abiertos aún no es una práctica común para los investigadores de artes y humanidades, que van a la zaga de otras áreas científicos como las ciencias. Incluso cuando los investigadores en humanidades publican sus datos en repositorios, estos datos a menudo son difíciles de encontrar y utilizar por parte de otros investigadores.

El objetivo del proyecto DARIAH  es desarrollar una plataforma abierta de datos de investigación en Humanidades para las Humanidades. El trabajo forma parte de un esfuerzo conjunto de instituciones en el que colaboran Data Archiving and Networked Services (DANS), Centre National de la Recherche Scientifique (CNRS) y University of Göttingen – State and University Library (UGOE-SUB).

Este informe proporciona información y orientación sobre la publicación de datos de investigación en humanidades. Siendo el resultado de un estudio teórico sobre el estado actual de la investigación sobre datos y sobre los retos específicos que presenta esta área de conocimiento. Para ello se da una visión general de los diferentes actores involucrados y se analizan las ventajas y obstáculos que conlleva compartir datos de investigación en humanidades. finalmente, se hace una descripción de los repositorios de datos europeos, así como un análisis comparado de las normas de certificación de repositorios de datos digitales de confianza. También se analizan los diversos aspectos que se han de tener en cuenta en torno a la publicación de datos de la investigación en humanidades, las definiciones de conceptos clave, y se describen las fases del ciclo de vida de los datos de investigación, destacando la importancia de la citación de datos para el adecuado intercambio de datos abiertos en función de las diferentes normas sobre el uso de metadatos en Humanidades. Finalmente, se aportan ejemplos de buenas prácticas de los sistemas de datos de investigación en la disciplina.

 

La gestión de datos de investigación en el horizonte de las bibliotecas universitarias y de investigación

Alonso-Arévalo, Julio. La gestión de datos de investigación en el horizonte de las bibliotecas universitarias y de investigación. Cuadernos de Documentación Multimedia, vol 30 (2019)

Texto completo

 

La  sociedad  TIC  necesita, hace uso y proporciona de una enorme cantidad de datos; procesarlos, entenderlos y transformarlos en decisiones de valor es el reto del análisis de los llamados «big data», un término utilizado para referirse a la explosión de una ingente  cantidad  y  diversidad  de  datos  digitales  de  alta  frecuencia,  que se  están convirtiendo   en   un   elemento   esencial   para   la   competencia,   y   en   un   futuro inmediato, y que  según la mayoría de los expertos en el tema serán  clave  para  el crecimiento  de  la  productividad, la  innovación  y  la posibilidad de generar el suficiente excedente para las sostenibilidad de la sociedad. Y la gestión de los datos de  investigación  (Big  Data)  se  plantea  como  uno  de  los grandes  retos  que  han  de asumir  durante  los  próximos  años  las  bibliotecas  científicas y de investigación. Ya la mitad de las universidades estadounidenses tienen un plan de trabajo sobre esta cuestión, todos los informes de tendencias están de acuerdo en que la Gestión de Datos de Investigación (RDM) será una de las cuestiones prioritarias y de futuro que deberán asumir las bibliotecas de investigación. En esta comunicación se hace un análisis del estado de la cuestión sobre la gestión de datos de investigación, normativa, repositorios de datos, prácticas y políticas que están desarrollando las bibliotecas en torno al tema.

30858575265_da704657c4_o_d

Palabras clave: Bibliotecas universitarias, Research data management (RDM), Big Data, Tendencias, Futuro. Gestión de datos de investigación, Acceso abierto

29243229574_ff72a6d2a5_c_d

Programa H2020: directrices sobre el acceso abierto a las publicaciones científicas y a los datos de investigación en Horizonte 2020

horizon2020

H2020 Programme: Guidelines on Open Access to Scientific Publications and Research Data in Horizon 2020: [e-Book]  Version 3.1 – 25 August 2016 European Comission, 2016

Texto completo (PDF)

Guidelines on FAIR Data Management in Horizon 2020

Open access – Data management H2020 Online Manual

En estas directrices se establecen las normas de acceso abierto que deben cumplir los beneficiarios de los proyectos financiados o cofinanciados por el proyecto Horizonte 2020.

La importancia de los datos abiertos enlazados

512b458tuchl-_sx347_bo1204203200_

Isotani, S. and I. Bittencourt (2015). [e-Book] Dados abertos conectados. Sao Paulo, Novatec, 2015.

Texto completo

«Los datos son un  elemento vital en la toma de decisiones y la materia prima para la rendición de cuentas. es casi imposible diseñar políticas eficaces de monitoreo y evaluación sin datos de alta calidad que proporcionen la información correcta sobre las cosas correctas en el momento correcto «.

A World that Counts: Mobilising the data revolution for sustainable development, Naciones Unidas 2014

El mundo está lleno de datos. Los datos se generan cada vez que alguien utiliza su teléfono, cuando navegamos, cuando compramos algo por Internet o cuando vamos en nuestro automóvil conectados por GPS. Todos esos datos proporcionan una información valiosa cuando se analizan y procesan, ya que permiten la toma de decisiones basadas en patrones de comportamiento.

Esta gran cantidad de datos sobre las personas, gobiernos y empresas, está demostrado ser un instrumentos de un valor incalculable para la innovación. La posibilidad de innovación progresiva permite el sostenimiento económico a largo y medio plazo, ya que las personas capaces de utilizar estas tecnologías abiertas pueden producir nuevos negocios y nuevas soluciones a la sociedad. Además, la disponibilidad de los datos tiene un enorme potencial para proporcionar una mayor transparencia y una mayor participación de los ciudadanos en la solución de sus problemas.

Gestión de datos de investigación. monográfico

 

29206106640_609d39170a_d

Gestión de datos de investigación: post del blog Universo Abierto. Noticias y recursos editado por Julio Alonso Arévalo. Salamanca: Universo Abierto, septiembre 2016

Descargar

PDF

ePub

Mobi

La Gestión de Datos de Investigación (RDM) es un proceso diseñado para gestionar y difundir conjuntos de datos de alta calidad, que cumplan con los requisitos académicos, legales y éticos. El proceso implica desarrollar un plan para hacer frente a las consideraciones de archivos que entran en juego en todas las etapas del ciclo de vida de los datos. Teniendo en cuenta todas las etapas y procesos de datos desde la fase de identificación, pertinencia y recogida, hasta la fase de preparación de los datos para su depósito en los archivos o repositorios de datos.

la Gestión de Datos de Investigación (RDM) será una de las cuestiones prioritarias y de futuro que deberán asumir las bibliotecas de investigación. En los últimos años, varias organizaciones científicas nacionales e internacionales han emitido declaraciones y políticas que subrayan la necesidad de un inmediato archivo de los datos, y algunos organismos de financiación han comenzado a exigir que los datos procedentes de investigaciones que financian sean depositados en un archivo público. Estas declaraciones de las principales agencias de financiación de la investigación demuestran que la ética del intercambio de datos es esencial para maximizar el impacto y los beneficios de la investigación (ACRL, 2014). La experiencia ha demostrado que la dispersión de los datos aumenta el coste de procesamiento y la preservación de los datos, y que la inversión disminuye cuando se dispone de depósitos bien conformados. El intercambio de datos también permite a los científicos utilizar, analizar y reproducir los resultados de los demás.

Los datos abiertos son considerados como “la nueva materia prima del siglo 21”, sin embargo en la actualidad los datos de investigación quedan encerrados en repositorios de datos, oficinas de los investigadores, o en los organismos que lo crearon. La mayoría de las instituciones académicas, organizaciones de investigación, las principales editoriales requieren que los datos se presenten adecuadamente para poder utilizarlos y que estén disponibles para sus estudios. Un informe del Foro Económico Mundial declaró que los datos constituyen una nueva clase de activo económico, como la moneda o el oro. Para la revista Forbes, el Big Data ha sido la principal tendencia tecnológica de los últimos años que se mantendrá los próximos años. Para la IDC, hasta 2015 su crecimiento será siete veces superior al de la media de todo el sector de las TIC.

Según la investigación de MGI y la Oficina de Tecnología de Negocios de McKinsey (Mannyica, Michael, Brown, & Bughing, 2011) la cantidad de información que genera cualquier actividad pública o privada proporciona grandes conjuntos de datos, y el análisis de estos se ha convertido en una de las bases clave para la competencia en un futuro inmediato que sustentará las nuevas oleadas de crecimiento, de productividad, innovación y excedente del consumidor.

Una de las características más innovadoras de la biblioteca del siglo 21 tiene que ver con la toma de una postura activa frente a la gestión de datos de investigación, así lo ponen de relieve los principales informes sobre tendencias en bibliotecas universitarias y de investigación cutos documentos coinciden en considerar RDM como una necesidad ineludible en el futuro de estas instituciones (Johnson, Adams, & Cummins, 2015), (Bell, Dempsey, & Fister, 2015), (ACRL, 2015) . Durante siglos los bibliotecarios hemos sido expertos en la organización de las colecciones y saber cómo encontrar las cosas. La transición a los formatos digitales ha traído consigo un enorme volumen de datos que necesita ser curados, como los relativos a descargas, citas, citas de patentes y la cobertura de los medios de comunicación (Alonso-Arévalo, 2016). Todo ello ha ido acrecentando las competencias y habilidades de los bibliotecarios como uno de los segmentos profesionales más capacitados para la gestión de grandes cantidades de datos. Conocer y alfabetizar sobre estas cuestiones requiere un esfuerzo de readaptación profesional para fomentar una mentalidad sobre la importancia de estos datos y la cultura de análisis, ya que se trata de la adopción de las nuevas tecnologías, ello presenta desafíos únicos para los bibliotecarios.

Según David Lankes, (Lankes, 2012) un bibliotecario no tiene que convertirse en un programador, pero debe estar interesado en la creación de conocimiento, debe tener cierta familiaridad con la forma esencial de las diversas herramientas de software que pueden transformar los datos. «Un bibliotecario no tiene que ser un ingeniero de base de datos, pero debe comprender los fundamentos de las herramientas de recuperación de información. Un bibliotecario no tiene por qué ser un estadístico, pero debe tener una comprensión clara de cómo se gestionan los datos numéricos para que puedan ser adecuadamente utilizados. Por último, un bibliotecario no tiene por qué ser un diseñador gráfico, pero tiene que reconocer las características necesarias para hacer una presentación de datos eficaces».

El análisis de las necesidades de datos a través de dominios institucionales puede requerir de la participación de la biblioteca para identificar y conectar a los investigadores con todas las unidades funcionales, tanto formales e informales para compartir, analizar, y reutilizar datos.

Y los bibliotecarios pueden utilizar su experiencia para etiquetar y organizar este tipo de información, haciendo una contribución estratégica a su institución. (Bernal, Oficina Técnica de Digital, & Román-Molina, 2014)  De hecho, los bibliotecarios llevamos algunos años desplegando conocimientos técnicos y expertos en promover y apoyar la gestión de repositorios y el intercambio de datos abiertos, por lo que la gestión de datos de investigación ha de formar parte de un desarrollo natural en nuestras tareas y funciones. Según MJ Tooey bibliotecaria de la University of Maryland «Tenemos el conjunto de habilidades necesarias para organizar las cosas. Entendemos los vocabularios controlados. Entendemos las ontologías. Sabeos como organizar la información. Hemos realizado la evolución de la palabra impresa y el encabezamiento de materia a los datos como un proceso natural. Así que estamos preparados para ayudar a la gente a organizar, acceder y almacenar datos»

Formación profesional en Gestión de Datos de Investigación (RDM): un estudio comparativo de los métodos de aprendizaje en los países europeos

350-ke-training

Goldstein, S. (2016). [e-Book] Training for research data management: comparative European approaches: Report from a Knowledge Exchange survey and workshop Knowledge Exchange, 2016.

Texto completo

En el entorno cambiante de la investigación en que vivimos, Research Data management (RDM) es un proceso fundamental en todas las etapas de la investigación. Las habilidades y conocimientos sobre RDM que los investigadores y el personal de apoyo a la investigación necesitan deben ser compartidas y conocidas por todas las partes implicadas. A finales de 2015, Knowledge Exchange (KE) inició un proyecto para comparar los enfoques en la formación RDM dentro de los cinco países miembros de la asociación. El proyecto se estructura en torno a dos líneas de actuación:

-En los últimos meses de 2015 se realizó una encuesta para recoger información sobre la práctica actual en torno a la formación RDM, con el fin de proporcionar una visión general del panorama de formación RDM.

– En febrero el año 2016 se llevó a cabo un taller para compartir las mejores prácticas en la formación y desarrollo de capacidades RDM

El informe describe los resultados tanto del análisis de la encuesta como de los resultados del taller, que sirvan como una base de pruebas y sugerencias informadas para ayudar a mejorar las prácticas de formación en RDM en los países socios y que sirva también de apoyo a otros países.