Archivo de la etiqueta: Gestión de datos de investigación

Alfabetización informacional en gestión de datos de investigación

51sjjqnk1fl._sx349_bo1204203200_

Carlson, J. and L. Johnston (). [e-Book] Data Information Literacy. Indiana: Purdue University Press, 2015.

Texto completo

Dada la creciente atención que se presta a la gestión, publicación y preservación de los conjuntos de datos de investigación como activos académicos, ¿qué competencias en el trabajo con datos de investigación necesitarán los estudiantes graduados en disciplinas STEM para tener éxito en sus campos? ¿Y qué papel pueden desempeñar los bibliotecarios para ayudar a los estudiantes a alcanzar estas competencias? Al abordar estas preguntas, este libro articula una nueva área de oportunidad para los bibliotecarios y otros profesionales de la información, desarrollando programas educativos que introducen a los estudiantes de postgrado a los conocimientos y habilidades necesarios para trabajar con datos de investigación. El término «alfabetización en información de datos» se ha adoptado con la intención deliberada de vincular dos funciones emergentes para los bibliotecarios. Al considerar los conocimientos básicos en materia de información y los servicios de datos como actividades complementarias y no separadas, los contribuyentes tratan de aprovechar los progresos realizados y las lecciones aprendidas en cada área de servicio.

Guía para principiantes sobre la ciencia de datos

 

787de5aae7b9a5ced13c1219f7fccea2

 

A Beginner’s Guide To Data Science: Start your self-learning journey into the world of data right now. 

Oleksii Kharkovyna

Ver completo

Cuando Aristóteles y Platón estaban debatiendo apasionadamente si el mundo es material o ideal, ni siquiera adivinaron el poder de los datos. En la actualidad, los datos dominan el mundo y la Ciencia de los Datos va ganando terreno, aceptando los retos del tiempo y ofreciendo nuevas soluciones algorítmicas. No es de extrañar, ya que cada vez resulta más atractivo no sólo observar todos esos movimientos, sino también formar parte de ellos.

Sin embargo,casi todos somos unos recién llegados a esta materia, ¿Eso significa que tenemos  un largo camino por recorrer para ser un experto? ¿Es necesario pasar por toda una serie de intentos y fracasos antes de alcanzar la confianza total en este trabajo? Probablemente, sí. Pero con este post, se trata de facilitar esta tarea. La forma más efectiva de aprender con los pasos más necesarios.

Paso 0. ¿Qué es qué?

Bueno, en términos generales, la ciencia de datos no es un ámbito determinado o único, es como una combinación de varias disciplinas que se centran en el análisis de datos y la búsqueda de las mejores soluciones basadas en ellos. Inicialmente, esas tareas eran realizadas por especialistas en matemáticas o estadística, pero luego los expertos en datos comenzaron a utilizar el aprendizaje automático y la inteligencia artificial, lo que agregó la optimización y la informática como un método para analizar los datos. Este nuevo enfoque resultó ser mucho más rápido y eficaz, por lo que fue muy popular.

Por lo tanto, la popularidad de la ciencia de datos radica en el hecho de que abarca la recopilación de grandes conjuntos de datos estructurados y no estructurados y su conversión a un formato legible por el ser humano, incluyendo la visualización, el trabajo con métodos estadísticos y analíticos – aprendizaje automático y profundo, análisis de probabilidades y modelos predictivos, redes neuronales y su aplicación para la resolución de problemas reales.

Inteligencia Artificial, Aprendizaje Automático, Aprendizaje Profundo y Ciencia de Datos – indudablemente, estos términos principales son los más populares hoy en día. Y aunque de alguna manera están relacionados, no son lo mismo. Así que, antes de pasar a la siguiente etapa, es obligatorio diferenciarlos.

  • La Inteligencia Artificial es el ámbito que se centra en la creación de máquinas inteligentes que funcionan y reaccionan como los humanos. El estudio de la IA se remonta a 1936, cuando Alan Turing construyó las primeras máquinas que funcionaban por IA. A pesar de ser una historia bastante larga, hoy en día la IA en la mayoría de las áreas aún no es capaz de reemplazar completamente a un ser humano. Y la competencia de la IA con los humanos en el ajedrez, y la encriptación de datos son dos caras de la misma moneda.
  • El aprendizaje automático es una herramienta de creación para extraer conocimientos de los datos. En el aprendizaje automático los modelos pueden basarse en datos de manera independiente o en etapas.
  • El aprendizaje profundo es la creación de redes neuronales multicapa en áreas en las que se necesita un análisis más avanzado o rápido y en las que el aprendizaje automático tradicional no puede hacer frente. La «profundidad» proporciona más de una capa oculta de redes de neuronas que realizan cálculos matemáticos.
  • Big Data – trabaja con grandes cantidades de datos, a menudo no estructurados. Las características específicas de la esfera son herramientas y sistemas capaces de soportar grandes cargas.
  • La ciencia de datos es la adición de significado a las matrices de datos, la visualización, la recopilación de ideas y la toma de decisiones basadas en estos datos. Los especialistas de campo utilizan algunos métodos de aprendizaje automático y Big Data – computación en nube, herramientas para crear un entorno de desarrollo virtual y mucho más. Las tareas de Data Science se resumen bien en este diagrama de Venn creado por Drew Conway

 

Entonces, ¿qué es Data Scientist? Aquí está todo lo que necesitas saber al respecto:
detección de anomalías, por ejemplo, comportamiento anormal del cliente, fraude;
marketing personalizado – boletines personales por correo electrónico, sistemas de recomendación;

  • Previsiones métricas – indicadores de rendimiento, calidad de las campañas publicitarias y otras actividades;
  • Sistemas de puntuación: procesan grandes cantidades de datos y ayudan a tomar una decisión;
  • interacción básica con el cliente – respuestas estándar en salas de chat, asistentes de voz, clasificación de cartas en carpetas.

Para realizar cualquiera de las tareas anteriores es necesario seguir ciertos pasos:

  • Recolección Busque los canales en los que puede recopilar datos y cómo obtenerlos.
  • Comprobado. Validación, eliminación de anomalías que no afectan al resultado, pero confunden con análisis posteriores.
  • Análisis. El estudio de los datos, la confirmación de los supuestos, las conclusiones.
  • Visualización. Presentación en una forma que sea simple y comprensible para la percepción de una persona – en gráficos, diagramas.
  • Actuar. Tomar decisiones basadas en los datos analizados, por ejemplo, sobre el cambio de la estrategia de marketing, aumentando el presupuesto para cualquier actividad de la empresa.

 

Paso 1. Estadística, Matemáticas, Álgebra Lineal

El conocimiento matemático fundamental es importante para poder analizar los resultados de la aplicación de algoritmos de procesamiento de datos. Hay ejemplos de ingenieros relativamente fuertes en el aprendizaje de máquinas sin este tipo de formación, pero esto es más bien la excepción.

Si la educación universitaria ha dejado muchas lagunas, el libro The Elements of Statistical Learning de Hastie, Tibshirani y Friedman. En este libro, las secciones clásicas del aprendizaje automático se presentan en términos de estadísticas matemáticas con cálculos matemáticos rigurosos. A pesar de la abundancia de formulaciones y pruebas matemáticas, todos los métodos van acompañados de ejemplos prácticos y ejercicios.

El mejor libro en este momento para entender los principios matemáticos que subyacen a las redes neuronales – Deep Learning de Ian Goodfellow. En la introducción, hay una sección entera sobre todas las matemáticas que se necesitan para una buena comprensión de las redes neuronales. Otra buena referencia son lasRedes Neuronales y el Aprendizaje Profundo de Michael Nielsen– esto puede no ser un trabajo fundamental, pero será muy útil para entender los principios básicos.

 

Paso 2. Programación (Python)

De hecho, una gran ventaja sería familiarizarse inmediatamente con los fundamentos de la programación. Pero como se trata de un proceso que requiere mucho tiempo, puede simplificar un poco esta tarea. ¿Cómo? Todo es muy sencillo. Empieza a aprender un lenguaje y enfócate en todos los matices de la programación a través de la sintaxis de ese lenguaje.

Pero aún así, es difícil prescindir de algún tipo de guía general. Por esta razón, recomiendo prestar atención a este artículo:  Software Development Skills for Data Scientists: Increíble artículo sobre importantes habilidades sociales para la práctica de la programación.

Por ejemplo, le aconsejo que preste atención a Python. En primer lugar, es perfecto para que los principiantes aprendan, tiene una sintaxis relativamente simple. En segundo lugar, Python combina la demanda de especialistas y es multifuncional.

 

Paso 3. Aprendizaje automático

El aprendizaje automático permite entrenar a los ordenadores para que actúen de forma independiente, de modo que no tengamos que escribir instrucciones detalladas para realizar determinadas tareas. Por esta razón, el aprendizaje automático es de gran valor para casi cualquier área, pero antes que nada, por supuesto, funcionará bien donde existe la ciencia de datos.

 

Paso 4. Minería de datos y visualización de datos

La minería de datos es un proceso analítico importante diseñado para explorar datos. Es el proceso de analizar patrones ocultos de datos de acuerdo a diferentes perspectivas para su categorización en información útil, la cual es recolectada y ensamblada en áreas comunes, tales como almacenes de datos, para un análisis eficiente, algoritmos de minería de datos, facilitando la toma de decisiones de negocios y otros requerimientos de información para finalmente reducir costos y aumentar los ingresos.

 

Paso 5. Experiencia práctica

Estudiar sólo la teoría no es muy interesante, hay que probar la práctica. El principiante de Data Scientist tiene algunas buenas opciones para esto:

Utiliza Kaggle, un sitio web dedicado a la ciencia de datos. Constantemente organiza concursos de análisis de datos en los que puedes participar. También hay un gran número de conjuntos de datos abiertos que puede analizar y publicar sus resultados. Además, puede ver los guiones publicados por otros participantes (en Kaggle, estos guiones se llaman Kernels) y aprender de la experiencia exitosa.

 

Paso 6. Confirmación de la cualificación

Después de que hayas estudiado todo lo que necesita para analizar los datos y probar con tareas abiertas y concursos, a continuación, empieza a buscar un trabajo. Por supuesto, sólo dirás cosas buenas, pero tienes derecho a dudar de tus palabras. A continuación, se mostrarán, por ejemplo, confirmaciones independientes:

Perfil avanzado en Kaggle. Kaggle tiene un sistema de rangos, puedes progresar desde principiante hasta gran maestro. Para participar con éxito en concursos, la publicación de guiones y debates, puede obtener puntos que le permitan aumentar la puntuación. Además, el sitio muestra en qué competiciones has participado y cuáles son tus resultados.

Los programas de análisis de datos pueden ser publicados en GitHub u otros repositorios abiertos, y todos los interesados pueden familiarizarse con ellos. Incluyendo a los representantes del empleador, que realizarán una entrevista con usted.

 

Ver completo

 

 

 

Ciencia de Datos, Aprendizaje automático e Inteligencia Artificial en Bibliotecas

 

machine-learning-and-ai-libraries

 

Padilla, Thomas.  “Responsible Operations: Data Science, Machine Learning, and AI in Libraries”. Ohio: OCLC Research, 2019

Texto completo

El informe tiene por objeto ayudar a trazar el compromiso de la comunidad bibliotecaria con la ciencia de datos, el aprendizaje automático y la inteligencia artificial (IA), y fue desarrollado en asociación con un grupo asesor compuesto por más de 70 bibliotecarios y profesionales de universidades, bibliotecas, museos, archivos y otras organizaciones.

Esta agenda de investigación presenta un conjunto interdependiente de desafíos técnicos, organizativos y sociales que deben abordarse en el camino hacia el compromiso de la biblioteca con la gestión de los datos de investigación, el aprendizaje automático y la inteligencia artificial.

Los desafíos se organizan en siete áreas de investigación:

  • Compromiso con las operaciones responsables
  • Descripción y descubrimiento
  • Métodos y datos compartidos
  • Colecciones de Máquinas-Accionables
  • Desarrollo de la Fuerza Laboral
  • Servicios de ciencias de la información
  • Mantener la colaboración interprofesional e interdisciplinaria

Las organizaciones pueden utilizar el informe para argumentar a favor de abordar los desafíos, y las recomendaciones proporcionan un excelente punto de partida para la discusión y la acción.

 

Metodología de curación de datos de investigación con la herramienta OpenRefine

 

c4176d84c3fed661bc703225e6c685d0

Metodología de limpieza de datos con la herramienta de OpenRefine. Ciudad de México, México: CONACYT, 2016

 

Texto completo

 

En los últimos años la disponibilidad de datos abiertos ha sido de gran ayuda para analistas e investigadores en diversas áreas y ámbitos. Sin embargo, a pesar de la disponibilidad de la información, a menudo esta no es fácilmente utilizable, debido a errores e inconsistencias (hablando en términos técnicos) que posee, o la diversidad de formatos en los cuales se puede encontrar. Es otras palabras, es muy común que los datos encontrados en internet estén sucios o se encuentren en formatos incompatibles. Por lo tanto, antes de que la información sea utilizable, es necesario que sea sometida a un proceso de limpieza. Es posible encontrar diversas herramientas en línea gratuitas o de paga que sirvan al propósito de limpieza de datos, sin embargo, la gran mayoría son poco prácticas.

OpenRefine (anteriormente, Google Refine), es una herramienta de código abierto que puede ayudar a convertir datos sucios en datos limpios y utilizables de manera sencilla. OpenRefine se ejecuta como un servidor web en el ordenador del usuario, de tal manera que no se consumen muchos recursos del mismo. Este utiliza un navegador web como su interfaz, para que los datos se guarden en el ordenador local. Una gran ventaja que posee es que es capaz de manejar volúmenes grandes de información.

 

OpenRefine – Guía básica para curar datos de investigación

 

openrefine

SiB Colombia (2019). OpenRefine – Guía básica, Limpieza de datos sobre biodiversidad. Sistema de Información sobre Biodiversidad de Colombia, Bogotá D.C., Colombia, 22 p.

Texto completo

 

OpenRefine (anteriormente Google Refine) es una herramienta que dispone de un conjunto de características para trabajar con datos tabulares que mejoran la calidad general de un conjunto de datos. Se trata de una aplicación que se ejecuta fuera de tu ordenador como un pequeño servidor web, al que se accede desde un navegador web. Debe pensar en OpenRefine como una aplicación web personal y de acceso privado. Es similar a las aplicaciones de hoja de cálculo ( y puede trabajar con formatos de archivo de hoja de cálculo) , sin embargo , se comporta más como un base de datos.

OpenRefine es utilizado por científicos, investigadores de datos, analistas de negocios, periodistas de datos y administradores de repositorios digitales en una variedad de disciplinas, los cuales necesitan datos utilizables y limpios. A pesar de no ser una herramienta complicada, si el usuario desea obtener el mayor provecho de OpenRefine, tendrá que aprender las principales características y herramientas con las cuales dispone.

 

Microsoft Research Open Data Project: evolución de los estándares para el acceso a datos y a la investigación reproducible

msod-1400x788-no-logofor-site-1066x600

Microsoft Research Open

Microsoft Research Open Data es un repositorio de datos que pone a disposición conjuntos de datos que los investigadores de Microsoft han creado y publicado junto con su investigación.

Microsoft Research Open Data, es un repositorio de datos basado en Azure para compartir conjuntos de datos, para fomentar la reproducibilidad de la investigación y hacer que los activos de datos de investigación estén fácilmente disponibles en la nube.

Tras diversas conversaciones con la comunidad se ha llegado a un Acuerdo de Uso Abierto de Datos (O-UDA)  destinado a ser utilizado por cualquier persona u organización que puede distribuir datos para usos sin restricciones, y para los cuales no existe ningún problema de privacidad o confidencialidad. No es apropiado para conjuntos de datos que incluyan datos que puedan incluir materiales sujetos a leyes de privacidad (como el GDPR o HIPAA) u otros materiales de terceros sin licencia. El O-UDA cumple con la definición abierta: no impone ninguna restricción con respecto al uso o la modificación de datos que no sea garantizar que la atribución y limitación de la información de responsabilidad se transmita en sentido descendente. En el contexto de la investigación, esto implica que los usuarios de los datos deben citar la publicación correspondiente con la que están asociados los datos. Esto ayuda a encontrar y reutilizar los datos, un principio importante establecido por los principios rectores FAIR para la gestión y administración de datos científicos.

Dificultades de recopilación y gestión de datos abiertos en países en desarrollo para diseñar respuestas adecuadas

 

screen-shot-2018-05-16-at-8.15.13-am1

 

“Hoogeveen, Johannes; Pape, Utz. 2020. Data Collection in Fragile States : Innovations from Africa and Beyond. Cham, Switzerland: Palgrave Macmillan. © World Bank.

Texto completo

 

Los países en desarrollo se enfrentan a un triple desafío en materia de datos. Se necesita información actualizada para hacer frente a la rápida evolución de las circunstancias y para diseñar respuestas adecuadas. Sin embargo, los países pobres se encuentran entre los más privados de datos, teniendo en cuenta que también la recopilación de nueva información en tales circunstancias es muy difícil. Este libro de acceso abierto presenta las innovaciones en la recopilación de datos desarrolladas teniendo en cuenta a los responsables de la toma de decisiones en países en situación vulnerable. Al examinar las innovaciones en África, desde las encuestas de telefonía móvil que monitorean la crisis del Ébola hasta el seguimiento de las personas desplazadas en Malí, esta recopilación pone de relieve los desafíos a los que se enfrentan los investigadores en la recopilación de datos y la forma de superarlos.

 

 

 

Aplicaciones de la tecnología blockchain en el futuro de las bibliotecas

 

almanhirsch_300

Sandra Hirsh y Susan Alman. Blockchain (Library Futures Series, Libro 3). ALA, 2019

Ver en ALAStore

 

El uso más comúnmente conocido de blockchain es para criptomonedas como Bitcoin, sin embargo, hay muchos otros usos para esta tecnología. Con su alto nivel de transparencia y precisión, la tecnología blockchain es un concepto con implicaciones de largo alcance para el futuro del mantenimiento de registros. 

 

En el último volumen de Library Futures Series,, Sandra Hirsh y Susan Alman presentan los desafíos y oportunidades de blockchain. Recientemente tuvimos la oportunidad de hablar con ellos sobre cómo se interesaron originalmente en la tecnología y hacia dónde la ven a continuación.

Se trata de una larga cadena de entradas de datos que son teóricamente inmutables porque la criptografía se utiliza para proteger los datos. Blockchain utiliza una base de datos distribuida (múltiples dispositivos no conectados a un procesador común) que organiza los datos en registros (bloques) que tienen validación criptográfica. Los datos están marcados con el tiempo y vinculados a registros anteriores para que solo puedan ser modificados por quienes poseen las claves de cifrado para escribir en los archivos.

La función hash genera una referencia cada vez que se agrega un bloque a la cadena creando una marca de fecha / hora. El alto nivel de transparencia dificulta la corrupción a menos que más del 51% de la potencia de cómputo (hashing) esté controlada por uno o más grupos que trabajan juntos dentro de una red blockchain. No hay intermediarios que permitan la auto soberanía de los datos y la colaboración entre los usuarios.

¿Cuáles serían los posibles usos en bibliotecas?

IDEA # 1  identificación verificada

Otros usos están relacionados con la identificación verificada de personas que no tienen hogar, son transitorias, inmigrantes, desplazadas o que se encuentran fuera de su hogar habitual  y necesitan todo tipo de recursos de información que incluyan apoyo para la alfabetización, integración comunitaria, desarrollo de nuevas habilidades, servicios de empleo, investigación, ayuda en caso de desastres y entretenimiento. Las bibliotecas pueden proporcionar servicios a estas comunidades que no pueden obtener en ningún otro lugar; sin embargo, en la mayoría de los casos, estas personas no pueden obtener una tarjeta de la biblioteca. Este problema se puede resolver mediante el uso de un sistema interoperable basado en blockchain que integraría a todos los tipos de sistemas de biblioteca y una identidad digital verificada segura que se puede usar en las bibliotecas participantes para obtener acceso a la información. Blockchain se utilizará para proporcionar acceso sin gravámenes a contenido digital y colecciones impresas a todos los usuarios potenciales en los sistemas de bibliotecas participantes, mientras se gestiona el riesgo para garantizar que la privacidad y la identidad personal de cada usuario sean seguras. Sovereign Identity (SSI) es una aplicación blockchain que permite a un individuo u organización tener la propiedad y el control exclusivos de sus identidades digitales y analógicas. Los esfuerzos de alfabetización informacional e inclusión digital mejorarán a medida que los usuarios obtengan acceso a todos los recursos en esas bibliotecas mediante la creación de su identidad digital segura y privada.

IDEA # 2. Préstamo interbibliotecario.

Blockchain podría usarse para desarrollar un programa piloto internacional de préstamo interbibliotecario para el sistema de cupones de la Federación Internacional de Asociaciones de Bibliotecas (IFLA). IFLA proporciona vales reutilizables para ayudar a las bibliotecas a pagar fácilmente las solicitudes internacionales de préstamos interbibliotecarios. Cada comprobante representa un pago estándar para una transacción. Blockchain se adecuaría bien al préstamo interbibliotecario internacional debido a las transacciones en moneda extranjera que se realizan como parte de este intercambio de Préstamo Interbibliotecario (blockchain facilitaría las transacciones financieras extranjeras) debido a la propia naturaleza transaccional de los préstamos interbibliotecarios en general.

IDEA # 3. Precisión y consistencia de los datos 

Blockchain podría usarse para determinar la precisión y consistencia (validez) de los datos durante su ciclo de vida. Esto implicaría comparar el hash de los registros originales con un hash registrado en la cadena de bloques. Si los dos «hashes» no coinciden, los registros se han modificado de alguna manera.

Algunos expertos dicen que blockchain es malo para el medio ambiente, señalando su alto consumo de energía y su huella de carbono, mientras que otros afirman exactamente lo contrario, argumentando que blockchain podría ser sostenible porque conduciría a un aumento significativo en la transparencia, la eficiencia y la responsabilidad de la información.

La reutilización de datos abiertos en España

 

dmkc2nrwsaardhw.jpg-large-1080x675

 

«La reutilización de datos abiertos en España II’. Madrid: Universidad Rey Juan Carlos, DesideDatum, 2019

Texto completo

 

España sigue estando en una posición de referencia en datos abiertos en el ámbito público a nivel europeo, pero la reutilización de estos datos está todavía lejos de considerarse óptima por una falta de alineamiento entre las necesidades de la sociedad y los datos publicados. Esta es una de las conclusiones que se incluyen en la actualización del informe ‘La reutilización de datos abiertos en España’, cuya segunda edición se ha presentado hoy en la sede de la Fundación Cotec para la innovación.

 

Alberto Abella, experto de Los 100 de Cotec en Open Data, ha coordinado este trabajo en colaboración con la Universidad Rey Juan Carlos, la Cátedra Transparència i Gestió de Dades y DesideDatum. Para su elaboración se han analizado cerca de 300 portales y más de 30.000 juegos de datos.

El primer informe fue uno de los proyectos seleccionados por Cotec dentro de su Programa de Innovación Abierta en 2016. Desde 2017, el sector de datos abiertos ha crecido ampliamente, tanto en portales (+171%), como en conjunto de datos (+62%). El crecimiento también se aprecia en los servicios generados por la administración pública (+55%), aunque en el sector privado este porcentaje se mantiene respecto a 2017 en un 24%.

La geolocalización sigue siendo la base de la mayoría de los servicios generados (74%), mientras que han bajado aquellos basados en la actualización de datos del 33% en 2017 al 26% en 2019. Este descenso también se aprecia notablemente en los servicios basados en la sostenibilidad, entendida como la viabilidad económica de un servicio a medio plazo, que caen 21 puntos porcentuales respecto a 2017 (del 33% en 2017 al 26 % en 2019).

En relación con las temáticas, la mayoría de los servicios que se están creando se concentran en el área de la salud, seguido por el transporte y la meteorología.

El estudio se completa con un conjunto de recomendaciones para facilitar la creación de negocios innovadores a partir de los datos abiertos. Como se destacaba en el primer informe, se sigue hablando de la necesidad de crear una asociación de publicadores de datos, para coordinar esfuerzos que ayuden a homogeneizar la información, adoptar interpretaciones comunes de las normativas existentes y generar conocimiento sobre el uso de datos y su impacto económico y social.

 

Hoja de ruta para que las instituciones de enseñanza superior puedan contrarrestar el creciente control de la industria sobre los datos

 

2019-11-19_16-18-53

 

Academic Community Control of Data Infrastructure – A Roadmap for Action. London: SPARC, 2019

Texto completo

 

«A Roadmap for Action» describe las acciones individuales y colectivas que las instituciones pueden utilizar para mantener y recuperar el control de sus datos y de su infraestructura de datos. Reconociendo que las soluciones no son únicas, el marco ofrece una gama de opciones posibles que pueden adaptarse a la cultura y las necesidades locales de cada institución.

  • Mitigación de riesgos. Las acciones que pueden ser ejecutadas con relativa rapidez, requieren una cantidad variable pero manejable de inversión y gasto, y logran un impacto tangible en la forma en que se tratan los datos dentro de las instituciones. Algunos ejemplos son el establecimiento de mecanismos de coordinación de datos, la revisión de las políticas de datos y la adopción de políticas de contratación pública.
  • Opciones estratégicas. Las acciones en esta categoría requieren un debate a fondo de temas que no tienen respuestas fáciles. Cuestiones como las métricas que se deben utilizar, el grado de confianza en la inteligencia artificial y el grado en que se debe dar prioridad a la explotación de la P.I. requieren un análisis profundo de los pros y los contras, así como una evaluación realista de lo que es culturalmente aceptable en términos de acciones. Las distintas instituciones tendrán diferentes respuestas a estas opciones en función de sus valores y misiones, y tendrán que involucrar a una amplia variedad de partes interesadas.
  • Acciones Colectivas. Las acciones estructurales basadas en la comunidad en esta categoría son posibles soluciones finales que permiten a grupos de instituciones retomar el control de su infraestructura de datos. Incluyen diferentes escenarios que van desde la inversión compartida en la construcción de nuevas infraestructuras, hasta la adquisición colectiva de infraestructuras existentes, pasando por la creación de nuevos modelos de gobernanza y propiedad para los proveedores de infraestructuras.