Archivo de la etiqueta: Gestión de datos de investigación

Colonialismo digital: cómo las empresas de IA siguen el manual del imperio

Russ‑Smith, Jessica y Michelle Lazarus. 2025. “Digital colonialism: How AI companies are following the playbook of empire. The Conversation, 26 de noviembre de 2025. https://theconversation.com/digital-colonialism-how-ai-companies-are-following-the-playbook-of-empire-269285 (consultado el 24 de febrero de 2026).

Las grandes empresas de inteligencia artificial están replicando prácticas históricas de colonialismo en el entorno digital contemporáneo. Según las autoras, compañías como OpenAI y Google utilizan cantidades enormes de datos disponibles en Internet —fotos, textos, videos, obras artísticas y otros contenidos— para entrenar sus algoritmos sin el consentimiento explícito ni compensación de los creadores originales, lo que simboliza una apropiación de recursos culturales y cognitivos parecida a la lógica extractiva de los antiguos imperios coloniales.

Esta dinámica se legitima muchas veces a través de interpretaciones amplias de doctrinas legales como el “uso justo” (fair use) en el derecho de autor estadounidense, mientras que al mismo tiempo las mismas empresas protegen vehementemente su propiedad intelectual.

Las autoras trazan un paralelo entre la noción de terra nullius —un concepto legal colonial que declaraba territorios como “tierra de nadie” para justificar su apropiación— y cómo las empresas de IA tratan los datos personales y comunitarios como si no pertenecieran a nadie. Así como los colonizadores asumían que las tierras indígenas no tenían dueño legítimo, las grandes plataformas tecnológicas asumen implícitamente que la vasta colección de datos en línea está disponible para uso y explotación sin negociación ni consentimiento verdaderos. Esto se ve intensificado por prácticas de “consentimiento agrupado”, donde al usuario se le presenta un único botón de “aceptar todo” para servicios o actualizaciones, lo que en realidad no deja opción real si se quiere continuar accediendo a herramientas esenciales del mundo digital.

En el texto también se exploran formas de resistencia y alternativas a esta situación. Se destaca la importancia de los movimientos por la soberanía de los datos liderados por comunidades originarias, que proponen modelos en los que la propiedad, el control y la gobernanza de los datos pertenecen a las personas o comunidades que los generan. Estas propuestas implican mecanismos como la “continuidad del consentimiento”, en los que cada solicitud de acceso a datos exige un permiso específico y continuo, y la negociación colectiva para decisiones sobre uso y acceso. Asimismo, se mencionan casos de litigios legales contra prácticas de scraping de datos por parte de empresas de IA, como demandas de plataformas digitales o de autores por el uso no autorizado de material para entrenar modelos, lo que indica que la resistencia legal y social contra el colonialismo digital ya está en marcha.

Las autoras concluyen que aunque las empresas de IA pueden parecer todopoderosas, las estrategias históricas de resistencia al colonialismo —desde luchas jurídicas hasta reivindicaciones de derechos colectivos— ofrecen modelos para desafiar la lógica extractiva en el ámbito digital. Construir un futuro digital más justo implica reconocer los derechos sobre los datos como derechos humanos y comunitarios, promover marcos legales que protejan esos derechos, y fomentar prácticas tecnológicas que no reproduzcan desigualdades ni apropiaciones no consentidas de conocimiento y cultura.

Alfabetización de datos: cómo navegar la transición de la publicidad exagerada a la realidad

Data Literacy: Navigating the Shift from Hype to Reality. Library Trends, Vol. 74, Núm. 3 (febrero de 2026) https://muse.jhu.edu/issue/56412

El número 3 del volumen 74 de la revista Library Trends explora el concepto de alfabetización de datos más allá del entusiasmo tecnológico, enfocándose en cómo las bibliotecas y los profesionales de la información están integrando esta competencia en sus prácticas educativas y de servicio. La edición parte de la premisa de que la creciente complejidad de los ecosistemas de información —lo que algunos investigadores describen como la “sobrecarga de datos”— desafía a las bibliotecas a redefinir su papel formativo más allá de la alfabetización informacional tradicional. El propósito es comprender hasta qué punto las bibliotecas han desarrollado estrategias críticas y efectivas para preparar a sus usuarios a interpretar, evaluar y usar datos de forma ética en contextos diversos.

El contenido incluye artículos que analizan tanto perspectivas teóricas como experiencias prácticas: desde enfoques críticos sobre la enseñanza de la alfabetización de datos en entornos de desconfianza hasta iniciativas comunitarias dirigidas a poblaciones específicas, como inmigrantes o estudiantes universitarios. Se presentan estudios de caso sobre programas de formación interdisciplinaria, pedagogías inclusivas y proyectos que vinculan la alfabetización de datos con necesidades sociales, como la comprensión de la inseguridad alimentaria. Además, se examina cómo los planes de estudio en biblioteconomía y ciencias de la información están evolucionando para incorporar competencias de datos de manera más sistemática.

El estado de los datos abiertos en 2025: una década de progreso y desafíos

Digital Science, Figshare y Springer Nature. The State of Open Data 2025: A Decade of Progress and Challenges. Digital Science, 26 de enero de 2026. https://www.digital-science.com/blog/2026/01/2025-state-of-open-data-report/

The State of Open Data 2025 ofrece un panorama positivo pero complejo: la apertura de datos está firmemente integrada en la cultura de investigación, pero su consolidación completa exige atención a los incentivos, la infraestructura, el reconocimiento profesional y la adaptación de políticas que apoyen prácticas abiertas en el día a día de los investigadores.

El informe The State of Open Data 2025 marca el décimo aniversario de una de las investigaciones más completas sobre prácticas, actitudes y desafíos en torno a los datos abiertos en la investigación científica y académica a nivel global. Esta edición combina más de 4 700 respuestas de investigadores de 151 países con aportaciones de expertos en investigación, bibliotecas y políticas, ofreciendo una visión sin precedentes de cómo ha evolucionado la apertura de datos en la última década y qué retos persisten para consolidar estas prácticas de forma sostenible.

Uno de los ejes centrales del informe es el amplio respaldo que los principios de investigación abierta han logrado entre la comunidad académica. Una gran mayoría de encuestados apoya normas como el acceso abierto a publicaciones (88,1 %), la apertura de conjuntos de datos (80,9 %) y la revisión por pares abierta (75,7 %). Esto refleja un cambio cultural profundo: lo que antes podía verse como una aspiración ahora forma parte del panorama normalizado de la producción científica en muchas disciplinas.

Sin embargo, el informe también identifica barreras persistentes. Aunque la conciencia sobre los principios FAIR (hallables, accesibles, interoperables y reutilizables) casi se ha duplicado desde 2018, con un aumento significativo en el conocimiento de estas prácticas, muchos investigadores sienten que no reciben el crédito adecuado por compartir sus datos. El 69,2 % afirma que no se reconoce suficiente su contribución en evaluaciones profesionales y académicas, lo cual es un obstáculo para que la apertura de datos se convierta en una práctica más extendida y recompensada institucionalmente.

El informe también destaca variaciones importantes según regiones y disciplinas en el apoyo a mandatos nacionales de datos abiertos. Algunos países como India mantienen niveles relativamente estables de apoyo, mientras que en otros como Australia y Brasil se observa un descenso significativo en el respaldo a políticas nacionales obligatorias. Esto sugiere que, aunque el consenso sobre la importancia de los datos abiertos es alto, la implementación efectiva de políticas públicas y mandatos varía según contextos locales, recursos e infraestructura disponibles.

Un factor emergente en esta edición es el crecimiento del uso de inteligencia artificial (IA) para apoyar prácticas de datos, especialmente en tareas como el procesamiento de grandes conjuntos de datos y la creación de metadatos. Entre 2024 y 2025 aumentó de forma notable el uso activo de IA en estos procesos, lo que apunta a una tendencia en la que la automatización y la interoperabilidad serán claves para lograr que la apertura de datos sea más eficiente, estandarizada y confiable. Aun así, el informe subraya la necesidad de desarrollar marcos éticos, estándares y estructuras de apoyo que garanticen una adopción responsable y beneficiosa de estas tecnologías.

Valor de los metadatos para los datos de investigación

Strecker, Dorothea (2025). How permanent are metadata for research data? Understanding changes in DataCite metadata. arXiv:2412.05128v2 (13 de diciembre de 2025)

Texto completo

El artículo analiza en profundidad hasta qué punto los metadatos de los datos de investigación pueden considerarse permanentes una vez que se les asigna un identificador persistente (DOI) a través de DataCite. En el contexto de la ciencia abierta, los metadatos son fundamentales porque permiten que los conjuntos de datos sean localizables, accesibles, interpretables y reutilizables. Sin embargo, a diferencia de los catálogos bibliotecarios tradicionales, los metadatos de los datos de investigación se crean y mantienen en entornos muy diversos, con prácticas desiguales y, en muchos casos, con un mantenimiento limitado a lo largo del tiempo. El estudio parte de la hipótesis de que, aunque los DOIs están pensados para ser persistentes, los metadatos que los acompañan pueden cambiar de forma significativa después de su publicación inicial.

Para examinar esta cuestión, el trabajo se centra en el análisis de millones de registros de metadatos asociados a conjuntos de datos publicados en 2021, observando su evolución durante los dos años siguientes. El enfoque metodológico se basa en el uso de información de procedencia de metadatos, lo que permite identificar qué elementos cambian, con qué frecuencia y en qué momento. Este enfoque empírico aporta una visión poco habitual en los estudios sobre metadatos, ya que no se limita a evaluar la calidad en un momento concreto, sino que estudia los cambios a lo largo del tiempo.

Los resultados muestran que la mayoría de los metadatos permanecen estables, lo que indica que, en términos generales, pueden considerarse suficientemente fiables para tareas como análisis bibliométricos o estudios de infraestructura científica. No obstante, una proporción relevante de registros sí experimenta modificaciones. Estas modificaciones suelen ser incrementales y puntuales, y afectan sobre todo a elementos como los nombres de los creadores, las descripciones del conjunto de datos o la incorporación de identificadores relacionados. En cambio, otros campos clave —como el título o el año de publicación— rara vez se modifican, lo que refuerza la idea de una estructura básica bastante fija.

El análisis temporal revela que los cambios se concentran en las primeras fases tras la publicación del DOI, lo que sugiere que muchos ajustes responden a correcciones o mejoras iniciales más que a un mantenimiento continuo a largo plazo. Además, el estudio detecta diferencias notables entre repositorios, lo que indica que no existe una práctica homogénea en la gestión de metadatos: algunos repositorios tienden a revisar y actualizar más sus registros, mientras que otros apenas los modifican una vez publicados.

En la discusión, el artículo plantea una reflexión crítica sobre el concepto de “permanencia” aplicado a los metadatos. Aunque estos son relativamente estables, no muestran una evolución sostenida que acompañe el ciclo de vida completo de los datos de investigación. Esto limita su potencial para reflejar nuevos usos, citas, relaciones o contextos científicos emergentes. El trabajo sugiere que, para mejorar la reutilización y el valor a largo plazo de los datos, sería necesario repensar las políticas y prácticas de mantenimiento de metadatos, promoviendo una actualización más activa y coherente.

Estado de los datos 2025: IA en el presente, desafíos y perspectivas

Interactive Advertising Bureau (IAB), BWG Global, y Transparent Partners. 2025. State of Data 2025: The Now, the Near, and the Next Evolution of AI for Media Campaigns. Nueva York: Interactive Advertising Bureau

Texto completo

El informe State of Data 2025 del Interactive Advertising Bureau (IAB), elaborado en colaboración con BWG Global y Transparent Partners, analiza en profundidad el estado actual y las perspectivas de la inteligencia artificial en el ciclo completo de las campañas de medios digitales. Basado en una encuesta a más de 500 expertos de agencias, marcas y editores, el estudio sostiene que la industria publicitaria se encuentra en un punto de inflexión: aunque la IA lleva años utilizándose para optimizar procesos concretos, su integración plena y transversal sigue siendo limitada. El documento subraya que la irrupción de nuevas formas de IA —especialmente la generativa y la agentic— está transformando su papel, pasando de ser una herramienta de apoyo a convertirse en un sistema capaz de planificar, ejecutar y evaluar campañas de forma casi autónoma.

Uno de los principales hallazgos del informe es que el 70 % de las organizaciones aún no ha logrado una adopción integral de la IA en las fases de planificación, activación y análisis de campañas. No obstante, esta situación es percibida como transitoria: más de la mitad de quienes no han alcanzado ese nivel esperan hacerlo antes de 2026. Las agencias y los editores lideran el proceso de adopción, impulsados por la necesidad de generar eficiencias operativas y escalar soluciones para múltiples clientes, mientras que las marcas avanzan con mayor cautela, condicionadas por restricciones presupuestarias y la exigencia de demostrar retornos claros de la inversión.

El informe destaca que los usos más consolidados de la IA se concentran en la segmentación de audiencias, la agregación y el análisis de datos, la optimización en tiempo real de pujas y presupuestos, y la automatización de tareas repetitivas. Estas aplicaciones son valoradas positivamente por su eficiencia, efectividad y fiabilidad, especialmente en contextos de alto volumen de datos y decisiones operativas rápidas. Sin embargo, el estudio también señala que la IA todavía presenta limitaciones significativas en ámbitos donde se requiere juicio estratégico, visión a largo plazo o consideraciones éticas complejas, como la gestión de contratos, la seguridad de marca o la prevención del sesgo.

Entre los principales obstáculos para la adopción a gran escala, el informe identifica problemas estructurales relacionados con la calidad y la seguridad de los datos, la fragmentación de herramientas tecnológicas, la complejidad de implementación y la falta de conocimientos especializados. De forma reveladora, el temor a la sustitución de empleos aparece como una preocupación secundaria frente a estos desafíos técnicos y organizativos. Además, el documento subraya que solo alrededor de la mitad de las organizaciones está desarrollando estrategias claras —como hojas de ruta, programas de formación o marcos de gobernanza— para afrontar estos retos, lo que podría agrandar la brecha competitiva en el sector.

Frontiers FAIR² Data Management recupera la ciencia perdida: cómo la IA transforma los datos invisibles en conocimiento reutilizable

Frontiers. “90% of Science Is Lost. This New AI Just Found It.” ScienceDaily, October 13, 2025. https://www.sciencedaily.com/releases/2025/10/251013040314.htm

Una gran cantidad de datos de investigación valiosos permanecen sin utilizar, atrapados en laboratorios o perdidos en el tiempo. Frontiers pretende cambiar esta situación con FAIR Data Management, un innovador sistema impulsado por IA que hace que los conjuntos de datos sean reutilizables, verificables y citables. Al unir la curación, el cumplimiento, la revisión por pares y la visualización interactiva en una sola plataforma, FAIR² permite a los científicos compartir su trabajo de forma responsable y obtener reconocimiento.

La gran mayoría de los datos generados nunca se reutilizan ni contribuyen de forma significativa a nuevos descubrimientos. Según la evaluación citada, una proporción abrumadora de datos —hasta un 90 %— queda atrapada en laboratorios, no se comparte adecuadamente o se pierde en archivos inaccesibles, lo que frena el progreso en áreas críticas como la medicina, el cambio climático y la tecnología. Este desperdicio de información no solo reduce la eficiencia de la investigación global, sino que también limita la reproducibilidad de los estudios y la capacidad de construir sobre trabajos previos, una componente fundamental del método científico moderno.

Para enfrentar este desafío, la editorial y organización científica Frontiers ha desarrollado un sistema innovador denominado Frontiers FAIR² Data Management, que combina herramientas avanzadas de inteligencia artificial con principios sólidos de gestión de datos. El objetivo principal de esta plataforma es aplicar de manera automatizada y a gran escala los principios FAIR (findable, accessible, interoperable, reusable — en español: localizable, accesible, interoperable y reutilizable) y expandirlos en un marco que garantice la compatibilidad con sistemas de IA y la integridad ética de los conjuntos de datos. Al integrar procesos de curación, revisión por pares, visualización interactiva y certificación dentro de un único sistema impulsado por IA, FAIR² pretende transformar conjuntos de datos “perdidos” en recursos útiles y citables que puedan impulsar nuevas investigaciones, acelerar descubrimientos y reconocer adecuadamente el trabajo de los investigadores.

El funcionamiento práctico de FAIR² va más allá de simplemente archivar datos. Cuando un científico somete sus resultados a este sistema, no solo se asegura de que los datos sean estructurados y completos, sino que también recibe una salida múltiple: un paquete de datos certificado, un artículo de datos revisado y citable, herramientas de visualización interactiva y un certificado FAIR² que respalda la calidad y reutilización del conjunto. Esta estrategia integral busca eliminar las barreras tradicionales para el intercambio de datos y fomentar una cultura científica en la que cada conjunto de datos tenga el potencial de generar conocimiento adicional, reducir el tiempo entre descubrimiento y aplicación práctica, y asegurar que las inversiones en investigación rindan un impacto mucho mayor del que logran actualmente.

Impulso europeo a los datos abiertos y su continuidad en el programa Digital Europe

European Health and Digital Executive Agency; European Commission (2025). Public open data: CEF Telecom projects at a glance. Publications Office of the European Union. ISBN 978-92-95239-44-9.

Texto completo

Se ofrece una visión general de los proyectos de datos públicos abiertos financiados en el marco del programa CEF Telecom (2014-2020) y los sectores o ámbitos en los que se desarrolló cada proyecto, mostrando algunos proyectos y su impacto. Además, esta ficha informativa tiene por objeto describir cómo el programa Europa Digital tomó el relevo y apoya los espacios comunes europeos de datos. Los datos públicos abiertos son un servicio que facilita y armoniza el acceso a conjuntos de datos creados y gestionados por organismos públicos de toda la UE. El objetivo general es la mejora de las infraestructuras de servicios digitales y el desarrollo de productos y servicios de información basados en la reutilización y la combinación de datos en poder de actores públicos y comerciales de toda la UE. Los datos públicos son toda la información que los organismos públicos producen, recopilan o pagan. Esta información es importante para su reutilización en nuevos productos y servicios. Al abrir los datos públicos, se promovió la participación de los ciudadanos y los expertos en la vida política y social.

La avalancha de bots de inteligencia artificial desafía la sostenibilidad de los repositorios académicos

Washington, Jamie. “AI bots swarm UDSpace for information.” Library, Museums and Press, University of Delaware, 29 de septiembre de 2025. https://library.udel.edu/news/2025/09/29/ai-bots-swarm-udspace/

La Universidad de Delaware ha detectado un fenómeno inesperado en su repositorio institucional, UDSpace: una avalancha de bots de inteligencia artificial que acceden masivamente a su contenido.

Estos bots, diseñados para recopilar información y entrenar modelos de lenguaje, realizan miles de consultas automatizadas que han llegado a ralentizar el sistema y, en algunos casos, a dejarlo temporalmente inaccesible.

El atractivo de UDSpace radica en la gran cantidad de materiales académicos de alta calidad que alberga —tesis, artículos científicos, informes y otros documentos de investigación—, lo que lo convierte en una fuente muy valiosa para las empresas que desarrollan inteligencia artificial. Sin embargo, el patrón de comportamiento de los bots ha resultado extremadamente agresivo: generan peticiones a una velocidad imposible para los usuarios humanos y saturan el servidor, desbordando las capacidades de respuesta del repositorio.

Ante esta situación, el equipo técnico de la biblioteca probó inicialmente medidas básicas como bloquear direcciones IP o responder a los bots fingiendo que los documentos no existían. Pero estas estrategias solo sirvieron para que los ataques se intensificaran. En mayo de 2025, se optó por una solución más avanzada: un sistema que identifica las solicitudes automatizadas y las bloquea en la capa de entrada, antes de que lleguen al servidor. De esta forma, los usuarios legítimos pueden seguir accediendo sin problema mientras los bots reciben un mensaje de acceso prohibido.

Aunque esta estrategia ha logrado reducir la presión sobre UDSpace, el problema refleja una tendencia global. Cada vez más repositorios académicos y bibliotecas digitales se enfrentan a un dilema entre mantener el acceso abierto al conocimiento y proteger sus sistemas de un uso automatizado que amenaza con colapsar sus infraestructuras. El caso de la Universidad de Delaware muestra hasta qué punto el auge de la inteligencia artificial está obligando a las instituciones académicas a repensar la gestión y defensa de sus recursos digitales.

Asta DataVoyager, una nueva herramienta de IA para el análisis de datos estructurados sin necesidad de amplios conocimientos de programación

Allen Institute for AI. “Asta DataVoyager: Data-Driven Discovery and Analysis.” Allen Institute for AI (blog), 26 de septiembre de 2025. https://allenai.org/blog/asta-datavoyager

Ai2 presenta Asta DataVoyager, una herramienta diseñada para facilitar el análisis de datos estructurados sin necesidad de amplios conocimientos de programación. La plataforma permite a científicos y usuarios hacer preguntas en lenguaje natural sobre archivos de datos (CSV, JSON, Excel, Parquet, etc.) y recibir respuestas bien fundamentadas, acompañadas de visualizaciones, código reproducible y explicaciones de los métodos utilizados.

DataVoyager transforma la forma de interactuar con los datos al generar salidas estructuradas y coherentes que pueden compartirse como parte de un informe científico o cuaderno de trabajo. Además, permite seguir con preguntas de aclaración o nuevos análisis (“filtra por tal variable”, “haz test no paramétrico”, etc.), añadiendo nuevas secciones al reporte y conservando la trazabilidad del análisis.

Un caso de uso temprano se da con la Cancer AI Alliance (CAIA), que ha desplegado una versión federada de DataVoyager: investigadores de varios centros oncológicos pueden hacer consultas sobre datos clínicos federados sin que la información sensible abandone las instalaciones de cada institución. Con esto se busca extraer conclusiones agregadas y útiles para la investigación sin comprometer la privacidad de pacientes.

La propuesta subraya que el control y manejo de los datos permanece en manos del usuario: DataVoyager puede instalarse en infraestructura propia (servidores locales, nubes privadas, etc.), y los investigadores pueden borrar sus datos en cualquier momento. La idea central es acortar el tiempo entre una duda científica y una conclusión fiable, proporcionando transparencia en cada paso analítico y fortaleciendo la confianza en los resultados.

Datos listos para la IA: consideraciones clave para la ciencia abierta y responsable

McBride, Vanessa; Natalia Norori; Denisse Albornoz. Data and AI for Science: Key Considerations. Working Paper, International Science Council, septiembre de 2025. DOI: 10.24948/2025.11

Texto completo

El informe ofrece una visión amplia y crítica del cruce entre inteligencia artificial, datos y ciencia, destacando que solo mediante la combinación de apertura, responsabilidad y cooperación internacional se podrá aprovechar plenamente el potencial de la IA en beneficio del conocimiento y la sociedad.

El informe explora cómo la inteligencia artificial está transformando la práctica científica y qué condiciones deben cumplirse para que los datos puedan aprovecharse de manera efectiva, ética y sostenible. La noción central es la de datos “AI-ready”, es decir, conjuntos de datos preparados para ser procesados y reutilizados por sistemas de IA en beneficio de la investigación. Este concepto implica que los datos no solo deben estar disponibles, sino también estructurados, limpios, interoperables y documentados de manera adecuada.

Una parte importante del documento se centra en la calidad e interoperabilidad de los datos. La ciencia abierta ha impulsado normas como FAIR (Findable, Accessible, Interoperable, Reusable), pero el uso de IA añade nuevas exigencias. Por ejemplo, los algoritmos requieren datos con metadatos consistentes, esquemas comunes y estándares de anotación que permitan la reutilización automática. Además, se subraya que la preparación de datos para IA debe considerar la reducción de sesgos y garantizar la inclusión de voces y contextos diversos, para evitar reproducir inequidades existentes en los resultados científicos.

Otro eje del informe son las dimensiones éticas, sociales y ambientales. Los autores advierten que el entrenamiento y uso de grandes modelos de IA conlleva altos costes energéticos y huellas de carbono significativas, por lo que la sostenibilidad debe integrarse en la planificación de infraestructuras científicas. En paralelo, se examinan los riesgos para la privacidad, la seguridad y la soberanía de los datos, especialmente en campos sensibles como la biomedicina o las ciencias sociales. Estos retos requieren marcos sólidos de gobernanza que equilibren apertura y protección.

El informe también vincula la preparación de datos para IA con la agenda de la ciencia abierta. Se argumenta que los principios de transparencia, accesibilidad y colaboración resultan esenciales para garantizar que la IA potencie la ciencia de manera inclusiva y global. Se destacan casos prácticos en los que repositorios, proyectos colaborativos y consorcios internacionales han logrado implementar buenas prácticas de datos AI-ready, sirviendo como ejemplos para otras disciplinas.

Finalmente, se presentan recomendaciones estratégicas:

  • Consolidar marcos normativos y estándares internacionales, como FAIR-R y Croissant.
  • Invertir en infraestructuras digitales y capacidad de cómputo adecuadas para la investigación con IA.
  • Fortalecer la capacitación en gestión de datos e inteligencia artificial.
  • Reconocer institucionalmente la labor de quienes trabajan en la preparación y curación de datos.
  • Garantizar la equidad y la inclusividad en las políticas sobre datos e IA, evitando que el acceso desigual a recursos tecnológicos aumente las brechas entre regiones y comunidades científicas.