Archivo de la etiqueta: Gestión de datos de investigación

Bibliotecas de investigación y colecciones en la era de la inteligencia artificial: retos, estrategias y futuros posibles

Association of Research Libraries (ARL). “Research Library Collections and AI.” ARL Blog. Consultado el 20 de abril de 2026. https://www.arl.org/blog/research-library-collections-and-ai/

La inteligencia artificial, especialmente en su vertiente generativa, está transformando las colecciones de las bibliotecas de investigación y, con ello, el propio ecosistema del conocimiento académico. La idea central es que las colecciones —tradicionalmente concebidas como conjuntos relativamente estables de recursos seleccionados— están evolucionando hacia sistemas dinámicos, interconectados y mediados por algoritmos. En este nuevo contexto, las bibliotecas dejan de ser únicamente custodias de contenidos para convertirse en agentes activos en la creación, organización y validación del conocimiento en entornos digitales altamente automatizados.

Las bibliotecas resultan especialmente atractivas para las empresas de IA debido a sus colecciones de contenido raro y único, sus metadatos estructurados y legibles por máquina, y sus sistemas de descubrimiento multifacéticos. Por ello, las compañías de IA están intentando acceder a los contenidos bibliotecarios de diversas maneras. Algunas despliegan tráfico excesivo de bots y enjambres automatizados para recopilar colecciones y metadatos con el fin de entrenar sus modelos. Otras buscan establecer alianzas con bibliotecas y apoyar la digitalización responsable de sus recursos. En ambos casos, las bibliotecas tienen la oportunidad de apoyarse en sus valores y en su experiencia de adaptación tecnológica para decidir cómo responder ante un acceso a sus colecciones que cambia con gran rapidez.

Uno de los aspectos clave del análisis es la redefinición del concepto de “colección”. La IA introduce nuevas formas de producción intelectual (como textos generados automáticamente, datasets masivos o modelos de lenguaje), lo que obliga a reconsiderar qué debe formar parte de las colecciones y bajo qué criterios. Las bibliotecas se enfrentan así a la necesidad de integrar no solo documentos tradicionales, sino también datos, algoritmos y sistemas de entrenamiento, lo que amplía enormemente el alcance y la complejidad de sus fondos. Este cambio implica también revisar políticas de adquisición, preservación y acceso, adaptándolas a materiales que son, en muchos casos, dinámicos, efímeros o dependientes de infraestructuras tecnológicas.

El artículo subraya igualmente las tensiones éticas y legales asociadas a este proceso. La IA plantea interrogantes sobre derechos de autor, propiedad intelectual, sesgos algorítmicos y transparencia. Las bibliotecas, históricamente comprometidas con valores como el acceso abierto, la equidad y la integridad informativa, deben posicionarse ante estos desafíos. En este sentido, la ARL insiste en la importancia de desarrollar marcos éticos sólidos y políticas institucionales que garanticen un uso responsable de la IA, reforzando la confianza de la comunidad académica.

Otro eje fundamental es el papel de las bibliotecas como infraestructuras de datos. En un entorno en el que la investigación depende cada vez más de grandes volúmenes de información y de herramientas de análisis automatizado, las bibliotecas pueden desempeñar un rol estratégico como proveedoras de datos de calidad, curados y bien documentados. Esto las sitúa en el centro de la investigación científica contemporánea, no solo como apoyo, sino como colaboradoras activas en la producción de conocimiento.

El texto también destaca la necesidad de nuevas competencias profesionales. La integración de la IA exige que los bibliotecarios desarrollen habilidades en áreas como la ciencia de datos, la gestión de algoritmos, la alfabetización en IA y la evaluación crítica de sistemas automatizados. No se trata únicamente de adoptar herramientas tecnológicas, sino de comprender sus implicaciones y de mediar entre ellas y los usuarios. En este sentido, la formación continua y la adaptación organizativa se presentan como elementos clave para el futuro de las bibliotecas.

Además, el enfoque prospectivo del artículo conecta con los escenarios desarrollados por la ARL y la Coalition for Networked Information, que exploran distintos futuros posibles en función de cómo evolucione la IA. Estos escenarios muestran que, independientemente del grado de automatización o del dominio de actores comerciales, las bibliotecas mantienen un papel esencial como garantes de acceso equitativo, preservación del conocimiento y defensa de la integridad informativa.

En conjunto, el texto plantea que la inteligencia artificial no es solo una herramienta que impacta en las bibliotecas, sino una fuerza transformadora que redefine su misión, sus prácticas y su identidad. Las colecciones dejan de ser estáticas para convertirse en ecosistemas complejos, donde confluyen datos, tecnologías y comunidades. En este nuevo escenario, las bibliotecas de investigación están llamadas a liderar la transición hacia un modelo de conocimiento más abierto, ético y colaborativo, siempre que sean capaces de adaptarse con visión estratégica y compromiso con sus valores fundacionales.

8 de cada 10 europeos no confían en las empresas estadounidenses ni chinas para el manejo de sus datos.

Politico. “8 in 10 Europeans Don’t Trust US, Chinese Firms with Data.” Politico Europe, 2026 https://www.politico.eu/article/8-in-10-europeans-dont-trust-us-chinese-firms-with-data/

El texto pone de relieve una paradoja central del ecosistema digital europeo: una profunda desconfianza hacia actores externos que, sin embargo, siguen siendo esenciales en la infraestructura tecnológica cotidiana. Esta tensión entre dependencia y desconfianza define uno de los grandes retos de Europa en el ámbito digital: cómo garantizar la protección de los datos y la autonomía tecnológica sin quedar rezagada en la competencia global.

Se analiza los resultados de una encuesta reciente —el estudio European Pulse Forum, impulsado por Politico junto a la consultora BeBartlet— que revela un dato contundente: más de ocho de cada diez europeos desconfían de las empresas tecnológicas estadounidenses y chinas a la hora de gestionar sus datos personales. Este nivel de desconfianza no es homogéneo, sino que alcanza cifras especialmente elevadas en el caso de China (en torno al 90 % o más) y también muy altas respecto a Estados Unidos (más del 80 %), lo que pone de manifiesto una crisis de confianza generalizada hacia las grandes potencias tecnológicas globales.

El estudio, basado en miles de encuestas realizadas en países clave como Alemania, Francia, España, Italia, Polonia y Bélgica, muestra que la percepción de riesgo está profundamente vinculada a factores geopolíticos y legales. Uno de los principales motivos de esta desconfianza es la creencia de que las empresas de estos países pueden verse obligadas a entregar datos a sus respectivos gobiernos en virtud de sus leyes nacionales de seguridad. Esta posibilidad genera inquietud entre los ciudadanos europeos, que perciben una falta de control sobre el uso final de su información personal, especialmente en contextos donde la vigilancia estatal o el acceso gubernamental a datos privados es una preocupación creciente.

En contraste, las empresas tecnológicas europeas generan un nivel de confianza relativamente mayor, aunque no mayoritario: aproximadamente la mitad de los encuestados afirma confiar en ellas. También los gobiernos nacionales obtienen niveles de confianza moderados, lo que sugiere que, aunque existe una preferencia por lo “propio”, esta no implica una confianza plena. Este matiz es importante porque indica que el problema no es únicamente externo (EE. UU. o China), sino que forma parte de una preocupación más amplia sobre la privacidad, el control de los datos y la transparencia en la era digital.

El contexto normativo europeo desempeña un papel clave en esta percepción. La Unión Europea cuenta con uno de los marcos regulatorios más estrictos del mundo en materia de protección de datos, encabezado por el Reglamento General de Protección de Datos (GDPR). Este sistema no solo establece altos estándares para las empresas europeas, sino que también obliga a las compañías extranjeras a cumplirlos si operan con datos de ciudadanos europeos. Sin embargo, la coexistencia de estas normas con legislaciones nacionales de terceros países genera tensiones legales y dudas sobre su efectividad real, especialmente cuando entran en conflicto con leyes de seguridad nacional fuera de la UE.

El artículo también sugiere que esta desconfianza tiene implicaciones estratégicas profundas. En particular, refuerza el impulso europeo hacia la llamada “soberanía digital”, es decir, la necesidad de desarrollar infraestructuras tecnológicas propias en ámbitos como la computación en la nube, la inteligencia artificial o las telecomunicaciones. La dependencia actual de proveedores estadounidenses —dominantes en el mercado— contrasta con el deseo político y social de reducir esa dependencia, aunque en la práctica este cambio resulta complejo debido a factores económicos, técnicos y de mercado.

Colonialismo digital: cómo las empresas de IA siguen el manual del imperio

Russ‑Smith, Jessica y Michelle Lazarus. 2025. “Digital colonialism: How AI companies are following the playbook of empire. The Conversation, 26 de noviembre de 2025. https://theconversation.com/digital-colonialism-how-ai-companies-are-following-the-playbook-of-empire-269285 (consultado el 24 de febrero de 2026).

Las grandes empresas de inteligencia artificial están replicando prácticas históricas de colonialismo en el entorno digital contemporáneo. Según las autoras, compañías como OpenAI y Google utilizan cantidades enormes de datos disponibles en Internet —fotos, textos, videos, obras artísticas y otros contenidos— para entrenar sus algoritmos sin el consentimiento explícito ni compensación de los creadores originales, lo que simboliza una apropiación de recursos culturales y cognitivos parecida a la lógica extractiva de los antiguos imperios coloniales.

Esta dinámica se legitima muchas veces a través de interpretaciones amplias de doctrinas legales como el “uso justo” (fair use) en el derecho de autor estadounidense, mientras que al mismo tiempo las mismas empresas protegen vehementemente su propiedad intelectual.

Las autoras trazan un paralelo entre la noción de terra nullius —un concepto legal colonial que declaraba territorios como “tierra de nadie” para justificar su apropiación— y cómo las empresas de IA tratan los datos personales y comunitarios como si no pertenecieran a nadie. Así como los colonizadores asumían que las tierras indígenas no tenían dueño legítimo, las grandes plataformas tecnológicas asumen implícitamente que la vasta colección de datos en línea está disponible para uso y explotación sin negociación ni consentimiento verdaderos. Esto se ve intensificado por prácticas de “consentimiento agrupado”, donde al usuario se le presenta un único botón de “aceptar todo” para servicios o actualizaciones, lo que en realidad no deja opción real si se quiere continuar accediendo a herramientas esenciales del mundo digital.

En el texto también se exploran formas de resistencia y alternativas a esta situación. Se destaca la importancia de los movimientos por la soberanía de los datos liderados por comunidades originarias, que proponen modelos en los que la propiedad, el control y la gobernanza de los datos pertenecen a las personas o comunidades que los generan. Estas propuestas implican mecanismos como la “continuidad del consentimiento”, en los que cada solicitud de acceso a datos exige un permiso específico y continuo, y la negociación colectiva para decisiones sobre uso y acceso. Asimismo, se mencionan casos de litigios legales contra prácticas de scraping de datos por parte de empresas de IA, como demandas de plataformas digitales o de autores por el uso no autorizado de material para entrenar modelos, lo que indica que la resistencia legal y social contra el colonialismo digital ya está en marcha.

Las autoras concluyen que aunque las empresas de IA pueden parecer todopoderosas, las estrategias históricas de resistencia al colonialismo —desde luchas jurídicas hasta reivindicaciones de derechos colectivos— ofrecen modelos para desafiar la lógica extractiva en el ámbito digital. Construir un futuro digital más justo implica reconocer los derechos sobre los datos como derechos humanos y comunitarios, promover marcos legales que protejan esos derechos, y fomentar prácticas tecnológicas que no reproduzcan desigualdades ni apropiaciones no consentidas de conocimiento y cultura.

Alfabetización de datos: cómo navegar la transición de la publicidad exagerada a la realidad

Data Literacy: Navigating the Shift from Hype to Reality. Library Trends, Vol. 74, Núm. 3 (febrero de 2026) https://muse.jhu.edu/issue/56412

El número 3 del volumen 74 de la revista Library Trends explora el concepto de alfabetización de datos más allá del entusiasmo tecnológico, enfocándose en cómo las bibliotecas y los profesionales de la información están integrando esta competencia en sus prácticas educativas y de servicio. La edición parte de la premisa de que la creciente complejidad de los ecosistemas de información —lo que algunos investigadores describen como la “sobrecarga de datos”— desafía a las bibliotecas a redefinir su papel formativo más allá de la alfabetización informacional tradicional. El propósito es comprender hasta qué punto las bibliotecas han desarrollado estrategias críticas y efectivas para preparar a sus usuarios a interpretar, evaluar y usar datos de forma ética en contextos diversos.

El contenido incluye artículos que analizan tanto perspectivas teóricas como experiencias prácticas: desde enfoques críticos sobre la enseñanza de la alfabetización de datos en entornos de desconfianza hasta iniciativas comunitarias dirigidas a poblaciones específicas, como inmigrantes o estudiantes universitarios. Se presentan estudios de caso sobre programas de formación interdisciplinaria, pedagogías inclusivas y proyectos que vinculan la alfabetización de datos con necesidades sociales, como la comprensión de la inseguridad alimentaria. Además, se examina cómo los planes de estudio en biblioteconomía y ciencias de la información están evolucionando para incorporar competencias de datos de manera más sistemática.

El estado de los datos abiertos en 2025: una década de progreso y desafíos

Digital Science, Figshare y Springer Nature. The State of Open Data 2025: A Decade of Progress and Challenges. Digital Science, 26 de enero de 2026. https://www.digital-science.com/blog/2026/01/2025-state-of-open-data-report/

The State of Open Data 2025 ofrece un panorama positivo pero complejo: la apertura de datos está firmemente integrada en la cultura de investigación, pero su consolidación completa exige atención a los incentivos, la infraestructura, el reconocimiento profesional y la adaptación de políticas que apoyen prácticas abiertas en el día a día de los investigadores.

El informe The State of Open Data 2025 marca el décimo aniversario de una de las investigaciones más completas sobre prácticas, actitudes y desafíos en torno a los datos abiertos en la investigación científica y académica a nivel global. Esta edición combina más de 4 700 respuestas de investigadores de 151 países con aportaciones de expertos en investigación, bibliotecas y políticas, ofreciendo una visión sin precedentes de cómo ha evolucionado la apertura de datos en la última década y qué retos persisten para consolidar estas prácticas de forma sostenible.

Uno de los ejes centrales del informe es el amplio respaldo que los principios de investigación abierta han logrado entre la comunidad académica. Una gran mayoría de encuestados apoya normas como el acceso abierto a publicaciones (88,1 %), la apertura de conjuntos de datos (80,9 %) y la revisión por pares abierta (75,7 %). Esto refleja un cambio cultural profundo: lo que antes podía verse como una aspiración ahora forma parte del panorama normalizado de la producción científica en muchas disciplinas.

Sin embargo, el informe también identifica barreras persistentes. Aunque la conciencia sobre los principios FAIR (hallables, accesibles, interoperables y reutilizables) casi se ha duplicado desde 2018, con un aumento significativo en el conocimiento de estas prácticas, muchos investigadores sienten que no reciben el crédito adecuado por compartir sus datos. El 69,2 % afirma que no se reconoce suficiente su contribución en evaluaciones profesionales y académicas, lo cual es un obstáculo para que la apertura de datos se convierta en una práctica más extendida y recompensada institucionalmente.

El informe también destaca variaciones importantes según regiones y disciplinas en el apoyo a mandatos nacionales de datos abiertos. Algunos países como India mantienen niveles relativamente estables de apoyo, mientras que en otros como Australia y Brasil se observa un descenso significativo en el respaldo a políticas nacionales obligatorias. Esto sugiere que, aunque el consenso sobre la importancia de los datos abiertos es alto, la implementación efectiva de políticas públicas y mandatos varía según contextos locales, recursos e infraestructura disponibles.

Un factor emergente en esta edición es el crecimiento del uso de inteligencia artificial (IA) para apoyar prácticas de datos, especialmente en tareas como el procesamiento de grandes conjuntos de datos y la creación de metadatos. Entre 2024 y 2025 aumentó de forma notable el uso activo de IA en estos procesos, lo que apunta a una tendencia en la que la automatización y la interoperabilidad serán claves para lograr que la apertura de datos sea más eficiente, estandarizada y confiable. Aun así, el informe subraya la necesidad de desarrollar marcos éticos, estándares y estructuras de apoyo que garanticen una adopción responsable y beneficiosa de estas tecnologías.

Valor de los metadatos para los datos de investigación

Strecker, Dorothea (2025). How permanent are metadata for research data? Understanding changes in DataCite metadata. arXiv:2412.05128v2 (13 de diciembre de 2025)

Texto completo

El artículo analiza en profundidad hasta qué punto los metadatos de los datos de investigación pueden considerarse permanentes una vez que se les asigna un identificador persistente (DOI) a través de DataCite. En el contexto de la ciencia abierta, los metadatos son fundamentales porque permiten que los conjuntos de datos sean localizables, accesibles, interpretables y reutilizables. Sin embargo, a diferencia de los catálogos bibliotecarios tradicionales, los metadatos de los datos de investigación se crean y mantienen en entornos muy diversos, con prácticas desiguales y, en muchos casos, con un mantenimiento limitado a lo largo del tiempo. El estudio parte de la hipótesis de que, aunque los DOIs están pensados para ser persistentes, los metadatos que los acompañan pueden cambiar de forma significativa después de su publicación inicial.

Para examinar esta cuestión, el trabajo se centra en el análisis de millones de registros de metadatos asociados a conjuntos de datos publicados en 2021, observando su evolución durante los dos años siguientes. El enfoque metodológico se basa en el uso de información de procedencia de metadatos, lo que permite identificar qué elementos cambian, con qué frecuencia y en qué momento. Este enfoque empírico aporta una visión poco habitual en los estudios sobre metadatos, ya que no se limita a evaluar la calidad en un momento concreto, sino que estudia los cambios a lo largo del tiempo.

Los resultados muestran que la mayoría de los metadatos permanecen estables, lo que indica que, en términos generales, pueden considerarse suficientemente fiables para tareas como análisis bibliométricos o estudios de infraestructura científica. No obstante, una proporción relevante de registros sí experimenta modificaciones. Estas modificaciones suelen ser incrementales y puntuales, y afectan sobre todo a elementos como los nombres de los creadores, las descripciones del conjunto de datos o la incorporación de identificadores relacionados. En cambio, otros campos clave —como el título o el año de publicación— rara vez se modifican, lo que refuerza la idea de una estructura básica bastante fija.

El análisis temporal revela que los cambios se concentran en las primeras fases tras la publicación del DOI, lo que sugiere que muchos ajustes responden a correcciones o mejoras iniciales más que a un mantenimiento continuo a largo plazo. Además, el estudio detecta diferencias notables entre repositorios, lo que indica que no existe una práctica homogénea en la gestión de metadatos: algunos repositorios tienden a revisar y actualizar más sus registros, mientras que otros apenas los modifican una vez publicados.

En la discusión, el artículo plantea una reflexión crítica sobre el concepto de “permanencia” aplicado a los metadatos. Aunque estos son relativamente estables, no muestran una evolución sostenida que acompañe el ciclo de vida completo de los datos de investigación. Esto limita su potencial para reflejar nuevos usos, citas, relaciones o contextos científicos emergentes. El trabajo sugiere que, para mejorar la reutilización y el valor a largo plazo de los datos, sería necesario repensar las políticas y prácticas de mantenimiento de metadatos, promoviendo una actualización más activa y coherente.

Estado de los datos 2025: IA en el presente, desafíos y perspectivas

Interactive Advertising Bureau (IAB), BWG Global, y Transparent Partners. 2025. State of Data 2025: The Now, the Near, and the Next Evolution of AI for Media Campaigns. Nueva York: Interactive Advertising Bureau

Texto completo

El informe State of Data 2025 del Interactive Advertising Bureau (IAB), elaborado en colaboración con BWG Global y Transparent Partners, analiza en profundidad el estado actual y las perspectivas de la inteligencia artificial en el ciclo completo de las campañas de medios digitales. Basado en una encuesta a más de 500 expertos de agencias, marcas y editores, el estudio sostiene que la industria publicitaria se encuentra en un punto de inflexión: aunque la IA lleva años utilizándose para optimizar procesos concretos, su integración plena y transversal sigue siendo limitada. El documento subraya que la irrupción de nuevas formas de IA —especialmente la generativa y la agentic— está transformando su papel, pasando de ser una herramienta de apoyo a convertirse en un sistema capaz de planificar, ejecutar y evaluar campañas de forma casi autónoma.

Uno de los principales hallazgos del informe es que el 70 % de las organizaciones aún no ha logrado una adopción integral de la IA en las fases de planificación, activación y análisis de campañas. No obstante, esta situación es percibida como transitoria: más de la mitad de quienes no han alcanzado ese nivel esperan hacerlo antes de 2026. Las agencias y los editores lideran el proceso de adopción, impulsados por la necesidad de generar eficiencias operativas y escalar soluciones para múltiples clientes, mientras que las marcas avanzan con mayor cautela, condicionadas por restricciones presupuestarias y la exigencia de demostrar retornos claros de la inversión.

El informe destaca que los usos más consolidados de la IA se concentran en la segmentación de audiencias, la agregación y el análisis de datos, la optimización en tiempo real de pujas y presupuestos, y la automatización de tareas repetitivas. Estas aplicaciones son valoradas positivamente por su eficiencia, efectividad y fiabilidad, especialmente en contextos de alto volumen de datos y decisiones operativas rápidas. Sin embargo, el estudio también señala que la IA todavía presenta limitaciones significativas en ámbitos donde se requiere juicio estratégico, visión a largo plazo o consideraciones éticas complejas, como la gestión de contratos, la seguridad de marca o la prevención del sesgo.

Entre los principales obstáculos para la adopción a gran escala, el informe identifica problemas estructurales relacionados con la calidad y la seguridad de los datos, la fragmentación de herramientas tecnológicas, la complejidad de implementación y la falta de conocimientos especializados. De forma reveladora, el temor a la sustitución de empleos aparece como una preocupación secundaria frente a estos desafíos técnicos y organizativos. Además, el documento subraya que solo alrededor de la mitad de las organizaciones está desarrollando estrategias claras —como hojas de ruta, programas de formación o marcos de gobernanza— para afrontar estos retos, lo que podría agrandar la brecha competitiva en el sector.

Frontiers FAIR² Data Management recupera la ciencia perdida: cómo la IA transforma los datos invisibles en conocimiento reutilizable

Frontiers. “90% of Science Is Lost. This New AI Just Found It.” ScienceDaily, October 13, 2025. https://www.sciencedaily.com/releases/2025/10/251013040314.htm

Una gran cantidad de datos de investigación valiosos permanecen sin utilizar, atrapados en laboratorios o perdidos en el tiempo. Frontiers pretende cambiar esta situación con FAIR Data Management, un innovador sistema impulsado por IA que hace que los conjuntos de datos sean reutilizables, verificables y citables. Al unir la curación, el cumplimiento, la revisión por pares y la visualización interactiva en una sola plataforma, FAIR² permite a los científicos compartir su trabajo de forma responsable y obtener reconocimiento.

La gran mayoría de los datos generados nunca se reutilizan ni contribuyen de forma significativa a nuevos descubrimientos. Según la evaluación citada, una proporción abrumadora de datos —hasta un 90 %— queda atrapada en laboratorios, no se comparte adecuadamente o se pierde en archivos inaccesibles, lo que frena el progreso en áreas críticas como la medicina, el cambio climático y la tecnología. Este desperdicio de información no solo reduce la eficiencia de la investigación global, sino que también limita la reproducibilidad de los estudios y la capacidad de construir sobre trabajos previos, una componente fundamental del método científico moderno.

Para enfrentar este desafío, la editorial y organización científica Frontiers ha desarrollado un sistema innovador denominado Frontiers FAIR² Data Management, que combina herramientas avanzadas de inteligencia artificial con principios sólidos de gestión de datos. El objetivo principal de esta plataforma es aplicar de manera automatizada y a gran escala los principios FAIR (findable, accessible, interoperable, reusable — en español: localizable, accesible, interoperable y reutilizable) y expandirlos en un marco que garantice la compatibilidad con sistemas de IA y la integridad ética de los conjuntos de datos. Al integrar procesos de curación, revisión por pares, visualización interactiva y certificación dentro de un único sistema impulsado por IA, FAIR² pretende transformar conjuntos de datos “perdidos” en recursos útiles y citables que puedan impulsar nuevas investigaciones, acelerar descubrimientos y reconocer adecuadamente el trabajo de los investigadores.

El funcionamiento práctico de FAIR² va más allá de simplemente archivar datos. Cuando un científico somete sus resultados a este sistema, no solo se asegura de que los datos sean estructurados y completos, sino que también recibe una salida múltiple: un paquete de datos certificado, un artículo de datos revisado y citable, herramientas de visualización interactiva y un certificado FAIR² que respalda la calidad y reutilización del conjunto. Esta estrategia integral busca eliminar las barreras tradicionales para el intercambio de datos y fomentar una cultura científica en la que cada conjunto de datos tenga el potencial de generar conocimiento adicional, reducir el tiempo entre descubrimiento y aplicación práctica, y asegurar que las inversiones en investigación rindan un impacto mucho mayor del que logran actualmente.

Impulso europeo a los datos abiertos y su continuidad en el programa Digital Europe

European Health and Digital Executive Agency; European Commission (2025). Public open data: CEF Telecom projects at a glance. Publications Office of the European Union. ISBN 978-92-95239-44-9.

Texto completo

Se ofrece una visión general de los proyectos de datos públicos abiertos financiados en el marco del programa CEF Telecom (2014-2020) y los sectores o ámbitos en los que se desarrolló cada proyecto, mostrando algunos proyectos y su impacto. Además, esta ficha informativa tiene por objeto describir cómo el programa Europa Digital tomó el relevo y apoya los espacios comunes europeos de datos. Los datos públicos abiertos son un servicio que facilita y armoniza el acceso a conjuntos de datos creados y gestionados por organismos públicos de toda la UE. El objetivo general es la mejora de las infraestructuras de servicios digitales y el desarrollo de productos y servicios de información basados en la reutilización y la combinación de datos en poder de actores públicos y comerciales de toda la UE. Los datos públicos son toda la información que los organismos públicos producen, recopilan o pagan. Esta información es importante para su reutilización en nuevos productos y servicios. Al abrir los datos públicos, se promovió la participación de los ciudadanos y los expertos en la vida política y social.

La avalancha de bots de inteligencia artificial desafía la sostenibilidad de los repositorios académicos

Washington, Jamie. “AI bots swarm UDSpace for information.” Library, Museums and Press, University of Delaware, 29 de septiembre de 2025. https://library.udel.edu/news/2025/09/29/ai-bots-swarm-udspace/

La Universidad de Delaware ha detectado un fenómeno inesperado en su repositorio institucional, UDSpace: una avalancha de bots de inteligencia artificial que acceden masivamente a su contenido.

Estos bots, diseñados para recopilar información y entrenar modelos de lenguaje, realizan miles de consultas automatizadas que han llegado a ralentizar el sistema y, en algunos casos, a dejarlo temporalmente inaccesible.

El atractivo de UDSpace radica en la gran cantidad de materiales académicos de alta calidad que alberga —tesis, artículos científicos, informes y otros documentos de investigación—, lo que lo convierte en una fuente muy valiosa para las empresas que desarrollan inteligencia artificial. Sin embargo, el patrón de comportamiento de los bots ha resultado extremadamente agresivo: generan peticiones a una velocidad imposible para los usuarios humanos y saturan el servidor, desbordando las capacidades de respuesta del repositorio.

Ante esta situación, el equipo técnico de la biblioteca probó inicialmente medidas básicas como bloquear direcciones IP o responder a los bots fingiendo que los documentos no existían. Pero estas estrategias solo sirvieron para que los ataques se intensificaran. En mayo de 2025, se optó por una solución más avanzada: un sistema que identifica las solicitudes automatizadas y las bloquea en la capa de entrada, antes de que lleguen al servidor. De esta forma, los usuarios legítimos pueden seguir accediendo sin problema mientras los bots reciben un mensaje de acceso prohibido.

Aunque esta estrategia ha logrado reducir la presión sobre UDSpace, el problema refleja una tendencia global. Cada vez más repositorios académicos y bibliotecas digitales se enfrentan a un dilema entre mantener el acceso abierto al conocimiento y proteger sus sistemas de un uso automatizado que amenaza con colapsar sus infraestructuras. El caso de la Universidad de Delaware muestra hasta qué punto el auge de la inteligencia artificial está obligando a las instituciones académicas a repensar la gestión y defensa de sus recursos digitales.