Archivo de la categoría: Legislación

8 de cada 10 europeos no confían en las empresas estadounidenses ni chinas para el manejo de sus datos.

Politico. “8 in 10 Europeans Don’t Trust US, Chinese Firms with Data.” Politico Europe, 2026 https://www.politico.eu/article/8-in-10-europeans-dont-trust-us-chinese-firms-with-data/

El texto pone de relieve una paradoja central del ecosistema digital europeo: una profunda desconfianza hacia actores externos que, sin embargo, siguen siendo esenciales en la infraestructura tecnológica cotidiana. Esta tensión entre dependencia y desconfianza define uno de los grandes retos de Europa en el ámbito digital: cómo garantizar la protección de los datos y la autonomía tecnológica sin quedar rezagada en la competencia global.

Se analiza los resultados de una encuesta reciente —el estudio European Pulse Forum, impulsado por Politico junto a la consultora BeBartlet— que revela un dato contundente: más de ocho de cada diez europeos desconfían de las empresas tecnológicas estadounidenses y chinas a la hora de gestionar sus datos personales. Este nivel de desconfianza no es homogéneo, sino que alcanza cifras especialmente elevadas en el caso de China (en torno al 90 % o más) y también muy altas respecto a Estados Unidos (más del 80 %), lo que pone de manifiesto una crisis de confianza generalizada hacia las grandes potencias tecnológicas globales.

El estudio, basado en miles de encuestas realizadas en países clave como Alemania, Francia, España, Italia, Polonia y Bélgica, muestra que la percepción de riesgo está profundamente vinculada a factores geopolíticos y legales. Uno de los principales motivos de esta desconfianza es la creencia de que las empresas de estos países pueden verse obligadas a entregar datos a sus respectivos gobiernos en virtud de sus leyes nacionales de seguridad. Esta posibilidad genera inquietud entre los ciudadanos europeos, que perciben una falta de control sobre el uso final de su información personal, especialmente en contextos donde la vigilancia estatal o el acceso gubernamental a datos privados es una preocupación creciente.

En contraste, las empresas tecnológicas europeas generan un nivel de confianza relativamente mayor, aunque no mayoritario: aproximadamente la mitad de los encuestados afirma confiar en ellas. También los gobiernos nacionales obtienen niveles de confianza moderados, lo que sugiere que, aunque existe una preferencia por lo “propio”, esta no implica una confianza plena. Este matiz es importante porque indica que el problema no es únicamente externo (EE. UU. o China), sino que forma parte de una preocupación más amplia sobre la privacidad, el control de los datos y la transparencia en la era digital.

El contexto normativo europeo desempeña un papel clave en esta percepción. La Unión Europea cuenta con uno de los marcos regulatorios más estrictos del mundo en materia de protección de datos, encabezado por el Reglamento General de Protección de Datos (GDPR). Este sistema no solo establece altos estándares para las empresas europeas, sino que también obliga a las compañías extranjeras a cumplirlos si operan con datos de ciudadanos europeos. Sin embargo, la coexistencia de estas normas con legislaciones nacionales de terceros países genera tensiones legales y dudas sobre su efectividad real, especialmente cuando entran en conflicto con leyes de seguridad nacional fuera de la UE.

El artículo también sugiere que esta desconfianza tiene implicaciones estratégicas profundas. En particular, refuerza el impulso europeo hacia la llamada “soberanía digital”, es decir, la necesidad de desarrollar infraestructuras tecnológicas propias en ámbitos como la computación en la nube, la inteligencia artificial o las telecomunicaciones. La dependencia actual de proveedores estadounidenses —dominantes en el mercado— contrasta con el deseo político y social de reducir esa dependencia, aunque en la práctica este cambio resulta complejo debido a factores económicos, técnicos y de mercado.

El trabajo creado íntegramente por IA no tiene derechos de autor

The AI School Librarian, «AI Work Has No Owner. Now What Do We Teach? A Supreme Court decision forces educators to rethink originality in the age of AI«, The AI School Librarians Newsletter (blog), 24 de marzo de 2026, https://aischoollibrarian.substack.com/p/the-supreme-court-drew-a-line-on.

La reciente negativa de la Corte Suprema de los Estados Unidos a escuchar el caso del científico informático Stephen Thaler, quien intentó registrar los derechos de autor de una obra de arte generada por un sistema de inteligencia artificial, ha establecido una realidad legal ineludible: el trabajo creado íntegramente por IA no tiene derechos de autor.

Los tribunales inferiores han dictaminado consistentemente que la ley de derechos de autor protege exclusivamente la autoría humana, y que una máquina no puede ser considerada autora sin un aporte creativo humano significativo. Esto significa que las obras generadas por IA carecen actualmente de un autor legal, una realidad que choca directamente con las prácticas educativas contemporáneas.

Existe una profunda desalineación entre este estándar legal y lo que ocurre en las escuelas. Actualmente, los educadores están calificando trabajos que, bajo la ley, no tienen un autor legítimo. Si un estudiante envía una tarea generada completamente por IA, no es el autor legal de la misma. Además, la habilidad de escribir indicaciones (hacer «promptis») no equivale a la autoría creativa. Muchas de las tareas escolares tradicionales están desactualizadas frente a esta realidad, ya que pueden ser completadas fácilmente por herramientas de IA, dando como resultado trabajos pulidos pero con una autoría humana nula o muy dudosa.

Este escenario no implica que la IA deba ser prohibida en las escuelas, sino que debe usarse como una herramienta donde la aportación del estudiante siga siendo el núcleo del trabajo. Para evaluar esto, los educadores deben implementar una «nueva prueba de autoría» haciendo preguntas clave: quién realizó el pensamiento crítico, quién tomó las decisiones principales y si el estudiante es capaz de explicar el proceso de creación. Sin embargo, la mayoría de las políticas de los distritos escolares se centran erróneamente en hacer frente a las trampas o en el uso de software de detección, ignorando el problema fundamental de la autoría. Las políticas que no abordan qué constituye el trabajo original de un estudiante están destinadas a volverse obsoletas.

Para adaptarse a esta nueva era, la educación debe redefinir lo que cuenta como aprendizaje. El artículo propone cuatro cambios fundamentales: primero, cambiar el enfoque del producto final al proceso, exigiendo a los estudiantes que demuestren cómo llegaron a sus resultados; segundo, definir claramente qué se espera de la contribución humana en cada tarea; tercero, normalizar y enseñar la divulgación ética del uso de la IA, donde los alumnos declaren qué herramientas usaron y qué pensamiento es propio; y cuarto, rediseñar intencionalmente las tareas para que requieran interpretación, razonamiento y revisión. En conclusión, aunque la inteligencia artificial llegó para quedarse y generar contenido de forma instantánea, no puede reemplazar la necesidad fundamental de la autoría y el pensamiento humano en el aprendizaje.

¿Quién posee el conocimiento? Copyright, IA Generativa y el futuro de la publicación académica

Kochetkov, Dmitry. 2025. “Who Owns the Knowledge? Copyright, GenAI, and the Future of Academic Publishing.” arXiv, noviembre 24, 2025. https://doi.org/10.48550/arXiv.2511.21755

El documento aborda el impacto profundo y multifacético de la inteligencia artificial generativa (GenAI) y los grandes modelos de lenguaje (LLMs) en la investigación científica y el sistema de publicación académica. Las capacidades de estas tecnologías, señala el autor, representan un cambio de paradigma que ofrece oportunidades revolucionarias para acelerar descubrimiento, análisis y difusión del conocimiento, pero al mismo tiempo plantea desafíos éticos, legales y regulatorios significativos que no han sido adecuadamente resueltos por los marcos jurídicos existentes en las principales jurisdicciones del mundo.

Un foco central del análisis es el reto que GenAI plantea para las leyes de copyright tradicionales y para los principios de la ciencia abierta. Kochetkov argumenta que las normativas actuales en países como Estados Unidos, China, la Unión Europea y el Reino Unido, aunque pretenden fomentar la innovación, dejan vacíos importantes específicamente en relación con el uso de obras protegidas por derechos de autor y de resultados de ciencia abierta para entrenar modelos de IA. Es decir, las normas pensadas para regular la reutilización humana de contenidos no cubren adecuadamente la ingestión masiva de textos científicos por parte de algoritmos de aprendizaje automático.

El autor también discute las limitaciones de los mecanismos de licencia existentes, incluyendo las licencias de acceso abierto como las de Creative Commons. Aunque estas licencias han sido útiles para permitir la reutilización y difusión entre personas, no están diseñadas para regular el entrenamiento de GenAI, que implica procesamiento de datos a gran escala y sin intervención humana directa. Esto se traduce, según el artículo, en una falta de atribución y reconocimiento de la autoría real de los contenidos, lo cual socava nociones académicas fundamentales de originalidad, crédito y responsabilidad intelectual.

Frente a esto, Kochetkov propone una crítica al uso automático de figuras legales como la “excepción de uso justo” (“fair use”) en Estados Unidos para justificar el entrenamiento de modelos de IA con textos académicos. En su análisis, depender de este enfoque es problemático porque no respeta suficientemente los derechos de los creadores originales —especialmente cuando los modelos son desarrollados o explotados comercialmente o cuando producen derivados opacos sin atribución clara— y podría favorecer la consolidación de mercados oligopólicos donde prevalecen intereses comerciales sobre la integridad científica y la equidad en la producción de conocimiento.

Como alternativa, el autor aboga por que los autores mantengan derechos explícitos para rechazar el uso de sus obras en procesos de entrenamiento de IA, independientemente de la doctrina de uso justo, y que las universidades jueguen un papel más activo en la gobernanza responsable de IA. Las instituciones académicas, sostiene, están en una posición única para desarrollar políticas internas que reflejen los valores de integridad científica, transparencia y justicia epistémica, negociando derechos que incluyan cláusulas específicas sobre IA.

Finalmente, Kochetkov llama a un esfuerzo legislativo internacional armonizado que pueda integrar coherentemente derechos de autor, ciencia abierta y el uso de GenAI en la investigación académica. Una regulación coordinada a nivel global ayudaría a proteger la propiedad intelectual, garantizar transparencia en los datos de entrenamiento, y evitar que la infraestructura de conocimiento científico quede dominada por intereses comerciales en detrimento del acceso equitativo y la integridad de la producción académica.

En conjunto, el artículo plantea que la revolución de la IA en la ciencia requiere no solo innovación tecnológica, sino también reformas profundas en las políticas de derechos de autor, licencias abiertas y gobernanza institucional, para asegurar que la transformación digital refuerce —y no erosione— los principios fundamentales de la investigación científica y la difusión del saber.

Reino Unido busca abrir un nuevo debate por los derechos de autor entre la IA y los creadores

Britain seeks ‘reset’ in copyright battle between AI and creators Reuters, 13 de enero de 2026 https://www.reuters.com/business/media-telecom/britain-seeks-reset-copyright-battle-between-ai-creators-2026-01-13/

El gobierno del Reino Unido ha anunciado su intención de replantear profundamente su enfoque sobre las normas de derechos de autor en relación con la inteligencia artificial (IA), en respuesta a tensiones crecientes entre los desarrolladores de IA y los creadores de contenido tradicional.

La secretaria de Tecnología, Liz Kendall, explicó que se busca un “reinicio” de las propuestas legislativas que hasta ahora habían intentado modernizar la legislación de derechos de autor para facilitar el entrenamiento de sistemas de IA con obras existentes. Esta revisión se presentará oficialmente en un informe programado para marzo de 2026.

Hasta el momento, el planteamiento inicial del gobierno —respaldado por el primer ministro Keir Starmer como parte de su objetivo de posicionar al país como una potencia en IA— pretendía relajar las leyes para permitir el uso de cualquier material al que los desarrolladores tuvieran acceso legal, dejando a los creadores la opción de excluir sus obras si así lo deseaban. Sin embargo, esta propuesta de sistema de exclusión (opt-out) fue ampliamente criticada por los sectores creativos, que consideraron insuficiente la protección de sus derechos y la compensación por el uso de sus trabajos en el entrenamiento de modelos de IA.

Tanto Kendall como la ministra de Cultura, Lisa Nandy, reconocieron ante una comisión parlamentaria que el enfoque inicial fue un error y que los principales temores de la industria —garantizar una retribución justa por su trabajo y mantener el control sobre sus creaciones— deben ser el centro de cualquier reforma futura. La intención es adoptar una estrategia más matizada y colaborativa con diversos segmentos del sector creativo para afrontar los desafíos legales y existenciales que plantea la actual interacción entre los sistemas de IA y la propiedad intelectual tradicional.

Los proyectos de ley que provocan la prohibición de libros

PEN America. The Bills Igniting Book Bans: Evolving State Legislative Efforts to Censor Public School Libraries, 18 de diciembre de 2025. Disponible en: https://pen.org/report/the-bills-igniting-book-bans/

El informe The Bills Igniting Book Bans de PEN America documenta cómo una serie de leyes estatales en Estados Unidos están impulsando prohibiciones de libros en escuelas públicas, transformando lo que antes eran acciones locales en una tendencia legislativa más amplia. Desde 2021, esta organización —dedicada a defender la libertad de expresión— ha registrado casi 23 000 instancias de libros removidos de bibliotecas escolares, un fenómeno que ha llegado a normalizarse debido a la presión de grupos políticos organizados y a campañas que argumentan falsamente que ciertas historias o contenidos representan un peligro para los estudiantes. Estas acciones se engloban en lo que PEN denomina la “Ed Scare”, una ola de miedo y confrontación orientada a censurar temas relacionados con raza, género, sexualidad y contenidos percibidos como “controvertidos” en el currículo escolar y las colecciones de bibliotecas.

El informe detalla cómo estas prohibiciones no surgen de decisiones aisladas de juntas escolares, sino que leyes estatales específicas han servido como motor para que los distritos retiren libros. Estas leyes usan eufemismos como “gag orders educativos” (órdenes de silencio) y prohíben hablar de ciertos conceptos históricos o identitarios en las aulas, lo que a menudo termina influenciando la eliminación de libros de las bibliotecas aunque los textos en cuestión no infrinjan directamente la normativa. Ejemplos concretos incluyen leyes en estados como Florida, que primero limitó cómo se enseñan temas de raza y orientación sexual y luego se extendió a contenidos explícitos; y Missouri, donde una ley que criminalizaba la entrega de ciertos materiales a estudiantes llevó a la retirada de centenares de libros. En muchos casos, la amenaza de sanciones legales, multas o incluso la revocación de licencias ha generado una cultura de sobrecumplimiento entre bibliotecarios y educadores que prefieren retirar libros antes que enfrentar riesgos legales o presiones políticas.

Un punto central es que la mayoría de estas leyes usan lenguaje amplio, indefinido o vago, lo que da lugar a interpretaciones exageradas que amplían su alcance más allá de lo pretendido por los legisladores. Por ejemplo, algunas estipulan que cualquier contenido “sexual” o “ofensivo” debe ser removido de inmediato, aunque no cumpla con el criterio legal tradicional de obscenidad (como el Miller test del derecho estadounidense). Esto ha llevado a retiradas de libros que abordan temas de consentimiento, pubertad, abuso o representaciones de diversidad de identidad, aunque estos textos tengan valor literario, educativo o social. Otro efecto importante es la estigmatización de historias con personajes LGBTQ+ y personas de color, ya que muchas leyes están formuladas de manera que estas narrativas son automáticamente sospechosas o “no apropiadas” para entornos escolares.

El informe también describe las consecuencias educativas y sociales de estas leyes: la remoción masiva de títulos restringe el acceso de los estudiantes a una educación diversa, limita el desarrollo de habilidades lectoras y puede afectar negativamente la salud mental de jóvenes de identidades marginadas. PEN America señala que, aunque algunos estados han adoptado leyes de protección del derecho a leer (como Rhode Island, Colorado o Connecticut), muchos otros siguen promoviendo normas que debilitan la autonomía de las bibliotecas y socavan prácticas profesionales en educación. Frente a este contexto, la organización concluye que es esencial resistir estas políticas, apelando a interpretaciones legales claras, acciones comunitarias y defensa pública para preservar la libertad de leer y garantizar que los estudiantes tengan acceso a una amplia gama de historias, experiencias y perspectivas.

Datos clave:

  • PEN America ha registrado casi 23 000 instancias de prohibiciones de libros en escuelas públicas desde 2021. Estas cifras reflejan cómo se ha convertido en un fenómeno sistemático y no solo en acciones aisladas de juntas escolares.
  • 51 leyes y políticas estatales (entre 2021 y 2025) han sido identificadas como directamente vinculadas a prohibiciones de libros en las escuelas. Estas incluyen leyes con “órdenes de silencio educativo” o restricciones explícitas sobre temas de identidad, raza, género y sexualidad.
  • Restricciones sobre enseñanza de temas como raza, género o identidad LGBTQ+ (educational gag orders).
  • Normas amplias sobre “contenido sexual” o “obsceno” que van más allá de las definiciones legales tradicionales, generando miedo y sobrecumplimiento en distritos escolares.
  • Estados como Florida, Texas y Tennessee reportan cifras particularmente altas de prohibiciones. Por ejemplo, en el año escolar 2024-2025, Texas reportó 1 781 libros restringidos, ubicándose como uno de los estados con mayor número de prohibiciones

ALA, ARL y CARL se unen a la lucha para defender la memoria futura

Michael Menna (2025, 3 diciembre). ALA, ARL, and CARL Join the Fight to Defend Our Future Memory. Archivo de blog de Internet Archive https://blog.archive.org/2025/12/03/ala-arl-and-carl-join-the-fight-to-defend-our-future-memory/

Las tres grandes organizaciones bibliotecarias de Norteamérica —American Library Association (ALA), Association of Research Libraries (ARL) y Canadian Association of Research Libraries (CARL) — han decidido adherirse oficialmente a la declaración de los “Cuatro Derechos Digitales para Instituciones de Memoria” impulsada por la campaña Our Future Memory

La adhesión de estas asociaciones supone un respaldo significativo: representan miles de bibliotecas públicas y universitarias, además de incluir tres de las bibliotecas federales y parlamentarias de Canadá.

Según CARL, citada en el artículo, el panorama digital —con materiales disponibles únicamente en plataformas en línea— amenaza la capacidad de estas instituciones para cumplir su misión histórica de recolectar, preservar y poner a disposición obras para futuras generaciones. Si no se garantiza su derecho a operar en el entorno digital, muchos trabajos académicos y culturales podrían perderse para siempre.

El artículo recuerda que la declaración de los “Cuatro Derechos Digitales” no solicita nada más allá de lo básico y necesario para que bibliotecas, archivos, museos y otras instituciones de patrimonio sigan funcionando como lo hicieron en el mundo analógico, pero adaptados a un entorno digital —es decir: poder recolectar contenido digital, preservarlo, ofrecer acceso controlado, y cooperar con otras instituciones.

En pocas palabras, los derechos y responsabilidades que las instituciones de la memoria siempre han disfrutado fuera de línea también deben protegerse en línea. Para lograr este objetivo, las bibliotecas, archivos y museos deben tener los derechos legales y la capacidad práctica para:

  • Recopilar materiales en formato digital, ya sea mediante la digitalización de colecciones físicas, la compra en el mercado libre o por otros medios legales;
  • Preservar los materiales digitales y, cuando sea necesario, repararlos, realizar copias de seguridad o reformatearlos, para garantizar su existencia y disponibilidad a largo plazo;
  • Proporcionar acceso controlado a los materiales digitales para técnicas de investigación avanzadas y para atender a los usuarios dondequiera que se encuentren: en línea;
  • Cooperar con otras instituciones de la memoria, compartiendo o transfiriendo colecciones digitales, para facilitar la preservación y el acceso.

Con la incorporación de ALA, ARL y CARL, la coalición global que defiende estos derechos digitales gana aún más fuerza: se amplía su representatividad, lo que puede incidir con mayor peso en políticas, normativas y decisiones sobre preservación del patrimonio digital.

los derechos de autor en la era de la Inteligencia Artificial generativa

Chaudhry, Uzma; Borda, Ann; Forbes, Stephanie; Jones, Joe; Perini, Antonella Maia; Rättzén, Mattias; Stewart-David, Mary. Creative Grey Zones: Copyright in the Age of Hybridity. The Alan Turing Institute, 2025. https://www.turing.ac.uk/news/publications/creative-grey-zones-copyright-age-hybridity

El informe analiza cómo la IA generativa tensiona las leyes de derechos de autor al usar obras protegidas para entrenar modelos sin consentimiento claro. Identifica “zonas grises” donde se mezclan autoría humana, producción automatizada y vacíos legales. Propone comprender estos dilemas éticos, técnicos y jurídicos para guiar futuras reformas del copyright.

El informe Creative Grey Zones: Copyright in the Age of Hybridity del The Alan Turing Institute examina cómo el auge de la inteligencia artificial generativa está forzando una reevaluación global de las leyes de derecho de autor. Parte del problema radica en que los modelos de IA se entrenan utilizando enormes cantidades de material protegido por derechos de autor —sin autorización explícita de los titulares—, y luego generan nuevos contenidos derivados de ese entrenamiento. Este uso masivo pone en tensión la eficacia de los marcos legales tradicionales que regulan la autoría

El informe identifica cuatro “zonas grises” donde convergen ética, derecho, estándares técnicos y actores híbridos (usuarios, desarrolladores, titulares de derechos, reguladores), y en las que la frontera entre creación humana y producción automatizada se vuelve difusa.

Su propósito es mapear este panorama complejo —no dictar soluciones definitivas—, aportando un análisis multidisciplinar que permita un diálogo informado para futuras reformas normativas.

Entre las tensiones destacadas, están: la dificultad de definir cuándo una obra generada o asistida por IA sigue siendo fruto de creatividad humana; los dilemas sobre consentimiento o remuneración a los autores originales cuyos trabajos alimentan los modelos; y la necesidad de adaptar las leyes de copyright para incluir nuevos tipos de “stakeholders híbridos”. El informe subraya que estos retos no son puramente técnicos sino profundamente sociales y legales, lo que exige repensar las bases mismas de la autoría y la protección intelectual en la era de la IA.

¿Quién es el propietario de qué en lo que respecta a la IA y la propiedad intelectual?

Sharma, Seemantani. 2025. “Who owns what when it comes to AI and intellectual property?World Economic Forum, octubre 2025. https://www.weforum.org/stories/2025/10/intellectual-property-ai-human-creativity-ownership/

La cuestión de si las creaciones generadas por inteligencia artificial (IA) pueden considerarse objeto de propiedad intelectual, cuestionando si una IA puede ser reconocida como “autora” o “inventora”. Señala que los sistemas actuales de IA, por más sofisticados que sean, no tienen conciencia, experiencia subjetiva ni intencionalidad, lo que —según las teorías tradicionales de derechos de autor y patentes— impide que sean titulares de derechos.

La IA ya genera arte, diseña medicamentos e imita la imaginación humana. Esto plantea una pregunta fundamental. ¿Quién, si es que hay alguien, es el verdadero propietario de estas creaciones? ¿Se puede considerar a la IA como autora o inventora? ¿O los derechos pertenecen exclusivamente a los seres humanos?

Históricamente, los regímenes de propiedad intelectual (derechos de autor, patentes, marcas) se han fundamentado en la idea de creatividad humana: un autor humano ejerce un trabajo intelectual que refleja su personalidad, identidad o esfuerzo mental. Como una máquina no realiza ese tipo de “labor” en sentido humano —no tiene un “yo”, emociones o conciencia—, la ley hasta ahora considera que los resultados generados por IA pertenecen, en última instancia, a personas humanas, si es que hay un autor humano que haya intervenido.

El artículo destaca que muchas de las creaciones producidas por IA —arte, diseños, descubrimientos— pueden ser sorprendentes y funcionales, pero carecen del contexto emocional, intencional y experiencial que caracteriza la creatividad humana. Por tanto, aunque la IA pueda “producir” cosas, no puede reemplazar la acción creativa humana. En consecuencia, seguir otorgando la autoría a seres humanos protege la responsabilidad, la dignidad, la identidad y la justicia en el reconocimiento del trabajo intelectual.

Sin embargo, los autores del artículo advierten de que la creciente sofisticación de la IA y su uso masivo para generar contenido plantea un desafío real al marco legal tradicional. Podría ser necesario repensar la noción de propiedad intelectual: considerar modelos de propiedad compartida, nuevas categorías legales o marcos normativos que reconozcan la colaboración entre humanos y máquinas, sin perder de vista la protección de los derechos humanos y creativos. La decisión que tomemos hoy definirá el futuro de la autoría, la innovación y el valor de la creatividad en la era de la IA.

Regulación de la IA: panoramas en EE. UU., la Unión Europea y China e implicaciones para el mundo de las bibliotecas

Lo, L. S. (2025). Artificial intelligence regulation matures: Landscapes of the USA, European Union, and China. IFLA Journal0(0). https://doi.org/10.1177/03400352251384915

Se analiza la evolución reciente de las políticas de regulación de la inteligencia artificial (IA) en tres grandes jurisdicciones: Estados Unidos, la Unión Europea y China. Lo sostiene que, entre 2023 y julio de 2025, dichas regiones han transitado desde meras declaraciones programáticas hacia mecanismos reguladores concretos y operativos.

EE. UU.: Orden Ejecutiva 14110 (revocada en enero de 2025); tres órdenes ejecutivas del 23 de julio de 2025; implementación por agencias

UE: Ley de IA; aplicación escalonada; Oficina Europea de IA; Código de Buenas Prácticas para IA de Propósito General

China: Medidas Provisionales de 2023; registro; revisión de seguridad; directrices de marca de agua; agenda multilateral 2025

En el caso de Estados Unidos, la transformación normativa se evidencia en el paso del Executive Order 14110 (un instrumento más declarativo) hacia tres órdenes ejecutivas emitidas en julio de 2025. Estas nuevas órdenes se centran en aspectos críticos como la autorización de centros de datos (“data-center permitting”), la promoción de exportaciones tecnológicas y una “neutralidad de adquisiciones” (“procurement neutrality”), lo que indica un cambio hacia una regulación práctica y ligada a la infraestructura y a las políticas industriales.

Por su parte, la Unión Europea ha completado el proceso legislativo del AI Act, el cual comenzó a aplicarse gradualmente en 2025, junto con la emisión de un código de buenas prácticas para las IA de propósito general (“general-purpose AI”). Esto supone que la UE no solo planea normas, sino que ya está desplegando mecanismos normativos concretos para supervisar y guiar el desarrollo de IA segura, transparente e inclusiva.

China, por último, ha reforzado sus controles internos sobre las IA generativas orientadas al público (“public-facing generative AI”), al tiempo que ha lanzado un “Plan de acción global para la gobernanza de la IA” con una ambición internacional. Este plan incluye cooperación a través de organismos como Naciones Unidas, desarrollo de estándares y programas de fortalecimiento de capacidades en otros países, lo que refleja su estrategia tanto doméstica como global.

Además de describir estas trayectorias divergentes —EE. UU. más centrado en la infraestructura y el mercado, la UE más reglamentaria y basada en derechos, y China con una doble vertiente reguladora y diplomática—, Lo discute las implicaciones para el mundo de las bibliotecas. Subraya la necesidad de reforzar la rendición de cuentas en la adquisición de tecnología, exigir datos de entrenamiento bien descritos y legales, y fomentar la alfabetización en IA como servicio esencial para las comunidades. Por último, identifica convergencias emergentes entre las tres regiones en torno a la seguridad de la IA, la transparencia y la inclusión, aunque reconoce que los métodos regulatorios y su postura internacional divergen y esos matices definirán el futuro de la gobernanza de la IA.

Código de Buenas Prácticas en el Uso Justo para Bibliotecas universitarias y de Investigación

Association of Research Libraries, Code of Best Practices in Fair Use for Academic and Research Libraries (Washington, DC: ARL, enero de 2012)

Texto completo

El documento presenta un conjunto de buenas prácticas desarrolladas por y para bibliotecas académicas e investigadoras en Estados Unidos para orientar la aplicación de la doctrina de “uso justo” (fair use) en el entorno bibliotecario.

Desde su introducción, el texto explica que el uso justo es un derecho flexible que permite el uso de materiales protegidos por derechos de autor sin permiso ni pago bajo ciertas circunstancias, cuando el beneficio social o cultural prevalece.

Reconoce que la ley de derechos de autor no ofrece fórmulas rígidas y que la evaluación de si un uso es justo depende del contexto, los hechos, las normas del campo y del juicio de buena fe.

El código organiza su orientación alrededor de ocho situaciones recurrentes en las que las bibliotecas académicas pueden aplicar el uso justo. Estas situaciones incluyen, entre otras: facilitar el acceso a materiales de la biblioteca mediante tecnologías digitales para la enseñanza y el aprendizaje; emplear fragmentos de la colección para exposiciones o difusión de actividades de la biblioteca; digitalizar materiales en riesgo; poner a disposición colecciones especiales archivísticas en formato digital; reproducir materiales para usuarios con discapacidades; preservar la integridad de los trabajos depositados en repositorios institucionales; crear bases de datos para investigación no consumptiva (por ejemplo, búsqueda, análisis de datos); y recolectar material publicado en la web para uso académico.

Para cada situación, el código ofrece un principio (que afirma que en esa circunstancia es “uso justo”), junto con limitaciones (factores que reducen la fuerza del argumento de uso justo) y mejoras (prácticas que fortalecen dicho argumento). Por ejemplo, en el contexto de la enseñanza digital, se sugiere que el acceso esté limitado a estudiantes matriculados, durante la duración del curso, con atribución completa, y que se ofrezca justificación pedagógica por parte del instructor.

Asimismo, el documento destaca que su objetivo no es restringir la aplicación del uso justo, sino habilitarla dentro del marco de riesgo razonable, ayudando a las bibliotecas a desarrollar una estrategia de gestión de riesgos basada en criterios comunitarios.
Association of Research Libraries

En definitiva, este código se presenta como una herramienta de apoyo para bibliotecas universitarias e investigadoras, aportando un consenso profesional sobre cómo pueden ejercer el uso justo con responsabilidad, transparencia y coherencia institucional.