Archivo de la etiqueta: Legislación

¿Quién posee el conocimiento? Copyright, IA Generativa y el futuro de la publicación académica

Kochetkov, Dmitry. 2025. “Who Owns the Knowledge? Copyright, GenAI, and the Future of Academic Publishing.” arXiv, noviembre 24, 2025. https://doi.org/10.48550/arXiv.2511.21755

El documento aborda el impacto profundo y multifacético de la inteligencia artificial generativa (GenAI) y los grandes modelos de lenguaje (LLMs) en la investigación científica y el sistema de publicación académica. Las capacidades de estas tecnologías, señala el autor, representan un cambio de paradigma que ofrece oportunidades revolucionarias para acelerar descubrimiento, análisis y difusión del conocimiento, pero al mismo tiempo plantea desafíos éticos, legales y regulatorios significativos que no han sido adecuadamente resueltos por los marcos jurídicos existentes en las principales jurisdicciones del mundo.

Un foco central del análisis es el reto que GenAI plantea para las leyes de copyright tradicionales y para los principios de la ciencia abierta. Kochetkov argumenta que las normativas actuales en países como Estados Unidos, China, la Unión Europea y el Reino Unido, aunque pretenden fomentar la innovación, dejan vacíos importantes específicamente en relación con el uso de obras protegidas por derechos de autor y de resultados de ciencia abierta para entrenar modelos de IA. Es decir, las normas pensadas para regular la reutilización humana de contenidos no cubren adecuadamente la ingestión masiva de textos científicos por parte de algoritmos de aprendizaje automático.

El autor también discute las limitaciones de los mecanismos de licencia existentes, incluyendo las licencias de acceso abierto como las de Creative Commons. Aunque estas licencias han sido útiles para permitir la reutilización y difusión entre personas, no están diseñadas para regular el entrenamiento de GenAI, que implica procesamiento de datos a gran escala y sin intervención humana directa. Esto se traduce, según el artículo, en una falta de atribución y reconocimiento de la autoría real de los contenidos, lo cual socava nociones académicas fundamentales de originalidad, crédito y responsabilidad intelectual.

Frente a esto, Kochetkov propone una crítica al uso automático de figuras legales como la “excepción de uso justo” (“fair use”) en Estados Unidos para justificar el entrenamiento de modelos de IA con textos académicos. En su análisis, depender de este enfoque es problemático porque no respeta suficientemente los derechos de los creadores originales —especialmente cuando los modelos son desarrollados o explotados comercialmente o cuando producen derivados opacos sin atribución clara— y podría favorecer la consolidación de mercados oligopólicos donde prevalecen intereses comerciales sobre la integridad científica y la equidad en la producción de conocimiento.

Como alternativa, el autor aboga por que los autores mantengan derechos explícitos para rechazar el uso de sus obras en procesos de entrenamiento de IA, independientemente de la doctrina de uso justo, y que las universidades jueguen un papel más activo en la gobernanza responsable de IA. Las instituciones académicas, sostiene, están en una posición única para desarrollar políticas internas que reflejen los valores de integridad científica, transparencia y justicia epistémica, negociando derechos que incluyan cláusulas específicas sobre IA.

Finalmente, Kochetkov llama a un esfuerzo legislativo internacional armonizado que pueda integrar coherentemente derechos de autor, ciencia abierta y el uso de GenAI en la investigación académica. Una regulación coordinada a nivel global ayudaría a proteger la propiedad intelectual, garantizar transparencia en los datos de entrenamiento, y evitar que la infraestructura de conocimiento científico quede dominada por intereses comerciales en detrimento del acceso equitativo y la integridad de la producción académica.

En conjunto, el artículo plantea que la revolución de la IA en la ciencia requiere no solo innovación tecnológica, sino también reformas profundas en las políticas de derechos de autor, licencias abiertas y gobernanza institucional, para asegurar que la transformación digital refuerce —y no erosione— los principios fundamentales de la investigación científica y la difusión del saber.

Posibles cargos criminales contra bibliotecarios en Georgia por poner a disposición de los usuarios “materiales dañinos”

Georgia Recorder. “Georgia Librarians Could Face Criminal Charges for ‘Harmful Materials’.Georgia Recorder, 3 de febrero de 2026. https://georgiarecorder.com/2026/02/03/georgia-librarians-could-face-criminal-charges-for-harmful-materials/

En el estado de Estado de Georgia (EE. UU.) se esta produciendo una controversia legislativa importante en el en torno a un proyecto de ley que podría criminalizar la labor de los bibliotecarios si se determina que han distribuido materiales considerados “dañinos” para menores.

La medida, que avanza en la legislatura estatal, ha generado alarma entre profesionales de bibliotecas, defensores de la libertad de expresión y grupos de educación por las posibles implicaciones que tendría sobre el acceso a la información y la gestión de colecciones en bibliotecas públicas y escolares.

La iniciativa se vincula directamente con el Senate Bill 74, una propuesta legislativa que busca eliminar una antigua exención legal que protege a los bibliotecarios de ser acusados penalmente por distribuir materiales considerados dañinos para menores bajo el código penal de Georgia. Actualmente, las bibliotecas públicas y escolares están exentas de estas penalizaciones, pero el proyecto pretende que esa protección desaparezca o se limite. Si el proyecto prospera, cualquier libro o recurso que un consejo escolar o de biblioteca considere “dañino” podría exponer a los bibliotecarios a cargos criminales, incluso aunque actúen en el marco de políticas de su institución.

Los opositores del proyecto han expresado preocupaciones sobre el efecto disuasorio que podría tener esta medida: una amenaza de responsabilidad penal que podría empujar a las bibliotecas a autocensurarse, retirar libros polémicos o limitar el acceso a materiales educativos valiosos por miedo a consecuencias legales. Estas críticas señalan que conceptos como “dañino” son vagos y subjetivos, lo que podría facilitar la eliminación de obras sobre temas de sexualidad, conciencia de género o historia cultural, infringiendo la libertad académica y el derecho al acceso a la información. Por su parte, los defensores argumentan que el objetivo del proyecto es proteger a los niños de contenidos inadecuados, permitiendo que los materiales considerados inapropiados se coloquen en secciones restringidas para adultos.

La noticia sitúa a Georgia en el centro de un debate intenso entre protección infantil, libertad de expresión y rol de las bibliotecas en la sociedad. El avance de la propuesta ha llevado a bibliotecarios, asociaciones educativas y algunos legisladores a pedir un análisis más profundo de sus posibles efectos, y sigue siendo objeto de seguimiento mientras continúa su tramitación en el Legislativo estatal.

Acuerdo histórico de 1.500 millones de dólares entre Anthropic y autores por uso no autorizado de libros por su inteligencia artificial

Ortutay, Barbara. “Judge Approves $1.5 Billion Copyright Settlement Between AI Company Anthropic and Authors.” AP News, 25 de septiembre de 2025. https://apnews.com/article/anthropic-authors-copyright-judge-artificial-intelligence-9643064e847a5e88ef6ee8b620b3a44c

Un juez aprobó un acuerdo de 1.500 millones de dólares entre Anthropic y autores cuyos libros fueron usados sin permiso para entrenar su IA. Cada obra recibirá aproximadamente 3.000 dólares, aunque no cubre libros futuros. El caso sienta un precedente clave en la protección de derechos de autor frente a tecnologías de inteligencia artificial.

El 25 de septiembre de 2025, un juez federal aprobó preliminarmente un acuerdo histórico de 1.500 millones de dólares entre la empresa de inteligencia artificial Anthropic y un grupo de autores y editores. La disputa surgió cuando los autores denunciaron que la compañía había utilizado sin autorización cerca de 465.000 libros protegidos por derechos de autor para entrenar su modelo de lenguaje Claude. Este acuerdo prevé una compensación de aproximadamente 3.000 dólares por cada libro afectado, aunque no contempla obras que se publiquen en el futuro. El juez destacó la complejidad de distribuir los fondos de manera justa, pero consideró que el acuerdo era razonable y proporcionado para las partes involucradas.

La demanda original fue presentada por varios escritores que alegaban que Anthropic había recopilado ilegalmente millones de libros, almacenándolos en una biblioteca central para alimentar su sistema de inteligencia artificial. A pesar de que en una decisión previa se había reconocido que el uso de ciertos libros para entrenamiento podía considerarse un uso justo, el juez determinó que la compañía sí había infringido los derechos de autor al almacenar y explotar un volumen tan grande de obras sin permiso. Este punto resultó clave para la aprobación del acuerdo, al establecer un reconocimiento de responsabilidad por parte de la empresa.

Este acuerdo marca un precedente importante en el ámbito de la inteligencia artificial y los derechos de autor. Por primera vez, una compañía tecnológica se compromete a una compensación multimillonaria por el uso no autorizado de obras literarias, lo que podría influir en futuras disputas legales y en la manera en que los desarrolladores de IA acceden a contenido protegido. Representa un avance significativo en la protección de los autores y en la reivindicación de sus derechos frente a grandes empresas tecnológicas.

Anthropic expresó su satisfacción por la resolución, afirmando que este acuerdo les permitirá centrarse en el desarrollo de herramientas de inteligencia artificial de manera responsable y segura. El juez, por su parte, subrayó la importancia de garantizar un proceso de reclamaciones transparente, de modo que todos los autores, incluidos aquellos menos conocidos, puedan recibir una compensación justa. En conjunto, este caso refleja un punto de inflexión en la relación entre la tecnología y la propiedad intelectual, estableciendo límites claros sobre el uso de obras protegidas en la creación de sistemas de IA.

Una mirada jurídica poliédrica a la normativa europea sobre inteligencia artificial

Estupiñán Cáceres, Rosalía; Fonticiella Hernández, Beatriz; Ojeda Tacoronte, Carolina J. Una mirada jurídica poliédrica a la normativa europea sobre inteligencia artificial. Madrid: Dykinson, 2025.

Descargar

El libro examina de forma multidisciplinar la reciente normativa europea sobre inteligencia artificial, especialmente el Reglamento (UE) 2024/1689 sobre IA y la Directiva (UE) 2024/2853 relativa a la responsabilidad por daños causados por productos defectuosos.

La irrupción de la inteligencia artificial en nuestra sociedad ha generado un profundo impacto jurídico que exige respuestas normativas claras y adaptadas. Esta obra colectiva ofrece un análisis crítico y multidisciplinar del nuevo Reglamento (UE) 2024/1689 sobre inteligencia artificial, así como de la reciente Directiva (UE) 2024/2853 sobre responsabilidad por daños causados por productos defectuosos. Fruto del Congreso celebrado en la Universidad de Las Palmas de Gran Canaria en 2024, el libro reúne aportaciones de destacados expertos que abordan los retos que plantea la IA en distintos ámbitos del Derecho: administrativo, penal, laboral, mercantil, constitucional, entre otros.

Se abordan los retos legales que plantea la IA en distintos ámbitos del Derecho —administrativo, penal, laboral, mercantil, constitucional entre otros— analizando aspectos como:

  • la gobernanza de la IA, es decir las instituciones, mecanismos de control, obligaciones reguladoras;
  • la protección de los derechos fundamentales frente al uso de IA;
  • el impacto de la IA en mercados financieros;
  • su utilización en procesos judiciales;
  • y los desafíos en materia de responsabilidad civil y compliance

Una obra esencial para comprender el alcance e implicaciones de las nuevas normativas europeas sobre inteligencia artificial.

Base de datos de normas sobre Inteligencia Artificial

AI Standards Database

Acceder

AI Standards Database es una plataforma integral que permite acceder y buscar entre un amplio espectro de normas relacionados con la inteligencia artificial.

El recurso reúne normas publicadas o en desarrollo por importantes organismos internacionales de normalización, como World Standards Cooperation, que incluye entidades reconocidas como:

  • IEC (Comisión Electrotécnica Internacional)
  • ISO (Organización Internacional de Normalización)
  • ITU (Unión Internacional de Telecomunicaciones)
  • Y otros organismos globales dedicados al desarrollo de estándares técnicos.

Ofrece acceso a más de 700 normas y publicaciones técnicas vinculadas a la IA, lo que la convierte en una herramienta clave para profesionales, investigadores y empresas que trabajan en el ámbito de la inteligencia artificial. Estos estándares no solo están listados por organismo desarrollador, sino que también se clasifican por sectores industriales y áreas de aplicación específicas, facilitando su búsqueda y comprensión.

Una característica importante de esta base de datos es su enfoque en la relación entre las normas y las actividades humanas automatizadas por sistemas de IA. Esto significa que cada estándar está asociado a una actividad o función humana específica que la inteligencia artificial puede desempeñar o apoyar, facilitando así su aplicación en contextos reales. Por ejemplo, se pueden identificar normas orientadas a la salud, la manufactura, la educación, la movilidad, entre otros sectores.

GAIIN: una plataforma global para navegar las políticas de Inteligencia Artificial

GAIIN (Global AI Initiatives Navigator)

https://oecd.ai/en/dashboards/overview

Se presenta GAIIN una nueva herramienta desarrollada por la Organización para la Cooperación y el Desarrollo Económicos (OCDE) dentro de la plataforma OECD.AI. GAIIN tiene como objetivo facilitar el seguimiento y la presentación de información sobre políticas de inteligencia artificial a nivel mundial, brindando mayor claridad, cobertura y utilidad para diferentes actores, desde gobiernos hasta investigadores y público general.

La plataforma ofrece una vista global de iniciativas, abarcando desde marcos regulatorios hasta proyectos enfocados en áreas específicas como riesgos y ética, privacidad, salud, impacto laboral y sostenibilidad. Así, GAIIN contribuye a identificar tendencias emergentes y lagunas en las políticas de inteligencia artificial. La herramienta no solo centraliza políticas existentes, sino que también permite la colaboración directa para enriquecer la base de datos, promoviendo una comunidad activa.

Uno de los principales aportes de GAIIN es que cada país cuenta con su propia página, en la que se presentan sus estrategias nacionales de inteligencia artificial, políticas específicas, programas regulatorios, marcos éticos y demás iniciativas relevantes. Esto permite comparar enfoques, detectar tendencias globales y reconocer buenas prácticas que pueden ser replicadas o adaptadas en otros contextos. Por países

Además, GAIIN incluye las iniciativas impulsadas por organizaciones internacionales, tales como la Unión Europea, la ONU, la OCDE misma o el GPAI (Global Partnership on AI). Estas páginas dedicadas permiten comprender cómo se articulan las políticas nacionales con los esfuerzos multilaterales y cuáles son los foros clave donde se están negociando marcos comunes.

Para facilitar la navegación, la plataforma también ofrece la posibilidad de explorar todas las iniciativas y políticas en conjunto, sin importar su origen geográfico o institucional. Esta visión panorámica es útil para investigadores, responsables de políticas públicas, organizaciones de la sociedad civil y empresas interesadas en mantenerse al día con la evolución normativa y estratégica de la IA a nivel global.

Además, GAIIN se enmarca en el ecosistema de OECD.AI, que abarca una gran variedad de recursos: políticas, datos, investigaciones, herramientas de riesgo, indicadores de IA responsable, casos de uso y capacidades técnicas. Esto posiciona a GAIIN no como un recurso aislado, sino como una pieza clave de un conjunto más amplio de herramientas e iniciativas orientadas a fomentar una IA centrada en el ser humano y segura.

También se destaca el compromiso de la OCDE con la gobernanza de la inteligencia artificial. MEDIANTE GAIIN, la organización fortalece sus estándares, alineados con los Principios de la OCDE sobre IA y los esfuerzos coordinados dentro del marco del GPAI (Asociación Global de IA).

Entrenar modelos de lenguaje de Inteligencia Artificial utilizando libros adquiridos legalmente constituye un uso legítimo

Hansen, Dave. 2025. “Anthropic Wins on Fair Use for Training Its LLMs, Loses on Building a ‘Central Library’ of Pirated Books.” Authors Alliance, 24 de junio de 2025. https://www.authorsalliance.org/2025/06/24/anthropic-wins-on-fair-use-for-training-its-llms-loses-on-building-a-central-library-of-pirated-books/

El 24 de junio de 2025, el juez William Alsup del Tribunal del Distrito Norte de California emitió una resolución clave en el juicio colectivo contra Anthropic, empresa creadora de los modelos de lenguaje Claude. La demanda, presentada por los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson en representación de millones de escritores, cuestiona el uso de libros protegidos por derechos de autor para entrenar sistemas de inteligencia artificial.

El fallo representa una victoria parcial para Anthropic. Por un lado, el tribunal determinó que entrenar modelos de lenguaje utilizando libros adquiridos legalmente constituye un uso legítimo bajo la doctrina de fair use del derecho estadounidense. Según el juez Alsup, este tipo de uso es “transformador”, ya que no busca replicar ni sustituir las obras originales, sino generar contenido nuevo, lo que encaja dentro del espíritu de la ley de derechos de autor que pretende fomentar la creatividad y el avance científico.

Sin embargo, la empresa perdió en un punto crítico: el uso sistemático de libros pirateados para construir una “biblioteca central” con fines de entrenamiento de IA. La evidencia demuestra que en 2021 y 2022, miembros de Anthropic descargaron millones de obras de sitios como Books3, Library Genesis (LibGen) y Pirate Library Mirror (PiLiMi). Estas plataformas contienen copias no autorizadas de libros protegidos, y Anthropic era plenamente consciente de ello. El propio CEO, Dario Amodei, reconoció internamente que optar por este camino era una manera de evitar el “trabajo legal, comercial y de gestión” que implicaría adquirir licencias.

En particular, el cofundador Ben Mann descargó en 2021 el conjunto de datos Books3 (compuesto por cerca de 196.000 libros pirateados), seguido de cinco millones de títulos desde LibGen y otros dos millones desde PiLiMi. Estas acciones fueron calificadas por el juez como violaciones deliberadas del derecho de autor, y aunque todavía no se ha determinado la magnitud de los daños, el tribunal ha decidido celebrar un juicio separado para abordar esta cuestión y valorar posibles indemnizaciones.

Desde Anthropic, una portavoz declaró a The Verge que celebran que el tribunal haya validado el uso transformador de las obras con fines de entrenamiento. La empresa sostiene que su objetivo no era imitar o reemplazar los libros originales, sino crear algo nuevo con base en ellos. No obstante, este argumento no exime de responsabilidad cuando se utilizan materiales obtenidos de forma ilegal, incluso si el uso posterior pudiera ser considerado transformador.

Este caso se enmarca dentro de un creciente número de demandas contra empresas de inteligencia artificial por el uso indebido de contenido protegido. La resolución de Alsup podría sentar un precedente clave: valida el entrenamiento de IA sobre obras adquiridas legalmente como fair use, pero marca una línea roja cuando se trata de contenidos pirateados. Las próximas fases del proceso judicial determinarán las consecuencias económicas y legales para Anthropic, y el caso podría influir significativamente en las prácticas de entrenamiento de modelos de IA en la industria.

La propuesta «Big Beautiful Bill» busca pausar temporalmente el avance de la IA para evaluar sus implicaciones éticas y sociales.

Perlroth, Nicole, y Stuart A. Thompson. «Trump Taps Palantir to Centralize Data on Americans.» The New York Times, May 30, 2025. https://www.nytimes.com/2025/05/30/technology/trump-palantir-data-americans.html.

La «One Big Beautiful Bill Act» busca centralizar la regulación de la IA a nivel federal durante una década, pero enfrenta críticas por limitar la capacidad de los estados para proteger a sus ciudadanos frente a los desafíos emergentes de esta tecnología.

La propuesta, apodada «Big Beautiful Bill», busca pausar temporalmente el avance de la IA para evaluar sus implicaciones éticas y sociales. La encuesta revela que una parte significativa de la población apoya esta moratoria, reflejando preocupaciones sobre el impacto de la IA en el empleo, la privacidad y la seguridad. Sin embargo, también existen opiniones divididas, con algunos sectores que consideran que una pausa podría obstaculizar la innovación tecnológica y la competitividad.

La propuesta legislativa conocida como «One Big Beautiful Bill Act» es un ambicioso paquete de reformas impulsado por el expresidente Donald Trump y aprobado por la Cámara de Representantes de EE. UU. en mayo de 2025. Entre sus múltiples disposiciones, destaca una cláusula que impone una moratoria de diez años a las regulaciones estatales sobre inteligencia artificial (IA).

Esta disposición prohíbe a los estados promulgar o hacer cumplir leyes específicas relacionadas con la IA durante una década. Esto afectaría legislaciones estatales existentes en lugares como California, Nueva York e Illinois, y detendría más de mil proyectos de ley pendientes en diversas legislaturas estatales.

Los defensores de la moratoria argumentan que una regulación uniforme a nivel federal evitará un mosaico de leyes estatales que podrían obstaculizar la innovación y la competitividad de las empresas tecnológicas estadounidenses en el ámbito global.

La moratoria ha generado una oposición significativa tanto de demócratas como de algunos republicanos. Críticos sostienen que impide a los estados abordar problemas urgentes relacionados con la IA, como la proliferación de deepfakes, fraudes y herramientas de IA discriminatorias. Además, se argumenta que centralizar la regulación en el gobierno federal sin establecer protecciones claras deja a los ciudadanos vulnerables.

Aunque la Cámara de Representantes ha aprobado el proyecto, su futuro en el Senado es incierto. Existen dudas sobre si la disposición relacionada con la IA cumple con la «Regla Byrd», que limita el contenido de los proyectos de reconciliación presupuestaria. Si se determina que la cláusula sobre la IA es «ajena» al presupuesto, podría ser eliminada del proyecto final.

Barreras y facilitadores para la Ciencia Abierta en la legislación sobre derechos de autor

Bogataj Jančič, Maja, Lucie Guibault, João Pedro Quintais, y Thomas Margoni. 2024. Barriers and Enablers for Open Science in Copyright Law. Knowledge Rights 21. https://www.knowledgerights21.org/news-story/odipi-kr21-openscience-report/

Se analiza cómo el marco actual del derecho de autor dificulta el desarrollo pleno de la Ciencia Abierta. A pesar de las estrategias y políticas impulsadas por la Unión Europea y sus Estados miembros para fomentar este modelo científico más colaborativo y accesible, persisten importantes barreras legales, especialmente derivadas del derecho de autor.

Uno de los principales obstáculos identificados es la necesidad de una gestión consensuada del derecho de autor. En obras colectivas o con múltiples autores, se requiere el consentimiento unánime de todos los titulares para su uso, lo que dificulta considerablemente la difusión abierta del conocimiento. Además, la irrenunciabilidad del derecho a la remuneración representa otra barrera importante: aunque los autores deseen compartir libremente sus trabajos, las entidades de gestión colectiva pueden seguir reclamando pagos en su nombre, imponiendo cargas económicas y administrativas a repositorios y plataformas de acceso abierto.

El estudio también señala que el derecho de autor obliga a realizar transferencias separadas de los distintos derechos económicos, lo que fragmenta aún más la gestión de los permisos y desincentiva a los investigadores a optar por la publicación en acceso abierto. Del mismo modo, los requisitos formales que exigen contratos por escrito para la cesión de derechos generan ambigüedades legales cuando no se cumplen, dificultando la implementación de acuerdos abiertos. A esto se suma la presunción de prioridad del editor, que otorga derechos preferentes sobre las publicaciones electrónicas, limitando el depósito inmediato de trabajos en repositorios abiertos.

Otro punto crítico es la transferencia automática de derechos económicos desde los empleados a sus empleadores en el ámbito laboral. Aunque esta norma puede facilitar la Ciencia Abierta si la institución apoya el acceso abierto, también puede actuar como freno si no existe tal compromiso institucional. Por otro lado, leyes externas al derecho de autor, como las de protección del patrimonio cultural, pueden imponer restricciones similares al copyright incluso sobre obras del dominio público, lo que afecta negativamente a disciplinas que dependen de materiales culturales digitalizados.

En cuanto a los facilitadores legales, el estudio destaca que son escasos y que su impacto depende en gran medida de cómo se apliquen en la práctica. Existen mecanismos que podrían habilitar la Ciencia Abierta, como el derecho de publicación secundaria o la obligación de retención de derechos en investigaciones financiadas con fondos públicos, pero su implementación es limitada y desigual. Algunas medidas legislativas fuera del ámbito del derecho de autor —como los requisitos de las agencias financiadoras— pueden actuar como incentivos si condicionan los fondos al cumplimiento de prácticas de acceso abierto.

En conclusión, el estudio revela una importante desconexión entre las estrategias políticas a favor de la Ciencia Abierta y la realidad jurídica que enfrentan los investigadores. Las diferencias en las leyes de derechos de autor entre países también dificultan la cooperación científica internacional, creando un entorno fragmentado e incierto. Para que la Ciencia Abierta pueda desarrollarse plenamente, es necesario reformar el derecho de autor, armonizar excepciones legales para la investigación y establecer un marco claro, equilibrado y favorable a la difusión abierta del conocimiento.

Este análisis sienta las bases para un debate urgente sobre cómo actualizar los marcos legales existentes y alinear el derecho de autor con los principios de la Ciencia Abierta. Mientras no se aborden estas barreras estructurales, incluso los esfuerzos más decididos por parte de investigadores e instituciones seguirán viéndose limitados por un sistema jurídico que no ha evolucionado al ritmo de la ciencia ni de las necesidades de la sociedad.

Conclusiones:

  • Existe un desajuste entre los compromisos estratégicos con la Ciencia Abierta y la realidad jurídica, lo que dificulta que estas políticas se materialicen.
  • Las diferencias nacionales en el derecho de autor complican la cooperación internacional, creando un panorama desigual para la difusión del conocimiento científico.
  • Es necesario reformar el derecho de autor para que esté alineado con los objetivos de la Ciencia Abierta, garantizando excepciones claras, armonizadas y amplias para la investigación.

En definitiva, el estudio propone abrir un debate urgente sobre cómo adaptar los marcos legales para que dejen de obstaculizar la Ciencia Abierta y comiencen a impulsarla de manera decidida.

Re:Create sostiene que el entrenamiento de modelos de IA constituye un uso transformador y un posible uso justo

Re:Create. 2025. «Breaking Down the USCO Report on Generative AI Training and Re:Create’s ‘Non-Takeaways‘.» Re:Create Coalition, 28 de mayo de 2025. https://www.recreatecoalition.org/breaking-down-the-usco-report-on-generative-ai-training-and-recreates-non-takeaways/

El 28 de mayo de 2025, la organización Re:Create publicó un análisis crítico del informe final de la Oficina de Derechos de Autor de EE. UU. (USCO) sobre la inteligencia artificial generativa y el uso justo (fair use). Aunque Re:Create valora que el informe no proponga cambios legislativos inmediatos, expresa preocupación por ciertas interpretaciones que podrían restringir el desarrollo y uso de herramientas de IA.

Re:Create es una coalición compuesta por una amplia membresía de centros de investigación, organizaciones de defensa, bibliotecas y empresas tecnológicas —grandes y pequeñas— que actúa como la coalición líder unida en la lucha por un sistema de derechos de autor equilibrado que promueva la innovación, los creadores y los consumidores.

Re:Create sostiene que el entrenamiento de modelos de IA, al utilizar obras protegidas para generar nuevas creaciones, constituye un uso transformador, elemento central del uso justo. Critica que el informe de la USCO minimice esta perspectiva, especialmente al desestimar el concepto de «uso no expresivo», que se refiere a la utilización de obras sin replicar su contenido expresivo. Además, Re:Create argumenta que comparar el aprendizaje de IA con el humano es válido, ya que ambos procesos implican la internalización de información sin reproducirla directamente

El informe de la USCO sugiere que el uso de obras obtenidas sin autorización podría pesar en contra del uso justo. Re:Create refuta esta idea, señalando que el uso justo se centra en cómo se utiliza una obra, no en cómo se obtuvo. Además, enfatiza que el derecho de autor no otorga control absoluto sobre el acceso a las obras, y que prácticas como la venta de libros usados o el préstamo bibliotecario son ejemplos legales de acceso sin autorización directa del titular de derechos.

El informe plantea que el entrenamiento de IA podría afectar negativamente al mercado de las obras originales. Re:Create argumenta que las pérdidas derivadas de la competencia con obras nuevas y no infractoras no deben considerarse en el análisis del uso justo. Además, advierte que priorizar las licencias sobre el uso justo podría crear barreras económicas significativas, especialmente para desarrolladores con recursos limitados, lo que obstaculizaría la innovación y el acceso equitativo a la tecnología.

Por ello, Re:Create insta a los tribunales a no adoptar ciertas interpretaciones del informe de la USCO que podrían restringir el uso justo en el contexto de la IA. Subraya la importancia de mantener un equilibrio en el sistema de derechos de autor que fomente la creatividad, la innovación y el acceso a la información, elementos esenciales para el progreso cultural y tecnológico.