Archivo de la etiqueta: Legislación

Acuerdo histórico de 1.500 millones de dólares entre Anthropic y autores por uso no autorizado de libros por su inteligencia artificial

Ortutay, Barbara. “Judge Approves $1.5 Billion Copyright Settlement Between AI Company Anthropic and Authors.” AP News, 25 de septiembre de 2025. https://apnews.com/article/anthropic-authors-copyright-judge-artificial-intelligence-9643064e847a5e88ef6ee8b620b3a44c

Un juez aprobó un acuerdo de 1.500 millones de dólares entre Anthropic y autores cuyos libros fueron usados sin permiso para entrenar su IA. Cada obra recibirá aproximadamente 3.000 dólares, aunque no cubre libros futuros. El caso sienta un precedente clave en la protección de derechos de autor frente a tecnologías de inteligencia artificial.

El 25 de septiembre de 2025, un juez federal aprobó preliminarmente un acuerdo histórico de 1.500 millones de dólares entre la empresa de inteligencia artificial Anthropic y un grupo de autores y editores. La disputa surgió cuando los autores denunciaron que la compañía había utilizado sin autorización cerca de 465.000 libros protegidos por derechos de autor para entrenar su modelo de lenguaje Claude. Este acuerdo prevé una compensación de aproximadamente 3.000 dólares por cada libro afectado, aunque no contempla obras que se publiquen en el futuro. El juez destacó la complejidad de distribuir los fondos de manera justa, pero consideró que el acuerdo era razonable y proporcionado para las partes involucradas.

La demanda original fue presentada por varios escritores que alegaban que Anthropic había recopilado ilegalmente millones de libros, almacenándolos en una biblioteca central para alimentar su sistema de inteligencia artificial. A pesar de que en una decisión previa se había reconocido que el uso de ciertos libros para entrenamiento podía considerarse un uso justo, el juez determinó que la compañía sí había infringido los derechos de autor al almacenar y explotar un volumen tan grande de obras sin permiso. Este punto resultó clave para la aprobación del acuerdo, al establecer un reconocimiento de responsabilidad por parte de la empresa.

Este acuerdo marca un precedente importante en el ámbito de la inteligencia artificial y los derechos de autor. Por primera vez, una compañía tecnológica se compromete a una compensación multimillonaria por el uso no autorizado de obras literarias, lo que podría influir en futuras disputas legales y en la manera en que los desarrolladores de IA acceden a contenido protegido. Representa un avance significativo en la protección de los autores y en la reivindicación de sus derechos frente a grandes empresas tecnológicas.

Anthropic expresó su satisfacción por la resolución, afirmando que este acuerdo les permitirá centrarse en el desarrollo de herramientas de inteligencia artificial de manera responsable y segura. El juez, por su parte, subrayó la importancia de garantizar un proceso de reclamaciones transparente, de modo que todos los autores, incluidos aquellos menos conocidos, puedan recibir una compensación justa. En conjunto, este caso refleja un punto de inflexión en la relación entre la tecnología y la propiedad intelectual, estableciendo límites claros sobre el uso de obras protegidas en la creación de sistemas de IA.

Una mirada jurídica poliédrica a la normativa europea sobre inteligencia artificial

Estupiñán Cáceres, Rosalía; Fonticiella Hernández, Beatriz; Ojeda Tacoronte, Carolina J. Una mirada jurídica poliédrica a la normativa europea sobre inteligencia artificial. Madrid: Dykinson, 2025.

Descargar

El libro examina de forma multidisciplinar la reciente normativa europea sobre inteligencia artificial, especialmente el Reglamento (UE) 2024/1689 sobre IA y la Directiva (UE) 2024/2853 relativa a la responsabilidad por daños causados por productos defectuosos.

La irrupción de la inteligencia artificial en nuestra sociedad ha generado un profundo impacto jurídico que exige respuestas normativas claras y adaptadas. Esta obra colectiva ofrece un análisis crítico y multidisciplinar del nuevo Reglamento (UE) 2024/1689 sobre inteligencia artificial, así como de la reciente Directiva (UE) 2024/2853 sobre responsabilidad por daños causados por productos defectuosos. Fruto del Congreso celebrado en la Universidad de Las Palmas de Gran Canaria en 2024, el libro reúne aportaciones de destacados expertos que abordan los retos que plantea la IA en distintos ámbitos del Derecho: administrativo, penal, laboral, mercantil, constitucional, entre otros.

Se abordan los retos legales que plantea la IA en distintos ámbitos del Derecho —administrativo, penal, laboral, mercantil, constitucional entre otros— analizando aspectos como:

  • la gobernanza de la IA, es decir las instituciones, mecanismos de control, obligaciones reguladoras;
  • la protección de los derechos fundamentales frente al uso de IA;
  • el impacto de la IA en mercados financieros;
  • su utilización en procesos judiciales;
  • y los desafíos en materia de responsabilidad civil y compliance

Una obra esencial para comprender el alcance e implicaciones de las nuevas normativas europeas sobre inteligencia artificial.

Base de datos de normas sobre Inteligencia Artificial

AI Standards Database

Acceder

AI Standards Database es una plataforma integral que permite acceder y buscar entre un amplio espectro de normas relacionados con la inteligencia artificial.

El recurso reúne normas publicadas o en desarrollo por importantes organismos internacionales de normalización, como World Standards Cooperation, que incluye entidades reconocidas como:

  • IEC (Comisión Electrotécnica Internacional)
  • ISO (Organización Internacional de Normalización)
  • ITU (Unión Internacional de Telecomunicaciones)
  • Y otros organismos globales dedicados al desarrollo de estándares técnicos.

Ofrece acceso a más de 700 normas y publicaciones técnicas vinculadas a la IA, lo que la convierte en una herramienta clave para profesionales, investigadores y empresas que trabajan en el ámbito de la inteligencia artificial. Estos estándares no solo están listados por organismo desarrollador, sino que también se clasifican por sectores industriales y áreas de aplicación específicas, facilitando su búsqueda y comprensión.

Una característica importante de esta base de datos es su enfoque en la relación entre las normas y las actividades humanas automatizadas por sistemas de IA. Esto significa que cada estándar está asociado a una actividad o función humana específica que la inteligencia artificial puede desempeñar o apoyar, facilitando así su aplicación en contextos reales. Por ejemplo, se pueden identificar normas orientadas a la salud, la manufactura, la educación, la movilidad, entre otros sectores.

GAIIN: una plataforma global para navegar las políticas de Inteligencia Artificial

GAIIN (Global AI Initiatives Navigator)

https://oecd.ai/en/dashboards/overview

Se presenta GAIIN una nueva herramienta desarrollada por la Organización para la Cooperación y el Desarrollo Económicos (OCDE) dentro de la plataforma OECD.AI. GAIIN tiene como objetivo facilitar el seguimiento y la presentación de información sobre políticas de inteligencia artificial a nivel mundial, brindando mayor claridad, cobertura y utilidad para diferentes actores, desde gobiernos hasta investigadores y público general.

La plataforma ofrece una vista global de iniciativas, abarcando desde marcos regulatorios hasta proyectos enfocados en áreas específicas como riesgos y ética, privacidad, salud, impacto laboral y sostenibilidad. Así, GAIIN contribuye a identificar tendencias emergentes y lagunas en las políticas de inteligencia artificial. La herramienta no solo centraliza políticas existentes, sino que también permite la colaboración directa para enriquecer la base de datos, promoviendo una comunidad activa.

Uno de los principales aportes de GAIIN es que cada país cuenta con su propia página, en la que se presentan sus estrategias nacionales de inteligencia artificial, políticas específicas, programas regulatorios, marcos éticos y demás iniciativas relevantes. Esto permite comparar enfoques, detectar tendencias globales y reconocer buenas prácticas que pueden ser replicadas o adaptadas en otros contextos. Por países

Además, GAIIN incluye las iniciativas impulsadas por organizaciones internacionales, tales como la Unión Europea, la ONU, la OCDE misma o el GPAI (Global Partnership on AI). Estas páginas dedicadas permiten comprender cómo se articulan las políticas nacionales con los esfuerzos multilaterales y cuáles son los foros clave donde se están negociando marcos comunes.

Para facilitar la navegación, la plataforma también ofrece la posibilidad de explorar todas las iniciativas y políticas en conjunto, sin importar su origen geográfico o institucional. Esta visión panorámica es útil para investigadores, responsables de políticas públicas, organizaciones de la sociedad civil y empresas interesadas en mantenerse al día con la evolución normativa y estratégica de la IA a nivel global.

Además, GAIIN se enmarca en el ecosistema de OECD.AI, que abarca una gran variedad de recursos: políticas, datos, investigaciones, herramientas de riesgo, indicadores de IA responsable, casos de uso y capacidades técnicas. Esto posiciona a GAIIN no como un recurso aislado, sino como una pieza clave de un conjunto más amplio de herramientas e iniciativas orientadas a fomentar una IA centrada en el ser humano y segura.

También se destaca el compromiso de la OCDE con la gobernanza de la inteligencia artificial. MEDIANTE GAIIN, la organización fortalece sus estándares, alineados con los Principios de la OCDE sobre IA y los esfuerzos coordinados dentro del marco del GPAI (Asociación Global de IA).

Entrenar modelos de lenguaje de Inteligencia Artificial utilizando libros adquiridos legalmente constituye un uso legítimo

Hansen, Dave. 2025. “Anthropic Wins on Fair Use for Training Its LLMs, Loses on Building a ‘Central Library’ of Pirated Books.” Authors Alliance, 24 de junio de 2025. https://www.authorsalliance.org/2025/06/24/anthropic-wins-on-fair-use-for-training-its-llms-loses-on-building-a-central-library-of-pirated-books/

El 24 de junio de 2025, el juez William Alsup del Tribunal del Distrito Norte de California emitió una resolución clave en el juicio colectivo contra Anthropic, empresa creadora de los modelos de lenguaje Claude. La demanda, presentada por los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson en representación de millones de escritores, cuestiona el uso de libros protegidos por derechos de autor para entrenar sistemas de inteligencia artificial.

El fallo representa una victoria parcial para Anthropic. Por un lado, el tribunal determinó que entrenar modelos de lenguaje utilizando libros adquiridos legalmente constituye un uso legítimo bajo la doctrina de fair use del derecho estadounidense. Según el juez Alsup, este tipo de uso es “transformador”, ya que no busca replicar ni sustituir las obras originales, sino generar contenido nuevo, lo que encaja dentro del espíritu de la ley de derechos de autor que pretende fomentar la creatividad y el avance científico.

Sin embargo, la empresa perdió en un punto crítico: el uso sistemático de libros pirateados para construir una “biblioteca central” con fines de entrenamiento de IA. La evidencia demuestra que en 2021 y 2022, miembros de Anthropic descargaron millones de obras de sitios como Books3, Library Genesis (LibGen) y Pirate Library Mirror (PiLiMi). Estas plataformas contienen copias no autorizadas de libros protegidos, y Anthropic era plenamente consciente de ello. El propio CEO, Dario Amodei, reconoció internamente que optar por este camino era una manera de evitar el “trabajo legal, comercial y de gestión” que implicaría adquirir licencias.

En particular, el cofundador Ben Mann descargó en 2021 el conjunto de datos Books3 (compuesto por cerca de 196.000 libros pirateados), seguido de cinco millones de títulos desde LibGen y otros dos millones desde PiLiMi. Estas acciones fueron calificadas por el juez como violaciones deliberadas del derecho de autor, y aunque todavía no se ha determinado la magnitud de los daños, el tribunal ha decidido celebrar un juicio separado para abordar esta cuestión y valorar posibles indemnizaciones.

Desde Anthropic, una portavoz declaró a The Verge que celebran que el tribunal haya validado el uso transformador de las obras con fines de entrenamiento. La empresa sostiene que su objetivo no era imitar o reemplazar los libros originales, sino crear algo nuevo con base en ellos. No obstante, este argumento no exime de responsabilidad cuando se utilizan materiales obtenidos de forma ilegal, incluso si el uso posterior pudiera ser considerado transformador.

Este caso se enmarca dentro de un creciente número de demandas contra empresas de inteligencia artificial por el uso indebido de contenido protegido. La resolución de Alsup podría sentar un precedente clave: valida el entrenamiento de IA sobre obras adquiridas legalmente como fair use, pero marca una línea roja cuando se trata de contenidos pirateados. Las próximas fases del proceso judicial determinarán las consecuencias económicas y legales para Anthropic, y el caso podría influir significativamente en las prácticas de entrenamiento de modelos de IA en la industria.

La propuesta «Big Beautiful Bill» busca pausar temporalmente el avance de la IA para evaluar sus implicaciones éticas y sociales.

Perlroth, Nicole, y Stuart A. Thompson. «Trump Taps Palantir to Centralize Data on Americans.» The New York Times, May 30, 2025. https://www.nytimes.com/2025/05/30/technology/trump-palantir-data-americans.html.

La «One Big Beautiful Bill Act» busca centralizar la regulación de la IA a nivel federal durante una década, pero enfrenta críticas por limitar la capacidad de los estados para proteger a sus ciudadanos frente a los desafíos emergentes de esta tecnología.

La propuesta, apodada «Big Beautiful Bill», busca pausar temporalmente el avance de la IA para evaluar sus implicaciones éticas y sociales. La encuesta revela que una parte significativa de la población apoya esta moratoria, reflejando preocupaciones sobre el impacto de la IA en el empleo, la privacidad y la seguridad. Sin embargo, también existen opiniones divididas, con algunos sectores que consideran que una pausa podría obstaculizar la innovación tecnológica y la competitividad.

La propuesta legislativa conocida como «One Big Beautiful Bill Act» es un ambicioso paquete de reformas impulsado por el expresidente Donald Trump y aprobado por la Cámara de Representantes de EE. UU. en mayo de 2025. Entre sus múltiples disposiciones, destaca una cláusula que impone una moratoria de diez años a las regulaciones estatales sobre inteligencia artificial (IA).

Esta disposición prohíbe a los estados promulgar o hacer cumplir leyes específicas relacionadas con la IA durante una década. Esto afectaría legislaciones estatales existentes en lugares como California, Nueva York e Illinois, y detendría más de mil proyectos de ley pendientes en diversas legislaturas estatales.

Los defensores de la moratoria argumentan que una regulación uniforme a nivel federal evitará un mosaico de leyes estatales que podrían obstaculizar la innovación y la competitividad de las empresas tecnológicas estadounidenses en el ámbito global.

La moratoria ha generado una oposición significativa tanto de demócratas como de algunos republicanos. Críticos sostienen que impide a los estados abordar problemas urgentes relacionados con la IA, como la proliferación de deepfakes, fraudes y herramientas de IA discriminatorias. Además, se argumenta que centralizar la regulación en el gobierno federal sin establecer protecciones claras deja a los ciudadanos vulnerables.

Aunque la Cámara de Representantes ha aprobado el proyecto, su futuro en el Senado es incierto. Existen dudas sobre si la disposición relacionada con la IA cumple con la «Regla Byrd», que limita el contenido de los proyectos de reconciliación presupuestaria. Si se determina que la cláusula sobre la IA es «ajena» al presupuesto, podría ser eliminada del proyecto final.

Barreras y facilitadores para la Ciencia Abierta en la legislación sobre derechos de autor

Bogataj Jančič, Maja, Lucie Guibault, João Pedro Quintais, y Thomas Margoni. 2024. Barriers and Enablers for Open Science in Copyright Law. Knowledge Rights 21. https://www.knowledgerights21.org/news-story/odipi-kr21-openscience-report/

Se analiza cómo el marco actual del derecho de autor dificulta el desarrollo pleno de la Ciencia Abierta. A pesar de las estrategias y políticas impulsadas por la Unión Europea y sus Estados miembros para fomentar este modelo científico más colaborativo y accesible, persisten importantes barreras legales, especialmente derivadas del derecho de autor.

Uno de los principales obstáculos identificados es la necesidad de una gestión consensuada del derecho de autor. En obras colectivas o con múltiples autores, se requiere el consentimiento unánime de todos los titulares para su uso, lo que dificulta considerablemente la difusión abierta del conocimiento. Además, la irrenunciabilidad del derecho a la remuneración representa otra barrera importante: aunque los autores deseen compartir libremente sus trabajos, las entidades de gestión colectiva pueden seguir reclamando pagos en su nombre, imponiendo cargas económicas y administrativas a repositorios y plataformas de acceso abierto.

El estudio también señala que el derecho de autor obliga a realizar transferencias separadas de los distintos derechos económicos, lo que fragmenta aún más la gestión de los permisos y desincentiva a los investigadores a optar por la publicación en acceso abierto. Del mismo modo, los requisitos formales que exigen contratos por escrito para la cesión de derechos generan ambigüedades legales cuando no se cumplen, dificultando la implementación de acuerdos abiertos. A esto se suma la presunción de prioridad del editor, que otorga derechos preferentes sobre las publicaciones electrónicas, limitando el depósito inmediato de trabajos en repositorios abiertos.

Otro punto crítico es la transferencia automática de derechos económicos desde los empleados a sus empleadores en el ámbito laboral. Aunque esta norma puede facilitar la Ciencia Abierta si la institución apoya el acceso abierto, también puede actuar como freno si no existe tal compromiso institucional. Por otro lado, leyes externas al derecho de autor, como las de protección del patrimonio cultural, pueden imponer restricciones similares al copyright incluso sobre obras del dominio público, lo que afecta negativamente a disciplinas que dependen de materiales culturales digitalizados.

En cuanto a los facilitadores legales, el estudio destaca que son escasos y que su impacto depende en gran medida de cómo se apliquen en la práctica. Existen mecanismos que podrían habilitar la Ciencia Abierta, como el derecho de publicación secundaria o la obligación de retención de derechos en investigaciones financiadas con fondos públicos, pero su implementación es limitada y desigual. Algunas medidas legislativas fuera del ámbito del derecho de autor —como los requisitos de las agencias financiadoras— pueden actuar como incentivos si condicionan los fondos al cumplimiento de prácticas de acceso abierto.

En conclusión, el estudio revela una importante desconexión entre las estrategias políticas a favor de la Ciencia Abierta y la realidad jurídica que enfrentan los investigadores. Las diferencias en las leyes de derechos de autor entre países también dificultan la cooperación científica internacional, creando un entorno fragmentado e incierto. Para que la Ciencia Abierta pueda desarrollarse plenamente, es necesario reformar el derecho de autor, armonizar excepciones legales para la investigación y establecer un marco claro, equilibrado y favorable a la difusión abierta del conocimiento.

Este análisis sienta las bases para un debate urgente sobre cómo actualizar los marcos legales existentes y alinear el derecho de autor con los principios de la Ciencia Abierta. Mientras no se aborden estas barreras estructurales, incluso los esfuerzos más decididos por parte de investigadores e instituciones seguirán viéndose limitados por un sistema jurídico que no ha evolucionado al ritmo de la ciencia ni de las necesidades de la sociedad.

Conclusiones:

  • Existe un desajuste entre los compromisos estratégicos con la Ciencia Abierta y la realidad jurídica, lo que dificulta que estas políticas se materialicen.
  • Las diferencias nacionales en el derecho de autor complican la cooperación internacional, creando un panorama desigual para la difusión del conocimiento científico.
  • Es necesario reformar el derecho de autor para que esté alineado con los objetivos de la Ciencia Abierta, garantizando excepciones claras, armonizadas y amplias para la investigación.

En definitiva, el estudio propone abrir un debate urgente sobre cómo adaptar los marcos legales para que dejen de obstaculizar la Ciencia Abierta y comiencen a impulsarla de manera decidida.

Re:Create sostiene que el entrenamiento de modelos de IA constituye un uso transformador y un posible uso justo

Re:Create. 2025. «Breaking Down the USCO Report on Generative AI Training and Re:Create’s ‘Non-Takeaways‘.» Re:Create Coalition, 28 de mayo de 2025. https://www.recreatecoalition.org/breaking-down-the-usco-report-on-generative-ai-training-and-recreates-non-takeaways/

El 28 de mayo de 2025, la organización Re:Create publicó un análisis crítico del informe final de la Oficina de Derechos de Autor de EE. UU. (USCO) sobre la inteligencia artificial generativa y el uso justo (fair use). Aunque Re:Create valora que el informe no proponga cambios legislativos inmediatos, expresa preocupación por ciertas interpretaciones que podrían restringir el desarrollo y uso de herramientas de IA.

Re:Create es una coalición compuesta por una amplia membresía de centros de investigación, organizaciones de defensa, bibliotecas y empresas tecnológicas —grandes y pequeñas— que actúa como la coalición líder unida en la lucha por un sistema de derechos de autor equilibrado que promueva la innovación, los creadores y los consumidores.

Re:Create sostiene que el entrenamiento de modelos de IA, al utilizar obras protegidas para generar nuevas creaciones, constituye un uso transformador, elemento central del uso justo. Critica que el informe de la USCO minimice esta perspectiva, especialmente al desestimar el concepto de «uso no expresivo», que se refiere a la utilización de obras sin replicar su contenido expresivo. Además, Re:Create argumenta que comparar el aprendizaje de IA con el humano es válido, ya que ambos procesos implican la internalización de información sin reproducirla directamente

El informe de la USCO sugiere que el uso de obras obtenidas sin autorización podría pesar en contra del uso justo. Re:Create refuta esta idea, señalando que el uso justo se centra en cómo se utiliza una obra, no en cómo se obtuvo. Además, enfatiza que el derecho de autor no otorga control absoluto sobre el acceso a las obras, y que prácticas como la venta de libros usados o el préstamo bibliotecario son ejemplos legales de acceso sin autorización directa del titular de derechos.

El informe plantea que el entrenamiento de IA podría afectar negativamente al mercado de las obras originales. Re:Create argumenta que las pérdidas derivadas de la competencia con obras nuevas y no infractoras no deben considerarse en el análisis del uso justo. Además, advierte que priorizar las licencias sobre el uso justo podría crear barreras económicas significativas, especialmente para desarrolladores con recursos limitados, lo que obstaculizaría la innovación y el acceso equitativo a la tecnología.

Por ello, Re:Create insta a los tribunales a no adoptar ciertas interpretaciones del informe de la USCO que podrían restringir el uso justo en el contexto de la IA. Subraya la importancia de mantener un equilibrio en el sistema de derechos de autor que fomente la creatividad, la innovación y el acceso a la información, elementos esenciales para el progreso cultural y tecnológico.

Estudio de la EUIPO sobre Inteligencia Artificial Generativa y Derecho de Autor

«European Union Intellectual Property Office (EUIPO) Releases Study on Generative Artificial Intelligence and Copyright.» EUIPO News, May 13, 2025.

Texto completo

Este estudio proporciona un marco integral para comprender y gestionar los desafíos legales y técnicos que la inteligencia artificial generativa plantea en el ámbito del derecho de autor en la Unión Europea, buscando un equilibrio entre la innovación tecnológica y la protección de los creadores.

La Oficina de Propiedad Intelectual de la Unión Europea (EUIPO) publicó un estudio detallado sobre la Inteligencia Artificial Generativa (GenAI) y su relación con el derecho de autor. La IA generativa es una tecnología que crea nuevo contenido utilizando contenido preexistente, lo que representa un cambio fundamental en la creación de contenido, ya que no todo es generado exclusivamente por humanos.

Las instituciones como las autoridades nacionales de propiedad intelectual y la EUIPO pueden desempeñar un papel crucial, ofreciendo soporte técnico para que los titulares ejerzan sus derechos y los desarrolladores respeten esas reservas, y soporte no técnico, como campañas de sensibilización, foros de intercambio de información técnica y difusión de información sobre soluciones, tendencias y avances en la materia

Este nuevo paradigma plantea interrogantes urgentes sobre el uso legal de obras protegidas por derechos de autor como datos de entrenamiento para sistemas de IA, y sobre cómo distinguir entre contenido protegido y no protegido por copyright.

El estudio busca profundizar en la comprensión técnica de cómo funciona la IA generativa, además de analizar las soluciones existentes y en desarrollo para aplicar la legislación europea sobre derechos de autor y tecnologías de inteligencia artificial. El análisis abarca aspectos técnicos, legales y económicos, con el fin de apoyar la toma de decisiones informadas por parte de legisladores, desarrolladores y creadores.

La investigación se basó en revisión documental, entrevistas con expertos y análisis exhaustivo de soluciones técnicas y prácticas en el ámbito de la IA generativa, realizado en colaboración con servicios de la Comisión Europea.

Áreas centrales del estudio

  1. Uso de obras protegidas por derechos de autor como datos de entrenamiento para modelos de GenAI:
    La IA generativa necesita grandes cantidades de contenido para entrenarse, lo que implica utilizar obras protegidas por copyright.
  2. Generación de nuevo contenido por sistemas GenAI y las cuestiones legales que esto plantea:
    La creación automática de contenido genera dudas sobre la autoría, la propiedad intelectual y la protección legal.
  3. Implicaciones para creadores, desarrolladores de IA y el ecosistema del derecho de autor:
    El estudio aborda cómo proteger los derechos de los autores, cómo pueden operar los desarrolladores de IA dentro del marco legal, y cómo estas dinámicas afectan al mercado y la innovación.

Principales conclusiones

  • Acceso a contenido de alta calidad: Es fundamental para el desarrollo de servicios de IA generativa. Los modelos de IA necesitan contenido actualizado y especializado para funcionar adecuadamente, lo que ha impulsado la aparición de un mercado directo de licencias donde los desarrolladores de IA obtienen permisos para usar contenido protegido.
  • Desarrollo de soluciones diversas: No existe una solución única para que los titulares de derechos protejan sus obras frente a la IA generativa. Por eso, se están creando diferentes mecanismos:
    • Fase de entrada (INPUT): Mecanismos para que los titulares puedan reservar sus derechos y optar por no permitir el uso de sus obras en técnicas de “text and data mining” (minería de datos y textos).
    • Fase de salida (OUTPUT): Medidas de transparencia para identificar y reconocer el contenido generado por IA.

Informe de la Oficina de Copyright de EE. UU. sobre Inteligencia Artificial y Derechos de Autor

U.S. Copyright Office. 2025. Copyright and Artificial Intelligence. Washington, D.C.: U.S. Copyright Office. https://www.copyright.gov/ai/

Desde principios de 2023, la Oficina de Copyright de EE. UU. ha estado analizando los desafíos legales y políticos que plantea la inteligencia artificial (IA), especialmente en relación con los derechos de autor sobre obras generadas por IA y el uso de materiales protegidos en el entrenamiento de estos sistemas. Tras realizar sesiones públicas y seminarios, en agosto de 2023 publicó una convocatoria de comentarios en el Federal Register, que recibió más de 10.000 aportaciones hasta diciembre.

Como resultado, la Oficina está publicando un informe dividido en varias partes, bajo el título Copyright and Artificial Intelligence, que analiza estos temas:

  • Parte 1 (publicada el 31 de julio de 2024): aborda las réplicas digitales.
  • Parte 2 (publicada el 29 de enero de 2025): examina la posibilidad de otorgar derechos de autor a los productos generados mediante IA generativa.
  • Parte 3 (versión preliminar publicada el 9 de mayo de 2025): responde a preguntas del Congreso y al interés de distintos actores. Se espera una versión final próximamente, sin cambios sustanciales.