Archivo de la etiqueta: Legislación

Declaración de posición de Wiley sobre el uso ilegal de contenidos con derechos de autor por parte de desarrolladores de IA

Wiley Position Statement on Illegal Scraping of Copyrighted Content by AI Developers. Última modificación en 2024. https://www.wiley.com/en-us/terms-of-use/ai-principles/wiley-statement-illegal-scraping-ai-copyright.

En Wiley, defendemos el valor de la propiedad intelectual y de quienes la crean. Como pioneros en la creación y difusión del conocimiento durante más de dos siglos, estamos comprometidos a garantizar que las obras de los autores sean respetadas y adecuadamente licenciadas en el cambiante entorno digital. La colaboración entre autores, sociedades científicas y académicas, y desarrolladores de IA garantiza un uso responsable de esta tecnología para avanzar en la investigación y el descubrimiento, al tiempo que se preserva la libertad académica, esencial para el progreso científico.

Reafirmamos esta postura. Creemos en el potencial transformador de la inteligencia artificial para impulsar la investigación y el descubrimiento. Este avance debe basarse en el respeto a los derechos de propiedad intelectual, incluida la compensación y atribución acordadas para los creadores de contenido. Nos posicionamos firmemente junto a nuestros autores y socios editoriales para exigir prácticas éticas y legales en la obtención de datos en la industria de la IA, y alentamos la adopción generalizada de prácticas de licenciamiento adecuadas, como ya hacen algunos desarrolladores de IA.

Para mayor claridad:

  • Los desarrolladores y empresas de IA deben obtener autorización antes de usar contenido de Wiley, o contenido que publicamos para nuestros socios, para el desarrollo, entrenamiento o implementación de IA.
  • Wiley ha reservado de forma constante y pública todos los derechos sobre sus materiales protegidos por derechos de autor; no existe permiso implícito sin una licencia adecuada.
  • La atribución transparente y la trazabilidad de los datos son componentes esenciales del desarrollo ético de la IA.
  • Para demostrar nuestro compromiso con la innovación responsable, hemos desarrollado marcos de licenciamiento que ofrecen condiciones flexibles y justas adaptadas a distintos usos y necesidades de desarrollo.

Se han alcanzado numerosos acuerdos reconocidos entre desarrolladores de IA y editoriales académicas y comerciales, incluidos nuestros propios acuerdos exitosos con desarrolladores de IA que comparten nuestro compromiso con el uso ético del contenido. Esto demuestra claramente que existe un mercado de licencias para IA que funciona eficazmente.

Este mercado de licencias también permite fundamentar la IA en contenido autorizado. La colaboración activa con la comunidad de IA incluye la incorporación de expectativas y estándares en los acuerdos sobre transparencia, citación, atribución y procedencia de datos, con el fin de fomentar la confianza de los usuarios en los sistemas de IA.

A través de alianzas con autores, socios editoriales, investigadores y desarrolladores de IA éticos, podemos crear un ecosistema sostenible que valore tanto el avance tecnológico como las contribuciones humanas únicas de autores e investigadores.

IA y derechos de autor: El entrenamiento de la IA de propósito general

European Parliamentary Research Service. 2025. AI and Copyright: The Training of General-Purpose AI. Brussels: European Parliament. https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/769585/EPRS_ATA(2025)769585_EN.pdf

El informe analiza los desafíos legales que plantea el uso de obras protegidas por derechos de autor en el entrenamiento de modelos de inteligencia artificial de propósito general (GPAI, por sus siglas en inglés), como los de OpenAI o DeepSeek. A pesar de que existen normas como la Directiva de Derechos de Autor de la UE (2019/790) y la Ley de Inteligencia Artificial (IA) europea, persisten importantes limitaciones y ambigüedades legales que preocupan tanto a los investigadores como a los titulares de derechos.

IA y derechos de autor: la formación de la inteligencia artificial de propósito general

Para entrenar sus modelos, los proveedores de inteligencia artificial de propósito general (IAPG) necesitan grandes conjuntos de datos, que pueden incluir materiales protegidos por derechos de autor. A pesar de la Directiva de la UE 2019/790 sobre derechos de autor y la Ley de Inteligencia Artificial (IA) de la UE, los investigadores han identificado limitaciones legales e incertidumbre en el uso de materiales con derechos de autor para el entrenamiento de IAPG.

Entrenamiento de IAPG

Los modelos de IA capaces de realizar una amplia gama de tareas distintas, como los modelos GPT de OpenAI, se conocen como inteligencia artificial de propósito general (IAPG) y se entrenan con una gran cantidad de datos. La Ley de IA europea define legalmente la IAPG utilizando factores como sus capacidades, características y número de usuarios finales. Esta definición abarca lo que también se conoce como modelos generativos o modelos fundacionales. Los modelos más recientes de IAPG son multimodales, lo que significa que pueden trabajar con diferentes tipos de contenido. Además, las IAPG más avanzadas se denominan «modelos de razonamiento», ya que son capaces de «razonar» paso a paso. Los modelos o3-mini de OpenAI y R1 de DeepSeek son ejemplos de modelos de razonamiento lanzados recientemente.

Los modelos IAPG se basan en técnicas de aprendizaje profundo, que implican el entrenamiento de los parámetros internos del modelo utilizando datos. La construcción de conjuntos de datos para el entrenamiento comienza con la fase de recopilación. En la práctica, esto suele depender de materiales disponibles gratuitamente en línea. El modelo GPT-4o de OpenAI se entrenó utilizando datos, incluidos los de acceso público. El modelo 7b de Mistral también se entrenó con datos extraídos de la web. Los proveedores, en general, han mantenido la confidencialidad sobre los datos exactos utilizados para entrenar sus modelos, considerándolos una parte clave de su ventaja competitiva. Por otro lado, los titulares de derechos temen perder el control sobre su contenido. Existen diversas demandas pendientes fuera de la UE, señaladas por los investigadores, que afirman que los datos utilizados en el entrenamiento de IAPG contienen materiales con derechos de autor.

La legislación de derechos de autor en la UE y la Ley de IA

Para encontrar datos públicos en la web con los que entrenar IAPG, los proveedores utilizan rastreadores web (web crawlers): programas que navegan automáticamente por la web para realizar un conjunto definido de acciones. Los rastreadores de OpenAI se conocen como GPTBot. Los rastreadores se han usado durante años por empresas como Google, cuyos Googlebots rastrean la web para indexar contenido en su buscador. Como señalan los investigadores, el surgimiento de la web «creó desafíos y oportunidades sin precedentes para los titulares de derechos de autor», aunque el derecho internacional de autor se ha modificado en cierta medida para adaptarse a la era digital.

La legislación de derechos de autor otorga derechos económicos y morales exclusivos a los autores, como el derecho a reproducir, distribuir, comunicar al público y poner a disposición del público sus obras. Con la Directiva sobre la Sociedad de la Información (Directiva 2001/29), la UE creó una excepción para los actos temporales de reproducción como parte de un proceso tecnológico (artículo 5.1). La Directiva sobre derechos de autor de la UE (Directiva 2019/790) añadió dos nuevas excepciones para fines de “minería de textos y datos” (TDM, por sus siglas en inglés) (artículos 3 y 4). TDM se define como “cualquier técnica analítica automatizada destinada a analizar textos y datos en formato digital para generar información que incluye, entre otras cosas, patrones, tendencias y correlaciones”. Las excepciones permiten, bajo condiciones específicas, la reproducción y extracción de obras protegidas con fines de TDM. Realizar tales actos, de otro modo, constituiría una infracción de ciertos derechos bajo la legislación sobre derechos de autor y bases de datos.

La Ley de IA europea contiene dos disposiciones relacionadas con los derechos de autor (artículo 53.1(c) y (d)). La primera exige a los proveedores de IAPG que cumplan con la legislación sobre derechos de autor y con la excepción de exclusión voluntaria de la Directiva de derechos de autor, que autoriza la TDM siempre que los titulares de derechos no hayan expresado su negativa. Afecta a cualquier proveedor que comercialice una IAPG en el mercado de la UE, “independientemente de la jurisdicción en la que tengan lugar los actos relevantes en materia de derechos de autor que sustentan el entrenamiento de esos modelos de IA de propósito general” (considerando 106). La segunda disposición exige que los proveedores de IAPG hagan público un resumen suficientemente detallado explicando el contenido utilizado para el entrenamiento. Estos requisitos se aplican a los proveedores de IAPG con o sin riesgos sistémicos. Para facilitar el cumplimiento de la normativa, la Comisión tiene previsto publicar un Código de Buenas Prácticas para la IAPG en mayo de 2025.

Problema del uso de materiales con derechos de autor en el entrenamiento de IAPG

Según los investigadores, la legislación de la UE aún no aborda completamente los problemas relacionados con los modelos de IA y el derecho de propiedad intelectual. El problema principal es la posible presencia de materiales protegidos por derechos de autor en los conjuntos de datos utilizados para entrenar IAPG. Por ello, los investigadores han intentado determinar en qué medida las excepciones al derecho de autor permiten la reproducción de obras con fines de entrenamiento de IAPG. Consideran que las excepciones para TDM de la Directiva actual sobre derechos de autor no son lo suficientemente claras, por lo que las limitaciones legales y la incertidumbre siguen siendo problemáticas.

Incertidumbre y limitaciones del marco legal

Las dos excepciones de TDM solo cubren ciertos derechos protegidos por la ley de propiedad intelectual. Sin embargo, podrían necesitarse excepciones adicionales para otros derechos, como el de comunicación al público. De hecho, los investigadores argumentan que el derecho de comunicación al público podría activarse al permitir el acceso público a modelos de IAPG que generen contenidos que incluyan partes sustanciales de obras protegidas.

En cuanto a las dos excepciones en sí, los investigadores han identificado incertidumbres legales en su aplicación al entrenamiento de IAPG con materiales protegidos. La primera excepción, que autoriza la reproducción y extracción de obras, permite a organizaciones de investigación e instituciones de patrimonio cultural realizar TDM con fines de investigación científica y bajo acceso legal (artículo 3 de la Directiva). Hay dos problemas para invocar esta excepción en el entrenamiento de IAPG. Primero, los investigadores han expresado dudas sobre su aplicabilidad técnica. De hecho, los titulares de derechos pueden aplicar medidas tecnológicas de protección (TPM), como interfaces de programación restrictivas, para controlar la TDM, lo que impediría a los investigadores ejercer plenamente su derecho. Segundo, la ambigüedad del requisito de “acceso legal” complica aún más la aplicación práctica de la excepción. En este contexto, los interesados podrían optar por acuerdos de licencia en lugar de confiar en la excepción. Como han señalado varios agentes, algunos Estados miembros han ampliado el marco legal para la investigación científica en su transposición de la Directiva, incluyendo también el derecho de comunicación al público, además de la reproducción y extracción.

La segunda excepción permite la TDM siempre que “no haya sido expresamente reservada por sus titulares de derechos de forma adecuada, como mediante medios legibles por máquina…” (artículo 4 de la Directiva). Esto se conoce como la excepción de exclusión voluntaria (“opt-out”). Los interesados han debatido la definición de “legible por máquina” y la duración durante la cual pueden conservarse las reproducciones de obras. En cuanto a “legible por máquina”, los proveedores de IAPG apoyan la adopción de un archivo estandarizado de fácil acceso, como robots.txt. Un tribunal alemán dictaminó recientemente que incluir el opt-out en lenguaje natural (por ejemplo, en los términos de uso) cuenta como exclusión legible por máquina. Los expertos señalaron que esta decisión podría ser apelada “dado los problemas jurídicos fundamentales involucrados y la ambigüedad de la ley…”. Los investigadores añadieron que el mecanismo de opt-out probablemente falle cuando los titulares de derechos no tengan derechos administrativos sobre la página web que muestra sus obras, ya que no pueden añadir ellos mismos la exclusión. En cuanto a la duración durante la que se pueden conservar las reproducciones, la excepción lo permite mientras sea necesario para la TDM. Sin embargo, los proveedores de IAPG pueden necesitarlas para procesos posteriores como la evaluación de modelos.

Posibles próximos pasos

Varios Estados miembros crearon un Grupo de Trabajo sobre Infraestructura de Derechos de Autor en 2023 para ayudar a la Comisión a encontrar soluciones. Mientras tanto, el Consejo de la UE publicó un resumen en diciembre de 2024 con las opiniones de los Estados miembros sobre el asunto. Varios de ellos afirman que “los usos de contenidos protegidos por derechos de autor para el entrenamiento de IA van más allá del alcance de la excepción de TDM”. La mayoría considera que no es necesario introducir un nuevo instrumento legislativo en esta etapa, y prioriza la implementación y el seguimiento del marco legal existente.

La comisaria Henna Virkkunen sugirió en octubre de 2024 que la Comisión debería investigar si mecanismos de licenciamiento específicos facilitarían la firma de licencias entre las industrias creativas y las empresas de IA. A diferencia de los requisitos de la Directiva de derechos de autor para ciertos usos de contenidos protegidos por servicios en línea, la Ley de IA no menciona los acuerdos de licencia en el contexto del entrenamiento de IAPG.

Si bien el Código de Buenas Prácticas para la IAPG no tendrá el mandato de cambiar el marco jurídico de los derechos de autor de la UE, esta guía podría ser un paso intermedio antes de la revisión de la Directiva de derechos de autor, prevista legalmente para junio de 2026. Una versión revisada de la Directiva podría abordar las limitaciones e incertidumbres identificadas en el entrenamiento de IAPG con obras protegidas por derechos de autor.

Declaración de la IFLA sobre derechos de autor e inteligencia artificial

International Federation of Library Associations and Institutions (IFLA). 2025. IFLA Statement on Copyright and Artificial Intelligence (AI). Publicado el 6 de abril de 2025. https://repository.ifla.org/handle/20.500.14598/3927

Texto completo

Este documento está diseñado para ayudar a las bibliotecas miembros de la IFLA a abordar las cuestiones de derechos de autor relacionadas con el uso de la inteligencia artificial (IA) y para apoyar el desarrollo de programas y servicios bibliotecarios pertinentes. Esta declaración también respalda el trabajo del Grupo de Interés Especial en Inteligencia Artificial de la IFLA.

Gracias a su capacidad para regular la forma en que se accede a la información, se utiliza, se comparte y se crea, las leyes de derechos de autor tienen potencialmente un papel importante a la hora de decidir no sólo cómo se entrenan los nuevos modelos de IA, sino también cómo se pueden utilizar. Teniendo en cuenta las ambiciones y reservas de las bibliotecas en relación con la IA, una nueva Declaración de la IFLA, elaborada por el Comité Asesor sobre Derechos de Autor y otros Asuntos Legales y aprobada por la Junta de Gobierno, establece recomendaciones tanto para los gobiernos como para las bibliotecas.

Para las bibliotecas, la IA ofrece posibilidades apasionantes de hacer más con la información y el conocimiento, pero también plantea interrogantes sobre cómo aplicar principios arraigados a esta nueva tecnología.

La IFLA, así como otros agentes bibliotecarios, están realizando una valiosa labor para elaborar orientaciones y sugerencias para los bibliotecarios sobre cómo pueden trabajar con la IA. Sin embargo, más allá de la aplicación de nuestros propios códigos de ética y práctica, las leyes también pueden tener un impacto significativo en el desarrollo de la IA, así como en su uso.

Los derechos de autor son uno de los tipos de leyes más destacados en este sentido, y han sido objeto de intensos debates en muchos países diferentes, así como en distintos ámbitos de las Naciones Unidas

El debate -como suele ocurrir en el ámbito de los derechos de autor- se centra en el conflicto entre la industria de los derechos de autor y las grandes empresas de IA. Sin embargo, con demasiada frecuencia este debate no deja espacio para centrarse en las prioridades de las bibliotecas: permitir el acceso a la información, la educación, la investigación y la participación cultural. También tiende a centrarse únicamente en las soluciones a los retos relacionadas con los derechos de autor, en lugar de reflexionar de forma holística sobre qué herramientas pueden ser las mejores para alcanzar los objetivos deseados.

La declaración de la IFLA sobre derechos de autor e inteligencia artificial ha sido preparada por el Comité Asesor sobre Derechos de Autor y otros Asuntos Legales de la IFLA, en colaboración con el Grupo de Interés Especial en Inteligencia Artificial de la IFLA y otros. En ella se exponen consideraciones y recomendaciones clave. Comienza subrayando el potencial de la IA para apoyar a las bibliotecas en el logro de sus misiones, así como los crecientes esfuerzos para restringir la formación en IA.

La Declaración también señala que algunos países ya cuentan con leyes de derechos de autor lo suficientemente flexibles como para permitir el desarrollo de nuevas tecnologías, y subraya la importancia de mirar más allá de las leyes de derechos de autor para encontrar soluciones a los retos que sin duda existen.

En cuanto a las recomendaciones, pide que se promuevan las limitaciones y excepciones que permitan la extracción de textos y datos de contenidos legítimamente adquiridos o a los que se haya accedido, así como el acceso a conjuntos de datos lo más amplios posible como defensa contra la parcialidad y el error.

Las bibliotecas también pueden contribuir a ello preparando las colecciones para la IA con las licencias adecuadas y respetando los principios FAIR y CARE. Y lo que es más importante, sugiere que los derechos de autor no se utilicen como una herramienta contundente para abordar cuestiones éticas, y respalda la declaración de ICOLC sobre inteligencia artificial y licencias.

La declaración subraya el abanico de medidas prácticas que pueden adoptar tanto los gobiernos como las bibliotecas, desde la creación de capacidad y concienciación, pasando por la toma de decisiones éticas en torno a las herramientas de IA, hasta el desarrollo de orientación y capacidad de supervisión.

TRADUCCIÓN

Consideraciones

  • La aparición de tecnologías de IA plantea muchas consideraciones para las bibliotecas, incluyendo cómo se utiliza el contenido y por quién. Las bibliotecas están en una posición única para liderar en este ámbito, reafirmando y avanzando su papel como innovadoras: desde apoyar el entrenamiento de la IA, incluir contenido generado por IA en las colecciones bibliotecarias, utilizarla para ayudar en la catalogación y en el descubrimiento de colecciones o ítems, hasta mejorar y prestar de manera más eficiente servicios bibliotecarios esenciales como los de referencia y préstamo interbibliotecario.
  • Al mismo tiempo, también estamos viendo cómo los titulares de derechos buscan restringir el uso del contenido para el entrenamiento, e incluso el uso de herramientas de IA en el desempeño del trabajo que apoya el cumplimiento de la misión de las bibliotecas.
  • En muchos países, la legislación vigente sobre derechos de autor (tanto los derechos económicos como los morales) ha evolucionado y se ha adaptado para dar cabida a tecnologías innovadoras y está bien equipada para abordar las preocupaciones legítimas de los creadores, incluyendo a las bibliotecas en su rol como creadoras de procesos y servicios basados en IA. Sin embargo, este no es el caso en todas partes.
  • En muchos países, también existen legislaciones y principios relacionados con la IA fuera del ámbito del derecho de autor. Para las cuestiones que no están relacionadas con los derechos de autor —como la salud, la seguridad, la privacidad y las preocupaciones éticas derivadas del desarrollo y uso de la IA en programas y servicios bibliotecarios—, las bibliotecas deben buscar la fuente de información política más apropiada como guía. Las bibliotecas deberían considerar la implementación o la recomendación a sus usuarios de herramientas de IA que adopten un enfoque basado en valores. Por ejemplo, las herramientas de IA no deberían comprometer la libertad de expresión, la privacidad u otras áreas de preocupación (como los impactos medioambientales y las limitaciones a la autonomía humana).

Recomendaciones

  • En las jurisdicciones donde la legislación sobre derechos de autor no respalda los usos bibliotecarios típicos y en evolución de la IA, las bibliotecas deberían abogar por una expansión de las limitaciones y excepciones existentes para la investigación, de manera que se permitan usos como la minería de texto y datos (TDM), incluyendo con fines de entrenamiento de IA, sobre contenido al que se haya accedido o adquirido legalmente.
  • Las bibliotecas están comprometidas a abordar los sesgos a medida que enfrentan desafíos en materia de derechos de autor. El acceso limitado a datos o recursos puede generar sesgos en los sistemas de IA; por tanto, las bibliotecas deben abogar por el acceso más amplio posible a los materiales, así como preparar las colecciones para la IA con licencias apropiadas, respetando al mismo tiempo los principios FAIR y CARE. Estos esfuerzos deben combinarse con una supervisión continua de los servicios de IA en bibliotecas para garantizar el respeto a la diversidad y el acceso equitativo a la información.
  • Las bibliotecas deben desarrollar capacidades, aumentar la concienciación y ofrecer formación esencial sobre tecnologías emergentes —incluida la IA— para apoyar a empleados, investigadores y otros usuarios bibliotecarios. Deben prestar especial atención a la transparencia e integridad de las herramientas de IA que desarrollen o a las que den acceso, aplicando herramientas de buenas prácticas disponibles. Además, las bibliotecas deben continuar apoyando a los autores en este contexto en evolución.
  • Los gobiernos deben guiarse por los convenios internacionales de derechos humanos en el desarrollo de leyes y regulaciones relacionadas con la IA. El derecho de autor no debería utilizarse como una herramienta contundente para abordar preocupaciones éticas u otras preocupaciones derivadas de la IA.
  • Los gobiernos deben apoyar los esfuerzos de las bibliotecas y otros actores para desarrollar prácticas éticas en respuesta a preocupaciones vinculadas al uso de herramientas de IA, como las desarrolladas por ARL. También deben respaldar iniciativas para aplicar herramientas apropiadas destinadas a proteger, por ejemplo, el conocimiento tradicional (como propone ALIA).
  • Los gobiernos y las empresas de IA deben poner a disposición recursos para apoyar repositorios en los que la copia de contenido con fines de entrenamiento de IA pueda reducir el rendimiento para otros usuarios.
  • Los titulares de derechos y los proveedores no deben incluir cláusulas contractuales que impidan o restrinjan indebidamente el uso de la IA por parte de los usuarios de bibliotecas, ni que impidan el uso de excepciones previstas en la legislación sobre derechos de autor, según la normativa nacional o la jurisprudencia relevante. En este sentido, la IFLA respalda la declaración del ICOLC sobre licencias de IA.

Aprobado por la Junta Directiva de la IFLA, 4 de abril de 2025.

Un grupo de autores demandan a Meta por uso no autorizado de sus e-books en entrenamiento de IA

Wiggers, Kyle. «Law Professors Side with Authors Battling Meta in AI Copyright Case.» TechCrunch, April 11, 2025. https://techcrunch.com/2025/04/11/law-professors-side-with-authors-battling-meta-in-ai-copyright-case/

Un grupo de profesores especializados en derecho de autor ha presentado un informe amicus curiae en apoyo de los autores que están demandando a Meta, acusando a la empresa de entrenar sus modelos de inteligencia artificial Llama con libros electrónicos sin permiso.

El informe, presentado el viernes en el Tribunal de Distrito de los EE.UU. para el Distrito Norte de California, sostiene que la defensa de «uso legítimo» de Meta representa una solicitud exagerada de privilegios legales que nunca se han otorgado a los autores humanos.

Según el informe, el uso de obras con derechos de autor para entrenar modelos generativos no es «transformador», ya que no se diferencia de usar las obras para educar a autores humanos, que es uno de los propósitos originales de esas obras. Además, se argumenta que el uso tiene un propósito comercial, ya que permite la creación de trabajos que compiten directamente con las obras originales.

La Asociación Internacional de Editores Científicos, Técnicos y Médicos, junto con la Copyright Alliance y Association of American Publishers., también presentaron informes de apoyo a los autores.

En el caso Kadrey v. Meta, los autores Richard Kadrey, Sarah Silverman y Ta-Nehisi Coates acusan a Meta de violar sus derechos de propiedad intelectual al utilizar sus libros electrónicos para entrenar modelos y eliminar la información de derechos de autor para ocultar la infracción. Meta, por su parte, argumenta que su uso es legítimo y que el caso debe ser desestimado por falta de legitimación activa de los autores.

El juez del Tribunal de Distrito de EE. UU. Vince Chhabria permitió que el caso siguiera adelante, aunque desestimó parte de la demanda, señalando que la alegación de infracción de derechos de autor es suficiente para que los autores tengan legitimación para demandar.

Anthropic gana la primera batalla en la denuncia sobre los derechos de autor por uso de IA interpuesta por las compañías musicales

Brittain, Blake. «Anthropic Wins Early Round in Music Publishers’ AI Copyright CaseReuters, March 26, 2025. https://www.reuters.com/legal/anthropic-wins-early-round-music-publishers-ai-copyright-case-2025-03-26/

Un juez federal de California, Eumi Lee, desestimó la solicitud preliminar de las editoras para bloquear el uso de sus letras, considerando que la petición era demasiado amplia y que no se había demostrado que el uso de las letras causara un «daño irreparable»

Anthropic, la empresa de inteligencia artificial, ha logrado una victoria legal al convencer a un juez federal de California para que desestimara una solicitud preliminar que intentaba bloquear el uso de letras protegidas por derechos de autor en el entrenamiento de su chatbot Claude. En 2023, editores musicales como Universal Music Group, Concord y ABKCO demandaron a Anthropic, alegando que la empresa había infringido sus derechos de autor al utilizar letras de más de 500 canciones sin autorización. Sin embargo, el juez determinó que no se había probado un «daño irreparable» y consideró que la solicitud era excesivamente amplia.

Las editoras, que acusaron a Anthropic de utilizar letras de artistas como Beyoncé, Rolling Stones y Beach Boys sin permiso para entrenar a Claude, argumentaron que la empresa estaba violando sus derechos. No obstante, el juez Lee destacó que el caso plantea una cuestión aún sin resolver: la aplicación de la doctrina de «uso justo» para el uso de material protegido en el entrenamiento de sistemas de IA, un tema que podría ser clave en futuros litigios.

Este caso se inscribe dentro de un debate más amplio sobre el uso de contenido con derechos de autor para entrenar modelos de IA. Grandes empresas tecnológicas como OpenAI, Microsoft y Meta Platforms defienden que su uso de material protegido se ampara bajo la figura del «uso justo» según la legislación estadounidense de derechos de autor, una cuestión que probablemente será central en futuros casos legales.

El arte creado de forma autónoma por la IA no puede estar protegido por derechos de autor

NBC News. “Art Created Autonomously by AI Cannot Be Copyrighted, Federal Appeals Court Rules.NBC News, March 19, 2025. https://www.nbcnews.com/business/business-news/art-created-autonomously-ai-cannot-copyrighted-federal-appeals-court-r-rcna197148

Un tribunal federal de apelaciones en Washington, D.C., ha dictaminado que las obras de arte creadas de forma autónoma por inteligencia artificial (IA) no pueden ser protegidas por derechos de autor en Estados Unidos, ya que la autoría humana es un requisito esencial para dicha protección.

Un tribunal federal de apelaciones dictaminó que el arte creado de forma autónoma por la inteligencia artificial no puede ser objeto de derechos de autor, diciendo que al menos la autoría humana inicial es necesaria para un derecho de autor. Los derechos de autor conceden protección de la propiedad intelectual a las obras originales, otorgando a sus propietarios derechos exclusivos para reproducirlas, venderlas, alquilarlas y exhibirlas. El fallo del martes confirmó una decisión de la Oficina de Derechos de Autor de EE.UU. que negaba al informático Stephen Thaler los derechos de autor de un cuadro creado por IA.Jonathan Raa / NurPhoto via Getty Images file

La sentencia refleja una perspectiva de larga data que considera la autoría humana como un componente fundamental del derecho de autor. Este caso es uno de los primeros intentos de las autoridades estadounidenses por abordar las implicaciones legales de la creciente industria de la IA generativa. Este fallo confirma la decisión previa de la Oficina de Derechos de Autor de EE.UU., que negó el registro de una imagen generada por el sistema de IA «Creativity Machine» de Stephen Thaler, argumentando que solo las obras con autores humanos son susceptibles de protección por derechos de autor.

Thaler y su abogado han expresado su intención de apelar la decisión, mientras que la Oficina de Derechos de Autor ha respaldado el fallo del tribunal. Este fallo subraya las complejidades legales que rodean el uso de la IA en la creación de obras y plantea preguntas sobre cómo se protegerán los derechos de autor en el futuro a medida que la tecnología continúe avanzando.

Copyright y obras generadas por IA: el caso Zarya of the Dawn y sus implicaciones legales

Pina, Carolina. 2023. «Copyright and AI-Generated Works: Zarya of the DawnGarrigues Digital, March 16, 2023. https://www.garrigues.com/en_GB/garrigues-digital/copyright-and-ai-generated-works-zarya-dawn

El 23 de febrero de 2023, la Oficina de Copyright de Estados Unidos (USCO) revocó el registro de derechos de autor de la obra Zarya of the Dawn, un cómic creado parcialmente mediante inteligencia artificial (IA). Aunque figuraba como autora Kristina Kashtanova, el motivo de la cancelación fue claro: las imágenes generadas por IA no son fruto de la creatividad humana directa, requisito esencial para que una obra sea protegida por derechos de autor.

Kashtanova defendió que había intervenido activamente proporcionando indicaciones detalladas («prompts») a Midjourney, la IA utilizada. Según ella, fueron necesarios cientos de indicaciones para lograr el resultado deseado. Sin embargo, la USCO argumentó que, aunque los prompts pueden influir, el resultado final sigue siendo impredecible y escapa al control absoluto del humano, pues las IA no siguen órdenes específicas sino que interpretan sugerencias.

Además, se descartó el argumento del «sweat of the brow» (esfuerzo invertido), ya que el copyright no protege simplemente el trabajo arduo o el tiempo empleado, sino la creatividad original.

Según la legislación vigente, tanto en EE. UU. como en la Unión Europea, hay consenso en torno a dos ideas fundamentales para otorgar protección:

  • La obra debe ser fruto de una creación humana.
  • Debe poseer un mínimo de originalidad y reflejar elecciones libres y creativas del autor

En línea con esto, el Parlamento Europeo ya advirtió en 2020 sobre la necesidad de distinguir entre:

  • Creaciones asistidas por IA (donde el humano lidera el proceso creativo).
  • Creaciones generadas por IA de forma autónoma, que presentan un vacío legal, al no cumplir con el principio de originalidad vinculado a una persona natural.

Aunque simples o complejos, los prompts podrían ser protegibles por derechos de autor si son suficientemente creativos. Esto ha dado lugar al surgimiento de una nueva figura profesional: el prompt engineer (ingeniero de indicaciones), pero hasta ahora, los textos de prompts suelen considerarse solo una herramienta previa al resultado final, no como una obra en sí misma.

Iowa impulsa una ley para la criminalización de bibliotecarios, la censura y el control político en las bibliotecas públicas

Jensen, Kelly. «Iowa Rushes, Advances Librarian Criminalization BillBook Riot, February 19, 2025. https://bookriot.com/iowa-rushes-advances-librarian-criminalization-bill/

En un contexto de crecientes iniciativas legislativas en Estados Unidos que buscan restringir el acceso a libros y criminalizar el trabajo de bibliotecarios, Iowa ha avanzado con inusitada rapidez en la tramitación del proyecto de ley HF 274. Esta propuesta, introducida el 10 de febrero de 2025 por la representante Helena Hayes (Distrito 88 de Iowa), ya ha superado el Comité de Educación de la Cámara de Representantes estatal, lo que le permite avanzar a debate y votación en el pleno de la Cámara.

HF 274 propone eliminar las protecciones que actualmente tienen las bibliotecas públicas y las instituciones educativas respecto a la posesión y circulación de materiales considerados “obscenos”. Además, la ley plantea nuevas restricciones sobre el acceso de menores a las bibliotecas públicas, limitando su derecho a asistir a eventos o a consultar cualquier material disponible si se considera que en la institución hay contenido «obsceno». En la práctica, esto podría traducirse en la prohibición de la entrada de menores de 18 años a bibliotecas que alberguen libros considerados inapropiados por ciertos sectores políticos o religiosos.

El término «obsceno», sin embargo, ha sido manipulado en este tipo de legislaciones para censurar principalmente libros con temáticas LGBTQ+. Aunque legalmente la obscenidad se define a través del Test de Miller, un criterio de tres pasos establecido por la Corte Suprema de EE.UU., en la práctica, legislaciones como HF 274 buscan aplicar esta etiqueta de manera arbitraria para justificar la eliminación de obras que incomodan a ciertos sectores políticos y religiosos. Un antecedente claro es la aprobación del Senate File 496 en 2023, una ley que ya restringía el acceso a ciertos libros en las escuelas públicas de Iowa.

El avance de HF 274 se enmarca en una tendencia nacional de censura y ataques contra las bibliotecas. Un caso emblemático ocurrió en 2023 en la Biblioteca Pública de Pella, donde la novela gráfica Gender Queer, de Maia Kobabe, fue blanco de una intensa campaña de censura. Grupos locales intentaron cambiar la estructura de gobierno de la biblioteca para colocarla bajo control de funcionarios electos, lo que habría permitido censurar materiales con mayor facilidad. Aunque esta iniciativa fracasó, evidenció los recursos y estrategias empleados por grupos que buscan restringir el acceso a determinados contenidos.

La aprobación de HF 274 no solo limitaría el acceso a la información en bibliotecas públicas, sino que también podría abrir la puerta a demandas legales contra las instituciones y los bibliotecarios, como ha sucedido en Idaho. Allí, una ley reciente permite que los padres demanden a las bibliotecas si no retiran con suficiente rapidez libros que consideren inapropiados. Además, otras legislaciones similares en Utah y Carolina del Sur ya han impuesto sanciones económicas a bibliotecas y escuelas por mantener ciertos títulos en sus colecciones.

En paralelo, el Senado de Iowa está tramitando otro proyecto de ley, SF 116, que busca penalizar con cargos criminales a bibliotecarios y educadores que organicen eventos de drag en bibliotecas o que posean material considerado “obsceno” al alcance de menores. La combinación de HF 274 y SF 116 supondría una transformación radical del sistema de bibliotecas y educación pública en Iowa, convirtiéndolos en herramientas de control político y moral, y socavando su función de servicio público accesible a todos.

Los promotores de estas leyes justifican su avance en la defensa de los “derechos de los padres” y la protección de los menores. Sin embargo, lo que realmente ocurre es una reconfiguración del concepto de obscenidad para imponer restricciones basadas en intereses ideológicos y partidistas. En lugar de permitir que los padres decidan qué pueden leer sus hijos, estas leyes otorgan al gobierno el poder de definir qué es aceptable y qué no en los espacios públicos.

Además de afectar directamente a los usuarios de las bibliotecas, estas medidas también buscan deslegitimar la labor profesional de los bibliotecarios, al considerarlos actores prescindibles en la gestión de la información y el acceso a la cultura. Esto representa una amenaza grave para la integridad del sistema bibliotecario y el derecho de los ciudadanos a acceder libremente al conocimiento.

El caso de Iowa es un reflejo de una batalla más amplia que se está librando en todo Estados Unidos, donde los intentos de censura en bibliotecas públicas y escolares están en aumento. La rapidez con la que se ha tramitado HF 274 demuestra que sus impulsores buscan minimizar el debate público y evitar la movilización en su contra.

Identificación de las implicaciones económicas de la inteligencia artificial para la política de derechos de autor

: Lutes, Brent A. ed., Identifying the Economic Implications of Artificial Intelligence for Copyright Policy: Context and Direction for Economic Research, U.S. Copyright Office, 2025

Texto completo

Las cuestiones económicas en torno a la inteligencia artificial (IA) son amplias y complejas. Este análisis no pretende abordarlas en su totalidad ni ofrecer respuestas definitivas, sino identificar las preguntas económicas más relevantes en el contexto específico de la política de derechos de autor y proporcionar un marco para aplicar las respuestas provenientes de la comunidad económica a los debates de políticas públicas.

Antes de ello, se ofrece un repaso sobre la economía del copyright, los términos clave y el contexto tecnológico. El documento se divide en siete partes:

  • Partes 2, 3 y 4: Analizan el impacto de la IA en la producción de contenido, incluyendo la competencia entre obras generadas por IA y creaciones humanas, la replicación de obras humanas por parte de la IA y los derechos de imagen y publicidad.
  • Partes 5 a 8: Se centran en el uso de obras con copyright como insumo para la IA, abordando su efecto en los incentivos creativos, el desarrollo tecnológico e industrial de la IA, el control de acceso a obras protegidas y los efectos colaterales de las políticas de IA.

Dado que estos temas están interconectados (por ejemplo, el poder de mercado influye en varios de ellos), es esencial considerarlos de manera integral y no abordar cada cuestión de forma aislada.

Thomson Reuters gana una sentencia de «uso justo» de los derechos de autor de IA contra Ross Intelligence

Reuters. «Thomson Reuters Wins AI Copyright Fair Use Ruling Against One-Time Competitor.» Reuters, 11 de febrero de 2025. https://www.reuters.com/legal/thomson-reuters-wins-ai-copyright-fair-use-ruling-against-one-time-competitor-2025-02-11/

Sentencia

El fallo reciente de un juez federal en Delaware a favor de Thomson Reuters en un caso de derechos de autor contra Ross Intelligence ha generado un importante precedente legal en el ámbito de la inteligencia artificial (IA) y el uso de contenido protegido. Este veredicto, emitido por el juez Stephanos Bibas, es el primero en los Estados Unidos que aborda específicamente la doctrina de uso justo (fair use) en el contexto de litigios relacionados con la IA.

Ross Intelligence, una firma de investigación legal que ya no está operativa, fue acusada de utilizar contenido protegido por derechos de autor de Thomson Reuters para desarrollar una plataforma de investigación legal basada en IA que competía directamente con Westlaw, el reconocido servicio de investigación legal de Thomson Reuters. En su decisión, Bibas reconsideró un fallo anterior en el que había sugerido que la determinación sobre el uso justo debería ser realizada por un jurado. Tras un análisis más detallado de los materiales del caso, el juez concluyó que Ross había infringido los derechos de autor al desarrollar un sustituto de mercado utilizando contenido de Thomson Reuters.

La doctrina de uso justo permite, bajo ciertas condiciones, el uso de obras protegidas sin permiso expreso, como en parodias, investigación no comercial o producción de noticias. Sin embargo, los tribunales evalúan el uso justo mediante un test de cuatro factores: el propósito del uso, la naturaleza de la obra original, la cantidad utilizada y el impacto en el valor de mercado de la obra original. Thomson Reuters prevaleció en dos de estos cuatro factores, y el juez Bibas enfatizó que el cuarto factor, el impacto en el mercado, era el más crucial, ya que Ross buscaba competir directamente con Westlaw.

Este fallo ha generado preocupación entre las empresas de IA, ya que podría influir en otros casos similares en curso contra gigantes tecnológicos como OpenAI y Microsoft. James Grimmelmann, profesor de derecho digital e internet en la Universidad de Cornell, señaló que si esta decisión se adopta en otros tribunales, representaría un obstáculo significativo para las empresas de IA generativa, ya que muchos de los argumentos legales que utilizan para defenderse podrían considerarse irrelevantes.

Es importante destacar que este caso involucra una IA no generativa, a diferencia de las herramientas de IA generativa como los modelos de lenguaje de gran tamaño (LLM). Ross Intelligence cerró en 2021, alegando que la demanda de Thomson Reuters era infundada, pero que no podía recaudar suficientes fondos para continuar operando mientras se enfrentaba al litigio.

Este precedente podría afectar profundamente el desarrollo y uso de la IA, especialmente en el contexto de la utilización de contenido protegido, y plantea interrogantes sobre cómo las empresas de tecnología podrán entrenar sus modelos sin infringir derechos de autor. A medida que otros casos similares avanzan en los tribunales, la industria de la IA está atenta a las posibles implicaciones legales de este fallo.