Archivo de la etiqueta: Derechos de autor

los derechos de autor en la era de la Inteligencia Artificial generativa

Chaudhry, Uzma; Borda, Ann; Forbes, Stephanie; Jones, Joe; Perini, Antonella Maia; Rättzén, Mattias; Stewart-David, Mary. Creative Grey Zones: Copyright in the Age of Hybridity. The Alan Turing Institute, 2025. https://www.turing.ac.uk/news/publications/creative-grey-zones-copyright-age-hybridity

El informe analiza cómo la IA generativa tensiona las leyes de derechos de autor al usar obras protegidas para entrenar modelos sin consentimiento claro. Identifica “zonas grises” donde se mezclan autoría humana, producción automatizada y vacíos legales. Propone comprender estos dilemas éticos, técnicos y jurídicos para guiar futuras reformas del copyright.

El informe Creative Grey Zones: Copyright in the Age of Hybridity del The Alan Turing Institute examina cómo el auge de la inteligencia artificial generativa está forzando una reevaluación global de las leyes de derecho de autor. Parte del problema radica en que los modelos de IA se entrenan utilizando enormes cantidades de material protegido por derechos de autor —sin autorización explícita de los titulares—, y luego generan nuevos contenidos derivados de ese entrenamiento. Este uso masivo pone en tensión la eficacia de los marcos legales tradicionales que regulan la autoría

El informe identifica cuatro “zonas grises” donde convergen ética, derecho, estándares técnicos y actores híbridos (usuarios, desarrolladores, titulares de derechos, reguladores), y en las que la frontera entre creación humana y producción automatizada se vuelve difusa.

Su propósito es mapear este panorama complejo —no dictar soluciones definitivas—, aportando un análisis multidisciplinar que permita un diálogo informado para futuras reformas normativas.

Entre las tensiones destacadas, están: la dificultad de definir cuándo una obra generada o asistida por IA sigue siendo fruto de creatividad humana; los dilemas sobre consentimiento o remuneración a los autores originales cuyos trabajos alimentan los modelos; y la necesidad de adaptar las leyes de copyright para incluir nuevos tipos de “stakeholders híbridos”. El informe subraya que estos retos no son puramente técnicos sino profundamente sociales y legales, lo que exige repensar las bases mismas de la autoría y la protección intelectual en la era de la IA.

¿Quién es el propietario de qué en lo que respecta a la IA y la propiedad intelectual?

Sharma, Seemantani. 2025. “Who owns what when it comes to AI and intellectual property?World Economic Forum, octubre 2025. https://www.weforum.org/stories/2025/10/intellectual-property-ai-human-creativity-ownership/

La cuestión de si las creaciones generadas por inteligencia artificial (IA) pueden considerarse objeto de propiedad intelectual, cuestionando si una IA puede ser reconocida como “autora” o “inventora”. Señala que los sistemas actuales de IA, por más sofisticados que sean, no tienen conciencia, experiencia subjetiva ni intencionalidad, lo que —según las teorías tradicionales de derechos de autor y patentes— impide que sean titulares de derechos.

La IA ya genera arte, diseña medicamentos e imita la imaginación humana. Esto plantea una pregunta fundamental. ¿Quién, si es que hay alguien, es el verdadero propietario de estas creaciones? ¿Se puede considerar a la IA como autora o inventora? ¿O los derechos pertenecen exclusivamente a los seres humanos?

Históricamente, los regímenes de propiedad intelectual (derechos de autor, patentes, marcas) se han fundamentado en la idea de creatividad humana: un autor humano ejerce un trabajo intelectual que refleja su personalidad, identidad o esfuerzo mental. Como una máquina no realiza ese tipo de “labor” en sentido humano —no tiene un “yo”, emociones o conciencia—, la ley hasta ahora considera que los resultados generados por IA pertenecen, en última instancia, a personas humanas, si es que hay un autor humano que haya intervenido.

El artículo destaca que muchas de las creaciones producidas por IA —arte, diseños, descubrimientos— pueden ser sorprendentes y funcionales, pero carecen del contexto emocional, intencional y experiencial que caracteriza la creatividad humana. Por tanto, aunque la IA pueda “producir” cosas, no puede reemplazar la acción creativa humana. En consecuencia, seguir otorgando la autoría a seres humanos protege la responsabilidad, la dignidad, la identidad y la justicia en el reconocimiento del trabajo intelectual.

Sin embargo, los autores del artículo advierten de que la creciente sofisticación de la IA y su uso masivo para generar contenido plantea un desafío real al marco legal tradicional. Podría ser necesario repensar la noción de propiedad intelectual: considerar modelos de propiedad compartida, nuevas categorías legales o marcos normativos que reconozcan la colaboración entre humanos y máquinas, sin perder de vista la protección de los derechos humanos y creativos. La decisión que tomemos hoy definirá el futuro de la autoría, la innovación y el valor de la creatividad en la era de la IA.

Código de Buenas Prácticas en el Uso Justo para Bibliotecas universitarias y de Investigación

Association of Research Libraries, Code of Best Practices in Fair Use for Academic and Research Libraries (Washington, DC: ARL, enero de 2012)

Texto completo

El documento presenta un conjunto de buenas prácticas desarrolladas por y para bibliotecas académicas e investigadoras en Estados Unidos para orientar la aplicación de la doctrina de “uso justo” (fair use) en el entorno bibliotecario.

Desde su introducción, el texto explica que el uso justo es un derecho flexible que permite el uso de materiales protegidos por derechos de autor sin permiso ni pago bajo ciertas circunstancias, cuando el beneficio social o cultural prevalece.

Reconoce que la ley de derechos de autor no ofrece fórmulas rígidas y que la evaluación de si un uso es justo depende del contexto, los hechos, las normas del campo y del juicio de buena fe.

El código organiza su orientación alrededor de ocho situaciones recurrentes en las que las bibliotecas académicas pueden aplicar el uso justo. Estas situaciones incluyen, entre otras: facilitar el acceso a materiales de la biblioteca mediante tecnologías digitales para la enseñanza y el aprendizaje; emplear fragmentos de la colección para exposiciones o difusión de actividades de la biblioteca; digitalizar materiales en riesgo; poner a disposición colecciones especiales archivísticas en formato digital; reproducir materiales para usuarios con discapacidades; preservar la integridad de los trabajos depositados en repositorios institucionales; crear bases de datos para investigación no consumptiva (por ejemplo, búsqueda, análisis de datos); y recolectar material publicado en la web para uso académico.

Para cada situación, el código ofrece un principio (que afirma que en esa circunstancia es “uso justo”), junto con limitaciones (factores que reducen la fuerza del argumento de uso justo) y mejoras (prácticas que fortalecen dicho argumento). Por ejemplo, en el contexto de la enseñanza digital, se sugiere que el acceso esté limitado a estudiantes matriculados, durante la duración del curso, con atribución completa, y que se ofrezca justificación pedagógica por parte del instructor.

Asimismo, el documento destaca que su objetivo no es restringir la aplicación del uso justo, sino habilitarla dentro del marco de riesgo razonable, ayudando a las bibliotecas a desarrollar una estrategia de gestión de riesgos basada en criterios comunitarios.
Association of Research Libraries

En definitiva, este código se presenta como una herramienta de apoyo para bibliotecas universitarias e investigadoras, aportando un consenso profesional sobre cómo pueden ejercer el uso justo con responsabilidad, transparencia y coherencia institucional.

Mensajes internos de OpenAI podrían costarle miles de millones en demandas por derechos de autor

OpenAI’s Internal Slack Messages Could Cost It Billions in Copyright Suit.” Sherwood News, [fecha de publicación]. https://sherwood.news/power/openais-internal-slack-messages-could-cost-them-billions-in-copyright-suit/

El artículo analiza cómo OpenAI se encuentra en una situación altamente comprometida debido a comunicaciones internas —especialmente mensajes de Slack y correos electrónicos— que han sido reveladas durante un litigio por infracción de derechos de autor.

Los demandantes, un grupo de autores y editoriales, han obtenido acceso a ciertas conversaciones internas en las que se discute el uso de un conjunto de datos formado por obras con copyright sin licencia, así como la eliminación posterior de dicho material. Dichas evidencias podrían indicar no solo infracción, sino también conducta intencionada, lo que eleva el riesgo de que OpenAI tenga que pagar compensaciones extraordinarias.

El texto señala que, si se demuestra que OpenAI actuó sabiendo que utilizaba obras protegidas sin permiso, la empresa podría enfrentarse a daños punitivos de hasta 150.000 dólares por obra individual —una cifra que, multiplicada por millones de obras, podría ascender a miles de millones de dólares en pasivos potenciales. Además, el hecho de que se hayan eliminado datos y de que ciertas comunicaciones sobre esa eliminación estén siendo investigadas, abre la posibilidad de sanciones graves, como instrucciones desfavorables al jurado o la imposición de que se asuma que la conducta fue deliberada.

Otro punto crítico es que la filtración y revelación de estas comunicaciones internas afecta directamente la credibilidad de la defensa de la empresa. OpenAI ha argumentado que ciertas decisiones se tomaron por inactividad o falta de uso del material, pero las conversaciones sugieren deliberación sobre el borrado de datos recogidos de plataformas no autorizadas. Esto pone en juego la llamada excepción del crimen‑fraude, una vía legal que permite que se revele información habitualmente protegida por la confidencialidad abogado‑cliente si se considera que se está cometiendo un delito o fraude. Si se aplica, podría abrir aún más la caja de pandora de las comunicaciones internas de la empresa.

El artículo concluye que el caso no solo es relevante para OpenAI, sino para toda la industria de la inteligencia artificial: la cuestión de cómo se recogen, utilizan y eliminan los datos de entrenamiento —especialmente cuando incluyen obras bajo copyright— se está convirtiendo en un desafío estructural. La exposición de OpenAI podría sentar precedentes que impacten a otras compañías que entrenan modelos con grandes volúmenes de contenido sin licencia explícita. En definitiva, no es únicamente una cuestión económica de cuantificación de daños, sino una prueba sobre la gobernanza, la ética y la diligencia profesional en el desarrollo de la inteligencia artificial.

Acuerdo histórico de 1.500 millones de dólares entre Anthropic y autores por uso no autorizado de libros por su inteligencia artificial

Ortutay, Barbara. “Judge Approves $1.5 Billion Copyright Settlement Between AI Company Anthropic and Authors.” AP News, 25 de septiembre de 2025. https://apnews.com/article/anthropic-authors-copyright-judge-artificial-intelligence-9643064e847a5e88ef6ee8b620b3a44c

Un juez aprobó un acuerdo de 1.500 millones de dólares entre Anthropic y autores cuyos libros fueron usados sin permiso para entrenar su IA. Cada obra recibirá aproximadamente 3.000 dólares, aunque no cubre libros futuros. El caso sienta un precedente clave en la protección de derechos de autor frente a tecnologías de inteligencia artificial.

El 25 de septiembre de 2025, un juez federal aprobó preliminarmente un acuerdo histórico de 1.500 millones de dólares entre la empresa de inteligencia artificial Anthropic y un grupo de autores y editores. La disputa surgió cuando los autores denunciaron que la compañía había utilizado sin autorización cerca de 465.000 libros protegidos por derechos de autor para entrenar su modelo de lenguaje Claude. Este acuerdo prevé una compensación de aproximadamente 3.000 dólares por cada libro afectado, aunque no contempla obras que se publiquen en el futuro. El juez destacó la complejidad de distribuir los fondos de manera justa, pero consideró que el acuerdo era razonable y proporcionado para las partes involucradas.

La demanda original fue presentada por varios escritores que alegaban que Anthropic había recopilado ilegalmente millones de libros, almacenándolos en una biblioteca central para alimentar su sistema de inteligencia artificial. A pesar de que en una decisión previa se había reconocido que el uso de ciertos libros para entrenamiento podía considerarse un uso justo, el juez determinó que la compañía sí había infringido los derechos de autor al almacenar y explotar un volumen tan grande de obras sin permiso. Este punto resultó clave para la aprobación del acuerdo, al establecer un reconocimiento de responsabilidad por parte de la empresa.

Este acuerdo marca un precedente importante en el ámbito de la inteligencia artificial y los derechos de autor. Por primera vez, una compañía tecnológica se compromete a una compensación multimillonaria por el uso no autorizado de obras literarias, lo que podría influir en futuras disputas legales y en la manera en que los desarrolladores de IA acceden a contenido protegido. Representa un avance significativo en la protección de los autores y en la reivindicación de sus derechos frente a grandes empresas tecnológicas.

Anthropic expresó su satisfacción por la resolución, afirmando que este acuerdo les permitirá centrarse en el desarrollo de herramientas de inteligencia artificial de manera responsable y segura. El juez, por su parte, subrayó la importancia de garantizar un proceso de reclamaciones transparente, de modo que todos los autores, incluidos aquellos menos conocidos, puedan recibir una compensación justa. En conjunto, este caso refleja un punto de inflexión en la relación entre la tecnología y la propiedad intelectual, estableciendo límites claros sobre el uso de obras protegidas en la creación de sistemas de IA.

Acceso inclusivo a la información: guía canadiense sobre copyright y formatos alternativos

Canadian Association of Research Libraries (CARL) y Canadian Federation of Library Associations (CFLA). “CARL and CFLA Release New Guide on the Canadian Copyright Act for Accessible Content.” CARL News, 15 de septiembre de 2025

Texto completo

El documento busca ofrecer una visión clara y práctica de la legislación canadiense en materia de derechos de autor, centrada en el acceso, la producción y la distribución de contenidos accesibles para personas con discapacidades perceptuales

La publicación explica cómo se aplican las disposiciones vigentes, incluye un listado de verificación de requisitos legales, recopila buenas prácticas, ofrece recomendaciones para situaciones cotidianas y propone medidas para reducir barreras de acceso. También incorpora un glosario de términos clave que facilita la comprensión del marco legal (carl-abrc.ca).

El material está dirigido principalmente a productores de formatos alternativos, bibliotecas, archivos, museos, galerías, instituciones educativas y organizaciones que trabajan con personas con discapacidades perceptuales. Sin embargo, resulta igualmente útil para titulares de derechos que deseen conocer en detalle la normativa aplicable (carl-abrc.ca).

La guía subraya la necesidad de lograr una mayor coordinación entre quienes crean contenidos accesibles y los propietarios de derechos, con el fin de garantizar que toda la ciudadanía canadiense pueda acceder en igualdad de condiciones a la información y la cultura. Además, constituye la primera publicación conjunta de CARL y CFLA disponible también en formato EPUB, lo que amplía su nivel de accesibilidad.

Hasta el 70 % de las escuchas de música en Deezer son realizadas por bots de IA para cobrar regalías

Deezer. “Up to 70% of Streams of AI-Generated Music on Deezer Are Fraudulent, Says Report.The Guardian, 18 junio 2025

Siete de cada diez reproducciones de música generada por inteligencia artificial en la plataforma Deezer son fraudulentas, según la plataforma francesa de streaming.

Un informe reciente de Deezer advierte que hasta el 70 % de las reproducciones de canciones generadas íntegramente por inteligencia artificial (IA) en la plataforma son fraudulentas. Estas escuchas corresponden a bots u otras formas de manipulación destinadas a inflar las cifras y obtener regalías de manera indebida. Aunque las pistas creadas con IA suponen apenas el 0,5 % del total de reproducciones, su presencia es mucho más significativa en el volumen de cargas diarias: alrededor de 20.000 temas al día, lo que representa el 18 % de todas las canciones subidas.

Para hacer frente a esta situación, Deezer asegura disponer de herramientas capaces de identificar con total precisión los contenidos producidos por modelos como Suno y Udio. Los temas detectados como totalmente artificiales se etiquetan de forma explícita, quedan fuera de las recomendaciones algorítmicas y de las listas editoriales, y además, las reproducciones fraudulentas que generan no se contabilizan para el pago de regalías.

Deezer afirmó que la música generada por IA que los estafadores transmitían iba desde pop y rap falsos hasta pistas musicales artificiales que estimulaban el estado de ánimo. La plataforma ha decidido bloquear el pago de regalías por las reproducciones que ha identificado como fraudulentas.

En su último informe global sobre música, la IFPI afirmó que el streaming fraudulento roba dinero que «debería destinarse a artistas legítimos». Añadió que la IA generativa había «exacerbado significativamente» el problema.

El año pasado, el músico estadounidense Michael Smith fue acusado en relación con un plan para crear cientos de miles de canciones generadas por IA y reproducirlas miles de millones de veces, obteniendo 10 millones de dólares en regalías.

Según Thibault Roucou, director de regalías de la compañía, muchas de estas canciones creadas de manera automática carecen de una verdadera motivación artística y responden únicamente al ánimo de lucro mediante la manipulación del sistema.

Una mirada jurídica poliédrica a la normativa europea sobre inteligencia artificial

Estupiñán Cáceres, Rosalía; Fonticiella Hernández, Beatriz; Ojeda Tacoronte, Carolina J. Una mirada jurídica poliédrica a la normativa europea sobre inteligencia artificial. Madrid: Dykinson, 2025.

Descargar

El libro examina de forma multidisciplinar la reciente normativa europea sobre inteligencia artificial, especialmente el Reglamento (UE) 2024/1689 sobre IA y la Directiva (UE) 2024/2853 relativa a la responsabilidad por daños causados por productos defectuosos.

La irrupción de la inteligencia artificial en nuestra sociedad ha generado un profundo impacto jurídico que exige respuestas normativas claras y adaptadas. Esta obra colectiva ofrece un análisis crítico y multidisciplinar del nuevo Reglamento (UE) 2024/1689 sobre inteligencia artificial, así como de la reciente Directiva (UE) 2024/2853 sobre responsabilidad por daños causados por productos defectuosos. Fruto del Congreso celebrado en la Universidad de Las Palmas de Gran Canaria en 2024, el libro reúne aportaciones de destacados expertos que abordan los retos que plantea la IA en distintos ámbitos del Derecho: administrativo, penal, laboral, mercantil, constitucional, entre otros.

Se abordan los retos legales que plantea la IA en distintos ámbitos del Derecho —administrativo, penal, laboral, mercantil, constitucional entre otros— analizando aspectos como:

  • la gobernanza de la IA, es decir las instituciones, mecanismos de control, obligaciones reguladoras;
  • la protección de los derechos fundamentales frente al uso de IA;
  • el impacto de la IA en mercados financieros;
  • su utilización en procesos judiciales;
  • y los desafíos en materia de responsabilidad civil y compliance

Una obra esencial para comprender el alcance e implicaciones de las nuevas normativas europeas sobre inteligencia artificial.

Anthropic acuerda pagar 1.500 millones de dólares a autores por uso no autorizado de libros en IA

Knibbs, Kate. «Anthropic Agrees to Pay Authors at Least $1.5 Billion in AI Copyright SettlementWIRED, 5 de septiembre de 2025. https://www.wired.com/story/anthropic-settlement-lawsuit-copyright/

Anthropic, la empresa estadounidense de inteligencia artificial creadora del chatbot Claude, ha acordado pagar 1.500 millones de dólares para resolver una demanda colectiva presentada por autores cuyos libros fueron utilizados sin autorización para entrenar su modelo de IA.

Este acuerdo, aún pendiente de aprobación judicial, constituye el mayor pago por infracción de derechos de autor en la historia de Estados Unidos.

Los demandantes, entre ellos Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, acusaron a Anthropic de descargar millones de libros desde sitios pirata como Library Genesis y Pirate Library Mirror, vulnerando los derechos de autor de los creadores. Aunque la justicia había establecido previamente que usar libros adquiridos legalmente para entrenar inteligencia artificial podía considerarse un uso legítimo, la demanda continuó debido al uso de material obtenido ilegalmente.

El acuerdo estipula que cada autor recibirá aproximadamente 3.000 dólares por obra, cubriendo unas 465.000 obras en total. Anthropic también se comprometió a destruir las copias pirata almacenadas, sin admitir responsabilidad legal. Sin embargo, el juez William Alsup expresó dudas sobre la falta de detalles del acuerdo y solicitó información adicional antes de la audiencia prevista para el 25 de septiembre de 2025.

Este caso es un precedente importante en la regulación del uso de contenido protegido por derechos de autor para entrenar modelos de inteligencia artificial, con implicaciones significativas para otras compañías tecnológicas que desarrollan herramientas de IA.

La mayoría de las personas usan IA regularmente en el trabajo, pero casi la mitad admite hacerlo de manera inapropiada

«Major Survey Finds Most People Use AI Regularly at Work, but Almost Half Admit to Doing So InappropriatelyThe Conversation, 25 de agosto de 2025. https://theconversation.com/major-survey-finds-most-people-use-ai-regularly-at-work-but-almost-half-admit-to-doing-so-inappropriately-255405

Un estudio de la Universidad de Tecnología de Queensland revela que la mayoría de los empleados usa IA regularmente en el trabajo, pero casi la mitad admite hacerlo de manera inapropiada. Muchos desconocen las limitaciones de estas herramientas, lo que puede generar contenido inexacto o conflictos de responsabilidad. Los expertos recomiendan formación, políticas claras y cultura de responsabilidad digital para un uso ético y eficaz de la IA.

Un reciente estudio realizado por la Universidad de Tecnología de Queensland analiza cómo los empleados utilizan la inteligencia artificial (IA) en su entorno laboral y revela hallazgos preocupantes. La encuesta, que incluyó a más de 1.000 trabajadores de diferentes sectores, muestra que la mayoría de ellos emplea herramientas de IA, como ChatGPT, de manera regular para redactar correos electrónicos, informes, presentaciones y otro tipo de documentación profesional. Este fenómeno refleja la rápida adopción de la IA generativa en tareas cotidianas, pero también evidencia un uso que no siempre sigue buenas prácticas ni criterios éticos claros

A pesar de su popularidad, casi la mitad de los encuestados admite utilizar la IA de manera inapropiada. Muchos no comprenden completamente cómo funcionan estas herramientas ni sus limitaciones, lo que puede derivar en la producción de contenido inexacto, sesgado o incluso plagio involuntario. Además, el estudio señala que alrededor del 30 % de los participantes ha delegado en la IA tareas que originalmente correspondían a otros colegas, generando conflictos de responsabilidad y cuestionamientos éticos en el lugar de trabajo. Los investigadores enfatizan que estas prácticas pueden afectar tanto la productividad como la confianza dentro de los equipos.

El estudio también identifica diferencias significativas según la edad y el nivel educativo de los empleados. Los trabajadores más jóvenes tienden a adoptar la IA con mayor frecuencia, pero son también los que más reportan un uso inapropiado. Por otro lado, aquellos con formación técnica tienden a utilizar estas herramientas con mayor comprensión de sus riesgos, reduciendo la probabilidad de errores o mal uso. Esto sugiere la importancia de la formación y la alfabetización digital como factores clave para un uso responsable de la IA en el trabajo.

Los expertos consultados recomiendan que las organizaciones implementen políticas claras sobre el uso de la IA, incluyendo guías de buenas prácticas, límites en la delegación de tareas y procedimientos de verificación de contenido. También se sugiere fomentar una cultura de transparencia y responsabilidad digital, asegurando que los empleados comprendan que el uso inadecuado puede tener consecuencias legales, éticas y de reputación. El objetivo es equilibrar la eficiencia que la IA ofrece con la integridad y confiabilidad del trabajo realizado.

Aunque la inteligencia artificial se ha convertido en una herramienta cotidiana en el entorno laboral, su adopción rápida sin capacitación ni supervisión adecuada puede generar riesgos importantes. La clave está en la educación digital, la claridad en las políticas internas y la cultura de responsabilidad, para que la IA mejore la productividad sin comprometer la ética, la precisión o la confianza en los equipos de trabajo.