Archivo de la etiqueta: Derechos de autor

Hasta el 70 % de las escuchas de música en Deezer son realizadas por bots de IA para cobrar regalías

Deezer. “Up to 70% of Streams of AI-Generated Music on Deezer Are Fraudulent, Says Report.The Guardian, 18 junio 2025

Siete de cada diez reproducciones de música generada por inteligencia artificial en la plataforma Deezer son fraudulentas, según la plataforma francesa de streaming.

Un informe reciente de Deezer advierte que hasta el 70 % de las reproducciones de canciones generadas íntegramente por inteligencia artificial (IA) en la plataforma son fraudulentas. Estas escuchas corresponden a bots u otras formas de manipulación destinadas a inflar las cifras y obtener regalías de manera indebida. Aunque las pistas creadas con IA suponen apenas el 0,5 % del total de reproducciones, su presencia es mucho más significativa en el volumen de cargas diarias: alrededor de 20.000 temas al día, lo que representa el 18 % de todas las canciones subidas.

Para hacer frente a esta situación, Deezer asegura disponer de herramientas capaces de identificar con total precisión los contenidos producidos por modelos como Suno y Udio. Los temas detectados como totalmente artificiales se etiquetan de forma explícita, quedan fuera de las recomendaciones algorítmicas y de las listas editoriales, y además, las reproducciones fraudulentas que generan no se contabilizan para el pago de regalías.

Deezer afirmó que la música generada por IA que los estafadores transmitían iba desde pop y rap falsos hasta pistas musicales artificiales que estimulaban el estado de ánimo. La plataforma ha decidido bloquear el pago de regalías por las reproducciones que ha identificado como fraudulentas.

En su último informe global sobre música, la IFPI afirmó que el streaming fraudulento roba dinero que «debería destinarse a artistas legítimos». Añadió que la IA generativa había «exacerbado significativamente» el problema.

El año pasado, el músico estadounidense Michael Smith fue acusado en relación con un plan para crear cientos de miles de canciones generadas por IA y reproducirlas miles de millones de veces, obteniendo 10 millones de dólares en regalías.

Según Thibault Roucou, director de regalías de la compañía, muchas de estas canciones creadas de manera automática carecen de una verdadera motivación artística y responden únicamente al ánimo de lucro mediante la manipulación del sistema.

Una mirada jurídica poliédrica a la normativa europea sobre inteligencia artificial

Estupiñán Cáceres, Rosalía; Fonticiella Hernández, Beatriz; Ojeda Tacoronte, Carolina J. Una mirada jurídica poliédrica a la normativa europea sobre inteligencia artificial. Madrid: Dykinson, 2025.

Descargar

El libro examina de forma multidisciplinar la reciente normativa europea sobre inteligencia artificial, especialmente el Reglamento (UE) 2024/1689 sobre IA y la Directiva (UE) 2024/2853 relativa a la responsabilidad por daños causados por productos defectuosos.

La irrupción de la inteligencia artificial en nuestra sociedad ha generado un profundo impacto jurídico que exige respuestas normativas claras y adaptadas. Esta obra colectiva ofrece un análisis crítico y multidisciplinar del nuevo Reglamento (UE) 2024/1689 sobre inteligencia artificial, así como de la reciente Directiva (UE) 2024/2853 sobre responsabilidad por daños causados por productos defectuosos. Fruto del Congreso celebrado en la Universidad de Las Palmas de Gran Canaria en 2024, el libro reúne aportaciones de destacados expertos que abordan los retos que plantea la IA en distintos ámbitos del Derecho: administrativo, penal, laboral, mercantil, constitucional, entre otros.

Se abordan los retos legales que plantea la IA en distintos ámbitos del Derecho —administrativo, penal, laboral, mercantil, constitucional entre otros— analizando aspectos como:

  • la gobernanza de la IA, es decir las instituciones, mecanismos de control, obligaciones reguladoras;
  • la protección de los derechos fundamentales frente al uso de IA;
  • el impacto de la IA en mercados financieros;
  • su utilización en procesos judiciales;
  • y los desafíos en materia de responsabilidad civil y compliance

Una obra esencial para comprender el alcance e implicaciones de las nuevas normativas europeas sobre inteligencia artificial.

Anthropic acuerda pagar 1.500 millones de dólares a autores por uso no autorizado de libros en IA

Knibbs, Kate. «Anthropic Agrees to Pay Authors at Least $1.5 Billion in AI Copyright SettlementWIRED, 5 de septiembre de 2025. https://www.wired.com/story/anthropic-settlement-lawsuit-copyright/

Anthropic, la empresa estadounidense de inteligencia artificial creadora del chatbot Claude, ha acordado pagar 1.500 millones de dólares para resolver una demanda colectiva presentada por autores cuyos libros fueron utilizados sin autorización para entrenar su modelo de IA.

Este acuerdo, aún pendiente de aprobación judicial, constituye el mayor pago por infracción de derechos de autor en la historia de Estados Unidos.

Los demandantes, entre ellos Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, acusaron a Anthropic de descargar millones de libros desde sitios pirata como Library Genesis y Pirate Library Mirror, vulnerando los derechos de autor de los creadores. Aunque la justicia había establecido previamente que usar libros adquiridos legalmente para entrenar inteligencia artificial podía considerarse un uso legítimo, la demanda continuó debido al uso de material obtenido ilegalmente.

El acuerdo estipula que cada autor recibirá aproximadamente 3.000 dólares por obra, cubriendo unas 465.000 obras en total. Anthropic también se comprometió a destruir las copias pirata almacenadas, sin admitir responsabilidad legal. Sin embargo, el juez William Alsup expresó dudas sobre la falta de detalles del acuerdo y solicitó información adicional antes de la audiencia prevista para el 25 de septiembre de 2025.

Este caso es un precedente importante en la regulación del uso de contenido protegido por derechos de autor para entrenar modelos de inteligencia artificial, con implicaciones significativas para otras compañías tecnológicas que desarrollan herramientas de IA.

La mayoría de las personas usan IA regularmente en el trabajo, pero casi la mitad admite hacerlo de manera inapropiada

«Major Survey Finds Most People Use AI Regularly at Work, but Almost Half Admit to Doing So InappropriatelyThe Conversation, 25 de agosto de 2025. https://theconversation.com/major-survey-finds-most-people-use-ai-regularly-at-work-but-almost-half-admit-to-doing-so-inappropriately-255405

Un estudio de la Universidad de Tecnología de Queensland revela que la mayoría de los empleados usa IA regularmente en el trabajo, pero casi la mitad admite hacerlo de manera inapropiada. Muchos desconocen las limitaciones de estas herramientas, lo que puede generar contenido inexacto o conflictos de responsabilidad. Los expertos recomiendan formación, políticas claras y cultura de responsabilidad digital para un uso ético y eficaz de la IA.

Un reciente estudio realizado por la Universidad de Tecnología de Queensland analiza cómo los empleados utilizan la inteligencia artificial (IA) en su entorno laboral y revela hallazgos preocupantes. La encuesta, que incluyó a más de 1.000 trabajadores de diferentes sectores, muestra que la mayoría de ellos emplea herramientas de IA, como ChatGPT, de manera regular para redactar correos electrónicos, informes, presentaciones y otro tipo de documentación profesional. Este fenómeno refleja la rápida adopción de la IA generativa en tareas cotidianas, pero también evidencia un uso que no siempre sigue buenas prácticas ni criterios éticos claros

A pesar de su popularidad, casi la mitad de los encuestados admite utilizar la IA de manera inapropiada. Muchos no comprenden completamente cómo funcionan estas herramientas ni sus limitaciones, lo que puede derivar en la producción de contenido inexacto, sesgado o incluso plagio involuntario. Además, el estudio señala que alrededor del 30 % de los participantes ha delegado en la IA tareas que originalmente correspondían a otros colegas, generando conflictos de responsabilidad y cuestionamientos éticos en el lugar de trabajo. Los investigadores enfatizan que estas prácticas pueden afectar tanto la productividad como la confianza dentro de los equipos.

El estudio también identifica diferencias significativas según la edad y el nivel educativo de los empleados. Los trabajadores más jóvenes tienden a adoptar la IA con mayor frecuencia, pero son también los que más reportan un uso inapropiado. Por otro lado, aquellos con formación técnica tienden a utilizar estas herramientas con mayor comprensión de sus riesgos, reduciendo la probabilidad de errores o mal uso. Esto sugiere la importancia de la formación y la alfabetización digital como factores clave para un uso responsable de la IA en el trabajo.

Los expertos consultados recomiendan que las organizaciones implementen políticas claras sobre el uso de la IA, incluyendo guías de buenas prácticas, límites en la delegación de tareas y procedimientos de verificación de contenido. También se sugiere fomentar una cultura de transparencia y responsabilidad digital, asegurando que los empleados comprendan que el uso inadecuado puede tener consecuencias legales, éticas y de reputación. El objetivo es equilibrar la eficiencia que la IA ofrece con la integridad y confiabilidad del trabajo realizado.

Aunque la inteligencia artificial se ha convertido en una herramienta cotidiana en el entorno laboral, su adopción rápida sin capacitación ni supervisión adecuada puede generar riesgos importantes. La clave está en la educación digital, la claridad en las políticas internas y la cultura de responsabilidad, para que la IA mejore la productividad sin comprometer la ética, la precisión o la confianza en los equipos de trabajo.

Perplexity AI compartirá los ingresos por búsquedas con los editores

Perplexity AI to Share Search Revenue with Publishers.Tech Xplore, 27 de agosto de 2025. https://techxplore.com/news/2025-08-perplexity-ai-revenue-publishers.html

Perplexity AI implementará un novedoso modelo de reparto de ingresos, mediante el cual comenzará a pagar a los medios de comunicación cuyas publicaciones sean utilizadas por su navegador o asistente de IA para responder consultas de usuario.

Como parte de este enfoque, la empresa ha reservado un fondo inicial de 42,5 millones de dólares que se destinará a compensar a los editores cuyas páginas web sean visitadas o citadas, o cuyos contenidos sean utilizados por agentes inteligentes de IA.

Este modelo se sostiene gracias a una nueva suscripción llamada Comet Plus, con un costo mensual de 5 dólares, que también estará incluida en los planes Pro y Max de Perplexity

La estructura de reparto de ingresos es clara: el 80 % de los ingresos de Comet Plus irá directamente a los editores, mientras que el 20 % restante cubrirá los costes de computación necesarios para mantener la infraestructura IA

Además, el sistema de distribución de los fondos se basa en tres tipos de interacciones generadas por la IA: visitas humanas, citas en búsquedas de IA y acciones realizadas por agentes.

Este anuncio llega en un contexto de crecientes tensiones entre las empresas de inteligencia artificial y los medios, muchos de los cuales acusan a los sistemas de IA de consumir contenido sin remunerar a sus creadores ni generar tráfico real a sus sitios web

La introducción de Comet Plus parece ser una respuesta concreta a estas preocupaciones, además de una estrategia para fomentar la colaboración en lugar de enfrentamientos legales

GAIDeT: una herramienta práctica para declarar el uso de la IA en la investigación y la publicación.

GAIDeT Declaration Generator

GAIDeT, es una herramienta práctica para declarar de forma clara y estandarizada el uso de IA generativa en la investigación y la publicación académica. Su propuesta combina fases del proceso de investigación con roles de la IA, apoyada por una herramienta en línea que genera declaraciones automáticas. El objetivo es fomentar transparencia, responsabilidad y confianza en la comunicación científica.

La creciente presencia de herramientas de inteligencia artificial generativa (IA generativa) en la investigación académica y plantea una necesidad crítica: mejorar la transparencia en la forma en que los investigadores divulgan el uso de estas herramientas, ya que muchas declaraciones existentes son vagas o directamente inexistentes, lo que perjudica la reproducibilidad y comprensión del proceso científico.

Para resolver esto, los autores proponen el marco GAIDeT (Generative Artificial Intelligence Delegation Taxonomy), un sistema inspirado en taxonomías como CRediT o NIST, pero adaptado específicamente para describir cómo, dónde y en qué tareas se ha delegado trabajo a herramientas de IA en el flujo de investigación. Este sistema articula dos dimensiones clave: por un lado, la etapa del proceso de investigación (por ejemplo: generación de ideas, búsqueda bibliográfica, redacción, análisis de datos); por otro, el rol específico desempeñado por la IA (como síntesis de texto, traducción, análisis de sesgos), siempre dejando claro que el control y la responsabilidad final recaen en el investigador humano.

Para facilitar su implantación, se creó una herramienta en línea llamada GAIDeT Declaration Generator . Esta herramienta guía al usuario mediante preguntas simples sobre cómo utilizó la IA, qué herramienta utilizó y en qué fase del trabajo, generando automáticamente una declaración estandarizada que puede insertarse directamente en un manuscrito —realizando así la tarea sin cargas administrativas adicionales para los autores

La adopción de GAIDeT aporta beneficios tangibles para distintos actores académicos:

  • Autores: les proporciona una forma estándar de demostrar uso responsable y transparente de la IA, reforzando la credibilidad de su trabajo.
  • Editores: simplifica la evaluación de si la IA se usó como una herramienta legítima o si se delegó indebidamente trabajo académico.
  • Revisores: les ofrece contexto adicional para valorar decisiones metodológicas y definir el alcance real de la participación de IA.
  • Moderadores de repositorios: les ayuda a proteger la integridad de los archivos, aclarando el nivel de asistencia de IA en los documentos depositados.
  • Lectores: facilita interpretar los resultados del estudio con precisión, comprendiendo en qué medida fueron asistidos por IA

Su objetivo es que las declaraciones de uso de IA sean una parte natural del proceso académico, tan comunes como los conflictos de interés o las fuentes de financiación, devolviendo claridad y confianza a la ciencia en tiempos de innovación acelerada

La mayor demanda colectiva por derechos de autor contra la industria de la IA: el caso Anthropic

Novet, Jordan. “AI Industry Horrified to Face Largest Copyright Class Action Ever Certified.” Ars Technica, August 21, 2025. https://arstechnica.com/tech-policy/2025/08/ai-industry-horrified-to-face-largest-copyright-class-action-ever-certified/.

Investigadores se han convertido en protagonistas de un caso sin precedentes: un tribunal federal en California ha aprobado una demanda colectiva (class action) contra Anthropic, una startup especializada en inteligencia artificial. Tres autores (Andrea Bartz, Charles Graeber y Kirk Wallace Johnson) actúan como representantes de todos los escritores cuyos libros registrados hayan sido descargados y utilizados por Anthropic para entrenar su modelo de IA. La demanda alega que la empresa obtuvo millones de títulos de sitios pirata como LibGen y PiLiMi sin consentimiento, lo que podría derivar en daños millonarios para la compañía si se prueba la infracción.

Desde la perspectiva legal, aunque el juez William Alsup reconoció que el entrenamiento del modelo podría constituir un uso legítimo (fair use), también resolvió que la mera conservación de libros piratas en una biblioteca central viola los derechos de autor, lo que justifica llevar el caso a juicio. En paralelo, organizaciones del sector tecnológico, como la Consumer Technology Association y la Computer and Communications Industry Association, han expresado su alarma ante un veredicto adverso: advierten que esta certificación de clase podría representar una amenaza existencial para Anthropic y el ecosistema emergente de IA en EE. UU., al desalentar futuros inversores y minar la competitividad tecnológica del país.

La demanda se ha expandido de forma dramática: lo que comenzó con tres autores podría llegar a incluir hasta 7 millones de demandantes potenciales, cada uno con posibilidad de reclamar hasta 150.000 USD por obra infringida. Eso transforma el caso en el mayor litigio por derechos de autor jamás aprobado en EE. UU., con riesgos financieros que podrían ascender a cientos de miles de millones de dólares.

Anthropic acelera su defensa de “uso justo” en juicio por derechos de autor de entrenamiento con libros pirateados

Davis, W. (2025, 5 de agosto). Anthropic presses for fast appeal in copyright fight. MediaPost. Recuperado de MediaPost. https://www.mediapost.com/publications/article/407952/anthropic-presses-for-fast-appeal-in-copyright-fig.html

Anthropic, la empresa detrás del chatbot Claude, solicita que un tribunal de apelación federal se pronuncie de inmediato sobre su defensa basada en el “uso justo” (fair use) frente a las acusaciones de infracción de derechos de autor. Los demandantes—las autoras Andrea Bartz, Charles Graeber y Kirk Wallace Johnson—afirmaron que la compañía entrenó el modelo con libros descargados de sitios pirata sin autorización. Anthropic justificó su defensa argumentando que el uso de materiales con fines de entrenamiento de IA constituye «uso justo», independientemente del origen de dichos textos.

Anteriormente, el juez William Alsup determinó que el entrenamiento del modelo con libros adquiridos legalmente fue “altamente transformativo” y, por tanto, protegido bajo fair use. Sin embargo, negó la misma protección en los casos en que se emplearon textos descargados de fuentes ilícitas

Anthropic subraya que el fallo supone un riesgo potencial de responsabilidad económica masiva —cientos de miles de millones de dólares— si el caso continúa como juicio de clase, sin que se clarifiquen primero los lineamientos legales mediante una apelación. La empresa argumenta además que el hecho de que el material se haya adquirido de forma no autorizada no debería invalidar una defensa de fair use, ya que dicho principio existe precisamente para permitir usos sin permiso.

El juez Alsup programó una audiencia para abordar estas peticiones el 28 de agosto de 2025. Además, se ha autorizado que el caso continúe como demanda colectiva en representación de autores cuyos libros fueron descargados desde las bibliotecas pirata LibGen y PiLiMi, aunque con ciertas limitaciones sobre quiénes pueden reclamar

Conflicto entre el avance de la inteligencia artificial generativa (IA) y los marcos legales del copyright.

Michael D. Smith and Rahul Telang. 2025. “Can Gen AI and Copyright Coexist.” Harvard Business Review, July 2025. https://hbr.org/2025/07/can-gen-ai-and-copyright-coexist

Se analizan el creciente conflicto entre compañías desarrolladoras de IA generativa y los derechos de autor. Subrayan que en EE. UU., las industrias creativas aportaron 1,8 billones de USD al PIB en 2021 (~8%), y muchas de estas empresas sostienen que la IA puede reemplazar a creadores humanos si se entrena sin control sobre material protegido.

A medida que las plataformas de IA como ChatGPT, Midjourney o Sora entrenan sus modelos con enormes cantidades de contenido disponible en línea —mucho del cual está protegido por copyright— han surgido numerosos conflictos legales y éticos. Artistas, escritores y empresas mediáticas han denunciado que sus obras se están utilizando sin permiso ni compensación, mientras que las tecnológicas argumentan que se trata de un uso legítimo según el principio de “uso justo” (fair use).

El artículo señala que esta confrontación podría redefinir el concepto mismo de copyright. Mientras las compañías de IA buscan formas de entrenar modelos sin infringir derechos, emergen propuestas como licencias colectivas, remuneraciones obligatorias o acuerdos voluntarios con creadores. A la vez, se plantea si la salida podría estar en nuevos modelos de compensación o en marcos legales más claros que delimiten qué usos son admisibles y cuáles no.

Los tribunales están empezando a pronunciarse, pero aún no hay un consenso global. En Estados Unidos, las decisiones judiciales pueden cambiar el futuro de la IA generativa dependiendo de cómo interpreten la relación entre innovación tecnológica y protección creativa. El artículo concluye que una solución duradera requerirá colaboración entre tecnólogos, legisladores y artistas para garantizar un desarrollo responsable de la inteligencia artificial sin socavar los derechos de los creadores.

Los autores destacan dos fallos judiciales recientes en el Distrito Norte de California con posturas encontradas sobre el fair use:

  • En Bartz v. Anthropic, el juez Alsup determinó que el uso de obras protegidas para entrenar un modelo es justo siempre que sea transformativo—similar a cómo un lector aprende de textos para escribir nuevos
  • En Kadrey v. Meta, el juez Chhabria concluyó que el uso no autorizado no coincide con el uso formativo humano, pues permite generar obras competidoras en minutos con eficiencia mucho mayor

Estos fallos subrayan la ambigüedad legal actual. En paralelo, estudios externos—incluyendo un informe de la Oficina de Derechos de Autor de EE.UU.—advierten sobre riesgos económicos si se les exige a los titulares de derechos optar por excluir su contenido del conjunto de entrenamiento, un proceso costoso y complejo.

Un juez avala como ‘uso justo’ el entrenamiento de IA con millones de libros

MIT Technology Review. “AI Giants Win Big in the Copyright Fight. Here’s What Happens Now.” MIT Technology Review, July 1, 2025. https://www.technologyreview.com/2025/07/01/1119486/ai-copyright-meta-anthropic/

Un juez federal de Estados Unidos dictaminó que el uso de millones de libros por parte de Anthropic para entrenar su modelo Claude constituye «uso justo» (fair use), ya que se trató de un uso altamente transformativo. En un caso paralelo, un tribunal también falló a favor de Meta, al considerar que los autores no demostraron perjuicio económico suficiente por el entrenamiento de su modelo Llama

Estas decisiones judiciales proporcionan un respaldo legal significativo a grandes empresas tecnológicas —como Anthropic, Meta, Google, OpenAI y Microsoft— al determinar que pueden usar contenido accesible en línea para entrenar sus modelos sin tener que pagar a los creadores originales

No obstante, se advierte sobre límites importantes: en el caso de Anthropic, el juez Alsup señaló que conservar millones de libros pirateados en una “biblioteca central” no es uso justo, por lo que esa parte del litigio sigue en curso.

Este giro refuerza la doctrina del fair use en los EE.UU., estableciendo que el entrenamiento de IA puede estar protegido legalmente si no causa daño al mercado original. Sin embargo, los fallos se basan en detalles concretos de cada caso, y no suponen una carta blanca general. En especial, los tribunales dejaron abierta la posibilidad de futuras demandas si se demuestra el uso de material pirateado o un impacto negativo en los mercados creativos .

Como reacción, surgen iniciativas empresariales como el servicio «pay per crawl» de Cloudflare, diseñado para que los creadores de contenido puedan exigir compensación a las compañías de IA por acceder a sus sitios web. Además, algunos medios, como Microsoft, optan por formatos menos expuestos al scraping web, como la publicación impresa de su revista Signal

Finalmente decir que estos hitos legales representan una victoria para la industria de la IA, al legitimar el uso transformativo de contenido protegido, pero también mantienen vivo el debate sobre la compensación justa, la procedencia ética de los datos y la sostenibilidad del ecosistema creativo en línea.

Ver además: Re:Create sostiene que el entrenamiento de modelos de IA constituye un uso transformador y un posible uso justo