Archivo de la etiqueta: Derechos de autor

Anthropic acuerda pagar 1.500 millones de dólares a autores por uso no autorizado de libros en IA

Knibbs, Kate. «Anthropic Agrees to Pay Authors at Least $1.5 Billion in AI Copyright SettlementWIRED, 5 de septiembre de 2025. https://www.wired.com/story/anthropic-settlement-lawsuit-copyright/

Anthropic, la empresa estadounidense de inteligencia artificial creadora del chatbot Claude, ha acordado pagar 1.500 millones de dólares para resolver una demanda colectiva presentada por autores cuyos libros fueron utilizados sin autorización para entrenar su modelo de IA.

Este acuerdo, aún pendiente de aprobación judicial, constituye el mayor pago por infracción de derechos de autor en la historia de Estados Unidos.

Los demandantes, entre ellos Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, acusaron a Anthropic de descargar millones de libros desde sitios pirata como Library Genesis y Pirate Library Mirror, vulnerando los derechos de autor de los creadores. Aunque la justicia había establecido previamente que usar libros adquiridos legalmente para entrenar inteligencia artificial podía considerarse un uso legítimo, la demanda continuó debido al uso de material obtenido ilegalmente.

El acuerdo estipula que cada autor recibirá aproximadamente 3.000 dólares por obra, cubriendo unas 465.000 obras en total. Anthropic también se comprometió a destruir las copias pirata almacenadas, sin admitir responsabilidad legal. Sin embargo, el juez William Alsup expresó dudas sobre la falta de detalles del acuerdo y solicitó información adicional antes de la audiencia prevista para el 25 de septiembre de 2025.

Este caso es un precedente importante en la regulación del uso de contenido protegido por derechos de autor para entrenar modelos de inteligencia artificial, con implicaciones significativas para otras compañías tecnológicas que desarrollan herramientas de IA.

La mayoría de las personas usan IA regularmente en el trabajo, pero casi la mitad admite hacerlo de manera inapropiada

«Major Survey Finds Most People Use AI Regularly at Work, but Almost Half Admit to Doing So InappropriatelyThe Conversation, 25 de agosto de 2025. https://theconversation.com/major-survey-finds-most-people-use-ai-regularly-at-work-but-almost-half-admit-to-doing-so-inappropriately-255405

Un estudio de la Universidad de Tecnología de Queensland revela que la mayoría de los empleados usa IA regularmente en el trabajo, pero casi la mitad admite hacerlo de manera inapropiada. Muchos desconocen las limitaciones de estas herramientas, lo que puede generar contenido inexacto o conflictos de responsabilidad. Los expertos recomiendan formación, políticas claras y cultura de responsabilidad digital para un uso ético y eficaz de la IA.

Un reciente estudio realizado por la Universidad de Tecnología de Queensland analiza cómo los empleados utilizan la inteligencia artificial (IA) en su entorno laboral y revela hallazgos preocupantes. La encuesta, que incluyó a más de 1.000 trabajadores de diferentes sectores, muestra que la mayoría de ellos emplea herramientas de IA, como ChatGPT, de manera regular para redactar correos electrónicos, informes, presentaciones y otro tipo de documentación profesional. Este fenómeno refleja la rápida adopción de la IA generativa en tareas cotidianas, pero también evidencia un uso que no siempre sigue buenas prácticas ni criterios éticos claros

A pesar de su popularidad, casi la mitad de los encuestados admite utilizar la IA de manera inapropiada. Muchos no comprenden completamente cómo funcionan estas herramientas ni sus limitaciones, lo que puede derivar en la producción de contenido inexacto, sesgado o incluso plagio involuntario. Además, el estudio señala que alrededor del 30 % de los participantes ha delegado en la IA tareas que originalmente correspondían a otros colegas, generando conflictos de responsabilidad y cuestionamientos éticos en el lugar de trabajo. Los investigadores enfatizan que estas prácticas pueden afectar tanto la productividad como la confianza dentro de los equipos.

El estudio también identifica diferencias significativas según la edad y el nivel educativo de los empleados. Los trabajadores más jóvenes tienden a adoptar la IA con mayor frecuencia, pero son también los que más reportan un uso inapropiado. Por otro lado, aquellos con formación técnica tienden a utilizar estas herramientas con mayor comprensión de sus riesgos, reduciendo la probabilidad de errores o mal uso. Esto sugiere la importancia de la formación y la alfabetización digital como factores clave para un uso responsable de la IA en el trabajo.

Los expertos consultados recomiendan que las organizaciones implementen políticas claras sobre el uso de la IA, incluyendo guías de buenas prácticas, límites en la delegación de tareas y procedimientos de verificación de contenido. También se sugiere fomentar una cultura de transparencia y responsabilidad digital, asegurando que los empleados comprendan que el uso inadecuado puede tener consecuencias legales, éticas y de reputación. El objetivo es equilibrar la eficiencia que la IA ofrece con la integridad y confiabilidad del trabajo realizado.

Aunque la inteligencia artificial se ha convertido en una herramienta cotidiana en el entorno laboral, su adopción rápida sin capacitación ni supervisión adecuada puede generar riesgos importantes. La clave está en la educación digital, la claridad en las políticas internas y la cultura de responsabilidad, para que la IA mejore la productividad sin comprometer la ética, la precisión o la confianza en los equipos de trabajo.

Perplexity AI compartirá los ingresos por búsquedas con los editores

Perplexity AI to Share Search Revenue with Publishers.Tech Xplore, 27 de agosto de 2025. https://techxplore.com/news/2025-08-perplexity-ai-revenue-publishers.html

Perplexity AI implementará un novedoso modelo de reparto de ingresos, mediante el cual comenzará a pagar a los medios de comunicación cuyas publicaciones sean utilizadas por su navegador o asistente de IA para responder consultas de usuario.

Como parte de este enfoque, la empresa ha reservado un fondo inicial de 42,5 millones de dólares que se destinará a compensar a los editores cuyas páginas web sean visitadas o citadas, o cuyos contenidos sean utilizados por agentes inteligentes de IA.

Este modelo se sostiene gracias a una nueva suscripción llamada Comet Plus, con un costo mensual de 5 dólares, que también estará incluida en los planes Pro y Max de Perplexity

La estructura de reparto de ingresos es clara: el 80 % de los ingresos de Comet Plus irá directamente a los editores, mientras que el 20 % restante cubrirá los costes de computación necesarios para mantener la infraestructura IA

Además, el sistema de distribución de los fondos se basa en tres tipos de interacciones generadas por la IA: visitas humanas, citas en búsquedas de IA y acciones realizadas por agentes.

Este anuncio llega en un contexto de crecientes tensiones entre las empresas de inteligencia artificial y los medios, muchos de los cuales acusan a los sistemas de IA de consumir contenido sin remunerar a sus creadores ni generar tráfico real a sus sitios web

La introducción de Comet Plus parece ser una respuesta concreta a estas preocupaciones, además de una estrategia para fomentar la colaboración en lugar de enfrentamientos legales

GAIDeT: una herramienta práctica para declarar el uso de la IA en la investigación y la publicación.

GAIDeT Declaration Generator

GAIDeT, es una herramienta práctica para declarar de forma clara y estandarizada el uso de IA generativa en la investigación y la publicación académica. Su propuesta combina fases del proceso de investigación con roles de la IA, apoyada por una herramienta en línea que genera declaraciones automáticas. El objetivo es fomentar transparencia, responsabilidad y confianza en la comunicación científica.

La creciente presencia de herramientas de inteligencia artificial generativa (IA generativa) en la investigación académica y plantea una necesidad crítica: mejorar la transparencia en la forma en que los investigadores divulgan el uso de estas herramientas, ya que muchas declaraciones existentes son vagas o directamente inexistentes, lo que perjudica la reproducibilidad y comprensión del proceso científico.

Para resolver esto, los autores proponen el marco GAIDeT (Generative Artificial Intelligence Delegation Taxonomy), un sistema inspirado en taxonomías como CRediT o NIST, pero adaptado específicamente para describir cómo, dónde y en qué tareas se ha delegado trabajo a herramientas de IA en el flujo de investigación. Este sistema articula dos dimensiones clave: por un lado, la etapa del proceso de investigación (por ejemplo: generación de ideas, búsqueda bibliográfica, redacción, análisis de datos); por otro, el rol específico desempeñado por la IA (como síntesis de texto, traducción, análisis de sesgos), siempre dejando claro que el control y la responsabilidad final recaen en el investigador humano.

Para facilitar su implantación, se creó una herramienta en línea llamada GAIDeT Declaration Generator . Esta herramienta guía al usuario mediante preguntas simples sobre cómo utilizó la IA, qué herramienta utilizó y en qué fase del trabajo, generando automáticamente una declaración estandarizada que puede insertarse directamente en un manuscrito —realizando así la tarea sin cargas administrativas adicionales para los autores

La adopción de GAIDeT aporta beneficios tangibles para distintos actores académicos:

  • Autores: les proporciona una forma estándar de demostrar uso responsable y transparente de la IA, reforzando la credibilidad de su trabajo.
  • Editores: simplifica la evaluación de si la IA se usó como una herramienta legítima o si se delegó indebidamente trabajo académico.
  • Revisores: les ofrece contexto adicional para valorar decisiones metodológicas y definir el alcance real de la participación de IA.
  • Moderadores de repositorios: les ayuda a proteger la integridad de los archivos, aclarando el nivel de asistencia de IA en los documentos depositados.
  • Lectores: facilita interpretar los resultados del estudio con precisión, comprendiendo en qué medida fueron asistidos por IA

Su objetivo es que las declaraciones de uso de IA sean una parte natural del proceso académico, tan comunes como los conflictos de interés o las fuentes de financiación, devolviendo claridad y confianza a la ciencia en tiempos de innovación acelerada

La mayor demanda colectiva por derechos de autor contra la industria de la IA: el caso Anthropic

Novet, Jordan. “AI Industry Horrified to Face Largest Copyright Class Action Ever Certified.” Ars Technica, August 21, 2025. https://arstechnica.com/tech-policy/2025/08/ai-industry-horrified-to-face-largest-copyright-class-action-ever-certified/.

Investigadores se han convertido en protagonistas de un caso sin precedentes: un tribunal federal en California ha aprobado una demanda colectiva (class action) contra Anthropic, una startup especializada en inteligencia artificial. Tres autores (Andrea Bartz, Charles Graeber y Kirk Wallace Johnson) actúan como representantes de todos los escritores cuyos libros registrados hayan sido descargados y utilizados por Anthropic para entrenar su modelo de IA. La demanda alega que la empresa obtuvo millones de títulos de sitios pirata como LibGen y PiLiMi sin consentimiento, lo que podría derivar en daños millonarios para la compañía si se prueba la infracción.

Desde la perspectiva legal, aunque el juez William Alsup reconoció que el entrenamiento del modelo podría constituir un uso legítimo (fair use), también resolvió que la mera conservación de libros piratas en una biblioteca central viola los derechos de autor, lo que justifica llevar el caso a juicio. En paralelo, organizaciones del sector tecnológico, como la Consumer Technology Association y la Computer and Communications Industry Association, han expresado su alarma ante un veredicto adverso: advierten que esta certificación de clase podría representar una amenaza existencial para Anthropic y el ecosistema emergente de IA en EE. UU., al desalentar futuros inversores y minar la competitividad tecnológica del país.

La demanda se ha expandido de forma dramática: lo que comenzó con tres autores podría llegar a incluir hasta 7 millones de demandantes potenciales, cada uno con posibilidad de reclamar hasta 150.000 USD por obra infringida. Eso transforma el caso en el mayor litigio por derechos de autor jamás aprobado en EE. UU., con riesgos financieros que podrían ascender a cientos de miles de millones de dólares.

Anthropic acelera su defensa de “uso justo” en juicio por derechos de autor de entrenamiento con libros pirateados

Davis, W. (2025, 5 de agosto). Anthropic presses for fast appeal in copyright fight. MediaPost. Recuperado de MediaPost. https://www.mediapost.com/publications/article/407952/anthropic-presses-for-fast-appeal-in-copyright-fig.html

Anthropic, la empresa detrás del chatbot Claude, solicita que un tribunal de apelación federal se pronuncie de inmediato sobre su defensa basada en el “uso justo” (fair use) frente a las acusaciones de infracción de derechos de autor. Los demandantes—las autoras Andrea Bartz, Charles Graeber y Kirk Wallace Johnson—afirmaron que la compañía entrenó el modelo con libros descargados de sitios pirata sin autorización. Anthropic justificó su defensa argumentando que el uso de materiales con fines de entrenamiento de IA constituye «uso justo», independientemente del origen de dichos textos.

Anteriormente, el juez William Alsup determinó que el entrenamiento del modelo con libros adquiridos legalmente fue “altamente transformativo” y, por tanto, protegido bajo fair use. Sin embargo, negó la misma protección en los casos en que se emplearon textos descargados de fuentes ilícitas

Anthropic subraya que el fallo supone un riesgo potencial de responsabilidad económica masiva —cientos de miles de millones de dólares— si el caso continúa como juicio de clase, sin que se clarifiquen primero los lineamientos legales mediante una apelación. La empresa argumenta además que el hecho de que el material se haya adquirido de forma no autorizada no debería invalidar una defensa de fair use, ya que dicho principio existe precisamente para permitir usos sin permiso.

El juez Alsup programó una audiencia para abordar estas peticiones el 28 de agosto de 2025. Además, se ha autorizado que el caso continúe como demanda colectiva en representación de autores cuyos libros fueron descargados desde las bibliotecas pirata LibGen y PiLiMi, aunque con ciertas limitaciones sobre quiénes pueden reclamar

Conflicto entre el avance de la inteligencia artificial generativa (IA) y los marcos legales del copyright.

Michael D. Smith and Rahul Telang. 2025. “Can Gen AI and Copyright Coexist.” Harvard Business Review, July 2025. https://hbr.org/2025/07/can-gen-ai-and-copyright-coexist

Se analizan el creciente conflicto entre compañías desarrolladoras de IA generativa y los derechos de autor. Subrayan que en EE. UU., las industrias creativas aportaron 1,8 billones de USD al PIB en 2021 (~8%), y muchas de estas empresas sostienen que la IA puede reemplazar a creadores humanos si se entrena sin control sobre material protegido.

A medida que las plataformas de IA como ChatGPT, Midjourney o Sora entrenan sus modelos con enormes cantidades de contenido disponible en línea —mucho del cual está protegido por copyright— han surgido numerosos conflictos legales y éticos. Artistas, escritores y empresas mediáticas han denunciado que sus obras se están utilizando sin permiso ni compensación, mientras que las tecnológicas argumentan que se trata de un uso legítimo según el principio de “uso justo” (fair use).

El artículo señala que esta confrontación podría redefinir el concepto mismo de copyright. Mientras las compañías de IA buscan formas de entrenar modelos sin infringir derechos, emergen propuestas como licencias colectivas, remuneraciones obligatorias o acuerdos voluntarios con creadores. A la vez, se plantea si la salida podría estar en nuevos modelos de compensación o en marcos legales más claros que delimiten qué usos son admisibles y cuáles no.

Los tribunales están empezando a pronunciarse, pero aún no hay un consenso global. En Estados Unidos, las decisiones judiciales pueden cambiar el futuro de la IA generativa dependiendo de cómo interpreten la relación entre innovación tecnológica y protección creativa. El artículo concluye que una solución duradera requerirá colaboración entre tecnólogos, legisladores y artistas para garantizar un desarrollo responsable de la inteligencia artificial sin socavar los derechos de los creadores.

Los autores destacan dos fallos judiciales recientes en el Distrito Norte de California con posturas encontradas sobre el fair use:

  • En Bartz v. Anthropic, el juez Alsup determinó que el uso de obras protegidas para entrenar un modelo es justo siempre que sea transformativo—similar a cómo un lector aprende de textos para escribir nuevos
  • En Kadrey v. Meta, el juez Chhabria concluyó que el uso no autorizado no coincide con el uso formativo humano, pues permite generar obras competidoras en minutos con eficiencia mucho mayor

Estos fallos subrayan la ambigüedad legal actual. En paralelo, estudios externos—incluyendo un informe de la Oficina de Derechos de Autor de EE.UU.—advierten sobre riesgos económicos si se les exige a los titulares de derechos optar por excluir su contenido del conjunto de entrenamiento, un proceso costoso y complejo.

Un juez avala como ‘uso justo’ el entrenamiento de IA con millones de libros

MIT Technology Review. “AI Giants Win Big in the Copyright Fight. Here’s What Happens Now.” MIT Technology Review, July 1, 2025. https://www.technologyreview.com/2025/07/01/1119486/ai-copyright-meta-anthropic/

Un juez federal de Estados Unidos dictaminó que el uso de millones de libros por parte de Anthropic para entrenar su modelo Claude constituye «uso justo» (fair use), ya que se trató de un uso altamente transformativo. En un caso paralelo, un tribunal también falló a favor de Meta, al considerar que los autores no demostraron perjuicio económico suficiente por el entrenamiento de su modelo Llama

Estas decisiones judiciales proporcionan un respaldo legal significativo a grandes empresas tecnológicas —como Anthropic, Meta, Google, OpenAI y Microsoft— al determinar que pueden usar contenido accesible en línea para entrenar sus modelos sin tener que pagar a los creadores originales

No obstante, se advierte sobre límites importantes: en el caso de Anthropic, el juez Alsup señaló que conservar millones de libros pirateados en una “biblioteca central” no es uso justo, por lo que esa parte del litigio sigue en curso.

Este giro refuerza la doctrina del fair use en los EE.UU., estableciendo que el entrenamiento de IA puede estar protegido legalmente si no causa daño al mercado original. Sin embargo, los fallos se basan en detalles concretos de cada caso, y no suponen una carta blanca general. En especial, los tribunales dejaron abierta la posibilidad de futuras demandas si se demuestra el uso de material pirateado o un impacto negativo en los mercados creativos .

Como reacción, surgen iniciativas empresariales como el servicio «pay per crawl» de Cloudflare, diseñado para que los creadores de contenido puedan exigir compensación a las compañías de IA por acceder a sus sitios web. Además, algunos medios, como Microsoft, optan por formatos menos expuestos al scraping web, como la publicación impresa de su revista Signal

Finalmente decir que estos hitos legales representan una victoria para la industria de la IA, al legitimar el uso transformativo de contenido protegido, pero también mantienen vivo el debate sobre la compensación justa, la procedencia ética de los datos y la sostenibilidad del ecosistema creativo en línea.

Ver además: Re:Create sostiene que el entrenamiento de modelos de IA constituye un uso transformador y un posible uso justo

CC Signals: licencia Creative Commons con la que los autores puedan determinar los uso de lA para sus contenidos

Creative Commons. 2025. “Introducing CC Signals: A New Social Contract for the Age of AI.Creative Commons, 25 de junio de 2025. https://creativecommons.org/ai-and-the-commons/cc-signals/

En un momento en el que la IA está transformando radicalmente la creación, el acceso y la difusión del conocimiento, CC Signals representa una apuesta ética y colaborativa por una inteligencia artificial al servicio de todos, basada en principios de apertura, respeto y responsabilidad compartida.

Creative Commons ha presentado CC Signals, una iniciativa pionera que propone un nuevo «contrato social» para la era de la inteligencia artificial. Este marco surge como respuesta a la creciente preocupación por el uso masivo e indiscriminado de datos por parte de los modelos de IA. En lugar de aceptar una dicotomía entre un entorno de extracción sin restricciones o uno cerrado por muros de pago, CC Signals apuesta por una tercera vía: un ecosistema abierto y basado en la reciprocidad, en el que los creadores y titulares de contenido puedan expresar claramente sus preferencias sobre cómo debe usarse su información por parte de sistemas automatizados.

El objetivo principal de CC Signals es permitir que los datos sean utilizados en procesos de entrenamiento de IA de manera ética y transparente, reconociendo los intereses de quienes aportan contenido. Para ello, introduce un sistema de «señales» legibles tanto por humanos como por máquinas, que indican el nivel de apertura o condiciones de reutilización que cada creador desea establecer. Estas señales no son legalmente vinculantes, pero sí actúan como una guía de buenas prácticas, similar a como las licencias Creative Commons revolucionaron el panorama del derecho de autor hace dos décadas.

Uno de los principios clave del proyecto es fomentar un ciclo de «dar, tomar y volver a dar»: quienes utilizan datos para entrenar modelos deben contribuir también al bien común, ya sea compartiendo sus resultados, reconociendo el origen de los datos o respetando las preferencias expresadas. Si bien una señal individual puede pasar desapercibida, el uso generalizado de CC Signals por parte de comunidades de práctica, instituciones culturales o desarrolladores de IA puede establecer una norma ética reconocida globalmente.

La iniciativa se encuentra actualmente en fase de desarrollo beta y se ha abierto a la participación pública a través de GitHub. Se prevé que una versión alpha esté disponible en noviembre de 2025. Durante los meses de julio y agosto, Creative Commons organizará una serie de encuentros virtuales para debatir el marco propuesto y recoger aportaciones. Estos espacios permitirán a creadores, tecnólogos, académicos y activistas colaborar en la construcción colectiva de esta nueva herramienta de gobernanza digital.

Entrenar modelos de lenguaje de Inteligencia Artificial utilizando libros adquiridos legalmente constituye un uso legítimo

Hansen, Dave. 2025. “Anthropic Wins on Fair Use for Training Its LLMs, Loses on Building a ‘Central Library’ of Pirated Books.” Authors Alliance, 24 de junio de 2025. https://www.authorsalliance.org/2025/06/24/anthropic-wins-on-fair-use-for-training-its-llms-loses-on-building-a-central-library-of-pirated-books/

El 24 de junio de 2025, el juez William Alsup del Tribunal del Distrito Norte de California emitió una resolución clave en el juicio colectivo contra Anthropic, empresa creadora de los modelos de lenguaje Claude. La demanda, presentada por los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson en representación de millones de escritores, cuestiona el uso de libros protegidos por derechos de autor para entrenar sistemas de inteligencia artificial.

El fallo representa una victoria parcial para Anthropic. Por un lado, el tribunal determinó que entrenar modelos de lenguaje utilizando libros adquiridos legalmente constituye un uso legítimo bajo la doctrina de fair use del derecho estadounidense. Según el juez Alsup, este tipo de uso es “transformador”, ya que no busca replicar ni sustituir las obras originales, sino generar contenido nuevo, lo que encaja dentro del espíritu de la ley de derechos de autor que pretende fomentar la creatividad y el avance científico.

Sin embargo, la empresa perdió en un punto crítico: el uso sistemático de libros pirateados para construir una “biblioteca central” con fines de entrenamiento de IA. La evidencia demuestra que en 2021 y 2022, miembros de Anthropic descargaron millones de obras de sitios como Books3, Library Genesis (LibGen) y Pirate Library Mirror (PiLiMi). Estas plataformas contienen copias no autorizadas de libros protegidos, y Anthropic era plenamente consciente de ello. El propio CEO, Dario Amodei, reconoció internamente que optar por este camino era una manera de evitar el “trabajo legal, comercial y de gestión” que implicaría adquirir licencias.

En particular, el cofundador Ben Mann descargó en 2021 el conjunto de datos Books3 (compuesto por cerca de 196.000 libros pirateados), seguido de cinco millones de títulos desde LibGen y otros dos millones desde PiLiMi. Estas acciones fueron calificadas por el juez como violaciones deliberadas del derecho de autor, y aunque todavía no se ha determinado la magnitud de los daños, el tribunal ha decidido celebrar un juicio separado para abordar esta cuestión y valorar posibles indemnizaciones.

Desde Anthropic, una portavoz declaró a The Verge que celebran que el tribunal haya validado el uso transformador de las obras con fines de entrenamiento. La empresa sostiene que su objetivo no era imitar o reemplazar los libros originales, sino crear algo nuevo con base en ellos. No obstante, este argumento no exime de responsabilidad cuando se utilizan materiales obtenidos de forma ilegal, incluso si el uso posterior pudiera ser considerado transformador.

Este caso se enmarca dentro de un creciente número de demandas contra empresas de inteligencia artificial por el uso indebido de contenido protegido. La resolución de Alsup podría sentar un precedente clave: valida el entrenamiento de IA sobre obras adquiridas legalmente como fair use, pero marca una línea roja cuando se trata de contenidos pirateados. Las próximas fases del proceso judicial determinarán las consecuencias económicas y legales para Anthropic, y el caso podría influir significativamente en las prácticas de entrenamiento de modelos de IA en la industria.