Archivo de la etiqueta: Derechos de autor

La Oficina de Derechos de Autor de EE.UU. publica la segunda parte del informe sobre inteligencia artificial

U.S. Copyright Office Releases Part 2 of Artificial Intelligence Report

Library Copyright Alliance (LCA) principles 

Part 1

Part 2

La Oficina de Derechos de Autor de EE.UU. publicó la segunda parte de su informe sobre los problemas legales y políticos relacionados con la inteligencia artificial (IA). En él, se afirma que los trabajos generados por IA pueden estar protegidos por derechos de autor solo si un humano determina los elementos expresivos. La oficina también concluye que no es necesario modificar la ley para proteger los productos generados por IA y destaca que la creatividad humana sigue siendo clave para la protección por derechos de autor.

El acceso abierto como alternativa a las licencias restrictivas sobre el uso de la investigación para entrenar sistema de IA

Waibel, Günter, y Dave Hansen. «AI Deals Underscore the Importance of Open AccessInside Higher Ed, 7 de enero de 2025. https://www.insidehighered.com/opinion/views/2025/01/07/ai-deals-underscore-importance-open-access-opinion

Günter Waibel y Dave Hansen abordan la preocupación creciente en la comunidad académica sobre los lucrativos acuerdos entre editoriales y empresas de inteligencia artificial (IA) para el uso de publicaciones académicas como datos de entrenamiento. Argumentan que la respuesta adecuada no es recurrir a licencias más restrictivas, sino abogar por el acceso abierto, una práctica que beneficiaría tanto a los académicos como al público en general.

Explican que muchos autores académicos, al publicar sus obras, transfieren los derechos de autor a las editoriales, lo que permite a estas controlar legalmente el contenido y negociar con empresas de IA sin necesidad de consultar a los creadores originales. Esto ha generado críticas y dudas sobre la equidad de estas prácticas, especialmente considerando las grandes sumas de dinero involucradas.

Waibel y Hansen subrayan que, aunque puede ser tentador para los autores recurrir a la publicación detrás de un muro de pago para proteger sus obras de ser utilizadas por la IA, esta estrategia es contraproducente. En realidad, refuerza el monopolio de las editoriales sobre el contenido académico, permitiendo que sigan explotando el trabajo de los académicos para beneficio comercial.

En contraste, proponen que el acceso abierto no solo democratiza el acceso al conocimiento, sino que también permite un uso más ético y productivo de las tecnologías de IA en la investigación. Al eliminar las barreras económicas para acceder a la literatura académica, se crea un corpus accesible para la investigación computacional, impulsando nuevas metodologías y avances científicos.

Además, señalan que el uso justo (fair use) es un principio fundamental que permite tanto a las empresas de IA como a los investigadores académicos utilizar el contenido de manera transformadora para promover el progreso de la ciencia y la cultura. Limitar este uso solo para las empresas desfavorecidas podría erosionar los derechos de uso justo para todos, incluidos los académicos.

Finalmente, Waibel y Hansen hacen un llamado a la comunidad académica para que adopte el acceso abierto como un medio para maximizar el impacto público de la investigación. Argumentan que esto no solo es beneficioso para los académicos, que tendrían acceso pleno a las herramientas y metodologías más avanzadas, sino que también fortalece el bien público al ampliar el alcance del conocimiento generado en las universidades.

Posibles problemas legales por el entrenamiento de Sora de OpenAI con contenido de videojuegos

Wiggers, Kyle. «It Sure Looks Like OpenAI Trained Sora on Game Content — and Legal Experts Say That Could Be a ProblemTechCrunch, December 11, 2024. https://techcrunch.com/2024/12/11/it-sure-looks-like-openai-trained-sora-on-game-content-and-legal-experts-say-that-could-be-a-problem/.

OpenAI ha lanzado Sora, una IA generadora de videos que parece haber sido entrenada con contenido de videojuegos, incluidos streamings de Twitch y videojuegos populares. Esto podría generar problemas legales debido al uso no autorizado de material con derechos de autor. Expertos en propiedad intelectual advierten sobre los riesgos de infringir derechos de autor y marcas al entrenar modelos generativos con estos datos.

OpenAI nunca ha revelado completamente los datos específicos utilizados para entrenar a Sora, su IA generadora de videos, pero parece probable que al menos parte de su material de entrenamiento provenga de transmisiones de Twitch y guías de juegos. Sora, que fue lanzada el lunes, puede generar videos de hasta 20 segundos de duración en varios formatos y resoluciones a partir de indicaciones de texto o imagen. Aunque OpenAI insinuó anteriormente que el modelo fue entrenado usando videos de Minecraft, parece que otro contenido de videojuegos también pudo haber sido incluido en el conjunto de entrenamiento. En algunas pruebas, Sora fue capaz de generar metraje de un juego similar a Super Mario Bros., un shooter en primera persona inspirado en juegos como Call of Duty y Counter-Strike, y un luchador estilo arcade de los años 90, semejante a los juegos de Teenage Mutant Ninja Turtles.

Una característica destacada de Sora es su aparente comprensión de las transmisiones en Twitch, ya que generó un video que imita la apariencia y el estilo de una plataforma de streaming popular. Esto incluyó un personaje que se parecía a Auronplay, un conocido streamer de Twitch, e incluso una figura similar a Pokimane, otra streamer prominente. Aunque OpenAI ha implementado medidas para evitar la generación de clips que involucren personajes con derechos de autor, mis pruebas sugieren que el contenido de videojuegos, posiblemente de Twitch y otras fuentes, pudo haber contribuido al entrenamiento de Sora.

OpenAI ha sido ambigua respecto a sus fuentes de datos, y en una entrevista anterior, la entonces CTO de la compañía, Mira Murati, no negó que el modelo pudiera haber sido entrenado utilizando contenido de plataformas como YouTube, Instagram y Facebook. OpenAI también ha reconocido el uso de datos disponibles públicamente y materiales con licencia de bibliotecas de medios de stock como Shutterstock en el desarrollo de Sora. Sin embargo, si el contenido de videojuegos forma parte del conjunto de entrenamiento, podría haber consecuencias legales, especialmente si OpenAI desarrolla aplicaciones interactivas sobre Sora.

Los expertos legales han expresado preocupaciones sobre los posibles riesgos de usar contenido de videojuegos no autorizado para entrenar modelos de IA. Joshua Weigensberg, un abogado de propiedad intelectual, señaló que el uso de material con derechos de autor de videojuegos sin las licencias adecuadas podría llevar a infracciones, especialmente si dichos datos se utilizan en modelos generativos de IA que producen nuevas obras. Los propios juegos suelen contener elementos protegidos, como texturas propietarias, y si estos se incluyen en los datos de entrenamiento de un modelo, podrían surgir problemas legales.

Además del riesgo de infracción de derechos de autor, existen preocupaciones sobre otros derechos de propiedad intelectual, como los derechos de marca registrada y los derechos sobre el contenido generado por los usuarios. Evan Everist, abogado especializado en derechos de autor, explicó que los videos de las partidas de juegos pueden implicar múltiples capas de protección de derechos de autor, como los derechos sobre el contenido del juego en sí, el video único creado por el jugador y el contenido generado por los usuarios. Esto crea una red compleja de titulares de derechos de autor que podrían reclamar infracción si las empresas de IA usan tales materiales en sus datos de entrenamiento.

Si bien algunos casos legales contra las empresas de IA se han centrado en si la IA generativa puede considerarse transformativa y, por lo tanto, no infringe los derechos de autor, los tribunales aún no han resuelto cuestiones clave sobre el uso de materiales con derechos de autor para entrenar la IA. Incluso si las empresas de IA ganan estos litigios, los usuarios individuales aún podrían ser responsables de infracción de derechos de autor si usan contenido generado por IA que copie obras protegidas. Además, existe el riesgo adicional de violación de derechos de marca registrada, especialmente si los videos generados por IA presentan personajes de juegos reconocibles u otros elementos protegidos. El creciente uso de modelos de mundo, que implican generar videojuegos sintéticos o experiencias interactivas en tiempo real, podría complicar aún más el panorama legal.

Los editores están vendiendo artículos para entrenar IA y generando millones de dólares

Kwon, Diana. «Publishers Are Selling Papers to Train AIs — and Making Millions of Dollars.» Nature, December 9, 2024. https://www.nature.com/articles/d41586-024-04018-5.

Con el aumento de la popularidad de la inteligencia artificial generativa (IA), varios editores académicos han establecido acuerdos con empresas tecnológicas que buscan utilizar contenido académico para entrenar los grandes modelos de lenguaje (LLMs) que sustentan sus herramientas de IA. Estos acuerdos han resultado altamente lucrativos, generando millones de dólares para los editores involucrados.

Roger Schonfeld, co-creador de un nuevo rastreador de acuerdos y vicepresidente de bibliotecas, comunicación académica y museos en Ithaka S+R, una firma de consultoría en educación superior con sede en Nueva York, comenta: “Estábamos observando anuncios de estos acuerdos y comenzamos a pensar que esto está empezando a convertirse en un patrón”. Schonfeld y su equipo lanzaron en octubre Generative AI Licensing Agreement Tracker, una herramienta destinada a recoger los acuerdos que se están realizando entre editores y compañías de tecnología.

El rastreador tiene como objetivo no solo documentar cada acuerdo individual, sino también identificar y analizar las tendencias generales que emergen de estos acuerdos. Al proporcionar una fuente centralizada de información, el tracker facilita que la comunidad académica y tecnológica comprendan mejor cómo se está utilizando el contenido académico para el desarrollo de IA generativa.

Este fenómeno refleja una creciente intersección entre la publicación académica y el desarrollo de tecnologías avanzadas de IA. Los editores, al vender derechos de uso de sus artículos para entrenar modelos de lenguaje, están aprovechando nuevas oportunidades de ingresos, mientras que las empresas de tecnología aseguran el acceso a vastas cantidades de datos necesarios para mejorar la precisión y capacidad de sus sistemas de IA.

El seguimiento de estos acuerdos es crucial para mantener la transparencia en cómo se utiliza el contenido académico y para asegurar que se respeten los derechos de los autores y las instituciones educativas. Además, este rastreador puede ayudar a identificar posibles implicaciones éticas y legales relacionadas con el uso de investigaciones académicas en el entrenamiento de inteligencias artificiales.

Principales acuerdos:

  • Taylor & Francis firmó un acuerdo de 10 millones de dólares con Microsoft
  • Wiley generó 23 millones de dólares en un acuerdo con una empresa no revelada y espera otros 21 millones este año.
  • Otros grandes editores, como Elsevier y Springer Nature, no han comentado sobre acuerdos similares.

También los editores están creando nuevas posiciones y programas, como el «Wiley AI Partnerships», para formalizar colaboraciones con empresas de tecnología. Esto refleja que estos acuerdos no son excepcionales, sino parte de una estrategia a largo plazo.

Los acuerdos entre editores académicos y empresas de IA están transformando la publicación científica, generando ingresos sustanciales y redefiniendo la relación entre autores, editores y tecnología. Sin embargo, el debate sobre la transparencia y las implicaciones éticas de estas prácticas sigue abierto.

Algunos académicos han mostrado preocupación por el uso de su contenido sin su conocimiento.

  • De Gruyter Brill creó una página informativa para explicar los acuerdos y abordar las inquietudes de los autores.
  • Cambridge University Press & Assessment adoptó un enfoque de participación voluntaria, contactando a 20.000 autores para obtener su consentimiento explícito.

HarperCollins confirma que tiene un acuerdo para vender las obras de sus autores a una empresa de IA

Cole ·, Samantha. 2024. «HarperCollins Confirms It Has a Deal to Sell Authors’ Work to AI Company». 404 Media. 18 de noviembre de 2024. https://www.404media.co/harpercollins-ai-deal/.

HarperCollins, una de las editoriales más grandes del mundo, ha confirmado un acuerdo con una empresa de tecnología de inteligencia artificial (IA) para permitir el uso limitado de ciertos títulos de no ficción de su catálogo para entrenar modelos de IA. La participación de los autores en este acuerdo es opcional; ellos pueden decidir si aceptan o rechazan la propuesta.

Según un portavoz de HarperCollins, este convenio busca mejorar la calidad y el rendimiento de los modelos de IA y cuenta con restricciones claras para respetar los derechos de los autores. La editorial enfatiza que su objetivo es proteger el valor inherente de las obras de sus autores y garantizar el flujo compartido de ingresos y regalías. Además, destaca su larga tradición de innovación y exploración de nuevos modelos de negocio.

El acuerdo contempla el pago de 2.500$ por título a los autores que opten por participar, una cantidad que no es negociable. Este ofrecimiento ha generado debate, especialmente en relación con el uso de materiales protegidos por derechos de autor en el entrenamiento de modelos de IA.

Daniel Kibblesmith, autor del libro infantil Santa’s Husband, compartió en la red social Bluesky un correo de su agente que describe la propuesta de HarperCollins. En el mensaje, su agente menciona las controversias alrededor del uso de materiales con derechos de autor para entrenar IA, destacando que muchas empresas lo hacen sin reconocer ni compensar a los creadores originales. También se alude al temor de que estos modelos puedan hacer obsoletos a los autores en el futuro.

Kibblesmith criticó la decisión de HarperCollins, calificándola como una búsqueda desesperada de ganancias a corto plazo. Señaló que este desarrollo podría dividir el mercado en dos tipos de lectores: aquellos que buscan una conexión humana auténtica a través de los libros y aquellos que prefieren contenido personalizado y generado por IA, diseñado para evitar cualquier desafío intelectual.

El uso de obras protegidas por derechos de autor para entrenar IA ha sido un tema polémico. Numerosas empresas han sido acusadas de aprovecharse de materiales sin compensar a sus creadores. Este acuerdo de HarperCollins es una de las primeras instancias donde una gran editorial propone explícitamente un trato transparente y compensatorio, aunque limitado, para el uso de este tipo de contenido.

En general, el tema pone de relieve las tensiones entre la innovación tecnológica y la preservación del valor del trabajo creativo humano, planteando preguntas sobre el futuro de los derechos de autor y la sostenibilidad de las profesiones creativas en la era de la IA.

The New York Times exige a Perplexity cesar el uso no autorizado de su contenido para IA

Davis, Wes. «The New York Times Warns AI Search Engine Perplexity to Stop Using Its Content». The Verge, 15 de octubre de 2024. https://www.theverge.com/2024/10/15/24270774/new-york-times-cease-and-desist-letter-perplexity-ai-search-engine.

New York Times ha enviado una carta de cesación y desista a la empresa emergente de motores de búsqueda Perplexity, exigiendo que dejen de utilizar su contenido, según informó The Wall Street Journal el 15 de octubre de 2024.

La demanda se produce en el contexto de una disputa legal más amplia, ya que el Times está demandando a OpenAI y Microsoft por presuntamente usar su contenido sin permiso para entrenar sus modelos de inteligencia artificial. En este caso, el periódico acusa a Perplexity de haber estado utilizando su contenido sin autorización, algo que también había sido señalado previamente por otras empresas como Forbes y Condé Nast.

La carta enviada por el Times, de acuerdo con The Wall Street Journal, incluye el siguiente pasaje:

«Perplexity y sus socios comerciales se han enriquecido injustamente al utilizar, sin autorización, el periodismo expresivo, cuidadosamente redactado, investigado y editado del Times sin licencia.»

El New York Times tiene una política clara que prohíbe el uso de su contenido para entrenar modelos de inteligencia artificial. En este sentido, han bloqueado explícitamente varios rastreadores de IA, incluido el de Perplexity, mediante el archivo robots.txt, que indica a los motores de búsqueda qué URLs pueden indexar.

Por su parte, Perplexity ha respondido a las acusaciones a través de un comunicado de su portavoz, Sara Platnick, en el que afirman no estar «robando» contenido para el entrenamiento de modelos de IA. En cambio, defiende que se dedica a «indexar páginas web y mostrar contenido factual» como citas para informar las respuestas a las preguntas de los usuarios. Además, Perplexity sostiene que «ninguna organización posee los derechos de autor sobre los hechos», argumentando que este principio permite un ecosistema de información abierto y libre, lo que también beneficia a los medios de comunicación al poder informar sobre temas previamente cubiertos por otros.

En respuesta a la carta de cesación, Perplexity tiene plazo hasta el 30 de octubre de 2024 para presentar su respuesta. La empresa, sin embargo, ha intentado suavizar la situación, enfatizando su interés en colaborar con los editores de contenido. Aravind Srinivas, CEO de Perplexity, expresó NYT que la compañía «no tiene interés en ser el antagonista de nadie» y que está dispuesta a trabajar con todos los editores, incluido el New York Times.

Este conflicto ocurre en medio de las crecientes tensiones sobre el uso de contenido protegido por derechos de autor por parte de modelos de IA. Durante el verano, Perplexity ya había sido acusada de plagio, lo que la llevó a cerrar acuerdos con varios editores, ofreciendo ingresos por publicidad y suscripciones gratuitas a socios como Fortune, Time, y The Texas Tribune. Sin embargo, la disputa con el New York Times pone de manifiesto el creciente choque entre las empresas tecnológicas emergentes y los medios de comunicación tradicionales en cuanto al uso y la compensación por su contenido digital.

Open Policy Finder de Sherpa/Romeo ayudará a autores e instituciones a tomar decisiones informadas y seguras sobre la publicación en acceso abierto y el cumplimiento de políticas

Open Policy Finder

https://openpolicyfinder.jisc.ac.uk/

La plataforma Sherpa ha unificado sus tres servicios previos (Sherpa Fact, Sherpa Romeo y Sherpa Juliet) en una nueva plataforma llamada Open Policy Finder, según un anuncio reciente de JISC. Esta plataforma ayudará a autores e instituciones a tomar decisiones informadas y seguras sobre la publicación en acceso abierto y el cumplimiento de políticas a través de una interfaz simplificada y fácil de usar.

Desde su fundación en 2006, Sherpa se ha dedicado a ofrecer información sobre políticas de acceso abierto y archivado de editoriales y financiadores, proporcionando datos estandarizados.. Ahora JISC presenta Open Policy Finder, una plataforma innovadora que unifica los tres servicios principales de Sherpa: Sherpa Fact, Sherpa Romeo y Sherpa Juliet. Esta integración busca simplificar y optimizar el proceso de toma de decisiones sobre el acceso abierto, tanto para los autores como para las instituciones académicas. Con una interfaz unificada y fácil de usar, Open Policy Finder facilita el acceso a datos críticos sobre políticas de acceso abierto, ayudando a los usuarios a comprender y cumplir con las normativas de sus financiadores y editoriales.

La nueva plataforma incluye una interfaz web intuitiva y una API abierta, permitiendo que los usuarios puedan:

  1. Verificar la conformidad con políticas de financiadores: Open Policy Finder permite a los autores comprobar si la publicación de sus investigaciones en revistas específicas cumple con los requisitos de acceso abierto exigidos por sus financiadores. Esto es especialmente útil para investigadores que deben asegurar el acceso abierto a sus trabajos para recibir financiación.
  2. Acceder a las políticas de archivado de los editores: La plataforma proporciona información detallada sobre las condiciones de archivo en acceso abierto que exigen distintas editoriales para libros y revistas. Esto significa que los usuarios pueden revisar, en un solo lugar, los requisitos específicos para cada publicación, facilitando el cumplimiento de las políticas sin tener que navegar en múltiples fuentes.
  3. Consultar las condiciones de acceso abierto de los financiadores: Los investigadores pueden conocer las condiciones que sus financiadores imponen para la publicación en acceso abierto, lo que permite que se adapten mejor a los términos y requisitos de cada financiador en términos de publicación y difusión de sus trabajos.

La Asociación de Editores Americanos (AAP) ha unido a 10.000 creadores para condenar el uso indebido de sus obras por parte de empresas tecnológicas para entrenar modelos de IA generativa

«Publishers Join with Worldwide Coalition to Condemn the Theft of Creative and Intellectual Authorship by Tech Companies for Generative AI Training – AAP». 2024. 22 de octubre de 2024.

Ver noticia

El artículo publicado por la Asociación de Editores Americanos (AAP) destaca la creciente preocupación entre los creadores de contenido y sus aliados sobre el uso indebido de sus obras por parte de grandes empresas tecnológicas, particularmente en el desarrollo y entrenamiento de modelos de inteligencia artificial generativa. Estos modelos, que generan textos, imágenes, música y otros contenidos a partir de datos preexistentes, han provocado un fuerte debate en torno a los derechos de autor, ya que muchas de las obras utilizadas para entrenar estas tecnologías son extraídas sin el consentimiento de los autores.

Denuncia del uso de obras creativas sin autorización

La AAP, en colaboración con más de 10.000 creadores de diversas disciplinas como escritores, músicos, actores, artistas visuales y fotógrafos, ha emitido una condena pública contra lo que describen como el «robo» de la autoría creativa e intelectual por parte de estas empresas tecnológicas. Según los creadores y la AAP, los modelos de IA generativa no podrían existir sin la ingesta masiva de contenidos como libros, canciones, artículos de prensa, actuaciones y otras expresiones artísticas producidas por seres humanos. Estas obras son copiadas, procesadas y reutilizadas por las IA sin cumplir con las leyes de derechos de autor, lo que plantea serios problemas legales y éticos.

Un momento crucial para la política sobre IA

El texto señala que este es un momento decisivo para el desarrollo de políticas globales relacionadas con la inteligencia artificial. Los creadores y sus editoriales están haciendo un llamado a los gobiernos y a los sistemas judiciales para que defiendan los principios fundamentales del derecho de autor. Entre estos principios, destaca la exigencia de que la reproducción de obras y la creación de trabajos derivados solo pueden llevarse a cabo con el consentimiento explícito de quienes crearon e invirtieron en esas obras. La defensa de este principio es crucial no solo para proteger los derechos de los creadores, sino también para garantizar que la propiedad intelectual y los recursos financieros invertidos en la creación de contenido sean respetados.

La posición de la AAP sobre la colaboración con la tecnología

Maria A. Pallante, presidenta y CEO de la AAP, expresó que si bien las colaboraciones tecnológicas son esenciales para la industria editorial, deben basarse en acuerdos legales y respetuosos, no en la explotación no autorizada de contenido. Pallante subraya que los creadores no trabajan para enriquecer a las grandes compañías tecnológicas, sino para inspirar y educar a un público global informado. Las colaboraciones entre la tecnología y la industria creativa han sido, históricamente, parte del ecosistema de la publicación, pero siempre sobre la base de licencias legales y respeto mutuo entre las partes. El problema actual radica en que las empresas tecnológicas están tomando obras sin sanción legal, un comportamiento que ella describe como una «apropiación masiva».

El papel crucial de los derechos de autor

El artículo también destaca la importancia de los derechos de autor como base del sistema de creación y distribución de contenido. Los derechos de autor no solo protegen la propiedad intelectual de los creadores, sino que también garantizan que los creadores sean adecuadamente recompensados por su trabajo. En ausencia de un marco claro y respetado de derechos de autor, la industria creativa podría enfrentar serias dificultades, ya que los autores podrían perder el control sobre cómo se utilizan sus obras y, en consecuencia, sufrir pérdidas económicas significativas.

Impacto global de la IA en la industria creativa

Este fenómeno no es exclusivo de los Estados Unidos, sino que tiene implicaciones globales. A medida que los modelos de IA generativa se expanden y se utilizan en todo el mundo, la discusión sobre el uso indebido de contenido protegido por derechos de autor se intensifica. Los creadores de todo el mundo están pidiendo que se tomen medidas para evitar que sus obras sean utilizadas sin su consentimiento en el desarrollo de IA, y para que se establezcan políticas claras que obliguen a las empresas tecnológicas a obtener licencias adecuadas antes de utilizar cualquier contenido protegido.

Declaración global y acciones futuras

La AAP y sus socios de coalición han lanzado una declaración global que denuncia estas prácticas y solicitan a los gobiernos y tribunales que actúen para proteger los derechos de los creadores. Esta declaración está respaldada por firmas de miles de creadores en todo el mundo, quienes exigen que las políticas sobre IA se desarrollen de manera justa y respeten los derechos de autor. Además, la AAP hace un llamado a la comunidad internacional para que tome medidas proactivas en la creación de un marco regulatorio que equilibre los avances tecnológicos con la protección de los derechos de los autores.

Penguin Random House prohíbe expresamente que sus libros sean usados para entrenar tecnologías de IA.



Battersby, Matilda. «Penguin Random House Underscores Copyright Protection in AI Rebuff.» The Bookseller, October 18, 2024. https://www.thebookseller.com/news/penguin-random-house-underscores-copyright-protection-in-ai-rebuff.

Penguin Random House (PRH), el mayor editor comercial del mundo, ha modificado el texto en sus páginas de derechos de autor para proteger la propiedad intelectual de sus autores frente al uso no autorizado de sus obras para entrenar modelos de inteligencia artificial (IA). El nuevo texto, que se aplicará globalmente en todas las nuevas publicaciones y reimpresiones, prohíbe expresamente que sus libros sean usados para entrenar tecnologías de IA. Esto responde a casos de infracción de derechos de autor en los EE.UU., donde se han utilizado libros pirateados para entrenar IA sin autorización.

El CEO de PRH UK, Tom Weldon, afirmó que la empresa «defenderá vigorosamente» los derechos de propiedad intelectual de sus autores, mientras que elogiaron la actualización de PRH desde la Sociedad de Autores y otras organizaciones. Sin embargo, pidieron que también se modifiquen los contratos de los autores para asegurar que su consentimiento sea requerido antes de utilizar IA en la creación o producción de sus obras.

Expertos legales indicaron que el verdadero riesgo está en el entrenamiento de los modelos de IA, y no tanto en los resultados que estos generan. La industria editorial busca establecer mejores prácticas en medio de un panorama de IA en rápida evolución, donde el uso no autorizado de contenido afecta los ingresos de autores y editores.

Posición del Comité Consultivo de Derecho de Autor y otros Asuntos Jurídicos de IFLA sobre la Inteligencia Artificial

Levine, Melissa, y Advisory Committee on Copyright and other Legal Matters (CLM). 2024. «Advisory Committee on Copyright and Other Legal Matters Position on Artificial Intelligence», octubre.

Texto completo

Este documento está diseñado para ayudar a las bibliotecas miembros de IFLA a navegar los problemas de derechos de autor relacionados con el uso de la IA y a apoyar el desarrollo de programas y servicios bibliotecarios relevantes. También respalda el trabajo del Grupo de Interés Especial de IFLA sobre Inteligencia Artificial, alineándose con el Manifiesto y el plan de Comunicación y Outreach de IFLA.

Consideraciones:

  • La aparición de tecnologías de IA plantea múltiples consideraciones para las bibliotecas, incluida la forma en que se utiliza el contenido y quién lo utiliza. Las bibliotecas están en una posición única para liderar en este ámbito, afirmando su papel como innovadoras, desde la inclusión de contenido generado por IA en sus colecciones hasta la mejora y eficiencia en la entrega de servicios de referencia y préstamo interbibliotecario.
  • En muchos países, las leyes de derechos de autor (tanto derechos económicos como morales) han evolucionado para adaptarse a tecnologías innovadoras y son adecuadas para abordar las preocupaciones legítimas de los creadores, incluidas las bibliotecas en su rol como creadoras de procesos y servicios basados en IA.
  • La legislación relacionada con la IA a menudo también existe fuera del ámbito del derecho de autor. Para temas no relacionados con los derechos de autor, como salud, seguridad, privacidad y cuestiones éticas, se debe acudir a la fuente de información política más adecuada. Las bibliotecas deben considerar las herramientas de IA desde un enfoque basado en valores, asegurándose de que no comprometan la libertad de expresión, la privacidad ni otras áreas de preocupación.

Recomendaciones:

  • Las bibliotecas deben ofrecer capacitación y desarrollo esenciales sobre tecnologías en evolución, incluida la IA, para apoyar a empleados, investigadores y otros usuarios de la biblioteca.
  • En jurisdicciones donde la ley de derechos de autor no respalda los usos típicos y en evolución de la IA por parte de las bibliotecas, se debe abogar para informar a los tomadores de decisiones sobre los beneficios de expandir las limitaciones y excepciones existentes para permitir usos como la minería de texto y datos (TDM).
  • Las convenciones de derechos humanos existentes deberían guiar el desarrollo de trabajos normativos relacionados con la IA. Se deben apoyar los esfuerzos de las bibliotecas para desarrollar prácticas éticas en respuesta a las preocupaciones relacionadas con las herramientas de IA.
  • Los contratos para recursos bibliotecarios licenciados no deben incluir cláusulas que obstaculicen o restrinjan indebidamente el uso de la IA por parte de los usuarios de la biblioteca ni que impidan el uso de excepciones aplicables en la ley de derechos de autor.
  • Las bibliotecas se comprometen a abordar los sesgos mientras navegan por los desafíos de derechos de autor. El acceso limitado a datos y recursos puede conducir a sesgos en los sistemas de IA, por lo que abogamos por el monitoreo continuo de los servicios de IA en las bibliotecas para garantizar la diversidad y el acceso equitativo a la información.