Archivo de la etiqueta: Propiedad intelectual

Libro Blanco: Inteligencia Artificial Generativa en Comunicación científica

Generative AI in Scholarly Communications: Ethical and Practical Guidelines for the Use of Generative AI in the Publication Process. STM, 2023

Texto completo

STM ha publicado un nuevo libro blanco: Generative AI in Scholarly Communications: Directrices éticas y prácticas para el uso de la IA generativa en el proceso de publicación. Como continuación de AI Ethics in Scholarly Communication, que STM publicó en abril de 2021, esta nueva publicación es un recurso para las partes interesadas en la publicación académica y aborda el papel cada vez más importante de las tecnologías de IA Generativa (GenAI).

El documento examina los aspectos éticos, jurídicos y prácticos de GenAI, destacando su potencial para transformar las comunicaciones académicas, y abarca una serie de temas que van desde los derechos de propiedad intelectual hasta los desafíos de mantener la integridad en la era digital. El documento ofrece principios de buenas prácticas y recomendaciones para autores, equipos editoriales, revisores y proveedores, garantizando un enfoque responsable y ético en el uso de las herramientas GenAI.

Redefiniendo la Inteligencia Artificial: cómo la práctica de la Propiedad Intelectual se va adaptando a lo que se avecina

Los avances rápidos en inteligencia artificial indudablemente influirán en la ley y la práctica de la propiedad intelectual. Esto requiere que los profesionales de PI y sus socios tecnológicos reevalúen ciertas suposiciones sobre cómo se crea, protege y administra la PI. Se espera que estos cambios no lleguen como una revolución, sino a través de una serie de pasos incrementales.

Clarivate Plc ha publicado un informe titulado «Redefining AI: How IP practice meets the coming wave«, que investiga el impacto de la inteligencia artificial (IA) en la ley, la práctica y los procesos de propiedad intelectual (PI). El informe revela que la IA se está adoptando cada vez más en el campo de la PI, ofreciendo beneficios como la automatización de tareas manuales y la mejora de la productividad.

El informe aborda las percepciones de la IA y se centra en los beneficios, riesgos y la disposición a su integración en el ciclo de vida de la PI. Se parte de la suposición fundamental de que las perspectivas reales y los usos de la IA deben ser centrales en su desarrollo. El informe se basa en una encuesta en línea en la que participaron 575 profesionales de PI e investigación y desarrollo (I+D) de firmas de abogados y corporaciones de todo el mundo entre el 17 de julio y el 1 de agosto de 2023.

Al igual que en muchos sectores, el uso de la IA para potenciar los procesos de PI y la toma de decisiones abarca una amplia gama de tecnologías con diferentes niveles de sofisticación. El 43% de los encuestados informaron que actualmente no se estaba utilizando la IA. La mayoría de los encuestados mostraron un sentimiento negativo hacia la IA en general y expresaron su mayor preocupación por la precisión (74%). Hubo un fuerte interés en que la IA respaldara tareas manuales y laboriosas (67%), con solo una pequeña minoría (8%) sugiriendo que no querían que la IA se aplicara en absoluto a los procesos de PI. En conjunto, estos hallazgos sugieren la posibilidad de que la implementación de la IA sea altamente contextual, dependiendo del problema específico a resolver y del entorno de riesgo. Las percepciones negativas de la IA tienden naturalmente hacia tareas de alto riesgo que dependen en gran medida de la experiencia. En estas áreas, se enfatiza la creación de herramientas que ponen de relieve la experiencia. Enfoques centrados en el ser humano pueden mitigar algunos riesgos asociados con la incorporación de la IA en los flujos de trabajo de PI, calibrando su desarrollo a las necesidades de los profesionales. Sin confianza en sistemas autónomos, es poco probable que se aproveche el verdadero potencial de la IA. Situamos la IA responsable y ética en el contexto de la práctica de la PI, no para sugerir que el desarrollo de la IA hasta la fecha haya sido irresponsable, sino para avanzar hacia un panorama equitativo en el que las tecnologías basadas en la IA satisfagan las necesidades de quienes las utilizan.

Puntos clave del informe:

  1. La IA se está adoptando en la gestión de la PI, mejorando la toma de decisiones y acelerando los procesos de investigación.
  2. Las actitudes hacia la adopción de la IA en el campo de la PI varían según los roles y las ubicaciones geográficas. Los abogados y las firmas de abogados son más reacios, mientras que los no abogados, ejecutivos y profesionales de I+D se sienten más cómodos con la IA.
  3. Europa y los Estados Unidos muestran actitudes más cautelosas hacia la adopción de la IA, mientras que las regiones de Asia Pacífico y MENA son más receptivas.
  4. Las preocupaciones sobre la adopción de la IA incluyen la precisión de los resultados, la confiabilidad, consideraciones éticas, la confidencialidad del cliente, la responsabilidad y la falta de regulación.
  5. Las firmas de abogados, en particular, expresan reservas sobre la adopción de la IA, con preocupaciones sobre la responsabilidad, la confiabilidad y la confidencialidad del cliente.
  6. Los profesionales de I+D son los más entusiastas acerca de la adopción de la IA y creen que tendrá un impacto positivo en su función.
  7. Los departamentos legales internos y las firmas de abogados enfrentan barreras significativas para adoptar la IA, lo que enfatiza la necesidad de un enfoque responsable que tenga en cuenta las implicaciones legales, éticas y sociales.

El informe sugiere que adoptar la IA en la PI requiere un compromiso continuo para gestionar y evaluar riesgos, teniendo en cuenta consideraciones legales, éticas y sociales. Este enfoque puede ayudar a calibrar los sistemas de IA para satisfacer necesidades específicas y al mismo tiempo mantener la integridad del sistema de PI y garantizar la equidad y la justicia.

Estudio sobre los informes de transparencia (2019-2020) de las entidades de gestión de derechos de propiedad intelectual (2022)

Luis Fernando Ramos Simón e Ignacio Miró-Charbonnier. Estudio sobre los informes de transparencia (2019-2020) de las entidades de gestión de derechos de propiedad intelectual Madrid. FESABID, 2022

Texto completo

El presente estudio trata de analizar los Informes Anuales de Transparencia (en adelante: IAT), que son publicados por todas las entidades españolas de gestión de derechos de autor desde el ejercicio 2019. El objetivo principal de nuestro estudio consiste en conocer en qué medida la nueva regulación de las entidades de gestión de los derechos de autor –verificable a través de los IAT—modifica la operatividad de esas instituciones, que desempeñan un papel clave en la gestión de los derechos de propiedad intelectual.

Ellas pueden actuar como engranaje esencial de la actividad cultural del Estado, en la medida en que promuevan la competencia y el desarrollo tecnológico; por ello, forman parte importante de la industria cultural española. Conocerlas, comprender su papel, corregir sus defectos e impulsar sus iniciativas puede servir para revitalizar al sector cultural y en particular a todas aquellas instituciones públicas y privadas que tengan la información, el conocimiento y el patrimonio cultural como ejes de su misión.

La IA destapa la caja de Pandora: ChatGPT genera artículos científicos falsos y convincentes

Májovský, Martin, Martin Černý, Matěj Kasal, Martin Komarc, y David Netuka. «Artificial Intelligence Can Generate Fraudulent but Authentic-Looking Scientific Medical Articles: Pandora’s Box Has Been Opened». Journal of Medical Internet Research 25, n.o 1 (31 de mayo de 2023): e46924. https://doi.org/10.2196/46924.


Un estudio publicado en el Journal of Medical Internet Research por Martin Májovský y sus colegas revela que los modelos de lenguaje de inteligencia artificial (IA), como ChatGPT (Chat Generative Pre-trained Transformer), pueden generar artículos científicos fraudulentos que parecen notablemente auténticos. Este descubrimiento plantea preocupaciones críticas sobre la integridad de la investigación científica y la confiabilidad de los documentos publicados.

Investigadores de la Universidad Charles, República Checa, se propusieron investigar las capacidades de los modelos actuales de lenguaje de IA para crear artículos médicos fraudulentos de alta calidad. El equipo utilizó el popular chatbot de IA, ChatGPT, que se ejecuta en el modelo de lenguaje GPT-3 desarrollado por OpenAI, para generar un artículo científico completamente ficticio en el campo de la neurocirugía. Las preguntas y sugerencias se refinaron a medida que ChatGPT generaba respuestas, lo que permitió mejorar iterativamente la calidad del resultado.

Los resultados de este estudio de concepto fueron sorprendentes: el modelo de lenguaje de IA produjo con éxito un artículo fraudulento que se asemejaba estrechamente a un documento científico genuino en cuanto al uso de palabras, estructura de las oraciones y composición general. El artículo incluía secciones estándar como resumen, introducción, métodos, resultados y discusión, así como tablas y otros datos. Sorprendentemente, todo el proceso de creación del artículo tomó solo una hora sin necesidad de ningún entrenamiento especial por parte del usuario humano.

Si bien el artículo generado por IA parecía sofisticado e impecable, al examinarlo más detenidamente, los lectores expertos pudieron identificar inexactitudes y errores semánticos, especialmente en las referencias; algunas referencias eran incorrectas, mientras que otras no existían. Esto subraya la necesidad de una mayor vigilancia y métodos de detección mejorados para combatir el posible mal uso de la IA en la investigación científica.

Los hallazgos de este estudio destacan la importancia de desarrollar pautas éticas y mejores prácticas para el uso de modelos de lenguaje de IA en la escritura e investigación científica genuina. Modelos como ChatGPT tienen el potencial de mejorar la eficiencia y precisión en la creación de documentos, el análisis de resultados y la edición de lenguaje. Al utilizar estas herramientas con cuidado y responsabilidad, los investigadores pueden aprovechar su poder al tiempo que minimizan el riesgo de mal uso o abuso.

En un comentario sobre el artículo del Dr. Májovský, el Dr. Pedro Ballester habla sobre la necesidad de priorizar la reproducibilidad y visibilidad de las obras científicas, ya que estas sirven como salvaguardias esenciales contra la proliferación de investigaciones fraudulentas.

A medida que la IA continúa avanzando, es crucial que la comunidad científica verifique la precisión y autenticidad del contenido generado por estas herramientas e implemente mecanismos para detectar y prevenir el fraude y la mala conducta. Si bien ambos artículos coinciden en que se necesita una mejor manera de verificar la precisión y autenticidad del contenido generado por IA, cómo se puede lograr esto es menos claro. «Deberíamos al menos declarar en qué medida la IA ha ayudado en la escritura y análisis de un artículo», sugiere el Dr. Ballester como punto de partida. Otra posible solución propuesta por Májovský y sus colegas es hacer obligatoria la presentación de datos para respaldar los resultados de la investigación, lo cual podría aumentar la transparencia y la verificabilidad de los estudios.

La ética de revelar el uso de herramientas de inteligencia artificial en la redacción de manuscritos académicos

Hosseini, Mohammad, David B Resnik, y Kristi Holmes. «The Ethics of Disclosing the Use of Artificial Intelligence Tools in Writing Scholarly Manuscripts». Research Ethics, 15 de junio de 2023, 17470161231180448. https://doi.org/10.1177/17470161231180449.

En este artículo se analizan cuestiones éticas relacionadas con el uso y la divulgación de herramientas de inteligencia artificial (IA), como ChatGPT y otros sistemas basados en grandes modelos lingüísticos (LLM), para escribir o editar manuscritos académicos.

Algunas revistas, como Science, han prohibido el uso de LLM por los problemas éticos que plantean en relación con la autoría responsable. Aquí se argumenta que ésta no es una respuesta razonable a los enigmas morales creados por el uso de los LLM, ya que las prohibiciones son inaplicables y fomentarían el uso no revelado de los LLM. Además, los LLM pueden ser útiles para redactar, revisar y editar textos, y promueven la equidad en la ciencia. Otros han argumentado que los LLM deberían mencionarse en los agradecimientos, ya que no cumplen todos los criterios de autoría.

En el artículo se sostiene que nombrar a los LLM como autores o mencionarlos en los agradecimientos son formas inapropiadas de reconocimiento porque los LLM no tienen libre albedrío y, por lo tanto, no pueden ser considerados moral o legalmente responsables de lo que hacen. Las herramientas en general, y el software en particular, suelen citarse dentro del texto, y luego se mencionan en las referencias.

Se proporcionan sugerencias para mejorar el Estilo APA para referenciar ChatGPT con el fin de indicar específicamente el colaborador que utilizó los LLM (porque las interacciones se almacenan en cuentas de usuario personales), la versión y el modelo utilizados (porque la misma versión podría utilizar diferentes modelos de lenguaje y generar respuestas disímiles, por ejemplo, ChatGPT Mayo 12 Versión GPT3.5 o GPT4), y el tiempo de uso (porque los LLM evolucionan rápidamente y generan respuestas disímiles a lo largo del tiempo).

Se recomienda que los investigadores que utilicen LLMs:

(1) revelen su uso en la introducción o en la sección de métodos para describir de forma transparente detalles tales como las indicaciones utilizadas y señalar qué partes del texto se ven afectadas,

(2) utilicen citas y referencias en el texto (para reconocer sus aplicaciones utilizadas y mejorar la localización y la indexación), y

(3) registren y presenten sus interacciones relevantes con LLMs como material suplementario o apéndices.

Inteligencia artificial y su impacto en la escritura académica

Alonso Arévalo, Julio Inteligencia artificial y su impacto en la escritura académica. Revista Praxis & Saber. Accedido 17 de junio de 2023.

Video

La inteligencia artificial está teniendo un impacto significativo en la escritura académica al ofrecer herramientas y recursos que facilitan el proceso de investigación, redacción y edición de documentos. Mediante el uso de algoritmos avanzados, los sistemas de inteligencia artificial pueden analizar grandes cantidades de información, extraer patrones y generar ideas para el desarrollo de un texto académico. Estas herramientas pueden ayudar a los estudiantes y profesores a ahorrar tiempo y esfuerzo al proporcionar sugerencias de vocabulario, estructura de párrafos y citas bibliográficas adecuadas. Además, la inteligencia artificial también puede contribuir a mejorar la calidad de los escritos académicos, al detectar errores gramaticales y de estilo, así como proporcionar recomendaciones para una redacción más clara y coherente. Sin embargo, es importante tener en cuenta que la inteligencia artificial no debe reemplazar el pensamiento crítico y la creatividad inherentes a la escritura académica, sino que debe utilizarse como una herramienta complementaria para mejorar y enriquecer el proceso de escritura.

ChatGPT: La inteligencia artificial y la generación de textos académicos: avances y desafíos

ChatGPT: La inteligencia artificial y la generación de textos académicos: avances y desafíos. Por Julio Alonso Arévalo

Consorcio de Bibliotecas Universitarias de El Salvador el 30 de mayo de 2023

VER VIDEO

La inteligencia artificial (IA) ha experimentado avances significativos en la generación de texto académico en los últimos años. Estos avances se deben principalmente al desarrollo de modelos de lenguaje basados en redes neuronales, como el modelo GPT (Transformador Generativo Pre-entrenado), que ha demostrado ser capaz de generar texto coherente y de calidad en una variedad de dominios. Una de las principales ventajas de utilizar IA para generar texto académico es su capacidad para procesar grandes cantidades de información y producir resultados rápidamente. Sin embargo, también existen desafíos asociados con la generación de texto académico mediante IA. Uno de los desafíos más importantes es garantizar la precisión y la fiabilidad de la información generada. Aunque los modelos de IA pueden generar texto coherente, no siempre pueden verificar la veracidad de los hechos o la calidad de las fuentes utilizadas. Esto puede ser problemático en el contexto académico, donde la precisión y la evidencia son fundamentales.

Otro desafío es la necesidad de evitar el plagio y respetar los derechos de autor. Al generar texto académico automáticamente, existe el riesgo de que se reproduzcan ideas o información sin la debida atribución. Es importante implementar salvaguardas para garantizar que el contenido generado sea original y cumpla con los estándares éticos y legales de la investigación académica.

Infracción y observancia de la propiedad intelectual

Intellectual property infringement and enforcement – Tech Watch Discussion Paper 2023, European Union Intellectual Property Office, 2023, 

Texto completo

La EUIPO, a través del Observatorio Europeo de las Vulneraciones de los Derechos de Propiedad Intelectual, desarrolla herramientas y promueve las mejores prácticas para mejorar la protección de la propiedad intelectual (PI), que es un activo fundamental para empresas y particulares. Las tecnologías emergentes y disruptivas han adquirido, especialmente en los últimos 30 años y con una velocidad acelerada en la última década, una importancia cada vez mayor en la protección de la PI, como herramientas utilizadas tanto para infringir como para hacer cumplir la PI. Para fortalecer el trabajo del Observatorio sobre tecnologías emergentes y disruptivas, en 2019 se creó un Grupo de Expertos en Impacto de la Tecnología para: apoyar el trabajo del Observatorio que implica cuestiones tecnológicas; identificar nuevas tecnologías con potencial para impactar en la protección de la PI, la infracción y la aplicación; definir posibles casos de uso y llevar a cabo estudios o lanzar iniciativas para comprender mejor estos impactos; aumentar el conocimiento de las partes interesadas sobre los desarrollos tecnológicos con potencial para impactar en la protección de la PI, la infracción y la aplicación.

Inteligencia Artificial Generativa y Ley de Propiedad Intelectual

Generative Artificial Intelligence and Copyright Law. Congressional Research Service (CRS). Legal Sidebar Prepared for Members and Committees of Congress Updated May 11, 2023

Descargar

Las recientes innovaciones en el campo de la inteligencia artificial (IA) plantean nuevos interrogantes sobre como la autoría, la infracción y el uso justo se aplicarán a los contenidos creados o utilizados por la IA.

Los denominados programas informáticos de «IA generativa», como los programas DALL-E 2 y ChatGPT de Open AI, el programa Stable Diffusion de Stability AI y el programa autotitulado Midjourney, son capaces de generar nuevas imágenes, textos y otros contenidos (o «salidas») en respuesta a las indicaciones textuales de un usuario (o «entradas»). Estos programas de IA generativa se entrenan para generar esos resultados en parte exponiéndolos a grandes cantidades de de obras existentes, como escritos, fotografías, pinturas y otras obras de arte. Este documento explora las cuestiones que los tribunales y la Oficina de Derechos de Autor de EE.UU. han empezado a plantearse sobre si los resultados de los programas de IA generativa tienen derecho a ser protegidos por los derechos de autor así como la forma en que el programas pueden infringir los derechos de autor de otras obras.

Derechos de autor de obras creadas con IA generativa

El uso generalizado de programas de IA generativa plantea la cuestión de quién, si es que alguien, puede tener los los derechos de autor de los contenidos creados con estos programas, dado que el usuario de la IA, el programador de la IA y el propio programa de IA desempeñan un papel en la creación de estas obras.

¿Están protegidos por derechos de autor los resultados de la IA?

La cuestión de si los productos de la IA -como las imágenes creadas por DALL-E o los textos creados por ChatGPT- depende, al menos en parte, del concepto de «autoría». La Constitución de EE.UU. autoriza al Congreso a «asegurar a los autores, por tiempo limitado… el derecho exclusivo a sus … escritos». Sobre la base de esta autoridad, la Ley de Derechos de Autor otorga protección de derechos de autor a «obras originales de autoría». Aunque la Constitución y la Ley de Propiedad Intelectual no definen explícitamente quién (o qué) puede ser un «autor», la Oficina de Derechos de Autor de EE.UU. sólo reconoce los derechos de autor en obras «creadas por un ser humano». Los tribunales también se han negado a ampliar la protección de los derechos de autor a los autores no humanos. Por ejemplo, los tribunales de apelación han sostenido en varios casos que un mono que tomó una serie de fotos carecía de legitimación para demandar en virtud de la Ley de Propiedad Intelectual; que era necesaria cierta creatividad humana un libro supuestamente inspirado en seres celestiales; y que un jardín vivo no podía ser objeto de derechos de autor por carecer de un autor humano. En junio de 2022, Stephen Thaler demandó a la Oficina de Derechos de Autor por denegar una solicitud de registro de una obra de arte visual que, según él, era obra de un programa de IA llamado Creativity Machine. Thaler afirma que la imagen fue creada «de forma autónoma por una máquina» y sostiene que la Ley de Propiedad Intelectual no exige la autoría humana. La demanda está pendiente.

Aun suponiendo que una obra sujeta a derechos de autor requiera un autor humano, las obras creadas mediante IA generativa podrían tener derecho a la protección de los derechos de autor, dependiendo de la naturaleza de la participación humana en el proceso creativo. Un reciente procedimiento de derechos de autor muestra que la Oficina de Derechos de Autor puede mostrarse escéptica ante este argumento. En septiembre de 2022, la escritora Kristina Kashtanova registró los derechos de autor de su novela gráfica, ilustrada íntegramente con imágenes generadas por Midjourney en respuesta a sus textos. En octubre, sin embargo, la Oficina de Derechos de Autor inició un procedimiento de cancelación, señalando que la Sra. Kashtanova no había revelado su uso de la IA. Kashtanova respondió alegando que había creado las imágenes mediante «un proceso creativo e iterativo» que implicaba «múltiples rondas de composición, selección, arreglo, recorte y edición de cada imagen». Contrastó su proceso creativo con la imagen «generada autónomamente» que el Dr. Thaler intentó registrar. Sin embargo, el 21 de febrero de 2023, la Oficina de Derechos de Autor determinó que las imágenes no tenían un autor humano y, por tanto, no eran susceptibles de derechos de autor.

Algunos expertos afirman que al menos algunas obras generadas por IA deberían recibir protección de derechos de autor, argumentando que los programas de IA son análogos a otras herramientas que los seres humanos han utilizado para crear obras protegidas por derechos de autor. obras protegidas. Por ejemplo, el Tribunal Supremo ha sostenido desde el caso de 1884 Burrow-Giles Lithographic Co. v. Sarony que las fotografías pueden tener derecho a la protección de los derechos de autor cuando el fotógrafo toma decisiones sobre elementos creativos como la composición, la disposición y la iluminación. Los programas de IA generativa podrían considerarse como otra herramienta, similar a un equipo fotográfico, que puede ser utilizada por autores humanos. La Sra. Kashtanova argumentó que su propio proceso creativo era similar al de un fotógrafo.

Otros especialistas y la Oficina de Derechos de Autor, cuestionando la analogía con la fotografía, ponen en duda que los usuarios de IA ejerzan un control creativo suficiente para que la IA pueda considerarse una mera herramienta. En el caso de la Sra. Kashtanova, la Oficina de Derechos de Autor razonó que, en lugar de ser «una herramienta que la Sra. Kashtanova controlaba y guiaba para alcanzar la imagen deseada, Midjourney genera imágenes de forma impredecible». Así pues, la Oficina de Derechos de Autor comparó al usuario de la IA con «un cliente que contrata a un artista», en contraposición a un artista por derecho propio.

Del mismo modo, un profesor de Derecho ha sugerido que el usuario de IA crea únicamente una «idea» abstracta no sujeta a derechos de autor, en lugar de una obra sujeta a derechos de autor que exprese la idea: «Si le pido a Dall-E que produzca un cuadro de erizos tomando el té en la playa, no he aportado nada más que una idea». Según este argumento, la obra de arte carece de autor y, por tanto, es de dominio público.

En resumen, es difícil predecir si la legislación sobre derechos de autor reconocerá algún tipo de protección a los resultados generativos de la IA. Aunque la forma en que la Oficina de Derechos de Autor ha tratado el caso de la Sra. Kashtanova hasta la fecha indica escepticismo respecto a la protección de los derechos de autor para las obras generadas por IA, la Oficina de Derechos de Autor no tiene ni la única ni la última palabra en la legislación estadounidense sobre derechos de autor. Por ejemplo, los solicitantes pueden pedir que se reconsideren las decisiones adversas de la Oficina de Derechos de Autor y, en última instancia, pueden impugnar esas decisiones ante los tribunales de distrito de EE.UU., como ha hecho el Dr. Thaler. Queda por ver cómo tratarán los tribunales federales estas impugnaciones y otros casos relacionados con los derechos de autor de obras generadas por IA.

¿A quién pertenecen los derechos de autor de los resultados de la IA generativa?

Suponiendo que algunas obras creadas por IA puedan acogerse a la protección de los derechos de autor, ¿a quién pertenecen esos derechos? En general, la Ley de Propiedad Intelectual confiere la propiedad «inicialmente al autor o autores de la obra». Dada la falta de de decisiones judiciales o de la Oficina de Derechos de Autor que reconozcan los derechos de autor de las obras creadas por IA, no ha Sin embargo, dada la falta de decisiones judiciales o de la Oficina de Derechos de Autor que reconozcan los derechos de autor de las obras creadas por IA hasta la fecha, no ha surgido ninguna norma clara que identifique quién podría ser el «autor o autores» de estas obras. Volviendo a la de la fotografía, el creador de la IA podría compararse con el fabricante de la cámara, mientras que el usuario de la IA que que impulsa la creación de una obra concreta podría compararse con el fotógrafo que utiliza esa cámara para capturar una imagen concreta. Desde este punto de vista, el usuario de la IA sería considerado el autor y, por tanto, el propietario inicial de los derechos de autor. Por otro lado, las decisiones creativas implicadas en la codificación y el entrenamiento de la IA, podrían dar al creador de una IA un derecho de autor más fuerte que el del fabricante de una cámara.

Independientemente de quién sea el propietario inicial de los derechos de autor de un producto de IA, las empresas que proporcionan software de IA pueden intentar asignar los respectivos derechos de propiedad de la empresa y sus usuarios mediante un contrato, como las condiciones de servicio de la empresa. Las actuales condiciones de uso de OpenAI, por ejemplo, parecen asignar los derechos de autor al usuario: «OpenAI le cede por la presente todos sus derechos, títulos e intereses sobre las obras generadas». Una versión anterior de estas condiciones, por el contrario, pretendía otorgar a OpenAI tales derechos. En cualquier caso, OpenAI no parece abordar la cuestión de quién sería el propietario de los derechos de autor en ausencia de dichos términos. Como comentó un académico, OpenAI parece «eludir la mayoría de las cuestiones de derechos de autor a través de un contrato».

Infracción de los derechos de autor por la IA generativa

La IA generativa también plantea cuestiones sobre la infracción de los derechos de autor. Los comentaristas y los tribunales han comenzado a abordar si los programas de IA generativa pueden infringir los derechos de autor de obras existentes, ya sea haciendo copias de obras existentes para entrenar la IA o generando resultados que se parezcan a esas obras existentes. ¿Infringe el proceso de entrenamiento de la IA los derechos de autor de otras obras? Los sistemas de IA se «entrenan» para crear obras literarias, visuales y artísticas exponiendo el programa a grandes cantidades de datos, que pueden consistir en obras existentes como textos e imágenes de Internet.

Este proceso de entrenamiento puede implicar la realización de copias digitales de obras existentes, lo que conlleva un riesgo de infracción de los derechos de autor. Como ha descrito la Oficina de Patentes y Marcas de EE.UU., este proceso «implicará casi por definición la reproducción de obras completas o de partes sustanciales de las mismas». OpenAI, por ejemplo, reconoce que sus programas se entrenan con «grandes conjuntos de datos de acceso público que incluyen obras protegidas por derechos de autor» y que este proceso «necesariamente implica la reproducción de obras completas o partes sustanciales de las mismas». obras» y que este proceso «implica necesariamente hacer primero copias de los datos a analizar». La creación de dichas copias, sin el permiso expreso o implícito de los distintos titulares de los derechos de autor, puede infringir el derecho exclusivo de los titulares a realizar reproducciones de su obra.

Las empresas de IA pueden alegar que sus procesos de formación constituyen un uso legítimo y que, por tanto, no infringen la ley.

El hecho de que la copia constituya o no un uso legítimo depende de cuatro factores establecidos en el artículo 107 del Título 17 del Código de los Estados Unidos:

  1. El propósito y el carácter del uso, incluyendo si dicho uso es de naturaleza comercial o tiene fines educativos sin ánimo de lucro. comercial o con fines educativos no lucrativos;
  2. La naturaleza de la obra protegida por derechos de autor;
  3. la cantidad y sustancialidad de la parte utilizada en relación con la obra protegida en su conjunto; y en su conjunto; y
  4. el efecto del uso sobre el mercado potencial o el valor de la obra protegida.

Algunas partes interesadas sostienen que el uso de obras protegidas por derechos de autor para entrenar programas de IA debería considerarse un uso justo en virtud de estos factores. En cuanto al primer factor, OpenAI argumenta que su propósito es «transformador» en contraposición a «expresivo» porque el proceso de formación crea «un sistema de IA generativo útil». OpenAI también sostiene que el tercer factor apoya el uso leal porque las copias no se ponen a disposición del público sino que se utilizan únicamente para entrenar el programa. En su apoyo, OpenAI cita el caso The Authors Guild, Inc. contra Google, Inc, en el que el Tribunal de Apelación del Segundo Circuito de los EE.UU. sostuvo que la copia por parte de Google de libros enteros para crear una base de datos de búsqueda que mostraba extractos de esos libros constituía uso legítimo.

Es posible que estos argumentos se pongan pronto a prueba en los tribunales, ya que los demandantes han presentado recientemente múltiples demandas alegando infracción de derechos de autor mediante procesos de formación de IA. El 13 de enero de 2023, varios artistas presentaron una demanda colectiva putativa alegando que sus derechos de autor fueron infringidos en el entrenamiento de programas de imagen de IA, incluido Stable Diffusion. En la demanda colectiva se alega que los demandados «descargaron o de otro modo adquirieron sin permiso copias de miles de millones de imágenes protegidas por derechos de autor» para utilizarlas como «imágenes de entrenamiento», «haciendo y almacenando copias de esas imágenes» sin el consentimiento de los artistas. Del mismo modo, el 3 de febrero de 2023 Getty Images presentó una demanda alegando que «Stability AI ha copiado al menos 12 millones de imágenes protegidas por derechos de autor…» de los sitios web de Getty Images … para entrenar su modelo de difusión estable». Ambas demandas parecen de uso leal, argumentando que Stable Diffusion es un producto comercial, lo que pesa el primer factor legal, y que el programa socava el mercado de las obras originales, lo que pesa en contra del uso legítimo de obras originales, lo que es contrario al uso legítimo según el cuarto factor.

¿Los resultados de la IA infringen los derechos de autor de otras obras?

Los programas de IA también pueden infringir los derechos de autor al generar resultados que se asemejan a obras existentes. Según la jurisprudencia estadounidense, los titulares de derechos de autor pueden demostrar que tales resultados infringen sus derechos de autor si el programa de IA (1) tuvo acceso a sus obras y (2) creó resultados «sustancialmente similares».

En primer lugar, para demostrar la infracción de los derechos de autor, el demandante debe probar que el infractor «copió realmente» la obra subyacente. Esto a veces se prueba circunstancialmente mediante pruebas de que el infractor «tuvo acceso a la obra». En el caso de los productos de IA, el acceso puede demostrarse con pruebas de que el programa de IA fue entrenado utilizando la obra subyacente. Por ejemplo, la obra subyacente podría formar parte de un sitio de Internet de acceso público que fue descargado para entrenar el programa de IA.

En segundo lugar, un demandante debe demostrar que la nueva obra es «sustancialmente similar» a la obra subyacente para establecer la infracción. La prueba de la similitud sustancial es difícil de definir y varía según los tribunales estadounidenses. Los tribunales han descrito la prueba de diversas maneras, por ejemplo, exigiendo que las obras tengan «un concepto y una sensación totales sustancialmente similares» o «un aspecto y una sensación generales» o que «una persona razonable ordinaria no diferenciaría entre las dos obras». La jurisprudencia también ha declarado que esta determinación tiene en cuenta tanto «la importancia cualitativa como cuantitativa de la parte copiada en relación con la obra del demandante en su conjunto». En el caso de los resultados generados por IA, al igual que en el de las obras tradicionales, el análisis de la «similitud sustancial» puede requerir que los tribunales realicen este tipo de comparaciones entre el resultado de la IA y la obra subyacente.

Existe un desacuerdo significativo en cuanto a la probabilidad de que los programas generativos de IA copien obras existentes en sus resultados. OpenAI argumenta que «los sistemas de IA bien construidos no suelen regenerar, en ninguna porción no trivial, datos inalterados de ninguna obra concreta de su corpus de entrenamiento». Por lo tanto, afirma OpenAI, la infracción «es un resultado accidental poco probable». Por el contrario, la demanda de Getty Images alega que «Stable Diffusion a veces produce imágenes que son altamente similares y derivadas de las Getty Images.» Un estudio ha encontrado «una cantidad significativa de copias» en un pequeño porcentaje (menos del 2%) de las imágenes creadas por Stable Diffusion. Sin embargo, la otra demanda colectiva contra Stable Diffusion parece argumentar que todos los productos de Stable Diffusion son potencialmente infractores, alegando que son «generados exclusivamente a partir de una combinación de … copias de imágenes protegidas por derechos de autor».

Hay dos tipos de resultados de IA que pueden plantear problemas especiales. En primer lugar, algunos programas de IA pueden utilizarse para crear obras con personajes de ficción ya existentes. Estas obras pueden correr un mayor riesgo de infracción de los derechos de autor en la medida en que los personajes a veces gozan de protección de los derechos de autor en sí mismos. En segundo lugar, algunos programas de IA pueden utilizarse para crear obras artísticas o literarias «al estilo» de un artista o autor concreto.

Estos resultados no son necesariamente infractores, ya que la ley de derechos de autor prohíbe generalmente la copia de obras específicas en lugar del estilo general de un artista. Sin embargo, a algunos artistas les preocupa que los programas de IA generativa sean los únicos capaces de producir en masa obras que copien su estilo, lo que podría socavar el valor de su trabajo. En la demanda colectiva contra Stable Diffusion, por ejemplo, los demandantes afirman que pocos artistas humanos pueden imitar con éxito el estilo de otro artista, mientras que «AI Image Products lo hace con facilidad». Una complicación de los programas de IA es que es posible que el usuario no sepa o no tenga acceso a un trabajo que se copió en respuesta a la indicación del usuario. Según la ley actual, esto puede dificultar el análisis de si el usuario es responsable de la infracción de derechos de autor.

Consideraciones para el Congreso

Es posible que el Congreso desee considerar si alguna de las cuestiones de derecho de autor planteadas por los programas de IA generativa requieren enmiendas a la Ley de Propiedad Intelectual u otra legislación. Por ejemplo, el Congreso podría considerar una legislación que aclare si las obras generadas por IA son susceptibles de derechos de autor, quién debe ser autor de dichas obras, o cuándo el proceso de formación de programas de IA generativa constituye un uso justo. uso legítimo.

Dada la escasa oportunidad que han tenido los tribunales y la Oficina de Derechos de Autor para abordar estas cuestiones, el Congreso el Congreso puede adoptar una postura de espera. A medida que los tribunales adquieran experiencia casos relacionados con la IA generativa, podrán proporcionar una mayor orientación y previsibilidad en este ámbito a través de opiniones judiciales. judiciales. Sobre la base de los resultados de los primeros casos en este ámbito, como los resumidos anteriormente, el Congreso puede reconsiderar la necesidad de adoptar medidas legislativas.

Christopher T. Zirpoli

Legislative Attorney

Descargo de responsabilidad

Este documento ha sido elaborado por el Servicio de Investigación del Congreso (CRS). El CRS presta servicios como personal compartido no partidista a los comités y miembros del Congreso. Funciona exclusivamente a instancias del Congreso y bajo su dirección. del Congreso. La información contenida en un informe del CRS no debe utilizarse para fines distintos de la comprensión pública de la información facilitada por el CRS. información proporcionada por CRS a los miembros del Congreso en el marco de su función institucional. Los informes de CRS, como obra del Gobierno de los Estados Unidos, no están sujetos a la protección de los derechos de autor en los Estados Unidos. Estados Unidos. Cualquier informe de CRS puede ser reproducido y distribuido en su totalidad sin permiso de CRS. No obstante Sin embargo, dado que un Informe CRS puede incluir imágenes o material de terceros protegidos por derechos de autor, es posible que deba obtener el permiso del titular de los derechos de autor si desea utilizarlos. permiso del titular de los derechos de autor si desea copiar o utilizar de otro modo material protegido por derechos de autor.

Cultura artística y propiedad intelectual en el siglo XIX

Delamaire, Marie-Stéphanie, y Will Slauter. Circulation and Control: Artistic Culture and Intellectual Property in the Nineteenth Century. Open Book Publishers, 2021

Texto completo

El siglo XIX fue testigo de una serie de revoluciones en la producción y circulación de imágenes. Desde las litografías y las reproducciones grabadas de pinturas hasta los daguerrotipos, las vistas estereoscópicas y las esculturas producidas en serie, las obras de arte visual pasaron a estar disponibles en una gama de medios más amplia que nunca. Pero la circulación y reproducción de las obras de arte también planteó nuevas cuestiones sobre los derechos legales de pintores, escultores, grabadores, fotógrafos, arquitectos, coleccionistas, editores y sujetos de representación (como los modelos de los cuadros o las fotografías). Los derechos de autor y las leyes de patentes se enfrentaron a las normas culturales informales y a las estrategias comerciales cuando los individuos y los grupos intentaron ejercer cierto grado de control sobre estas creaciones visuales.

Con aportaciones de historiadores del arte, juristas, historiadores de la edición y especialistas en pintura, fotografía, escultura y artes gráficas, esta rica colección de ensayos explora la relación entre las leyes de propiedad intelectual y los factores culturales, económicos y tecnológicos que transformaron el paisaje pictórico durante el siglo XIX.

Este libro será una lectura valiosa para los historiadores del arte y la cultura visual; los estudiosos del derecho que trabajan en la historia de los derechos de autor y la ley de patentes; y los estudiosos e historiadores de la literatura que trabajan en el campo de la historia del libro. También será de interés para cualquier persona interesada en los debates actuales sobre la circulación y el control de las imágenes en nuestra era digital.