Archivo de la etiqueta: Derechos de autor

Urge solucionar la falta de transparencia en torno a los datos utilizados para entrenar modelos de Inteligencia Artificial

Hardinges, Jack, Elena Simperl, y Nigel Shadbolt. 2023. «We Must Fix the Lack of Transparency Around the Data Used to Train Foundation Models». Harvard Data Science Review, diciembre. https://doi.org/10.1162/99608f92.a50ec6e6.

En el ámbito de la IA, los modelos, ya sean de aprendizaje supervisado, no supervisado o de otro tipo, necesitan ser alimentados con grandes cantidades de datos para aprender patrones y realizar tareas específicas. Abordar esta falta de transparencia es crucial para garantizar que la IA se desarrolle y utilice de manera ética y responsable. La transparencia en este proceso implica proporcionar información clara y completa sobre la naturaleza y la fuente de los datos utilizados en el entrenamiento de estos modelos. Sin embargo, en la mayoría de los casos, las empresas o desarrolladores no muestran de dónde compilan esta información, lo que puede tener consecuencias significativas en términos de ética, sesgo y confianza pública.


El estudio aborda la importancia del acceso a información sobre los datos utilizados en la formación de modelos de inteligencia artificial (IA). Aunque algunos sectores de la comunidad de IA han progresado, persiste una falta general de transparencia sobre el contenido y las fuentes de los conjuntos de datos de entrenamiento, ya sea por iniciativa voluntaria de las empresas o por intervención regulatoria, y esto debe cambiar.

Los modelos fundamentales se entrenan con grandes colecciones de datos, muchos de los cuales se recopilan de toda la web. La investigación del Instituto Allen de IA y The Washington Post sobre el popular conjunto de datos de entrenamiento C4 reveló que su contenido provenía de 15 millones de dominios web diferentes.

Conocer el contenido de los conjuntos de datos utilizados para entrenar modelos y cómo se han compilado es de vital importancia. Sin esta información, el trabajo de desarrolladores, investigadores y éticos para abordar sesgos o eliminar contenido perjudicial de los datos se ve obstaculizado. La información sobre los datos de entrenamiento también es crucial para que los legisladores evalúen si los modelos fundamentales han absorbido datos personales o material con derechos de autor. Además, los operadores previstos de los sistemas de IA y aquellos afectados por su uso son mucho más propensos a confiar en ellos si comprenden cómo se han desarrollado.

Sin embargo, algunas empresas no documentan el contenido de sus datos de entrenamiento, incluso internamente, por temor a encontrar información personal sobre individuos identificables, material con derechos de autor y otros datos obtenidos sin consentimiento.

En público, las empresas han utilizado diferentes argumentos para justificar la falta de transparencia en torno a sus datos de entrenamiento. OpenAI, en el lanzamiento de su modelo GPT-4, declaró que no compartiría información detallada sobre la «construcción del conjunto de datos» y otros aspectos del desarrollo del modelo debido al «panorama competitivo y las implicaciones de seguridad de los modelos a gran escala». Aunque algunas empresas han publicado los datos de ajuste fino, tienden a omitir los conjuntos de datos de entrenamiento más grandes y complejos que son más propensos a contener contenido perjudicial o material con derechos de autor.

Partes de la comunidad de IA han avanzado en la transparencia de los datos de entrenamiento. La plataforma Hugging Face, inspirada en los pioneros de la seguridad de la IA Emily Bender, Batya Friedman y Timnit Gebru, promueve el uso de Model Cards y Dataset Cards entre su comunidad de desarrolladores. Las Dataset Cards documentan cómo se creó un conjunto de datos, su contenido y posibles problemas legales o éticos asociados.

En julio de 2023, la Casa Blanca anunció que siete grandes empresas de IA se comprometieron a «desarrollar medidas técnicas sólidas para garantizar que los usuarios sepan cuándo el contenido es generado por IA, como el marcado de agua». Dado que los modelos fundamentales de IA han comenzado a entrenarse con datos generados por IA, estas herramientas desempeñarán un papel importante en documentar la procedencia de los datos de entrenamiento y la integridad de las salidas resultantes de la IA.

Las decisiones sobre qué documentar sobre los datos de entrenamiento podrían eventualmente salir de las manos de los desarrolladores. La Comisión Federal de Comercio de EE. UU. ha ordenado recientemente a OpenAI que documente todas las fuentes de datos utilizadas para entrenar sus grandes modelos de lenguaje. Un grupo de grandes medios de comunicación ha publicado una carta abierta instando a los legisladores de todo el mundo a introducir nuevas regulaciones que exijan transparencia en los conjuntos de datos de entrenamiento.

Se prevé que la demanda de información sobre los datos de entrenamiento sea la última ola en un esfuerzo continuo por la transparencia empresarial. En el Reino Unido, las leyes sobre el registro obligatorio y la publicación de información por parte de las empresas se remontan al siglo XIX, y a lo largo del tiempo, los reguladores han desarrollado enfoques estandarizados para evitar que cada empresa elija su propia forma de informar sobre sus finanzas y otras actividades. Quizás necesitemos lo mismo para las divulgaciones sobre los datos en los que se han entrenado los modelos fundamentales de IA.

Ya sea que las empresas den un paso adelante o que intervengan los gobiernos, deben asegurarnos de que los datos utilizados para entrenar sistemas de IA no estén envueltos en secreto. La confianza pública, nuestra capacidad para mitigar sus posibles daños y la eficacia de nuestro régimen regulatorio dependen de ello.

El uso legítimo: mitos y conceptos erróneos sobre los derechos de autor

Carrie Russell «Figuring Out Fair Use». 2023. American Libraries Magazine. 1 de noviembre de 2023. https://americanlibrariesmagazine.org/?p=140589.

Libreros y maestros, profesionales bibliotecarios especializados en alfabetización informacional, acceso equitativo a la información y avance del aprendizaje, a menudo enfrentan ansiedades y conceptos erróneos sobre el copyright. El miedo infundado a litigios de copyright y la falta de educación sobre el tema contribuyen a esta situación.

El desconocimiento sobre el copyright se agrava en entornos educativos saturados de trabajo, donde el personal, ya sobrecargado, carece de tiempo para abordar cuestiones legales como el copyright. La complejidad añadida de los formatos digitales y las licencias privadas complica aún más la gestión efectiva del copyright en las escuelas.

La Constitución de EE.UU. dice que la ley de derechos de autor se crea «para promover el progreso de la ciencia y de las artes útiles». Su intención es, ante todo, fomentar la creación y difusión de obras originales y creativas que beneficien al público. Estas políticas también están diseñadas para avanzar en el bienestar público poniendo a disposición obras que promuevan el aprendizaje, inspiren la creación de nuevas obras, produzcan ciudadanos bien informados y fomenten la búsqueda de la felicidad.

La noción de que la ley de derechos de autor sirve al interés público puede sonar pintoresca cuando gran parte de la discusión pública, y ciertamente gran parte del debate político, gira en torno al valor monetario de los derechos de autor. Aunque los derechos de autor tienen un importante valor económico en la economía global de la información, el propósito fundamental de estas leyes es el bienestar público. Por lo tanto, los valores que subyacen a la ley de derechos de autor son totalmente coherentes con los valores profesionales de profesores y bibliotecarios.

A menudo se confunde a la gente o se le hace creer que la ley de derechos de autor es lo mismo que la ley de propiedad. Esta confusión se ve agravada por términos como propiedad intelectual, que es un término equivocado. En cambio, la ley de derechos de autor se asemeja a la regulación gubernamental en que el Congreso crea la ley para intervenir en el mercado mediante la concesión a los titulares de derechos de un monopolio -a través de los derechos exclusivos de autor- para lograr un propósito público.

A muchos bibliotecarios y profesores les molesta que no existan normas claras. A menudo, la respuesta a una pregunta concreta sobre derechos de autor exige analizar la situación para determinar si se trata de un uso legítimo. Puede que sea molesto, pero nos conviene que la ley sea ambigua. Fijar las normas de derechos de autor en piedra sería congelar la ley. La ley debe ser maleable para servir a nuestra sociedad ahora y en el futuro, un futuro sobre el que sólo podemos especular. El uso legítimo nos servirá porque está abierto a las nuevas tecnologías.

Cinco conceptos erróneos comunes sobre el copyright se destacan en el artículo:

  1. Erróneamente se cree que el propósito principal del copyright es compensar monetariamente a los autores y creadores, cuando en realidad busca fomentar el progreso de la ciencia y las artes útiles en beneficio del público.
  2. Existe el temor de que los titulares de derechos demanden a bibliotecarios, maestros y escuelas con frecuencia, cuando los casos reales en los tribunales son raros. Además, existen limitaciones legales y protecciones para instituciones educativas y bibliotecas.
  3. La confusión entre la ley de copyright y la propiedad intelectual lleva a la creencia errónea de que las obras protegidas son propiedad exclusiva de los creadores. En realidad, el copyright otorga derechos exclusivos para comercializar la obra, no para poseerla.
  4. Muchos esperan reglas legales definitivas para cuestiones de copyright, pero la ley es flexible y la determinación de uso justo a menudo requiere análisis caso por caso.
  5. Se percibe que el uso justo es difícil de entender y aplicar, cuando, en realidad, comprender y aplicar los cuatro factores del uso justo puede ser más natural con la práctica.

En conclusión, a pesar de las dificultades y malentendidos, es crucial para los profesionales de bibliotecas y educación comprender el copyright y aplicar el uso justo para equilibrar los derechos de los usuarios con los intereses de los titulares de derechos.

Meta utilizó libros protegidos por derechos de autor para entrenar inteligencia artificial pese a las advertencias de sus propios abogados, según los autores

Paul, Katie. 2023. «Meta Used Copyrighted Books for AI Training despite Its Own Lawyers’ Warnings, Authors Allege». Reuters, 12 de diciembre de 2023, sec. Technology. https://www.reuters.com/technology/meta-used-copyrighted-books-ai-training-despite-its-own-lawyers-warnings-authors-2023-12-12/.

Los abogados habían advertido a Meta sobre los peligros legales de utilizar miles de libros pirateados para entrenar sus modelos de inteligencia artificial, pero la compañía lo hizo de todos modos, según un nuevo documento presentado en una demanda por infracción de derechos de autor iniciada este verano.

La nueva presentación, realizada el lunes por la noche, consolida dos demandas presentadas contra el propietario de Facebook e Instagram por la comediante Sarah Silverman, el ganador del Premio Pulitzer Michael Chabon y otros autores destacados. Estos alegan que Meta ha utilizado sus obras sin permiso para entrenar su modelo de lenguaje de inteligencia artificial, llamado Llama.

Un juez de California desestimó el mes pasado parte de la demanda de Silverman e indicó que daría a los autores el permiso para modificar sus reclamaciones.

Meta no respondió de inmediato a una solicitud de comentarios sobre las acusaciones.

La nueva demanda, presentada el lunes, incluye registros de chat de un investigador afiliado a Meta discutiendo la obtención del conjunto de datos en un servidor de Discord, una pieza de evidencia potencialmente significativa que indica que Meta sabía que el uso de los libros podría no estar protegido por la ley de derechos de autor de EE. UU.

En los registros de chat citados en la demanda, el investigador Tim Dettmers describe su intercambio con el departamento legal de Meta sobre si el uso de los archivos de libros como datos de entrenamiento sería «legalmente aceptable».

«En Facebook, hay muchas personas interesadas en trabajar con (The Pile), incluyéndome a mí, pero en su forma actual, no podemos usarlo por razones legales», escribió Dettmers en 2021, refiriéndose a un conjunto de datos que Meta ha admitido haber utilizado para entrenar su primera versión de Llama, según la demanda.

Un mes antes, Dettmers escribió que los abogados de Meta le habían dicho que «los datos no se pueden usar ni los modelos se pueden publicar si están entrenados con esos datos», según la demanda.

Aunque Dettmers no describe las preocupaciones de los abogados, sus colegas en el chat identifican a «los libros con derechos de autor activos» como la mayor fuente probable de preocupación. Afirman que el entrenamiento con esos datos debería «encajar dentro del uso legítimo», una doctrina legal en EE. UU. que protege ciertos usos no autorizados de obras con derechos de autor.

Dettmers, estudiante de doctorado en la Universidad de Washington, dijo a Reuters que no podía comentar de inmediato sobre las afirmaciones.

Las empresas tecnológicas han enfrentado una serie de demandas este año de creadores de contenido que los acusan de copiar obras protegidas por derechos de autor para construir modelos de inteligencia artificial generativos que han causado sensación a nivel mundial y han generado una frenética inversión.

Si estas demandas tienen éxito, podrían disminuir la fiebre de la inteligencia artificial generativa, ya que podrían aumentar el costo de construir modelos hambrientos de datos al obligar a las empresas de inteligencia artificial a compensar a artistas, autores y otros creadores de contenido por el uso de sus obras.

Al mismo tiempo, las nuevas normas provisionales en Europa que regulan la inteligencia artificial podrían obligar a las empresas a revelar los datos que utilizan para entrenar sus modelos, exponiéndolas a un mayor riesgo legal.

Meta lanzó la primera versión de su modelo de lenguaje grande Llama en febrero y publicó una lista de conjuntos de datos utilizados para el entrenamiento, incluyendo «la sección de libros Books3 de ThePile». Según la demanda, la persona que ensambló ese conjunto de datos ha dicho en otro lugar que contiene 196,640 libros.

La compañía no reveló datos de entrenamiento para su última versión del modelo, Llama 2, que puso a disposición para uso comercial este verano.

Llama 2 es gratuito para empresas con menos de 700 millones de usuarios activos al mes. Su lanzamiento se percibió en el sector tecnológico como un posible cambio de juego en el mercado de software de inteligencia artificial generativa, amenazando con trastocar la dominación de jugadores como OpenAI y Google, que cobran por el uso de sus modelos.

Libro Blanco: Inteligencia Artificial Generativa en Comunicación científica

Generative AI in Scholarly Communications: Ethical and Practical Guidelines for the Use of Generative AI in the Publication Process. STM, 2023

Texto completo

STM ha publicado un nuevo libro blanco: Generative AI in Scholarly Communications: Directrices éticas y prácticas para el uso de la IA generativa en el proceso de publicación. Como continuación de AI Ethics in Scholarly Communication, que STM publicó en abril de 2021, esta nueva publicación es un recurso para las partes interesadas en la publicación académica y aborda el papel cada vez más importante de las tecnologías de IA Generativa (GenAI).

El documento examina los aspectos éticos, jurídicos y prácticos de GenAI, destacando su potencial para transformar las comunicaciones académicas, y abarca una serie de temas que van desde los derechos de propiedad intelectual hasta los desafíos de mantener la integridad en la era digital. El documento ofrece principios de buenas prácticas y recomendaciones para autores, equipos editoriales, revisores y proveedores, garantizando un enfoque responsable y ético en el uso de las herramientas GenAI.

Ética de la investigación e inteligencia generativa. La responsabilidad de difundir resultados

Ética de la investigación e inteligencia generativa por Julio Alonso Arévalo. CURSO: Competencias digitales y alfabetización académica, nov. 2023

VER VIDEO

En el contexto de la IA, especialmente en la creación de obras generadas automáticamente, surge la cuestión de la atribución y la autoría. La ética de la investigación en este ámbito implica considerar quién debe recibir crédito por las creaciones generadas por algoritmos, si es el desarrollador del algoritmo, el usuario que lo emplea, o el propio algoritmo. Por un lado, los derechos de autor tradicionales están diseñados para proteger la creatividad humana, pero en el caso de obras generadas por IA, la autoría puede ser difusa. Algunos argumentan que los desarrolladores de algoritmos deberían ser reconocidos, mientras que otros abogan por formas innovadoras de atribución. En resumen, la ética de la investigación en inteligencia artificial y derechos de autor implica repensar y adaptar los marcos existentes para abordar de manera justa la creación de obras generadas por IA, garantizando la atribución adecuada y considerando los posibles sesgos en el proceso de desarrollo y entrenamiento de estos sistemas.

La Comisión Federal de Comercio (FTC) de USA hace un comentario a la Oficina de Derechos de autor sobre los posibles perjuicios de la IA para los creadores

Federal Trade Commission. «In Comment Submitted to U.S. Copyright Office, FTC Raises AI-Related Competition and Consumer Protection Issues, Stressing That It Will Use Its Authority to Protect Competition and Consumers in AI Markets», 7 de noviembre de 2023.

Texto


En un comentario presentado ante la Oficina de Derechos de Autor de los Estados Unidos, la Comisión Federal de Comercio identifica varios problemas planteados por el desarrollo e implementación de la Inteligencia Artificial (IA) que implican políticas de competencia y protección al consumidor, señalando el papel de la Comisión en monitorear el impacto de la IA generativa y hacer cumplir vigorosamente la ley según corresponda para proteger la competencia y los consumidores.

«La manera en que las empresas están desarrollando y lanzando herramientas de IA generativa y otros productos de IA… suscita preocupaciones sobre posibles perjuicios a los consumidores, trabajadores y pequeñas empresas», según el comentario. «La FTC ha estado explorando los riesgos asociados con el uso de la IA, incluyendo violaciones a la privacidad de los consumidores, automatización de la discriminación y el sesgo, y el aumento de prácticas engañosas, esquemas de impostores y otros tipos de estafas».

El comentario explica que la FTC tiene un interés en cuestiones relacionadas con los derechos de autor más allá de las preguntas sobre el alcance de los derechos y la extensión de la responsabilidad bajo las leyes de derechos de autor. Por ejemplo, no solo puede perjudicarse de manera injusta la capacidad de los creadores para competir, sino que los consumidores pueden ser engañados cuando la autoría no se alinea con las expectativas del consumidor. Un consumidor puede pensar que una obra ha sido creada por un músico o artista en particular cuando es un producto creado por IA.

«La conducta que pueda violar las leyes de derechos de autor… también puede constituir un método injusto de competencia o una práctica injusta o engañosa, especialmente cuando la violación de derechos de autor engaña a los consumidores, explota la reputación de un creador o disminuye el valor de sus obras existentes o futuras, revela información privada o causa un daño sustancial a los consumidores», continúa el comentario. Además, ciertas grandes empresas tecnológicas tienen vastos recursos financieros que les permiten proteger a los usuarios de sus herramientas de IA generativa o licencias exclusivas de datos propietarios con derechos de autor, potencialmente afianzando aún más el poder de mercado de estas empresas dominantes.

¿Quién posee los derechos de autor de un contenido generado por inteligencia artificial generativa?


La determinación de quién posee los derechos de autor del contenido producido por inteligencia artificial (IA) es un asunto legal de gran complejidad y en constante cambio. Por lo general, las herramientas de IA generativa, como ChatGPT, no pueden ser consideradas autoras en el sentido legal o creativo, ya que no tienen la capacidad de comparecer ante un tribunal en caso de conflictos de intereses entre otras cuestiones.

La cuestión de quién posee los derechos de autor del contenido generado por inteligencia artificial (IA) es un asunto legal complejo y en constante evolución que puede variar según la jurisdicción y depende de las circunstancias específicas.

  1. Autoría: Las leyes de derechos de autor tradicionalmente otorgan derechos de autor al creador o autor humano de una obra. La IA, al ser una máquina, no se considera una persona legal capaz de poseer derechos de autor. Esto ha llevado a debates sobre si el programador humano de la IA o la organización que emplea al programador debería considerarse el autor o propietario del contenido generado por la IA.
  2. Doctrina del «Trabajo por Encargo»: En algunas jurisdicciones, cuando una obra se crea como parte de una relación laboral, el empleador suele considerarse el propietario de los derechos de autor. Si un empleado crea contenido generado por la IA en el ámbito de su empleo, es posible que su empleador tenga un reclamo más fuerte sobre los derechos de autor.
  3. Acuerdos Contractuales: La propiedad del contenido generado por la IA también puede determinarse mediante acuerdos contractuales. Las empresas y programadores pueden especificar la propiedad y los derechos asociados con el contenido generado por la IA en contratos o acuerdos de licencia. Estos contratos pueden anular las reglas de derechos de autor por defecto.
  4. Uso Justo: En algunos casos, el uso de contenido generado por la IA podría considerarse «uso justo» bajo la ley de derechos de autor. El uso justo puede aplicarse en situaciones en las que se utiliza material con derechos de autor con fines como comentario, crítica, informes de noticias, enseñanza o investigación. Sin embargo, el uso justo es una doctrina legal compleja que puede variar según la jurisdicción y depende de los detalles de cada caso.
  5. Transformación y Obras Derivadas: El contenido generado por la IA que se basa en material con derechos de autor existente puede considerarse una obra derivada. Los derechos de autor del material original aún pueden aplicarse en la medida en que sea reconocible en el contenido generado por la IA.
  6. Marco Legal en Evolución: El marco legal que rodea el contenido generado por la IA sigue evolucionando, y algunos países pueden promulgar leyes o regulaciones específicas para abordar estos problemas. Los tribunales y legisladores están considerando activamente las implicaciones de la IA en los derechos de autor y la propiedad intelectual.

A nivel general puede decirse que una inteligencia artificial generativa (IA) en sí misma no puede ser propietaria de los derechos de autor de una obra. Los derechos de autor tradicionalmente se otorgan a autores humanos, y las IA no son consideradas entidades legales con la capacidad de poseer derechos de autor.

Por lo tanto, ChatGPT, como una inteligencia artificial desarrollada por OpenAI, no puede ser considerado un autor en el sentido legal o creativo. Los derechos de autor tradicionalmente se aplican a obras creadas por personas físicas. ChatGPT es una herramienta de procesamiento de lenguaje natural que genera respuestas y texto basados en patrones y datos previamente aprendidos, pero no tiene la capacidad de tener intenciones, creatividad o una voluntad propia. Por lo tanto, cualquier contenido generado por ChatGPT generalmente se atribuiría a los usuarios que lo utilizan o a las organizaciones que lo emplean, y no a la IA en sí misma.

Además, la responsabilidad de citar fuentes recae en los usuarios que interactúan con ChatGPT. Si un usuario proporciona información específica de fuentes con derechos de autor o utiliza contenido protegido en sus interacciones con ChatGPT, es responsabilidad del usuario garantizar que cumple con las leyes de derechos de autor al citar adecuadamente esas fuentes. La responsabilidad de evitar el plagio recae en los usuarios que interactúan con ChatGPT. Si un usuario proporciona información o ideas específicas de fuentes externas sin citar adecuadamente esas fuentes, eso podría considerarse un acto de plagio por parte del usuario, no de ChatGPT.

Es esencial consultar con expertos legales especializados en derechos de autor o propiedad intelectual para obtener orientación en casos específicos. Las leyes y las interpretaciones pueden haber evolucionado desde mi última actualización en enero de 2022, y diferentes jurisdicciones pueden tener enfoques únicos para este tema.

La Asociación de Bibliotecas de Investigación (ARL) emite una carta en contra de las peticiones de nuevas restricciones a los derechos de autor en respuesta a la reciente aparición de la inteligencia artificial generativa (IA).

Association of Research Libraries. «ARL, Coalition Partners to Congress: Do Not Restrict the Promise of Generative AI». Accedido 19 de septiembre de 2023. https://www.arl.org/news/arl-coalition-partners-to-congress-do-not-restrict-the-promise-of-generative-ai/.

La Asociación de Bibliotecas de Investigación (ARL) se ha unido hoy a bibliotecas, organizaciones de la sociedad civil y expertos jurídicos y académicos en una carta en la que expresan su preocupación al Congreso por las peticiones de nuevas restricciones a los derechos de autor en respuesta a la reciente aparición de la inteligencia artificial generativa (IA).

La IA generativa tiene el potencial de cumplir la promesa constitucional de la ley de derechos de autor, acelerando el progreso de la ciencia y las artes útiles. Al mismo tiempo, se pide que se modifique la Ley de Propiedad Intelectual de EE.UU. para exigir la autorización de los titulares de los derechos de acceso a los materiales para entrenar los modelos de IA. Este régimen basado en permisos ampliaría el alcance del monopolio tradicional de los derechos de autor; socavaría la competencia en el mercado de la IA al imponer cargas financieras y logísticas que las nuevas empresas o aplicaciones no podrían soportar; y restringiría el potencial de los creadores para utilizar la IA en el desarrollo de nuevas obras de ficción, videojuegos, software, etc.

En su estado actual, la legislación estadounidense sobre derechos de autor es lo suficientemente amplia y flexible como para dar cabida a las nuevas tecnologías y responder a las preocupaciones legítimas de los creadores. Los tribunales deben decidir si una aplicación de IA generativa es o no un uso justo, ya que es el foro adecuado para aplicar las doctrinas de derechos de autor a los patrones de hechos específicos que surgirán del uso de la IA en los próximos años.

Muchas de las cuestiones que plantea la IA generativa quedan fuera del ámbito de la legislación sobre derechos de autor. Por ejemplo, el problema muy real de utilizar la IA para crear deepfakes o desinformación política puede abordarse a través de la legislación existente sobre derecho de publicidad y marcas.

La American Library Association (ALA), Authors Alliance, Chamber of Progress, Creative Commons, Electronic Frontier Foundation, Internet Archive, Public Knowledge, R Street Institute, TechFreedom y Tech:NYC se unieron a la carta, junto con firmantes individuales.

¿Podrían los propietarios de un software de inteligencia artificial percibir derechos de autor?

Cynthia Murrell. «Can Smart Software Get Copyright? Wrong?», Beyond Search, 15 de septiembre de 2023. https://arnoldit.com/wordpress/2023/09/15/can-smart-software-get-copyright-wrong/.

Es oficial: Solamente las personas pueden beneficiarse de los derechos de autor, no las máquinas. JD Supra nos pone al día sobre la inteligencia artificial y las pautas oficiales de derechos de autor cunado dice  “Using AI to Create a Work – Copyright Protection and Infringement” El principio básico funciona en ambas direcciones. Los creadores no pueden obtener derechos de autor sobre material generado por IA a menos que lo hayan modificado lo suficiente como para convertirlo en una obra creativa. Por otro lado, es una violación de la ley publicar contenido generado por IA que se asemeje a una obra protegida por derechos de autor. En cuanto a alimentar algoritmos con medios creados por humanos, eso todavía no está oficialmente en contra de las reglas. Aún.

Así lo expresa:

«Para obtener protección de derechos de autor para una obra que contenga material generado por IA, la obra debe tener suficiente aporte humano, como una modificación suficiente de la aportación de la IA o la selección o disposición humana del contenido de la IA. Sin embargo, la protección de derechos de autor se limitaría a las obras ‘hechos por humanos’. Las solicitudes de derechos de autor pasadas, pendientes y futuras deben identificar explícitamente el elemento humano y renunciar al contenido creado por la IA si es más que menor. Para registros existentes, puede ser necesario un registro complementario. Las obras creadas con IA están sujetas al mismo análisis de infracción de derechos de autor aplicable a cualquier obra. El problema con el uso de IA para crear obras es que las fuentes de las obras originales pueden no estar identificadas, por lo que no se puede llevar a cabo un análisis de infracción hasta que se reciba la carta de cesación y desistimiento. Ningún tribunal ha adoptado aún la teoría de que simplemente el uso de una base de datos de IA significa que la obra resultante sea automáticamente una obra derivada infractora si no es sustancialmente similar a los elementos protegibles en la obra con derechos de autor».

El artículo cita Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence, 88 Fed. Reg. 16,190 (March 16, 2023).. Señala que estas pautas se basaron en una decisión emitida en febrero, Zarya contra Dawn, que involucró un cómic con contenido generado por IA. La Oficina de Derechos de Autor analizó minuciosamente los elementos, especificando lo siguiente:

«… La selección y disposición de las imágenes y el texto fueron el resultado de la autoría humana y, por lo tanto, son protegibles por derechos de autor, pero las imágenes generadas por IA como resultado de las indicaciones humanas no lo son. Las indicaciones ‘influyeron’, pero no ‘dictaron’, la imagen resultante, por lo que el solicitante no fue el ‘cerebro’ y, por lo tanto, no es el autor de las imágenes. Además, las ediciones realizadas por el solicitante a las imágenes fueron demasiado menores para considerarse protegibles por derechos de autor».

En cuanto a las bases de datos de entrenamiento fundamentalmente basadas en contenido protegido, el artículo señala demandas pendientes de artistas contra empresas como Stability AI, MidJourney y Deviant Art. Se nos dice que esas demandas pueden ser desestimadas por motivos técnicos, pero se nos recomienda estar atentos a casos similares en el futuro.

Cynthia Murrell, 15 de septiembre de 2023.

Library Genesis demandada por cuatro importantes editoriales estadounidenses por presunta infracción de derechos de autor

Library Genesis, también conocida como Libgen, es una importante «biblioteca en la sombra», con bases de datos en línea que proporcionan acceso a millones de libros y artículos publicados en papel, difíciles de obtener y de pago.

Las editoriales Cengage, Macmillan Learning, McGraw Hill y Pearson Education presentaron una demanda por infracción de derechos de autor contra Library Genesis. Aunque se sospecha que el sitio tiene su sede en el extranjero, no se pudo determinar con precisión su ubicación. Argumentando niveles de infracción «asombrosos», estas empresas buscan una compensación por daños y perjuicios, así como una orden judicial que les permita tomar el control de los dominios del sitio «Libgen» o desactivarlos. Los intentos previos de identificar a los responsables de Libgen fracasaron.

En 2015, Libgen y Sci-Hub enfrentaron una demanda similar, pero optaron por ignorar la decisión de cerrar sus operaciones después de ser demandados por la editorial Elsevier en el mismo tribunal. A pesar de una breve desaparición de Libgen, ambos sitios finalmente hicieron caso omiso de la orden judicial.

Library Genesis, fundada en Rusia en 2008, ha añadido aproximadamente 500,000 libros, principalmente libros de texto científicos en su idioma local. Además, se informó que la «biblioteca en la sombra» agregó unos 500,000 libros, en su mayoría en inglés, a su dominio Library.nu. Se dice que los archivos de Libgen aumentaron significativamente después de que Alexandra Elbakyan, fundadora de Sci-Hub, contribuyera con contenido.

La demanda alega que la colección de Libgen de obras infractoras ahora consta de más de seis millones de archivos, de los cuales 20,000 fueron publicados por las editoriales demandantes. Estos 20,000 archivos se distribuyeron sin la autorización adecuada, ya que los demandantes publican anualmente decenas de miles de trabajos académicos.