Archivo de la etiqueta: Derechos de autor

Spawning AI: cómo evitar que nuestros contenidos sirvan para el entrenamiento de plataformas de Inteligencia Artificial

Spawning AI: https://spawning.ai/

Blog: https://spawning.ai/

Spawning AI trabaja para equilibrar los intereses de los creadores de contenido y los desarrolladores de IA, promoviendo un uso ético y consentido de los datos en la era de la inteligencia artificial. Spawning ofrece un conjunto de herramientas que facilita la declaración de las preferencias de datos y su respeto

Spawning AI es una organización que se dedica a la gobernanza de datos para la inteligencia artificial generativa. Han creado una herramienta llamada “Do Not Train Tool Suite” («No entrenar»), que permite a los titulares de derechos añadir sus medios de comunicación al “Do Not Train Registry” y así evitar que sus obras sean utilizadas para entrenar modelos de IA sin su consentimiento. Este registro es respetado por socios como Stability AI y Hugging Face.

El término “Spawning” lo acuñaron para describir el acto de crear medios completamente nuevos con un sistema de IA entrenado en medios más antiguos. Es una forma de distinguir este proceso de técnicas más antiguas como el muestreo o el collage. Spawning AI también proporciona herramientas para desarrolladores, facilitando el filtrado de solicitudes de no entrenamiento y ayudando a cumplir con las excepciones de derechos de autor de TDM de la UE1.

Spawning ofrece un conjunto de herramientas que facilita la declaración de las preferencias de datos y su respeto. Este conjunto de herramientas incluye:

  • Una API para que los titulares de derechos puedan registrar sus datos en el «Do Not Train Registry».
  • Una extensión del navegador para que los usuarios puedan marcar fácilmente el contenido que no desean que se utilice para entrenar modelos de IA.
  • Una herramienta de línea de comandos para que los desarrolladores de IA puedan integrar el «Do Not Train Registry» en sus flujos de trabajo.

Spawning AI está trabajando para garantizar que la inteligencia artificial generativa se desarrolle y utilice de manera responsable y ética. La empresa cree que es importante que los titulares de derechos tengan el control sobre sus datos y que los desarrolladores de IA sean conscientes de las posibles consecuencias de sus modelos.

¿Qué dice la ley sobre a quién pertenecen los derechos de autor de los contenidos generados por IA?

Farnush Ghadery. «ChatGPT: What the Law Says About Who Owns the Copyright of AI-Generated Content.» The Conversation, April 21, 2023. https://theconversation.com/chatgpt-what-the-law-says-about-who-owns-the-copyright-of-ai-generated-content-200597.


El chatbot de IA ChatGPT produce contenido que puede parecer creado por un humano. Existen muchos usos propuestos para esta tecnología, pero sus impresionantes capacidades plantean importantes preguntas sobre la propiedad del contenido.

La legislación del Reino Unido tiene una definición para las obras generadas por computadora. Según la Ley de Derechos de Autor, Diseños y Patentes de 1988, estas son “generadas por computadora en circunstancias tales que no hay un autor humano de la obra”. La ley sugiere que el contenido generado por una inteligencia artificial (IA) puede estar protegido por derechos de autor. Sin embargo, las fuentes originales de las respuestas generadas por chatbots de IA pueden ser difíciles de rastrear e incluir obras con derechos de autor.

La primera pregunta es si ChatGPT debería poder usar contenido original generado por terceros para generar sus respuestas. La segunda es si solo los humanos pueden ser acreditados como autores del contenido generado por IA, o si la IA misma puede ser considerada un autor, especialmente cuando ese output es creativo.

Tratemos primero la pregunta uno. La tecnología que sustenta a ChatGPT se conoce como un Modelo de Lenguaje Extenso (LLM, por sus siglas en inglés). Para mejorar en lo que hace, se expone a grandes conjuntos de datos, que incluyen un gran número de sitios web y libros.

Actualmente, el Reino Unido permite a los desarrolladores de IA llevar a cabo minería de texto y datos (TDM) solo para fines no comerciales. Los términos de uso de OpenAI asignan a los usuarios «todos sus derechos, títulos e intereses en el output».

Pero la empresa dice que es responsabilidad de los usuarios asegurarse de que la forma en que utilizan ese contenido no viole ninguna ley. Los términos y condiciones también están sujetos a cambios, por lo que no tienen la estabilidad y la fuerza de un derecho legal como el copyright.

La única solución será clarificar las leyes y políticas. De lo contrario, cada organización tendrá que emprender acciones legales individualmente, tratando de demostrar que son dueños de las obras utilizadas por una IA. Además, si los gobiernos no toman medidas, nos acercamos a una situación en la que todos los materiales con derechos de autor serán utilizados por otros sin el consentimiento del autor original.

Cuestión de propiedad Pasemos a la pregunta dos: quién puede reclamar derechos de autor sobre el contenido generado por IA. En ausencia de una reclamación por parte del propietario del contenido original utilizado para generar una respuesta, es posible que los derechos de autor del output de un chatbot puedan pertenecer a los usuarios individuales o a las empresas que desarrollaron la IA.

La ley de derechos de autor se basa en un principio general de que solo el contenido creado por seres humanos puede estar protegido. Los algoritmos que sustentan a ChatGPT fueron desarrollados en OpenAI, por lo que la empresa parecería tener la protección de derechos de autor sobre esos algoritmos. Pero esto podría no extenderse a las respuestas del chatbot.

Otra opción respecto a la propiedad del contenido generado por IA es la propia IA. La ley del Reino Unido actualmente prohíbe que una IA posea derechos de autor (o incluso reconozca que una IA lo creó), ya que no es un humano y, por lo tanto, no puede ser tratada como autor o propietario según la Ley de Derechos de Autor, Diseños y Patentes. También es poco probable que esta posición cambie pronto, dada la respuesta del gobierno del Reino Unido a la consulta sobre IA.

Cuando una obra literaria, dramática, musical o artística es realizada por un empleado en el curso de su empleo, su empleador es el primer propietario de cualquier derecho de autor sobre la obra, salvo acuerdo en contrario.

Por ahora, los legisladores se adhieren a la creatividad humana como el prisma a través del cual se concede el copyright. Sin embargo, a medida que la IA se desarrolla y puede hacer más, los legisladores podrían considerar otorgar capacidad legal a las IA mismas. Esto representaría un cambio fundamental en cómo opera la ley de derechos de autor y una reimaginación de quién (o qué) puede ser clasificado como autor y propietario de derechos de autor.

Un cambio así tendría implicaciones para las empresas a medida que integran la IA en sus productos y servicios. Microsoft anunció recientemente que integrará su producto Copilot, basado en ChatGPT, en el software de la compañía, como Word, PowerPoint y Excel. Copilot puede ayudar a los usuarios con la comunicación escrita y resumir grandes volúmenes de datos.

Seguramente seguirán más desarrollos como este, y las empresas que adopten la IA temprano tienen la oportunidad de capitalizar la situación actual, utilizando la IA para aumentar la eficiencia de sus operaciones. Las empresas a menudo obtienen una ventaja cuando son las primeras en introducir un producto o servicio en el mercado, una situación llamada «ventaja del pionero».

Futuros cambios El gobierno del Reino Unido llevó a cabo recientemente una consulta sobre IA y derechos de autor. Surgieron dos puntos de vista conflictivos. El sector tecnológico cree que los derechos de autor del contenido generado por IA deberían pertenecer a los usuarios, mientras que el sector creativo quiere que este contenido sea excluido de la propiedad por completo. El gobierno del Reino Unido no ha actuado sobre los resultados y en su lugar ha recomendado una consulta adicional entre las partes interesadas.

Si la ley de derechos de autor se aleja de su enfoque humano en el futuro, se podría imaginar un escenario en el que una IA sea clasificada como autor y los desarrolladores de esa IA como los propietarios del output. Esto podría crear una situación en la que un puñado de empresas poderosas de IA ejerzan una influencia colosal.

Podrían terminar poseyendo cientos de miles de materiales con derechos de autor: canciones, materiales publicados, visuales y otros activos digitales. Esto podría llevar a una situación distópica en la que la mayoría de las obras recién creadas sean generadas por IA y propiedad de empresas.

Parece lógico que tal conocimiento debería permanecer en el dominio público. Tal vez la solución sea que cada persona o empresa declare su contribución cuando usan IA, o que su contribución sea calculada automáticamente por software. En consecuencia, recibirían crédito o beneficio financiero basado en la cantidad de trabajo que contribuyeron.

El contenido de IA que se basa en materiales con derechos de autor sigue siendo problemático. La incapacidad de depender de materiales con derechos de autor podría socavar la capacidad del sistema de IA para responder a las solicitudes de los usuarios finales. Pero si el contenido se basa en obras protegidas, tendríamos que aceptar una nueva era de innovación abierta donde los derechos de propiedad intelectual no importan.

Los generadores de imágenes de Inteligencia Artificial Midjourney y DeviantArt afirman que nunca han utilizado imágenes de artistas para entrenar sus modelos de IA


«AI Image Generators Say They Never Used Artists’ Images to Train AI Models». Accedido 10 de mayo de 2024. https://www.courthousenews.com/ai-image-generators-say-they-never-used-artists-images-to-train-ai-models/.

Empresas que ofrecen software de inteligencia artificial generativa de imágenes argumentaron para desestimar una demanda por infracción directa de derechos de autor de artistas que afirman que las empresas utilizaron su trabajo sin permiso para entrenar un modelo de IA de texto a imagen.

Según la demanda colectiva de los artistas, la empresa de software de IA Midjourney y la plataforma de arte en línea DeviantArt utilizaron sus obras para entrenar la herramienta de IA de texto a imagen Stable Diffusion sin pagar a los artistas ni obtener su consentimiento para utilizar sus obras como imágenes de entrenamiento, y las imágenes resultantes siguen compitiendo con las obras de los artistas humanos en el mercado.

Los artistas demandaron por primera vez a DeviantArt, Midjourney y Stability AI, creador de Stable Diffusion, el año pasado, pero el juez superior de distrito de EE.UU. William Orrick desestimó la mayoría de las demandas de los artistas en octubre de 2023, permitiendo que sólo sobreviviera una demanda directa de derechos de autor contra Stability AI.

El juez William Orrick permitió que una única demanda de infracción directa de derechos de autor sobreviviera contra Stability AI, pero desestimó la mayoría de las otras reclamaciones de los artistas.

Los abogados de DeviantArt argumentaron que la plataforma de arte debería ser excluida de la acción porque solo utilizó Stable Diffusion para producir imágenes para su herramienta DreamUp AI y nunca utilizó directamente las imágenes de los artistas para entrenar un modelo de IA o crear imágenes que se parecieran a las de los artistas.

Los abogados de Midjourney ofrecieron una defensa similar. El juez Orrick tomó el asunto bajo consideración.

Un grupo periódicos de EE.UU. demandan a OpenAI por infracción de derechos de autor en el entrenamiento de su IA

Brittain, Blake. «US newspapers sue OpenAI for copyright infringement over AI training.» Reuters, May 1, 2024, 1:55 AM GMT+2, Accessed May 1, 2024. https://www.reuters.com/legal/us-newspapers-sue-openai-copyright-infringement-over-ai-training-2024-04-30/

Un grupo de periódicos, incluyendo el New York Daily News y el Chicago Tribune, demandaron a Microsoft (MSFT.O) y OpenAI en un tribunal federal de Nueva York el martes, acusándolos de utilizar indebidamente el trabajo de los reporteros para entrenar sus sistemas de inteligencia artificial generativa.

Los ocho periódicos, propiedad del fondo de inversión Alden Global Capital’s MediaNews Group, afirmaron en la demanda que las empresas copiaron ilegalmente millones de sus artículos para entrenar productos de inteligencia artificial, incluyendo el Copilot de Microsoft y el ChatGPT de OpenAI.

La queja sigue a demandas similares en curso contra Microsoft y OpenAI, que ha recibido miles de millones de respaldo financiero de Microsoft, presentadas por el New York Times y los medios de comunicación The Intercept, Raw Story y AlterNet.

Un portavoz de OpenAI dijo el martes que la empresa cuida mucho sus productos y el proceso de diseño para apoyar a las organizaciones de noticias. Un portavoz de Microsoft declinó hacer comentarios sobre la demanda.

Los casos de los periódicos son parte de varias posibles demandas emblemáticas presentadas por propietarios de derechos de autor contra empresas tecnológicas por los datos utilizados para entrenar sus sistemas de inteligencia artificial generativa.

Un abogado de las publicaciones de MediaNews, Steven Lieberman, dijo a Reuters que OpenAI debe su éxito arrollador al trabajo de otros. Los demandados saben que tienen que pagar por computadoras, chips y salarios de empleados, pero «creen de alguna manera que pueden salirse con la suya tomando contenido» sin permiso o pago, dijo.

La demanda dijo que los sistemas de Microsoft y OpenAI reproducen el contenido con derechos de autor de los periódicos «verbatim» cuando se les solicita. Afirmó que ChatGPT también «alucina» artículos atribuidos a los periódicos que dañan sus reputaciones, incluyendo un artículo falso del Denver Post que promocionaba fumar como una cura para el asma y una recomendación falsa del Chicago Tribune para un reposa bebés que fue retirado del mercado después de ser vinculado con la muerte de niños.

Inteligencia Artificial: alfabetización mediática e informacional, derechos humanos y libertad de expresión

Igor Shnurenko, Tatiana Murovana, Ibrahim Kushchu. Artificial Intelligence: Media and Information Literacy, Human Rights and Freedom of Expression. Unesco, 2021

Texto completo

La relación entre la alfabetización mediática e informacional (AMI) y los derechos humanos (DH), especialmente el derecho al acceso a la información, la educación y la libertad de expresión (LE), es innegablemente sólida. La AMI, respaldada por el derecho a la educación, es un requisito esencial para que los ciudadanos puedan acceder, comprender, analizar, crear y expresar contenido mediático, así como para poder mejorar la realización de sus derechos humanos relevantes. Por lo tanto, la AMI estaría incompleta sin la perspectiva de los derechos humanos.

Las herramientas y plataformas digitales han llevado a la AMI más allá de ser unidimensional para convertirse en interactiva y dinámica. Varios medios (digitales), ciudadanos, productores de contenido, reguladores (es decir, gobiernos) y otros actores ahora operan en un ecosistema dinámico de AMI, que está en constante cambio y evolución. Sin lugar a dudas, en los últimos años, la inteligencia artificial (IA) con sus tecnologías de apoyo, como la nube, el big data, Internet de las cosas (IoT) y la conectividad (móvil), están teniendo una influencia disruptiva en este ecosistema. El éxito de los esfuerzos de AMI depende principalmente del éxito en comprender la IA y su adopción.

El libro, para cumplir con este propósito, presenta una exploración de las relaciones dinámicas entre la IA y las tecnologías emergentes relevantes, la AMI, los derechos humanos y la libertad de expresión.

La primera parte del libro establece la base técnica para la IA y las tecnologías emergentes relevantes en relación con la AMI y los derechos humanos. Primero, se presenta la fortaleza de la IA derivada de nuevas tecnologías como el big data, el IoT y todas las formas de conectividad. De esta manera, se establece el poder y los límites de dicho poder en relación con las tres áreas mencionadas de la AMI. Aunque la mayoría de las técnicas de IA no han avanzado drásticamente desde su nacimiento, los desarrollos significativos en tecnologías emergentes relevantes están revolucionando los sistemas de IA. Sin embargo, esta revolución está limitada a la IA estrecha, donde se resuelven problemas específicos de dominio delimitado de manera competente. Aún así, la IA desempeña un papel disruptivo en la ampliación y el aumento de las capacidades de los ciudadanos y otros actores del ecosistema de AMI. Independientemente de quién sea el actor o el interesado, la AMI pasiva, activa e influyente se mejoran mediante el uso de IA en diversas plataformas y entornos digitales y mediáticos.

La segunda parte del libro es una discusión que explora cómo la IA puede contribuir o dificultar el desarrollo de competencias de AMI. Esta parte comienza presentando una breve descripción de las opiniones, esfuerzos y posición de la UNESCO sobre la AMI.

El proyecto de ley No AI FRAUD: sin Fraudes, Sin Falsificaciones… ¿Sin Uso Justo?

No Frauds, No Fakes…No Fair Use? Katherine Klosek, March 1, 2024. Accessed March 2, 2024. https://www.arl.org/blog/nofraudsnofakes/.

Katherine Klosek discute el potencial de la inteligencia artificial en instituciones de memoria, señalando su utilidad en la síntesis de descripciones de libros y la corrección de errores en las atribuciones de contribuciones. Sin embargo, destaca la preocupación del Congreso por los deepfakes y la legislación propuesta para prevenir su uso fraudulento, argumentando que cualquier legislación debe equilibrar la protección contra el fraude con la preservación de la libertad de expresión, utilizando las excepciones en la Ley de Derechos de Autor como modelo

La inteligencia artificial tiene el potencial de servir como una poderosa herramienta para bibliotecas y otras instituciones de memoria. Durante una reciente audiencia del Comité de Reglas del Senado de los Estados Unidos, la Bibliotecaria del Congreso Carla Hayden describió cómo la Biblioteca del Congreso está experimentando con modelos de aprendizaje automático para sintetizar descripciones de libros para comunidades ciegas, con discapacidad visual y con dificultades de lectura. Meroe Park, secretaria adjunta y directora de operaciones del Instituto Smithsonian, habló sobre el trabajo del Laboratorio de Ciencia de Datos del Smithsonian para desarrollar un nuevo modelo de IA que pueda descubrir y corregir instancias en sus colecciones en las que las contribuciones de las mujeres fueron erróneamente atribuidas a hombres. Las bibliotecas universitarias también apoyan metodologías de investigación no generativas como la minería de texto y datos para analizar mejor las obras creativas de mujeres, minorías de género y artistas de color para explorar preguntas importantes sobre la cultura y la sociedad. Esta tecnología ofrece oportunidades innumerables para avanzar en la investigación y preservar el patrimonio cultural.

Aunque la promesa de la IA es evidente, el Congreso se centra en sus posibles perjuicios, presentando legislación para prevenir el uso fraudulento del nombre, imagen o semejanza de una persona para crear deepfakes. Desafortunadamente, algunas propuestas legislativas actuales podrían limitar la libertad de expresión en el proceso. Este artículo discute por qué cualquier legislación dirigida a los deepfakes debe incluir disposiciones que permitan la libre expresión. Las excepciones contenidas en la Ley de Derechos de Autor ofrecen un modelo útil para tales disposiciones.

El uso justo es una salvaguardia de la Primera Enmienda.

El uso justo es una acomodación de la Primera Enmienda que está integrada en la ley de derechos de autor, permitiendo al público usar obras expresivas sin permiso del titular de los derechos de autor. Sin el uso justo, los derechos exclusivos de reproducir, realizar, transmitir, distribuir, exhibir y crear obras derivadas consolidarían un monopolio de derechos de autor en el que los titulares de derechos de autor son los únicos que pueden usar obras expresivas a menos que otorguen permiso para hacerlo. Como escribió Public Knowledge después de una audiencia reciente sobre IA y derecho a la publicidad:

Los regímenes de propiedad intelectual son ellos mismos una forma de regulación de la expresión. Al otorgar un monopolio sobre un tipo específico de expresión, en este caso, la expresión que utiliza la semejanza audiovisual de un individuo, un derecho de publicidad prohíbe a todas las demás personas participar en ese subconjunto particular de expresión. Esto significa, para bien o para mal, que cualquier régimen de PI debe contener excepciones y limitaciones significativas para acomodar la Primera Enmienda. El derecho de autor es constitucionalmente sólido solo debido a una doctrina de uso justo robusta y flexible; cualquier derecho de publicidad federal tendría que permitir de manera similar una amplia gama de expresión.

Las recientes propuestas para regular el uso de una semejanza generada por IA crearían un nuevo régimen de PI amplio, pero sin las acomodaciones necesarias para la libertad de expresión como las excepciones y limitaciones robustas, explícitas y flexibles en la Ley de Derechos de Autor de EE. UU.

Se necesitan excepciones sólidas en la legislación sobre derechos de publicidad.

La Ley de Replicas y Duplicaciones No Autorizadas de Inteligencia Artificial Falsa, o la Ley No AI FRAUD (H.R. 6943), crearía un derecho de propiedad intelectual federal que sobreviviría al individuo cuya semejanza digital y voz estén protegidas. Cualquier persona que publique, realice, distribuya, transmita o de cualquier otra manera ponga a disposición del público una réplica de voz digital, una representación digital o un servicio de clonación personalizado, con el conocimiento de que no fue autorizado por el titular de los derechos, estaría infringiendo la ley. El proyecto de ley efectivamente permite a los titulares de derechos controlar una amplia cantidad de contenido digital sin ninguna válvula de seguridad que permita el ejercicio de la libre expresión, como una excepción para fines de investigación o académicos.

El proyecto de ley No AI FRAUD intenta sortear su problema de libre expresión con una cláusula que establece que la Primera Enmienda sirve como defensa. Pero el proyecto de ley limita inmediatamente la defensa de la Primera Enmienda al requerir que los tribunales equilibren «el interés público en el acceso al uso» contra «el interés de propiedad intelectual en la voz o semejanza». Como señala Jennifer Rothman, esta prueba es probablemente inconstitucionalmente vaga.

La Ley Nurture Originals, Foster Art, and Keep Entertainment Safe Act of 2023, or the NO FAKES Act of 2023, en el Senado, crea de manera similar responsabilidad para los usuarios de réplicas digitales. NO FAKES excluye explícitamente las réplicas digitales que se utilizan en documentales o docudramas, o con fines de comentario, crítica, investigación, sátira o parodia, de violar la ley. Este enfoque prescriptivo ofrece certeza sobre los usos enumerados, pero sin la flexibilidad que requiere un análisis de uso justo.

La flexibilidad y especificidad del uso justo apoyan el progreso del conocimiento.

Las excepciones en la Ley de Derechos de Autor proporcionan a los usuarios tanto certeza como flexibilidad. Por un lado, las excepciones establecidas en las Secciones 108-121A describen una variedad de circunstancias específicas en las que una obra puede ser utilizada sin autorización del titular de los derechos de autor. Al mismo tiempo, el uso justo en la Sección 107 permite usos de acuerdo con una evaluación dinámica de factores, incluido si un nuevo uso agrega algo al propósito o carácter de una obra. Décadas de litigios sobre uso justo han aclarado usos adicionales; por ejemplo, aunque la parodia no está mencionada en la Ley de Derechos de Autor, los tribunales establecieron que la parodia puede calificar como uso justo en el caso Campbell v. Acuff Rose Music. La naturaleza flexible

OpenAI no se entrenará con datos del New York Times tras la demanda interpuesta por el periódico a ChatGPT

News, B. (2024, enero 16). OpenAI Doesn’t Want to Train on New York Times Data After Lawsuit, Altman Says—BNN Bloomberg. BNN. https://www.bnnbloomberg.ca/openai-doesn-t-want-to-train-on-new-york-times-data-after-lawsuit-altman-says-1.2022691

Sam Altman, CEO de OpenAI, ha declarado que la inteligencia artificial no necesita grandes cantidades de datos de entrenamiento de editoriales como The New York Times, en respuesta a las acusaciones de que su startup está utilizando material con derechos de autor. Altman señaló que la creencia de que se requieren todos los datos de entrenamiento y que estos son muy valiosos no es generalmente cierta, y afirmó que no desean entrenar con los datos del New York Times.

OpenAI está en medio de una importante iniciativa para asegurar acceso a contenidos de noticias después de ser demandada por el Times y Microsoft, su mayor inversor, por supuestamente causar miles de millones de dólares en daños por violación de derechos de autor. Las asociaciones con editoriales son cruciales para el futuro de OpenAI, ya que equilibra la necesidad de datos precisos y oportunos con la atención pública sobre la procedencia de esos datos.

La compañía está en conversaciones con varios editores, incluyendo CNN, Fox Corp. y Time, para obtener licencias de contenido noticioso. Altman destacó que su objetivo es proporcionar información de diferentes fuentes cuando los usuarios lo soliciten y mencionó que algunos editores desean asociarse con ellos, mientras que otros no.

Antes de la demanda, OpenAI y el Times estuvieron en contacto desde abril para negociar una licencia, pero no lograron llegar a un acuerdo. La empresa también enfrenta demandas colectivas de escritores, como Sarah Silverman, George R.R. Martin y Michael Chabon.

A pesar de las tensiones con algunos editores, OpenAI ha alcanzado acuerdos con la Associated Press para acceder a sus archivos y firmó un acuerdo de tres años en diciembre con Axel Springer SE para utilizar el contenido de la compañía mediática alemana por una suma no revelada.

Altman concluyó que gran parte de la investigación de OpenAI se centra en aprender más a partir de cantidades más pequeñas de datos de alta calidad.

El New York Times demanda a OpenAI y Microsoft por infracción de derechos de autor

Grynbaum, M. M., & Mac, R. (2023, diciembre 27). The Times Sues OpenAI and Microsoft Over A.I. Use of Copyrighted Work. The New York Times. https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html

La demanda es la última de una serie de demandas que buscan limitar el uso del presunto «scraping» de amplios fragmentos de contenido de internet, sin compensación, para entrenar a los llamados modelos grandes de inteligencia artificial de lenguaje. Actores, escritores, periodistas y otros creadores que publican sus trabajos en internet temen que la IA aprenda de su material y proporcione chatbots competitivos y otras fuentes de información sin una compensación adecuada.


El periódico The New York Times ha presentado una demanda contra OpenAI y Microsoft, acusándolos de infringir derechos de autor. La queja sostiene que las compañías utilizaron millones de artículos del Times sin permiso para entrenar modelos de inteligencia artificial de lenguaje, como ChatGPT, creando así una competencia directa para el Times. Esta demanda se suma a una serie de acciones legales que buscan limitar el uso del supuesto «scraping» de contenido de internet sin compensación para entrenar modelos de inteligencia artificial de lenguaje. Aunque las negociaciones para una compensación justa estuvieron en marcha desde abril, el Times afirma que no se ha llegado a una resolución con las compañías. La demanda busca daños por miles de millones de dólares y una orden permanente contra la presunta infracción, lo que podría sentar un precedente para la industria. Otras empresas de medios, como Disney, CNN y el propio Times, han bloqueado el acceso a ChatGPT. Este conflicto destaca los desafíos continuos en torno al uso de material con derechos de autor para entrenar modelos de inteligencia artificial.

Sin embargo, la demanda del Times es la primera entre los principales editores de noticias que se enfrenta a OpenAI y Microsoft, las marcas de IA más reconocidas. Microsoft (MSFT) tiene un asiento en la junta directiva de OpenAI y una inversión multimillonaria en la compañía.

En una queja presentada el miércoles, el Times dijo que tiene el deber de informar a sus suscriptores, pero el «uso ilegal del trabajo del Times por parte de Microsoft y OpenAI para crear productos de inteligencia artificial que compiten con él amenaza la capacidad del Times para proporcionar ese servicio». El periódico señaló que OpenAI y Microsoft utilizaron otras fuentes en su «copia a gran escala», pero «dieron énfasis particular al contenido del Times» buscando «montarse en la inversión masiva del Times en su periodismo al utilizarlo para construir productos sustitutivos sin permiso ni pago».

En su queja, el Times dijo que objetó cuando descubrió meses atrás que su trabajo se había utilizado para entrenar los modelos de lenguaje grandes de las compañías. A partir de abril, el Times dijo que comenzó a negociar con OpenAI y Microsoft para recibir una compensación justa y establecer los términos de un acuerdo.

Escritores demandan a OpenAI y Microsoft por supuesto uso no autorizado de libros en inteligencia artificial

Brittain, Blake, y Blake Brittain. 2023. «Pulitzer-Winning Authors Join OpenAI, Microsoft Copyright Lawsuit». Reuters, 21 de diciembre de 2023, sec. Legal. https://www.reuters.com/legal/pulitzer-winning-authors-join-openai-microsoft-copyright-lawsuit-2023-12-20/.

Un grupo de 11 autores de no ficción se ha unido a una demanda en la corte federal de Manhattan que acusa a OpenAI y Microsoft de utilizar indebidamente libros escritos por los autores para entrenar los modelos detrás del popular chatbot ChatGPT de OpenAI y otros programas basados en inteligencia artificial.

Los escritores, incluyendo a los ganadores del Premio Pulitzer Taylor Branch, Stacy Schiff y Kai Bird, argumentan que las compañías infringieron sus derechos de autor al usar sus obras para entrenar los modelos de lenguaje GPT de OpenAI.

Representantes de OpenAI y Microsoft no respondieron de inmediato a las solicitudes de comentarios el miércoles.

El abogado de los escritores, Rohit Nath, afirmó que «los acusados están obteniendo miles de millones de dólares de su uso no autorizado de libros de no ficción, y los autores de estos libros merecen una compensación justa y un trato adecuado por ello».

La demanda, presentada por el escritor y editor de Hollywood Reporter, Julian Sancton, alega que OpenAI «raspó» los trabajos de los autores junto con gran cantidad de otro material con derechos de autor de Internet sin permiso para enseñar a sus modelos GPT a responder a instrucciones de texto humano.

La demanda también afirma que Microsoft ha estado «profundamente involucrado» en el entrenamiento y desarrollo de los modelos y es responsable de la infracción de derechos de autor. Los autores piden daños monetarios no especificados y una orden para que las compañías dejen de infringir sus derechos de autor.

OpenAI y Axel Springer firman un acuerdo que permite que ChatGPT se entrene con datos de la editorial

Knibbs, Kate. s. f. «Journalists Had “No Idea” About OpenAI’s Deal to Use Their Stories». Wired. Accedido 22 de diciembre de 2023. https://www.wired.com/story/openai-axel-springer-news-licensing-deal-whats-in-it-for-writers/.

OpenAI y el conglomerado mediático alemán Axel Springer firmaron la semana pasada un acuerdo de licencia a largo plazo que permite a OpenAI incorporar artículos de los medios de Axel Springer, como Business Insider y Politico, en sus productos, incluido ChatGPT. Aunque el acuerdo se centra en el uso de trabajos periodísticos, los periodistas cuyas historias se compartirán como parte del acuerdo no fueron consultados previamente.

Empleados de Business Insider revelaron que se enteraron del acuerdo de inteligencia artificial al mismo tiempo que se anunció públicamente. PEN Guild, el sindicato estadounidense que representa a alrededor de 280 trabajadores de Politico y E&E News, otra publicación de Axel Springer, afirmó que «no fue consultado ni informado sobre la decisión de que los robots resumieran nuestro trabajo».

Este acuerdo destaca la tendencia emergente de empresas de inteligencia artificial que buscan acuerdos con empresas de medios en lugar de recopilar datos de entrenamiento mediante el rastreo no autorizado de contenido con derechos de autor en Internet. Mientras algunas asociaciones de escritores ven estos acuerdos como una alternativa positiva al rastreo de datos, hay dudas sobre si realmente beneficiarán a los periodistas.

El editor de Techdirt, Mike Masnick, cuestiona la efectividad de estos acuerdos y sugiere que podrían ser estrategias para evitar demandas de las editoras a cambio de cierto acceso a la tecnología. Además, se desconoce cómo afectará financieramente a los periodistas individuales el acuerdo entre OpenAI y Axel Springer.

El acuerdo, que implica que OpenAI pagará a Axel Springer millones de euros, según Bloomberg, plantea preguntas sobre si los periodistas recibirán alguna compensación. Aunque Axel Springer considera que el acuerdo beneficia a los periodistas y a la industria del periodismo, algunos críticos dudan de que el acceso indirecto a la tecnología realmente mejore las condiciones laborales de los periodistas.

En el contexto de la creciente automatización en la industria de los medios, sindicatos y líderes laborales están vigilando de cerca estos acuerdos para proteger los derechos e integridad del trabajo de los periodistas. La cuestión de si estos acuerdos serán beneficiosos a largo plazo y cómo afectarán a la industria de los medios sigue siendo objeto de debate.