Archivo de la categoría: Legislación

OpenAI se esta enfrentando a varias demandas que alegan que la compañía utilizó conjuntos de datos con información personal y materiales bajo derechos de autor para entrenar a ChatGPT

OpenAI ha enfrentado múltiples demandas en las últimas semanas debido al uso de conjuntos de datos que contienen información personal y materiales con derechos de autor en el entrenamiento de sus modelos de IA, como ChatGPT. Estas demandas plantean preocupaciones sobre presuntas infracciones de derechos de autor y el uso indebido de datos sensibles, como registros médicos y conversaciones privadas, sin el consentimiento apropiado.


OpenAI se ha enfrentado a varias demandas presentadas en las últimas semanas. Estas demandas han planteado preocupaciones sobre el uso de conjuntos de datos que contienen información personal y materiales con derechos de autor para entrenar a sus modelos de IA, como ChatGPT. Algunas de las demandas alegan infracciones de derechos de autor, mientras que otras afirman que OpenAI utilizó datos sensibles, como conversaciones privadas y registros médicos, sin el consentimiento adecuado.

Entre las demandas más destacadas se encuentra una demanda presentada por 16 demandantes no identificados que afirman que OpenAI utilizó datos sensibles en el entrenamiento de sus modelos de IA. Además, la comediante y autora Sarah Silverman, junto con los autores Christopher Golden y Richard Kadrey, han presentado demandas por infracción de derechos de autor contra OpenAI y Meta en un tribunal de distrito de Estados Unidos. Las demandas alegan, entre otras cosas, que los modelos ChatGPT de OpenAI y LLaMA de Meta fueron entrenados utilizando conjuntos de datos adquiridos ilegalmente que contenían sus obras, las cuales afirman haber sido obtenidas de sitios web de «bibliotecas piratas» como Bibliotik, Library Genesis, Z-Library y otros, mencionando que los libros están «disponibles en masa a través de sistemas de torrents». En la demanda contra OpenAI, los creadores presenta pruebas que demuestran que cuando se le solicita, ChatGPT resume sus libros, infringiendo sus derechos de autor. En las pruebas se muestra que el primer libro resumido por ChatGPT es Bedwetter de Silverman, mientras que también se utiliza como ejemplo el libro Ararat de Golden y el libro Sandman Slim de Kadrey. La demanda afirma que el chatbot no se preocupó por «reproducir ninguna de las informaciones de gestión de derechos de autor que los demandantes incluyeron en sus obras publicadas».

Una demanda presentada en un tribunal federal en San Francisco alega que OpenAI copió texto de libros ilegalmente al no obtener el consentimiento de los titulares de los derechos de autor, darles crédito ni compensarlos. La demanda, Tremblay v. OpenAI Inc, afirma que ChatGPT puede resumir de manera precisa los libros de ciencia ficción y terror de los autores. Esto sugiere que el chatbot ha leído y absorbido sus obras. Los autores alegan que ChatGPT violó la ley de derechos de autor al eliminar los avisos de derechos de autor de estos libros.

Otra demanda alega que los modelos de aprendizaje automático de OpenAI, incluyendo ChatGPT y DALL-E, recopilan ilegalmente la información personal de las personas en Internet, violando diversas leyes de privacidad. La demanda, conocida como PM v. OpenAI LP, afirma que OpenAI obtiene información privada de las personas directamente a través de sus sistemas de IA y otras aplicaciones que incorporan ChatGPT. La demanda alega que OpenAI ha incorporado sus sistemas en varias plataformas como Snapchat, Spotify, Stripe, Slack y Microsoft Teams. Afirma que OpenAI recopiló clandestinamente imágenes, ubicaciones, preferencias musicales, información financiera y comunicaciones privadas de los usuarios a través de estas integraciones. Además, la denuncia argumenta que esta recopilación y uso de datos violaron las leyes de privacidad, especialmente en lo que respecta a los datos de los niños.

Estas demandas han generado un debate sobre la ética y las prácticas de recopilación de datos utilizadas en el desarrollo de modelos de IA. OpenAI aún no ha hecho comentarios públicos específicos sobre las demandas y se espera que el proceso legal siga su curso para determinar los resultados. Las acusaciones resaltan la importancia de abordar de manera ética y legal la recopilación y el uso de datos en el desarrollo de la inteligencia artificial. El proceso legal determinará los resultados de estas demandas y puede tener implicaciones significativas para la industria, y la regulación en el campo de la IA.

La Ley de Propiedad Intelectual de EE.UU. puede regular la IA sin enmiendas

Klosek, Katherine. «US Copyright Act Can Address AI without Amendment». Association of Research Libraries (blog), 7 de julio de 2023. https://www.arl.org/blog/us-copyright-act-can-address-ai-without-amendment/.

La inteligencia artificial generativa (IA) es una tecnología que puede ayudar a los autores y otros creadores a generar ideas, editar obras originales y realizar investigaciones. Pero en lugar de depender de la legislación existente para abordar preguntas como si el uso de obras para entrenar modelos de IA es uso legítimo, o si las obras que incluyen contenido generado por IA son elegibles para la protección de derechos de autor, algunos legisladores en Estados Unidos parecen estar decididos a desarrollar nuevos marcos legales o regímenes de licencias. Este mes, Library Copyright Alliance (LCA) emitió unos principios para guiar a los legisladores en sus conversaciones sobre la ley de derechos de autor y la IA. La LCA es la voz de la comunidad bibliotecaria en política de derechos de autor; sus miembros, la Asociación de Bibliotecas de Estados Unidos (ALA) y la Asociación de Bibliotecas de Investigación (ARL), representan a más de 300,000 profesionales de la información y miles de bibliotecas.

Los principios de la LCA sostienen que la legislación de derechos de autor de Estados Unidos es totalmente capaz de abordar preguntas sobre los resultados generados por la IA. Por ejemplo, en marzo de este año, US Copyright Office emitió orientación de registro reiterando el requisito de larga data de que una obra sea creada por un ser humano para recibir protección de derechos de autor. En un seminario web reciente, la Oficina de Derechos de Autor aclaró que los solicitantes deben revelar los elementos generados por IA de una obra utilizando el mismo proceso que otros elementos no reclamables (como obras en dominio público o obras registradas previamente). Sin embargo, no se requiere que los solicitantes revelen cuando las obras contienen una cantidad mínima de autoría aportada por IA, por ejemplo, cuando se utiliza la IA para editar o difuminar una obra original. Para determinar si la contribución de la IA a una obra es mínima, la oficina alentó a los posibles solicitantes a considerar si ese elemento de la obra sería elegible para registro si fuera producido por un autor humano.

Las preocupaciones sobre la ingesta de una obra con derechos de autor original por parte de la IA y la producción de un resultado sustancialmente similar a la obra original también pueden abordarse mediante la legislación existente; el titular de los derechos de autor de una obra original puede demandar tanto al proveedor de la IA como al usuario que instigó a la IA a producir una obra sustancialmente similar.

En cuanto al aspecto de entrada, la ingesta de obras con derechos de autor para crear modelos de lenguaje extensos u otras bases de datos de entrenamiento de IA es un uso legítimo establecido, en línea con el precedente establecido en el caso Authors Guild v. HathiTrust y respaldado en el caso Authors Guild v. Google. En esos casos, el Tribunal de Apelaciones de Estados Unidos para el Segundo Circuito determinó que la ingesta de grandes cantidades de obras con el propósito de realizar usos no expresivos de esas obras, como la extracción de texto y datos, era un uso legítimo. Por supuesto, la copia y visualización de elementos no protegidos de las obras, como hechos, no constituye una infracción, según el caso Feist Publications v. Rural Telephone Service Company.

Los principios de la LCA se derivaron de los puntos que la LCA presentó durante la participación en la sesión de escucha de la Oficina de Derechos de Autor sobre la IA generativa y los derechos de autor en relación con las obras literarias. El 5 de julio, la LCA presentó los principios a la Oficina de Política Científica y Tecnológica de Estados Unidos (OSTP, por sus siglas en inglés) en respuesta a su solicitud de información para actualizar las prioridades nacionales de Estados Unidos y las acciones futuras sobre la IA. La LCA continuará participando en la iniciativa de la Oficina de Derechos de Autor sobre derechos de autor y IA, con la administración de Biden-Harris en el desarrollo de una Estrategia Nacional de Inteligencia Artificial (IA), y con otros legisladores federales para garantizar que la legislación y la regulación no obstaculicen el poder de la IA para expresar la creatividad y que los creadores puedan utilizar la IA para lograr los objetivos del sistema de derechos de autor. Estos principios también pueden guiar nuestra participación en la coordinación internacional y el establecimiento de políticas relacionadas con la IA y los derechos de autor.

¿Cómo sería la regulación de la IA?

Anjana Susarla, The. «What Would AI Regulation Look Like?» Gizmodo, 4 de junio de 2023. https://gizmodo.com/chatgpt-ai-what-would-ai-regulation-look-like-altman-1850501332.

Durante su testimonio en el Senado el 16 de mayo de 2023, el CEO de OpenAI, Sam Altman, hizo un llamado a los legisladores para considerar la regulación de la inteligencia artificial (IA). Altman propuso la creación de una agencia reguladora de la IA y la implementación de licencias para las empresas que trabajan en este campo. Estas propuestas son interesantes, pero es igualmente importante tener en cuenta las recomendaciones de otros expertos que participaron en el mismo panel.

Entre las sugerencias de los expertos se destaca la necesidad de exigir transparencia en relación con los datos de entrenamiento utilizados en los sistemas de IA, así como establecer marcos claros para abordar los riesgos asociados con esta tecnología. Estos aspectos son cruciales para garantizar la responsabilidad y la ética en el desarrollo y despliegue de la IA.

Además, se plantea la preocupación de que el sector de la IA pueda estar presenciando la aparición de un nuevo tipo de monopolio tecnológico, dada la naturaleza económica de la creación de modelos de IA a gran escala. Este aspecto debe ser considerado en cualquier esfuerzo de regulación, ya que el poder económico y la influencia política de las empresas en este campo pueden tener un impacto significativo.

Si bien las sugerencias de Altman y las discusiones sobre la regulación de la IA son importantes, es necesario profundizar en los detalles sobre cómo se implementaría la regulación y qué formas específicas tomarían las licencias. Además, cualquier enfoque regulatorio debe tener en cuenta las complejidades del poder económico y la influencia política de las empresas de IA.

En este sentido es crucial abordar estas cuestiones importantes, pero también es necesario llevar a cabo un debate amplio y colaborativo para encontrar respuestas efectivas. La regulación de la IA puede ser útil para proteger los intereses públicos y garantizar la seguridad y la equidad, pero su implementación requerirá un enfoque cuidadoso y una consideración detallada de los diversos aspectos involucrados.


Los legisladores y líderes políticos de todo el mundo han comenzado a abordar las cuestiones planteadas en el testimonio de Sam Altman. En la Unión Europea, se ha implementado la Ley de IA, la cual se basa en un modelo de riesgo que clasifica las aplicaciones de IA en tres categorías: inaceptable, alto riesgo y riesgo bajo o mínimo. Esta clasificación reconoce que las herramientas de puntuación social utilizadas por los gobiernos y las herramientas automatizadas de contratación plantean riesgos diferentes a los asociados con el uso de la IA en filtros de spam, por ejemplo.


En lugar de establecer una nueva agencia que pueda verse influenciada por la industria tecnológica que debe regular, el Congreso puede considerar respaldar la adopción tanto en el ámbito privado como público del marco de gestión de riesgos del Instituto Nacional de Normas y Tecnología (NIST, por sus siglas en inglés) y aprobar proyectos de ley como la Algorithmic Accountability Act. Estas acciones tendrían el efecto de imponer la rendición de cuentas, de manera similar a cómo la Ley Sarbanes-Oxley y otras regulaciones transformaron los requisitos de información para las empresas. Además, el Congreso puede aprobar leyes integrales en relación a la privacidad de los datos.

La regulación de la IA debe implicar la colaboración entre el ámbito académico, la industria, los expertos políticos y las agencias internacionales. Se ha comparado este enfoque con organizaciones internacionales como el CERN (Organización Europea para la Investigación Nuclear) y el Grupo Intergubernamental de Expertos sobre el Cambio Climático, que han logrado éxitos significativos en sus respectivos campos. En el ámbito de Internet, se ha adoptado un enfoque similar a través de organismos no gubernamentales que involucran a organizaciones sin ánimo de lucro, la sociedad civil, la industria y los responsables políticos. Ejemplos notables incluyen la Corporación de Internet para la Asignación de Nombres y Números y la Asamblea Mundial de Normalización de las Telecomunicaciones. Estos ejemplos pueden servir como modelos para la industria y los responsables políticos al abordar la regulación de la IA.

Aunque Sam Altman de OpenAI planteó la posibilidad de otorgar licencias a empresas para el despliegue de tecnologías de inteligencia artificial (IA), es importante destacar que se refería específicamente a la inteligencia artificial general, es decir, sistemas de IA futuros con un nivel de inteligencia similar al humano que podrían plantear riesgos para la humanidad. Este enfoque sería similar a la concesión de licencias para el manejo de otras tecnologías potencialmente peligrosas, como la energía nuclear. Sin embargo, la concesión de licencias podría desempeñar un papel mucho antes de que se llegue a ese escenario futurista.

La auditoría algorítmica requeriría credenciales, estándares de práctica y una formación extensa. La exigencia de responsabilidades no se limita únicamente a otorgar licencias a individuos, sino que también implica establecer estándares y prácticas en toda la empresa.

Los expertos en imparcialidad de la IA argumentan que las cuestiones de parcialidad e imparcialidad en la IA no pueden abordarse únicamente mediante métodos técnicos, sino que requieren prácticas más amplias de mitigación de riesgos, como la adopción de juntas de revisión institucional para la IA. Un ejemplo de esto se encuentra en el ámbito médico, donde las juntas de revisión institucional ayudan a salvaguardar los derechos individuales de los pacientes.

Además, los organismos académicos y las sociedades profesionales han desarrollado normas para el uso responsable de la IA, ya sea en términos de atribución en textos generados por IA o en el intercambio de datos en el ámbito de la medicina a través de los pacientes. Estas normas buscan promover prácticas éticas y mitigar los riesgos asociados con el uso de la IA en diversas áreas.

El testimonio de Altman también omitió abordar la cuestión de los posibles monopolios en el campo de la IA. Una observación importante es la significativa inversión necesaria para entrenar modelos de IA a gran escala, como GPT-4, que es uno de los fundamentos de ChatGPT, o el generador de texto a imagen Stable Diffusion. Estos modelos son desarrollados principalmente por un reducido número de empresas, como Google, Meta, Amazon y Microsoft.

La falta de transparencia en los datos de entrenamiento utilizados por estas empresas ha sido motivo de preocupación. Expertos en ética de la IA, como Timnit Gebru, Emily Bender y otros, han advertido que la adopción generalizada de estas tecnologías sin una supervisión adecuada puede amplificar el sesgo de las máquinas a una escala social.

Además, es importante reconocer que los datos de entrenamiento de herramientas como ChatGPT incluyen el trabajo intelectual de numerosas personas, como colaboradores de Wikipedia, blogueros y autores de libros digitalizados. Sin embargo, los beneficios económicos derivados de estas herramientas recaen únicamente en las empresas tecnológicas.

Legislación de 2023 de interés para las bibliotecas estadounidenses

«Unpacking 2023 Legislation of Concern for Libraries«, EveryLibrary, 2023

Texto completo

EveryLibrary publica un informe exhaustivo sobre la legislación estatal de 2023 que afecta a las bibliotecas. El informe, «Unpacking 2023 Legislation of Concern for Libraries», está diseñado para apoyar y ayudar a las asociaciones de bibliotecas estatales en futuras campañas de promoción legislativa.

La reciente oleada de legislación estatal que afecta a las bibliotecas de todo Estados Unidos ha sido en gran medida negativa, y se ha centrado en restringir el acceso a determinados materiales, en particular los considerados nocivos o inapropiados para los menores. Hasta el 17 de junio de 2023, se han aprobado veinticuatro proyectos de ley en las legislaturas estatales. Dos fueron vetados, y 22 se encuentran en diversas fases de promulgación. Estos proyectos de ley se han promulgado en catorce estados: Arkansas, Florida, Iowa, Indiana, Kentucky, Luisiana, Maine, Mississippi, Montana, Dakota del Norte, Oklahoma, Tennessee, Texas y Utah. Los proyectos de ley abarcan varios temas recurrentes que plantean posibles retos para el funcionamiento y los servicios de las bibliotecas.

Este informe ofrece una revisión puntual de la legislación estatal que afecta a las bibliotecas y a la educación, a la vez que examina temas clave entre los distintos estados. El informe ofrece recomendaciones estratégicas para que los líderes de las asociaciones de bibliotecas estatales y los defensores legislativos formen coaliciones, activen a los electores y trabajen durante todo el ciclo de vida de un proyecto de ley, incluidas las comunicaciones previas a la sesión y las acciones posteriores a la sesión.

Se aprueba el Acta de Inteligencia Artificial de la Unión Europea

«The Artificial Intelligence Act» European Union, 2023

Acceder

Texto completo

Los legisladores de la UE aprueban una ley histórica sobre la IA. La Ley de Inteligencia Artificial establece normas de protección de la intimidad más estrictas, leyes de transparencia más rigurosas y multas más elevadas en caso de falta de cooperación.

«The Artificial Intelligence Act» (El Acta de Inteligencia Artificial), aprobada en junio de 2023 tiene como objetivo es establecer un marco regulatorio que promueva la confianza y la seguridad en el desarrollo y uso de la IA en la UE. El Acta busca lograr un equilibrio entre la promoción de la innovación y el desarrollo de la inteligencia artificial (IA) y la protección de los derechos fundamentales, la seguridad y la transparencia. Esta legislación aborda diversos aspectos de la IA y propone regulaciones específicas para distintos tipos de sistemas de alto riesgo.

Entre los sistemas de IA considerados de alto riesgo se encuentran aquellos utilizados en la vigilancia masiva, en infraestructuras críticas, aquellos que afectan la seguridad y la salud, así como los empleados en la educación y el empleo, entre otros ámbitos. El objetivo es establecer requisitos y medidas específicas para estos sistemas, garantizando su seguridad, precisión y responsabilidad.

El Acta también pone énfasis en la transparencia, exigiendo que los proveedores de sistemas de IA brinden información clara sobre cómo funcionan y los datos utilizados. Además, se propone la implementación de evaluaciones de riesgos para los sistemas de IA de alto riesgo, así como la creación de una estructura de gobernanza y supervisión a nivel de la UE, en colaboración con las autoridades nacionales.

Algunos de los puntos clave del Acta incluyen:

  1. Requisitos de transparencia: Los proveedores de sistemas de IA deben proporcionar información clara sobre cómo funcionan sus sistemas y los datos utilizados, para que los usuarios puedan comprender y evaluar su funcionamiento.
  2. Evaluación de riesgos: Los sistemas de IA de alto riesgo deben pasar por una evaluación de riesgos y cumplir con requisitos específicos antes de poder ser utilizados. Esto incluye la implementación de medidas técnicas y organizativas para garantizar su seguridad y precisión.
  3. Supervisión y gobernanza: Se propone la creación de un sistema de gobernanza y supervisión para la IA a nivel de la UE, con la participación de las autoridades nacionales competentes. También se establecerá una red de coordinación para facilitar la cooperación entre los Estados miembros.
  4. Sanciones: El acto establece posibles sanciones por incumplimiento de las regulaciones, incluyendo multas significativas.

la Ley de IA de la UE obligaría a las empresas que ofrecen sistemas de IA, incluido ChatGPT, a dar explicaciones claras sobre el funcionamiento de la tecnología, revelar cualquier sesgo o limitación y garantizar la privacidad y la protección de datos de los usuarios. Subraya la importancia de la transparencia en los sistemas de IA para generar confianza y permitir a los usuarios entender cómo se toman las decisiones.

Además, el Acta propone un marco de supervisión para garantizar el cumplimiento de la normativa, que podría implicar auditorías de terceros y la creación de un Consejo Europeo de Inteligencia Artificial.

En conjunto, la Ley de Inteligencia Artificial de la UE pretende equilibrar el fomento de la innovación en este campo con la protección de los derechos fundamentales y el tratamiento de los riesgos potenciales asociados a las tecnologías de IA. Su objetivo es establecer normativas que mejoren la transparencia, la responsabilidad y la privacidad, y el ChatGPT y otros sistemas de IA entran en su ámbito de aplicación.


ChatGPT: La inteligencia artificial y la generación de textos académicos: avances y desafíos

ChatGPT: La inteligencia artificial y la generación de textos académicos: avances y desafíos. Por Julio Alonso Arévalo

Consorcio de Bibliotecas Universitarias de El Salvador el 30 de mayo de 2023

VER VIDEO

La inteligencia artificial (IA) ha experimentado avances significativos en la generación de texto académico en los últimos años. Estos avances se deben principalmente al desarrollo de modelos de lenguaje basados en redes neuronales, como el modelo GPT (Transformador Generativo Pre-entrenado), que ha demostrado ser capaz de generar texto coherente y de calidad en una variedad de dominios. Una de las principales ventajas de utilizar IA para generar texto académico es su capacidad para procesar grandes cantidades de información y producir resultados rápidamente. Sin embargo, también existen desafíos asociados con la generación de texto académico mediante IA. Uno de los desafíos más importantes es garantizar la precisión y la fiabilidad de la información generada. Aunque los modelos de IA pueden generar texto coherente, no siempre pueden verificar la veracidad de los hechos o la calidad de las fuentes utilizadas. Esto puede ser problemático en el contexto académico, donde la precisión y la evidencia son fundamentales.

Otro desafío es la necesidad de evitar el plagio y respetar los derechos de autor. Al generar texto académico automáticamente, existe el riesgo de que se reproduzcan ideas o información sin la debida atribución. Es importante implementar salvaguardas para garantizar que el contenido generado sea original y cumpla con los estándares éticos y legales de la investigación académica.

Directrices éticas sobre el uso de la inteligencia artificial (IA) y datos en la enseñanza y el aprendizaje para educadores

 Directrices éticas sobre el uso de la inteligencia artificial (IA) y datos en la enseñanza y el aprendizaje para educadores. Publications Office of the European Union, 2022, 

Texto completo

Dado que los sistemas de inteligencia artificial (IA) y el uso de datos están presentes en todos los aspectos de la actividad humana, parece esencial desarrollar una comprensión básica de la IA y del uso de datos entre el alumnado y los educadores para que puedan explotar todo su potencial de forma ética.

Por consiguiente, un grupo de expertos de la Comisión Europea ha publicado esta guía de directrices éticas que se enmarcan dentro del Plan de Acción de Educación Digital (2021-2027) para ayudar a los educadores a abordar los conceptos erróneos sobre la IA y promover su uso ético.

Estas directrices contienen:

  • la aclaración de conceptos erróneos generalizados sobre la IA
  • ejemplos de uso de datos e IA para facilitar el proceso de enseñanza-aprendizaje de los estudiantes, apoyar a los docentes y dar soporte al sistema
  • consideraciones y requisitos éticos sobre la IA en la educación
  • orientaciones para educadores y directivos escolares
  • un glosario de términos de IA y datos

Actualmente, los sistemas de IA en la educación están ayudando a algunos educadores a identificar necesidades específicas de aprendizaje, brindando al alumnado experiencias de aprendizaje personalizadas e inclusivas y facilitando a los centros educativos el uso efectivo de los datos educativos y recursos de enseñanza disponibles. De tal modo, se deben garantizar que todos los datos procesados se almacenen de forma confidencial y segura y se haga un uso ético de los mismos de conformidad con el Reglamento general de protección de datos (GDPR).

Concluyendo, estas directrices son un punto de partida para que los educadores, el alumnado y los centros tengan conciencia sobre el uso ético de la inteligencia artificial y los datos en la educación. De este modo, se pretende generar una base sólida para ampliar el uso de estas tecnologías de manera segura en la educación.

Infracción y observancia de la propiedad intelectual

Intellectual property infringement and enforcement – Tech Watch Discussion Paper 2023, European Union Intellectual Property Office, 2023, 

Texto completo

La EUIPO, a través del Observatorio Europeo de las Vulneraciones de los Derechos de Propiedad Intelectual, desarrolla herramientas y promueve las mejores prácticas para mejorar la protección de la propiedad intelectual (PI), que es un activo fundamental para empresas y particulares. Las tecnologías emergentes y disruptivas han adquirido, especialmente en los últimos 30 años y con una velocidad acelerada en la última década, una importancia cada vez mayor en la protección de la PI, como herramientas utilizadas tanto para infringir como para hacer cumplir la PI. Para fortalecer el trabajo del Observatorio sobre tecnologías emergentes y disruptivas, en 2019 se creó un Grupo de Expertos en Impacto de la Tecnología para: apoyar el trabajo del Observatorio que implica cuestiones tecnológicas; identificar nuevas tecnologías con potencial para impactar en la protección de la PI, la infracción y la aplicación; definir posibles casos de uso y llevar a cabo estudios o lanzar iniciativas para comprender mejor estos impactos; aumentar el conocimiento de las partes interesadas sobre los desarrollos tecnológicos con potencial para impactar en la protección de la PI, la infracción y la aplicación.

La propiedad de los contenidos generados por IA

Sheth, Sarang. «Who Owns AI-Generated Content? Understanding Ownership, Copyrighting, and How the Law Interprets AI-Generated Art – Yanko Design», 28 de mayo de 2023. https://www.yankodesign.com/2023/05/27/who-owns-ai-generated-content-understanding-ownership-copyrighting-and-how-the-law-interprets-ai-generated-art/.

El origen y la capacidad de los contenidos generados por IA han sido temas de larga data. El aprendizaje automático ha estado presente durante más de una década, permitiendo que las computadoras adquieran inteligencia al recopilar datos, analizarlos, «pensar» y «crear». Desde la histórica victoria de Deep Blue sobre Garry Kasparov en 1996 en una partida de ajedrez, seguida por el triunfo del superordenador Watson de IBM en el programa Jeopardy en 2011, hasta la victoria de AlphaGo sobre el campeón europeo de Go Fan Hui en 2015 por 5 a 0, hemos presenciado hitos impresionantes. Sin embargo, atribuir exclusivamente la victoria a las computadoras o a los ingenieros que las crearon plantea cuestiones difíciles de dilucidar:

¿Es correcto afirmar que las computadoras han derrotado a sus contrapartes humanas? ¿O deberíamos considerar que los ingenieros que diseñaron y desarrollaron estas máquinas son los verdaderos vencedores? Además, si un automóvil Tesla autónomo llegara a causar un accidente mortal a un peatón, ¿a quién se le atribuiría la culpa? ¿A la inteligencia artificial en sí? ¿Al humano que estaba al volante? ¿O al equipo de ingenieros de Tesla que creó el algoritmo de conducción autónoma? Estas preguntas aún no tienen respuestas definitivas.

La propiedad de los contenidos generados por IA es un ámbito jurídico complejo y en evolución. En muchos casos, los términos y condiciones establecidos por las empresas, como Tesla, aclaran que la responsabilidad recae en el conductor y no en la inteligencia artificial del vehículo. Sin embargo, la asignación precisa de responsabilidad en casos como este es un desafío complejo y requiere una cuidadosa consideración legal y ética.

La propiedad de los contenidos generados por IA depende normalmente de la participación y contribución de los creadores humanos. En muchas jurisdicciones, la legislación sobre derechos de autor concede la propiedad a los creadores humanos de obras originales. Sin embargo, dado que los contenidos generados por IA son producidos por algoritmos sin participación humana directa, la cuestión de la propiedad se vuelve más compleja.

En algunos casos, el propietario de la IA puede ser considerado propietario del contenido que genera. Podría tratarse de la persona u organización que creó o entrenó el algoritmo de IA. Sin embargo, este enfoque no es aceptado universalmente, y algunos sostienen que el resultado de una IA no debería estar sujeto a la protección de los derechos de autor porque carece de la creatividad o autoría humanas necesarias.

Como alternativa, la propiedad puede atribuirse a la persona o entidad que proporcionó los datos utilizados para entrenar la IA. Por ejemplo, si una IA se entrena con un conjunto de datos de fotografías, la titularidad de los derechos de autor de esas fotografías puede influir en la titularidad del contenido generado por la IA.

Cabe señalar que algunas jurisdicciones han empezado a explorar marcos jurídicos que abordan específicamente los contenidos generados por IA. Por ejemplo, la Directiva sobre derechos de autor de la Unión Europea, adoptada en 2019, incluye disposiciones que establecen que la protección de los derechos de autor no debe aplicarse a las obras generadas por IA sin participación humana. Sin embargo, los estados miembros son responsables de implementar esta directiva en sus leyes nacionales, por lo que puede haber variaciones en cómo se interpreta y aplica esto.

En lo que respecta a los derechos de autor de las obras de arte generadas por IA, la capacidad de garantizar la protección de los derechos de autor puede depender de la participación de creadores humanos en el proceso creativo. Si un artista humano contribuye a la concepción o el diseño de la obra de arte generada por la IA, puede reclamar derechos de autor sobre ella. Sin embargo, si la IA genera de forma autónoma la obra de arte sin intervención humana, puede ser más difícil hacer valer la propiedad de los derechos de autor.

La interpretación de la legislación sobre derechos de autor y los contenidos generados por IA sigue evolucionando, y las distintas jurisdicciones pueden adoptar enfoques diferentes. Es esencial consultar con profesionales del derecho versados en la propiedad intelectual y la ley de IA para comprender las implicaciones y normativas específicas de cada jurisdicción.

Acusan a Amazon de violar la ley de privacidad infantil al conservar para siempre las grabaciones de voz de los niños con «Alexa» y socavar las peticiones de borrado de los padres

«FTC and DOJ Charge Amazon with Violating Children’s Privacy Law by Keeping Kids’ Alexa Voice Recordings Forever and Undermining Parents’ Deletion Requests | Federal Trade Commission». Accedido 1 de junio de 2023.

Ver noticia

La Comisión Federal de Comercio y el Departamento de Justicia exigirán a Amazon que revise sus prácticas de supresión de datos y aplique estrictas salvaguardias de privacidad para resolver las acusaciones de que la empresa infringió la norma COPPA (Children’s Online Privacy Protection Act Rule) y engañó a los padres y usuarios del servicio de asistente de voz Alexa sobre sus prácticas de supresión de datos.

Según una denuncia presentada por el Departamento de Justicia en nombre de la FTC, Amazon impidió que los padres ejercieran sus derechos de eliminación en virtud de la Regla COPPA, conservó datos sensibles de voz y geolocalización durante años y los utilizó para sus propios fines, mientras ponía los datos en riesgo de daño por acceso innecesario.

«El historial de Amazon de engañar a los padres, conservar indefinidamente las grabaciones de los niños y hacer caso omiso de las solicitudes de supresión de los padres violó la COPPA y sacrificó la privacidad en aras de los beneficios», dijo Samuel Levine, Director de la Oficina de Protección del Consumidor de la FTC. «La COPPA no permite a las empresas conservar los datos de los niños para siempre por ningún motivo, y menos para entrenar sus algoritmos».

En virtud de la propuesta de orden judicial federal presentada también por el DOJ, se exigirá a Amazon que elimine las cuentas inactivas de menores y determinadas grabaciones de voz e información de geolocalización, y se le prohibirá utilizar esos datos para entrenar sus algoritmos. La orden propuesta debe ser aprobada por el tribunal federal para entrar en vigor.

Según la demanda, Amazon aseguró de forma destacada y reiterada a sus usuarios, incluidos los padres, que podían eliminar las grabaciones de voz recogidas por su asistente de voz Alexa y la información de geolocalización recopilada por la aplicación Alexa. Sin embargo, la empresa incumplió estas promesas cuando conservó parte de esta información durante años y utilizó los datos que retuvo ilegalmente para ayudar a mejorar su algoritmo Alexa, según la denuncia.