Archivo de la categoría: Legislación

Declaración sobre la libertad intelectual de los niños y jóvenes

 Statement on Libraries and the Intellectual Freedom of Children & Youth. CFLA, 2024

Texto completo

El 6 de octubre de 2024, la Federación Canadiense de Asociaciones de Bibliotecas (CFLA) publicó una declaración sobre la libertad intelectual de los niños y jóvenes. Este documento resalta que las bibliotecas ofrecen una amplia gama de servicios para satisfacer las necesidades educativas y recreativas de sus usuarios, sin hacer suposiciones sobre ellos ni imponer limitaciones arbitrarias al acceso. Por lo tanto, los menores no deberían ser restringidos en su acceso a los servicios de la biblioteca basándose únicamente en su edad.

La declaración enfatiza que los niños y jóvenes gozan de muchos de los mismos derechos y libertades intelectuales que los adultos. La libertad intelectual es fundamental para que puedan explorar ideas, descubrir intereses, aprender habilidades, inspirar innovación y crecer en autoconocimiento y empatía. Asimismo, se subraya el derecho a la privacidad y la confidencialidad en la selección de servicios por parte de los menores, que las bibliotecas respetan y defienden.

La diversidad de la sociedad canadiense se refleja en la variedad de servicios que ofrecen las bibliotecas, representando múltiples perspectivas y temas. Aunque los padres tienen el derecho de guiar a sus hijos en su exploración bibliotecaria, no pueden imponer restricciones de acceso a otros niños. Las bibliotecas fomentan la participación de los padres en el uso de los servicios, pero su personal no actúa en capacidad parental y no restringirá el acceso de los menores a menos que lo exija la ley.

Finalmente, el documento se complementa con un apéndice que incluye referencias a documentos relevantes, como la Carta Canadiense de Derechos y Libertades y la Convención de las Naciones Unidas sobre los Derechos del Niño, reafirmando la importancia de los derechos de los niños en el acceso a la información y las ideas.

Problemas legales y de propiedad en torno a los productos generados por la inteligencia artificial (IA)

«Who Owns AI’s Output? – Communications of the ACM», 4 de octubre de 2024, https://cacm.acm.org/news/who-owns-ais-output/.

El artículo “Who Owns AI’s Output?” de Logan Kugler, explora los problemas legales y de propiedad en torno a los productos generados por la inteligencia artificial (IA). En un contexto en el que la IA generativa ha avanzado rápidamente en los últimos años, surgen preguntas sobre quién posee los derechos de autor o patentes de las creaciones de IA, como textos, imágenes, videos, audio y código.

Los diferentes países abordan de manera distinta la cuestión de la propiedad de las obras generadas por IA. En los Estados Unidos, la ley es estricta y no permite otorgar derechos de autor o patentes a obras creadas únicamente por IA. Se requiere la intervención significativa de un ser humano para que se otorgue protección a través de estos mecanismos legales. Sin embargo, otros países como el Reino Unido y Sudáfrica tienen leyes más flexibles que permiten, en algunos casos, la protección de obras generadas por IA.

Otro problema destacado en el artículo es el uso de datos protegidos por derechos de autor para entrenar a los modelos de IA. La mayoría de los sistemas de IA se entrenan utilizando grandes volúmenes de datos, a menudo sin el consentimiento del creador original. Esto ha generado múltiples demandas, como la presentada por el New York Times contra OpenAI, acusando a la compañía de usar su contenido sin permiso para entrenar ChatGPT.

En respuesta a estos desafíos, algunos países, como la Unión Europea, han implementado regulaciones más estrictas para controlar cómo se utilizan los datos protegidos en el entrenamiento de IA. Por otro lado, Japón ha adoptado un enfoque más permisivo, permitiendo el uso de materiales protegidos para el entrenamiento de IA bajo excepciones amplias a la ley de derechos de autor.

El artículo concluye que las regulaciones sobre IA están evolucionando rápidamente, pero presentan grandes retos para los legisladores debido a la velocidad con la que avanza la tecnología. A medida que los países tratan de equilibrar la protección de los derechos de autor y fomentar la innovación tecnológica, es probable que se vean más cambios en las leyes y normativas sobre la propiedad de los productos generados por IA.

Más de 120 proyectos de ley sobre IA están siendo discutidos en el Congreso de EE.UU.

«There Are More than 120 AI Bills in Congress Right Now», MIT Technology Review, accedido 19 de septiembre de 2024, https://www.technologyreview.com/2024/09/18/1104015/here-are-all-the-ai-bills-in-congress-right-now/.

En 2024, más de 120 proyectos de ley relacionados con la inteligencia artificial (IA) están siendo discutidos en el Congreso de EE.UU. Estos proyectos son muy variados, abarcando desde mejorar la educación sobre IA en escuelas públicas hasta exigir que los desarrolladores revelen el uso de material con derechos de autor en el entrenamiento de modelos de IA. Algunos tratan de mitigar los riesgos biológicos de la IA o regular el uso de deepfakes en campañas políticas y pornografía no consensual. Incluso hay un proyecto que prohíbe que la IA lance armas nucleares sin intervención humana.

La gran cantidad de propuestas refleja la urgencia con la que el Congreso está intentando regular una tecnología que avanza rápidamente. Sin embargo, debido al proceso legislativo, la mayoría de estos proyectos no se convertirán en ley. Muchos ni siquiera serán votados, ya que algunos líderes políticos no los impulsan si consideran que no tienen suficientes apoyos. En un entorno político polarizado, lograr que los proyectos reciban apoyo bipartidista es una tarea monumental.

Algunos avances legislativos han sido hechos, como la creación del Instituto de Seguridad en IA de EE.UU. (AISI), que se encargará de establecer guías voluntarias para el desarrollo seguro de IA. Otros proyectos buscan expandir la educación en IA y aumentar los recursos públicos para la investigación en esta área. Sin embargo, muchos de los proyectos evitan imponer regulaciones estrictas, lo cual responde al temor de frenar la innovación tecnológica.

Un aspecto notable es el papel que juegan las grandes empresas tecnológicas en este debate. Aunque algunas han solicitado más regulación, sus grupos de presión (lobbies) intentan suavizar o eliminar las restricciones. Esto preocupa a expertos que creen que las compañías pueden aprovechar los compromisos voluntarios para definir sus propios estándares sin cumplir con regulaciones significativas.

La falta de atención a temas de equidad y minorías en estos proyectos es también destacable. Aunque algunos intentos de abordar los sesgos en los modelos de IA han sido discutidos, han encontrado resistencia, especialmente entre los legisladores republicanos. A pesar de ello, algunos proyectos bipartidistas, como los que regulan los deepfakes, están avanzando debido a la preocupación compartida sobre su impacto en elecciones y la privacidad de las personas.

Los proyectos de ley actuales reflejan un enfoque mixto: promover el desarrollo tecnológico sin imponer barreras regulatorias estrictas. Sin embargo, lograr una regulación efectiva que también aborde temas de equidad y responsabilidad sigue siendo un desafío en evolución.

Guía de la propiedad intelectual en el ámbito universitario

Román Pérez, Raquel de. Guía de la propiedad intelectual en el ámbito universitario. Comares, 2017.

Texto completo

En el ámbito universitario el profesorado y los estudiantes crean obras, fonogramas, audiovisuales, bases de datos y otras prestaciones por las que les corresponden derechos de propiedad intelectual. En el proceso de obtención de estas obras y prestaciones o en sus actividades académicas utilizan creaciones y trabajos ajenos. En relación con ello muchas veces desconocen hasta qué punto quedan protegidos como titulares de derechos de propiedad intelectual. También resulta difícil para ellos averiguar en qué casos el uso de materiales ajenos es libre o hace falta solicitar el consentimiento de sus titulares.

Esta guía pretende facilitar la comprensión de tales cuestiones al profesorado y al alumnado universitarios, aunque también puede resultar útil en educación secundaria o bachillerato.

En la primera parte explica en qué consiste el derecho de propiedad intelectual, la diferente naturaleza y duración de las facultades que lo integran o las distintas categorías de objetos protegidos. También analiza los procesos de creación en que participan varias personas y a quién corresponde el ejercicio de los derechos en cada caso.

    En el resto de capítulos trata de la utilización de las obras y prestaciones ajenas: Examina las obras y prestaciones que están en el dominio, y describe los usos que no requieren de autorización por encajar en límites como el de cita o ilustración de la enseñanza. En esta parte se tienen en cuenta los hábitos del profesorado y del alumnado universitarios y se clasifican los distintos modos de proceder aclarando cuándo se trata de usos que se pueden realizar con seguridad porque se ajustan a la Ley, cuándo resulta dudosa su legalidad por no estar previstos o por otras circunstancias, y cuándo los usos están claramente prohibidos.
    La guía se completa con una reseña bibliográfica, direcciones de internet y con un extracto de los preceptos del Texto Refundido de la Ley de propiedad intelectual.

    Código de buenas prácticas en derechos de autor para bibliotecas

    «Navigating Copyright for Crown-Published Works: A Code of Best Practices for Libraries» The Canadian Association of Research Libraries (CARL), 2024

    Texto completo

    CARL ha publicado el documento «Navigating Copyright for Crown-Published Works: A Code of Best Practices for Libraries» que está disponible en los sitios web de CARL y CFLA, junto con un resumen breve.

    Este código de derechos de autor fue desarrollado para bibliotecas por un equipo de redacción comunitario, en colaboración con empleados del gobierno federal y revisores legales y académicos. Proporciona una exploración legal y práctica del uso justo en el contexto de las actividades de conservación de bibliotecas para publicaciones gubernamentales en Canadá.

    Aunque el código no es un consejo legal, ofrece un modelo legalmente defendible para la aplicación de la excepción de uso justo al copiar, preservar y compartir publicaciones gubernamentales. Detalla las secciones relevantes de la Ley de Derechos de Autor de Canadá y jurisprudencia, y proporciona estudios de caso que describen proyectos relacionados realizados por bibliotecas académicas.

    Spawning AI: cómo evitar que nuestros contenidos sirvan para el entrenamiento de plataformas de Inteligencia Artificial

    Spawning AI: https://spawning.ai/

    Blog: https://spawning.ai/

    Spawning AI trabaja para equilibrar los intereses de los creadores de contenido y los desarrolladores de IA, promoviendo un uso ético y consentido de los datos en la era de la inteligencia artificial. Spawning ofrece un conjunto de herramientas que facilita la declaración de las preferencias de datos y su respeto

    Spawning AI es una organización que se dedica a la gobernanza de datos para la inteligencia artificial generativa. Han creado una herramienta llamada “Do Not Train Tool Suite” («No entrenar»), que permite a los titulares de derechos añadir sus medios de comunicación al “Do Not Train Registry” y así evitar que sus obras sean utilizadas para entrenar modelos de IA sin su consentimiento. Este registro es respetado por socios como Stability AI y Hugging Face.

    El término “Spawning” lo acuñaron para describir el acto de crear medios completamente nuevos con un sistema de IA entrenado en medios más antiguos. Es una forma de distinguir este proceso de técnicas más antiguas como el muestreo o el collage. Spawning AI también proporciona herramientas para desarrolladores, facilitando el filtrado de solicitudes de no entrenamiento y ayudando a cumplir con las excepciones de derechos de autor de TDM de la UE1.

    Spawning ofrece un conjunto de herramientas que facilita la declaración de las preferencias de datos y su respeto. Este conjunto de herramientas incluye:

    • Una API para que los titulares de derechos puedan registrar sus datos en el «Do Not Train Registry».
    • Una extensión del navegador para que los usuarios puedan marcar fácilmente el contenido que no desean que se utilice para entrenar modelos de IA.
    • Una herramienta de línea de comandos para que los desarrolladores de IA puedan integrar el «Do Not Train Registry» en sus flujos de trabajo.

    Spawning AI está trabajando para garantizar que la inteligencia artificial generativa se desarrolle y utilice de manera responsable y ética. La empresa cree que es importante que los titulares de derechos tengan el control sobre sus datos y que los desarrolladores de IA sean conscientes de las posibles consecuencias de sus modelos.

    ¿Qué dice la ley sobre a quién pertenecen los derechos de autor de los contenidos generados por IA?

    Farnush Ghadery. «ChatGPT: What the Law Says About Who Owns the Copyright of AI-Generated Content.» The Conversation, April 21, 2023. https://theconversation.com/chatgpt-what-the-law-says-about-who-owns-the-copyright-of-ai-generated-content-200597.


    El chatbot de IA ChatGPT produce contenido que puede parecer creado por un humano. Existen muchos usos propuestos para esta tecnología, pero sus impresionantes capacidades plantean importantes preguntas sobre la propiedad del contenido.

    La legislación del Reino Unido tiene una definición para las obras generadas por computadora. Según la Ley de Derechos de Autor, Diseños y Patentes de 1988, estas son “generadas por computadora en circunstancias tales que no hay un autor humano de la obra”. La ley sugiere que el contenido generado por una inteligencia artificial (IA) puede estar protegido por derechos de autor. Sin embargo, las fuentes originales de las respuestas generadas por chatbots de IA pueden ser difíciles de rastrear e incluir obras con derechos de autor.

    La primera pregunta es si ChatGPT debería poder usar contenido original generado por terceros para generar sus respuestas. La segunda es si solo los humanos pueden ser acreditados como autores del contenido generado por IA, o si la IA misma puede ser considerada un autor, especialmente cuando ese output es creativo.

    Tratemos primero la pregunta uno. La tecnología que sustenta a ChatGPT se conoce como un Modelo de Lenguaje Extenso (LLM, por sus siglas en inglés). Para mejorar en lo que hace, se expone a grandes conjuntos de datos, que incluyen un gran número de sitios web y libros.

    Actualmente, el Reino Unido permite a los desarrolladores de IA llevar a cabo minería de texto y datos (TDM) solo para fines no comerciales. Los términos de uso de OpenAI asignan a los usuarios «todos sus derechos, títulos e intereses en el output».

    Pero la empresa dice que es responsabilidad de los usuarios asegurarse de que la forma en que utilizan ese contenido no viole ninguna ley. Los términos y condiciones también están sujetos a cambios, por lo que no tienen la estabilidad y la fuerza de un derecho legal como el copyright.

    La única solución será clarificar las leyes y políticas. De lo contrario, cada organización tendrá que emprender acciones legales individualmente, tratando de demostrar que son dueños de las obras utilizadas por una IA. Además, si los gobiernos no toman medidas, nos acercamos a una situación en la que todos los materiales con derechos de autor serán utilizados por otros sin el consentimiento del autor original.

    Cuestión de propiedad Pasemos a la pregunta dos: quién puede reclamar derechos de autor sobre el contenido generado por IA. En ausencia de una reclamación por parte del propietario del contenido original utilizado para generar una respuesta, es posible que los derechos de autor del output de un chatbot puedan pertenecer a los usuarios individuales o a las empresas que desarrollaron la IA.

    La ley de derechos de autor se basa en un principio general de que solo el contenido creado por seres humanos puede estar protegido. Los algoritmos que sustentan a ChatGPT fueron desarrollados en OpenAI, por lo que la empresa parecería tener la protección de derechos de autor sobre esos algoritmos. Pero esto podría no extenderse a las respuestas del chatbot.

    Otra opción respecto a la propiedad del contenido generado por IA es la propia IA. La ley del Reino Unido actualmente prohíbe que una IA posea derechos de autor (o incluso reconozca que una IA lo creó), ya que no es un humano y, por lo tanto, no puede ser tratada como autor o propietario según la Ley de Derechos de Autor, Diseños y Patentes. También es poco probable que esta posición cambie pronto, dada la respuesta del gobierno del Reino Unido a la consulta sobre IA.

    Cuando una obra literaria, dramática, musical o artística es realizada por un empleado en el curso de su empleo, su empleador es el primer propietario de cualquier derecho de autor sobre la obra, salvo acuerdo en contrario.

    Por ahora, los legisladores se adhieren a la creatividad humana como el prisma a través del cual se concede el copyright. Sin embargo, a medida que la IA se desarrolla y puede hacer más, los legisladores podrían considerar otorgar capacidad legal a las IA mismas. Esto representaría un cambio fundamental en cómo opera la ley de derechos de autor y una reimaginación de quién (o qué) puede ser clasificado como autor y propietario de derechos de autor.

    Un cambio así tendría implicaciones para las empresas a medida que integran la IA en sus productos y servicios. Microsoft anunció recientemente que integrará su producto Copilot, basado en ChatGPT, en el software de la compañía, como Word, PowerPoint y Excel. Copilot puede ayudar a los usuarios con la comunicación escrita y resumir grandes volúmenes de datos.

    Seguramente seguirán más desarrollos como este, y las empresas que adopten la IA temprano tienen la oportunidad de capitalizar la situación actual, utilizando la IA para aumentar la eficiencia de sus operaciones. Las empresas a menudo obtienen una ventaja cuando son las primeras en introducir un producto o servicio en el mercado, una situación llamada «ventaja del pionero».

    Futuros cambios El gobierno del Reino Unido llevó a cabo recientemente una consulta sobre IA y derechos de autor. Surgieron dos puntos de vista conflictivos. El sector tecnológico cree que los derechos de autor del contenido generado por IA deberían pertenecer a los usuarios, mientras que el sector creativo quiere que este contenido sea excluido de la propiedad por completo. El gobierno del Reino Unido no ha actuado sobre los resultados y en su lugar ha recomendado una consulta adicional entre las partes interesadas.

    Si la ley de derechos de autor se aleja de su enfoque humano en el futuro, se podría imaginar un escenario en el que una IA sea clasificada como autor y los desarrolladores de esa IA como los propietarios del output. Esto podría crear una situación en la que un puñado de empresas poderosas de IA ejerzan una influencia colosal.

    Podrían terminar poseyendo cientos de miles de materiales con derechos de autor: canciones, materiales publicados, visuales y otros activos digitales. Esto podría llevar a una situación distópica en la que la mayoría de las obras recién creadas sean generadas por IA y propiedad de empresas.

    Parece lógico que tal conocimiento debería permanecer en el dominio público. Tal vez la solución sea que cada persona o empresa declare su contribución cuando usan IA, o que su contribución sea calculada automáticamente por software. En consecuencia, recibirían crédito o beneficio financiero basado en la cantidad de trabajo que contribuyeron.

    El contenido de IA que se basa en materiales con derechos de autor sigue siendo problemático. La incapacidad de depender de materiales con derechos de autor podría socavar la capacidad del sistema de IA para responder a las solicitudes de los usuarios finales. Pero si el contenido se basa en obras protegidas, tendríamos que aceptar una nueva era de innovación abierta donde los derechos de propiedad intelectual no importan.

    La ley de Inteligencia Artificial de la Unión Europea garantiza el respeto de los derechos fundamentales de los ciudadanos y estimula la inversión y la innovación

    Regulation laying down harmonised rules on artificial intelligence (artificial intelligence act), 21 May 2024 European Union, may 2024

    Ver la ley

    Hoy, el Consejo aprobó una ley pionera que busca armonizar las normas sobre inteligencia artificial (IA), conocida como la Ley de Inteligencia Artificial. Esta legislación emblemática sigue un enfoque «basado en el riesgo», lo que significa que cuanto mayor sea el riesgo de causar daño a la sociedad, más estrictas serán las reglas. Es la primera de su tipo en el mundo y puede establecer un estándar global para la regulación de la IA.

    La nueva ley tiene como objetivo fomentar el desarrollo y la adopción de sistemas de IA seguros y confiables en el mercado único de la UE, tanto por actores privados como públicos. Al mismo tiempo, busca garantizar el respeto de los derechos fundamentales de los ciudadanos de la UE y estimular la inversión y la innovación en inteligencia artificial en Europa. La Ley de IA se aplica solo a áreas dentro del derecho de la UE y prevé exenciones para sistemas utilizados exclusivamente con fines militares y de defensa, así como para fines de investigación.

    La adopción de la Ley de IA es un hito significativo para la Unión Europea. Esta ley histórica, la primera de su tipo en el mundo, aborda un desafío tecnológico global que también crea oportunidades para nuestras sociedades y economías. Con la Ley de IA, Europa enfatiza la importancia de la confianza, la transparencia y la responsabilidad al tratar con nuevas tecnologías, al tiempo que asegura que esta tecnología en rápida evolución pueda florecer y estimular la innovación europea.

    Clasificación de sistemas de IA como de alto riesgo y prácticas prohibidas de IA

    La nueva ley clasifica diferentes tipos de inteligencia artificial según su riesgo. Los sistemas de IA que presenten un riesgo limitado estarán sujetos a obligaciones de transparencia muy ligeras, mientras que los sistemas de IA de alto riesgo serán autorizados, pero sujetos a una serie de requisitos y obligaciones para acceder al mercado de la UE. Los sistemas de IA como la manipulación cognitivo-conductual y la puntuación social serán prohibidos en la UE debido a que su riesgo se considera inaceptable. La ley también prohíbe el uso de IA para la vigilancia predictiva basada en perfiles y sistemas que utilizan datos biométricos para categorizar a las personas según categorías específicas como raza, religión u orientación sexual.

    Modelos de IA de propósito general

    La Ley de IA también aborda el uso de modelos de IA de propósito general (GPAI). Los modelos GPAI que no presenten riesgos sistémicos estarán sujetos a algunos requisitos limitados, por ejemplo, en cuanto a la transparencia, pero aquellos con riesgos sistémicos deberán cumplir con reglas más estrictas.

    Nueva arquitectura de gobernanza

    Para asegurar una adecuada aplicación, se establecen varios órganos de gobierno:

    • Una Oficina de IA dentro de la Comisión para hacer cumplir las reglas comunes en toda la UE.
    • Un panel científico de expertos independientes para apoyar las actividades de aplicación.
    • Un Consejo de IA con representantes de los estados miembros para asesorar y ayudar a la Comisión y a los estados miembros en la aplicación coherente y efectiva de la Ley de IA.
    • Un foro consultivo para las partes interesadas que proporcione experiencia técnica al Consejo de IA y a la Comisión.

    Sanciones

    Las multas por infracciones a la Ley de IA se establecen como un porcentaje del volumen de negocios anual global de la empresa infractora en el ejercicio financiero anterior o una cantidad predeterminada, lo que sea mayor. Las PYMEs y las start-ups estarán sujetas a multas administrativas proporcionales.

    Transparencia y protección de los derechos fundamentales

    Antes de que un sistema de IA de alto riesgo sea desplegado por algunas entidades que brindan servicios públicos, se deberá evaluar el impacto en los derechos fundamentales. La regulación también prevé una mayor transparencia respecto al desarrollo y uso de sistemas de IA de alto riesgo. Los sistemas de IA de alto riesgo, así como ciertos usuarios de un sistema de IA de alto riesgo que sean entidades públicas, deberán registrarse en la base de datos de la UE para sistemas de IA de alto riesgo, y los usuarios de un sistema de reconocimiento de emociones deberán informar a las personas naturales cuando estén siendo expuestas a dicho sistema.

    Medidas en apoyo de la innovación

    La Ley de IA prevé un marco legal favorable a la innovación y tiene como objetivo promover el aprendizaje regulatorio basado en evidencias. La nueva ley contempla que los entornos regulatorios de prueba para la IA, que permiten un entorno controlado para el desarrollo, prueba y validación de sistemas de IA innovadores, también permitan la prueba de sistemas de IA innovadores en condiciones del mundo real.

    Próximos pasos

    Después de ser firmada por los presidentes del Parlamento Europeo y del Consejo, la ley se publicará en el Diario Oficial de la UE en los próximos días y entrará en vigor veinte días después de esta publicación. La nueva regulación se aplicará dos años después de su entrada en vigor, con algunas excepciones para disposiciones específicas.

    Antecedentes

    La Ley de IA es un elemento clave de la política de la UE para fomentar el desarrollo y la adopción de IA segura y legal que respete los derechos fundamentales en todo el mercado único. La Comisión (Thierry Breton, comisario de mercado interior) presentó la propuesta de la Ley de IA en abril de 2021. Brando Benifei (S&D / IT) y Dragoş Tudorache (Renew Europe / RO) fueron los ponentes del Parlamento Europeo en este expediente y se alcanzó un acuerdo provisional entre los colegisladores el 8 de diciembre de 2023.

    Un grupo periódicos de EE.UU. demandan a OpenAI por infracción de derechos de autor en el entrenamiento de su IA

    Brittain, Blake. «US newspapers sue OpenAI for copyright infringement over AI training.» Reuters, May 1, 2024, 1:55 AM GMT+2, Accessed May 1, 2024. https://www.reuters.com/legal/us-newspapers-sue-openai-copyright-infringement-over-ai-training-2024-04-30/

    Un grupo de periódicos, incluyendo el New York Daily News y el Chicago Tribune, demandaron a Microsoft (MSFT.O) y OpenAI en un tribunal federal de Nueva York el martes, acusándolos de utilizar indebidamente el trabajo de los reporteros para entrenar sus sistemas de inteligencia artificial generativa.

    Los ocho periódicos, propiedad del fondo de inversión Alden Global Capital’s MediaNews Group, afirmaron en la demanda que las empresas copiaron ilegalmente millones de sus artículos para entrenar productos de inteligencia artificial, incluyendo el Copilot de Microsoft y el ChatGPT de OpenAI.

    La queja sigue a demandas similares en curso contra Microsoft y OpenAI, que ha recibido miles de millones de respaldo financiero de Microsoft, presentadas por el New York Times y los medios de comunicación The Intercept, Raw Story y AlterNet.

    Un portavoz de OpenAI dijo el martes que la empresa cuida mucho sus productos y el proceso de diseño para apoyar a las organizaciones de noticias. Un portavoz de Microsoft declinó hacer comentarios sobre la demanda.

    Los casos de los periódicos son parte de varias posibles demandas emblemáticas presentadas por propietarios de derechos de autor contra empresas tecnológicas por los datos utilizados para entrenar sus sistemas de inteligencia artificial generativa.

    Un abogado de las publicaciones de MediaNews, Steven Lieberman, dijo a Reuters que OpenAI debe su éxito arrollador al trabajo de otros. Los demandados saben que tienen que pagar por computadoras, chips y salarios de empleados, pero «creen de alguna manera que pueden salirse con la suya tomando contenido» sin permiso o pago, dijo.

    La demanda dijo que los sistemas de Microsoft y OpenAI reproducen el contenido con derechos de autor de los periódicos «verbatim» cuando se les solicita. Afirmó que ChatGPT también «alucina» artículos atribuidos a los periódicos que dañan sus reputaciones, incluyendo un artículo falso del Denver Post que promocionaba fumar como una cura para el asma y una recomendación falsa del Chicago Tribune para un reposa bebés que fue retirado del mercado después de ser vinculado con la muerte de niños.

    Las alucinaciones de ChatGPT provocan una queja de privacidad de la UE

    «ChatGPT’s Hallucinations Draw EU Privacy Complaint», POLITICO 29 de abril de 2024. https://www.politico.eu/article/chatgpts-hallucinations-get-eu-privacy-complaint/.

    El «alucinar» de ChatGPT y la invención de información vulneran las normas de privacidad de la Unión Europea, según una queja presentada por el grupo de privacidad noyb ante la autoridad de protección de datos de Austria. El grupo de privacidad noyb exige que los reguladores inicien una investigación sobre la conjetura salvaje de ChatGPT sobre la fecha de nacimiento de uno de sus activistas.

    Noyb, una organización sin fines de lucro con sede en Viena fundada por el activista Max Schrems, afirmó que su queja fue desencadenada por el fracaso de ChatGPT en proporcionar la fecha de nacimiento correcta de Schrems, haciendo una conjetura en su lugar. El chatbot no informa a los usuarios que no tiene los datos correctos para responder a una solicitud.

    La fecha de nacimiento de una persona es un dato personal según el GDPR, que establece varios requisitos sobre cómo se debe manejar la información personal.

    Noyb afirma que el comportamiento del chatbot viola el Reglamento General de Protección de Datos (GDPR) en cuanto a privacidad, exactitud de la información, así como el derecho a corregir información inexacta. También argumenta que la empresa de inteligencia artificial se negó a corregir o eliminar respuestas incorrectas, y no revelará ninguna información sobre los datos procesados, sus fuentes o destinatarios.

    «Está claro que las empresas actualmente no pueden hacer que los chatbots como ChatGPT cumplan con la ley de la UE, cuando procesan datos sobre individuos», dijo Maartje de Graaf, abogada de protección de datos de noyb.

    «Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología debe cumplir con los requisitos legales, no al revés», dijo.

    El New York Times informó anteriormente que «los chatbots inventan información al menos el 3 por ciento de las veces, y hasta el 27 por ciento».

    POLITICO también preguntó a ChatGPT sobre la fecha de nacimiento de Schrems y obtuvo tres respuestas diferentes: 24 de junio, 17 de septiembre y 17 de octubre. El cumpleaños de Schrems es en realidad el 1 de octubre, según noyb.

    Noyb ahora está pidiendo a la autoridad austriaca que investigue a OpenAI para verificar la exactitud de los datos personales que maneja para alimentar sus grandes modelos de lenguaje. También solicitan a la autoridad que garantice que la empresa cumpla con la solicitud del demandante de acceder a sus propios datos personales.

    El grupo de privacidad también pide una «multa administrativa efectiva, proporcionada y disuasiva». «Por ahora, OpenAI parece ni siquiera pretender que puede cumplir con el GDPR de la UE», dijo. Violaciones del GDPR de la UE pueden resultar en una multa de hasta el 4 por ciento de los ingresos globales de una empresa.

    Noyb dijo que cualquier investigación regulatoria probablemente se manejaría «a través de la cooperación de la UE». La base de OpenAI en la UE está en Irlanda y los reguladores de privacidad irlandeses pueden ser sus supervisores principales.

    La autoridad austriaca confirmó que recibió la queja y dijo que evaluará si necesita ser remitida a otra autoridad nacional. OpenAI no estuvo disponible de inmediato para hacer comentarios.

    El pionero de la IA está enfrentando presiones de otros reguladores europeos. La autoridad de protección de datos de Italia prohibió temporalmente a ChatGPT el año pasado operar en el país debido a la presunta violación de las normas de la UE para el manejo de datos personales.

    La Junta Europea de Protección de Datos (EDPB), que reúne a los reguladores nacionales de privacidad, luego estableció un grupo de trabajo sobre ChatGPT para coordinar los esfuerzos nacionales.