Archivo de la etiqueta: Legislación

Los generadores de imágenes de Inteligencia Artificial Midjourney y DeviantArt afirman que nunca han utilizado imágenes de artistas para entrenar sus modelos de IA


«AI Image Generators Say They Never Used Artists’ Images to Train AI Models». Accedido 10 de mayo de 2024. https://www.courthousenews.com/ai-image-generators-say-they-never-used-artists-images-to-train-ai-models/.

Empresas que ofrecen software de inteligencia artificial generativa de imágenes argumentaron para desestimar una demanda por infracción directa de derechos de autor de artistas que afirman que las empresas utilizaron su trabajo sin permiso para entrenar un modelo de IA de texto a imagen.

Según la demanda colectiva de los artistas, la empresa de software de IA Midjourney y la plataforma de arte en línea DeviantArt utilizaron sus obras para entrenar la herramienta de IA de texto a imagen Stable Diffusion sin pagar a los artistas ni obtener su consentimiento para utilizar sus obras como imágenes de entrenamiento, y las imágenes resultantes siguen compitiendo con las obras de los artistas humanos en el mercado.

Los artistas demandaron por primera vez a DeviantArt, Midjourney y Stability AI, creador de Stable Diffusion, el año pasado, pero el juez superior de distrito de EE.UU. William Orrick desestimó la mayoría de las demandas de los artistas en octubre de 2023, permitiendo que sólo sobreviviera una demanda directa de derechos de autor contra Stability AI.

El juez William Orrick permitió que una única demanda de infracción directa de derechos de autor sobreviviera contra Stability AI, pero desestimó la mayoría de las otras reclamaciones de los artistas.

Los abogados de DeviantArt argumentaron que la plataforma de arte debería ser excluida de la acción porque solo utilizó Stable Diffusion para producir imágenes para su herramienta DreamUp AI y nunca utilizó directamente las imágenes de los artistas para entrenar un modelo de IA o crear imágenes que se parecieran a las de los artistas.

Los abogados de Midjourney ofrecieron una defensa similar. El juez Orrick tomó el asunto bajo consideración.

Las alucinaciones de ChatGPT provocan una queja de privacidad de la UE

«ChatGPT’s Hallucinations Draw EU Privacy Complaint», POLITICO 29 de abril de 2024. https://www.politico.eu/article/chatgpts-hallucinations-get-eu-privacy-complaint/.

El «alucinar» de ChatGPT y la invención de información vulneran las normas de privacidad de la Unión Europea, según una queja presentada por el grupo de privacidad noyb ante la autoridad de protección de datos de Austria. El grupo de privacidad noyb exige que los reguladores inicien una investigación sobre la conjetura salvaje de ChatGPT sobre la fecha de nacimiento de uno de sus activistas.

Noyb, una organización sin fines de lucro con sede en Viena fundada por el activista Max Schrems, afirmó que su queja fue desencadenada por el fracaso de ChatGPT en proporcionar la fecha de nacimiento correcta de Schrems, haciendo una conjetura en su lugar. El chatbot no informa a los usuarios que no tiene los datos correctos para responder a una solicitud.

La fecha de nacimiento de una persona es un dato personal según el GDPR, que establece varios requisitos sobre cómo se debe manejar la información personal.

Noyb afirma que el comportamiento del chatbot viola el Reglamento General de Protección de Datos (GDPR) en cuanto a privacidad, exactitud de la información, así como el derecho a corregir información inexacta. También argumenta que la empresa de inteligencia artificial se negó a corregir o eliminar respuestas incorrectas, y no revelará ninguna información sobre los datos procesados, sus fuentes o destinatarios.

«Está claro que las empresas actualmente no pueden hacer que los chatbots como ChatGPT cumplan con la ley de la UE, cuando procesan datos sobre individuos», dijo Maartje de Graaf, abogada de protección de datos de noyb.

«Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología debe cumplir con los requisitos legales, no al revés», dijo.

El New York Times informó anteriormente que «los chatbots inventan información al menos el 3 por ciento de las veces, y hasta el 27 por ciento».

POLITICO también preguntó a ChatGPT sobre la fecha de nacimiento de Schrems y obtuvo tres respuestas diferentes: 24 de junio, 17 de septiembre y 17 de octubre. El cumpleaños de Schrems es en realidad el 1 de octubre, según noyb.

Noyb ahora está pidiendo a la autoridad austriaca que investigue a OpenAI para verificar la exactitud de los datos personales que maneja para alimentar sus grandes modelos de lenguaje. También solicitan a la autoridad que garantice que la empresa cumpla con la solicitud del demandante de acceder a sus propios datos personales.

El grupo de privacidad también pide una «multa administrativa efectiva, proporcionada y disuasiva». «Por ahora, OpenAI parece ni siquiera pretender que puede cumplir con el GDPR de la UE», dijo. Violaciones del GDPR de la UE pueden resultar en una multa de hasta el 4 por ciento de los ingresos globales de una empresa.

Noyb dijo que cualquier investigación regulatoria probablemente se manejaría «a través de la cooperación de la UE». La base de OpenAI en la UE está en Irlanda y los reguladores de privacidad irlandeses pueden ser sus supervisores principales.

La autoridad austriaca confirmó que recibió la queja y dijo que evaluará si necesita ser remitida a otra autoridad nacional. OpenAI no estuvo disponible de inmediato para hacer comentarios.

El pionero de la IA está enfrentando presiones de otros reguladores europeos. La autoridad de protección de datos de Italia prohibió temporalmente a ChatGPT el año pasado operar en el país debido a la presunta violación de las normas de la UE para el manejo de datos personales.

La Junta Europea de Protección de Datos (EDPB), que reúne a los reguladores nacionales de privacidad, luego estableció un grupo de trabajo sobre ChatGPT para coordinar los esfuerzos nacionales.

Regulación de la inteligencia artificial en bibliotecas: desarrollo de políticas y cumplimiento legal

Tanzi, Nick. «AI & the Library: Looking for Rules!» The Digital Librarian, 21 de agosto de 2023. https://the-digital-librarian.com/2023/08/21/ai-the-library-looking-for-rules/.

En la era de la inteligencia artificial, las bibliotecas deben establecer políticas que regulen su uso, considerando tanto las leyes existentes como los términos de servicio de los desarrolladores. Aunque la regulación específica sobre IA es incipiente, las normativas bibliotecarias sobre confidencialidad de registros de usuarios son relevantes. Es esencial garantizar la privacidad de los usuarios y cumplir con la ley al interactuar con sistemas de IA. Además, se destacan eventos y recursos para bibliotecarios interesados en esta área.


En la era de la inteligencia artificial, es crucial que las bibliotecas desarrollen políticas y procedimientos que regulen el uso de esta tecnología en nuestras instituciones. Dos pilares fundamentales al escribir estas políticas son las leyes federales/estatales/locales y los términos de servicio de los fabricantes o desarrolladores. Aunque la regulación legal específica sobre IA aún está en sus primeras etapas en Estados Unidos, existen leyes y regulaciones bibliotecarias que debemos considerar, como las relacionadas con la confidencialidad de los registros de los usuarios. Es esencial garantizar que nuestras interacciones con sistemas de IA no comprometan la privacidad de los usuarios ni contravengan la ley existente.

Al considerar los términos de servicio de una plataforma de IA, es crucial tener en cuenta las restricciones de edad y el consentimiento parental que pueden afectar a los servicios ofrecidos por la biblioteca. Aunque la regulación de la IA puede ser incipiente, hay reglas y regulaciones establecidas en el ámbito bibliotecario que podemos aplicar a esta tecnología emergente. Es importante desarrollar políticas y procedimientos adecuados y luego experimentar de manera segura con la IA en nuestras bibliotecas. Por ejemplo, en Nueva York, la Ley y Reglas de Práctica Civil del Estado de Nueva York (CPLR) 4509 establece que los registros de la biblioteca deben ser confidenciales y no deben divulgarse, excepto en circunstancias específicas.


Es importante tener en cuenta los términos de servicio (ToS) de una plataforma de inteligencia artificial al tomar decisiones en su biblioteca. Por ejemplo, la regulación de la plataforma ChatGPT de OpenAI en relación con la ley estatal existente indica que los usuarios deben tener al menos 13 años para utilizar el servicio, y que aquellos menores de 18 años necesitan el consentimiento de un padre o tutor legal.

Aunque estemos operando en un vacío regulatorio de IA, está claro que existen reglas y regulaciones establecidas en las bibliotecas que podemos aplicar a esta tecnología emergente. Así que salgan y hagan el importante y necesario trabajo de desarrollo de políticas y procedimientos, luego experimenten de manera segura.

Demanda colectiva de consumidores que acusa a Amazon de conducta anticompetitiva en el mercado de libros electrónicos

Albanese |, Andrew. «Court Orders Amazon E-Book Monopoly Lawsuit to Proceed». PublishersWeekly.com. Accedido 12 de abril de 2024. https://www.publishersweekly.com/pw/by-topic/industry-news/publisher-news/article/94503-court-orders-amazon-e-book-monopoly-lawsuit-to-proceed.html.


Un juez federal ha adoptado formalmente la recomendación de un juez magistrado para permitir que continúe una demanda colectiva de consumidores que acusa a Amazon de conducta anticompetitiva en el mercado de libros electrónicos. Sin embargo, al adoptar la recomendación del magistrado, el tribunal también desestimó oficialmente todas las demandas contra las cinco grandes editoriales que inicialmente fueron acusadas de ser cómplices de Amazon en un intento de fijar los precios de los libros electrónicos.

En una opinión escrita de 14 páginas, el juez del tribunal de distrito Gregory Woods calificó el informe y la recomendación de la jueza magistrada Valerie Figueredo del 31 de julio de 2023 como «pensativos y bien fundamentados», y los adoptó en su totalidad. El informe de Figueredo encontró evidencia suficiente para «plausiblemente» alegar que la conducta de Amazon, incluida la imposición de diversas cláusulas contractuales presuntamente restrictivas, ha llevado a una «reducción de la competencia» en el mercado de libros electrónicos y «precios más altos de libros electrónicos para los consumidores». Aunque el informe rechazó algunas de las demandas de los demandantes, recomendó que dos demandas contra Amazon, «monopolización» y «intento de monopolización», fueran permitidas para continuar.

La demanda contra Amazon se presentó por primera vez en el Distrito Sur de Nueva York el 14 de enero de 2021 por Hagens Berman, la firma que demandó a Apple y a cinco grandes editoriales por colusión para fijar los precios de los libros electrónicos en 2011. Inicialmente, la demanda alegaba que Hachette Book Group, HarperCollins, Macmillan, Penguin Random House y Simon & Schuster eran cómplices en un esquema con Amazon para suprimir la competencia de precios minoristas y mantener artificialmente altos los precios de los libros electrónicos, específicamente a través del uso de diversas formas de una cláusula de nación más favorecida (MFN).

En defensa de Amazon, la compañía sostiene que los términos de su contrato «no son inherentemente anticompetitivos» y que no hay evidencia de que la conducta de la compañía «haya tenido el efecto de elevar las comisiones de la agencia a niveles anticompetitivos». Sin embargo, en su informe de julio de 2023, Figueredo sostuvo que esos problemas no necesitaban resolverse en esta etapa temprana y encontró que los demandantes habían alegado hechos suficientes para perseguir sus demandas de monopolización e intento de monopolización.

La demanda contra Amazon se produce cuando la compañía también enfrenta una amplia demanda antimonopolio presentada por la Comisión Federal de Comercio, junto con varios estados, acusando al minorista electrónico de utilizar «un conjunto de estrategias anticompetitivas e injustas entrelazadas para mantener ilegalmente su poder de monopolio.

Resolución del Parlamento Europeo, de 14 de septiembre de 2023, sobre el futuro del sector europeo del libro

European Parliament resolution of 14 September 2023 on the future of the European book sector (2023/2053(INI)) (OJ C, C/2024/1768, 22.03.2024, ELI: http://data.europa.eu/eli/C/2024/1768/oj)

El Parlamento Europeo ha instado a todos los Estados miembros a reconocer los libros como bienes esenciales y a tomar medidas a nivel nacional para promover la lectura desde una edad temprana. Además, se destaca la necesidad de equilibrar el ecosistema del libro, protegiendo los roles específicos de los diversos actores en la cadena de valor, como autores, editores, impresores, distribuidores, traductores, libreros y bibliotecas. Se enfatiza el valor de los libros como herramientas para promover la diversidad y la inclusión de grupos en riesgo de marginalización en la sociedad, como personas sin habilidades digitales, personas con discapacidades y minorías. También se llama a los Estados miembros a implementar el Acta Europea de Accesibilidad y tomar medidas para garantizar que los libros estén disponibles en formatos accesibles para personas con discapacidades, en aras de la inclusión cultural, social y profesional.

Se recuerda que el Acta Europea de Accesibilidad va de la mano con el Tratado de Marrakech, y se subraya la necesidad de evitar la duplicación y la competencia desleal al hacer accesibles los libros. Se reconoce que, debido al gran número de títulos disponibles en el mercado y los desafíos técnicos relacionados con la accesibilidad, no todos los libros electrónicos serán accesibles para 2025. Por lo tanto, se insta a los Estados miembros a garantizar recursos adecuados para cubrir los altos costos y respetar las derogaciones otorgadas por el Acta Europea de Accesibilidad, especialmente para pequeños y microeditores.

Se hace un llamado a los Estados miembros para proporcionar apoyo financiero y estructural adecuado al sector, especialmente a las pymes y microempresas, mientras se financia la investigación y la innovación dedicadas a aumentar la accesibilidad. Además, se invita a la Comisión a introducir objetivos medibles para mejorar la accesibilidad de los libros para personas con discapacidades en la revisión intermedia del programa Europa Creativa 2021-2027.

Resolución de las Naciones Unidas sobre inteligencia artificial

«Aprovechar las oportunidades de sistemas seguros, protegidos y fiables de inteligencia artificial para el desarrollo sostenible«. ONU, mazo 2024

Ver documento en español

La Asamblea General aprobó el primer proyecto de resolución de las Naciones Unidas sobre inteligencia artificial el jueves, respaldando un esfuerzo internacional para garantizar que la poderosa nueva tecnología beneficie a todas las naciones, respete los derechos humanos y sea «segura, sólida y confiable».

El proyecto de resolución, patrocinado por Estados Unidos y co-patrocinado por 123 países, incluida China, fue adoptado por consenso con un golpe de martillo y sin votación, lo que significa que cuenta con el apoyo de los 193 países miembros de la ONU.

La vicepresidenta de Estados Unidos, Kamala Harris, y el asesor de seguridad nacional, Jake Sullivan, calificaron la resolución de «histórica» por establecer principios para el uso seguro de la inteligencia artificial. El secretario de Estado, Antony Blinken, la describió como «un esfuerzo pionero y un enfoque global único para el desarrollo y uso de esta poderosa tecnología emergente».

Durante los últimos meses, Estados Unidos trabajó con más de 120 países en las Naciones Unidas, incluidos Rusia, China y Cuba, para negociar el texto de la resolución adoptada el jueves.

El proyecto de resolución busca cerrar la brecha digital entre los países desarrollados y los países en desarrollo y asegurar que todos estén en la mesa en las discusiones sobre inteligencia artificial. También tiene como objetivo garantizar que los países en desarrollo tengan la tecnología y las capacidades para aprovechar los beneficios de la inteligencia artificial, incluida la detección de enfermedades, la predicción de inundaciones, la ayuda a los agricultores y la formación de la próxima generación de trabajadores.

El proyecto de resolución reconoce la rápida aceleración del desarrollo y uso de la inteligencia artificial y subraya «la urgencia de lograr un consenso global sobre sistemas de inteligencia artificial seguros, sólidos y confiables».

A diferencia de las resoluciones del Consejo de Seguridad, las resoluciones de la Asamblea General no son legalmente vinculantes, pero son un barómetro de la opinión mundial.

El proyecto de resolución alienta a todos los países, organizaciones regionales e internacionales, comunidades tecnológicas, sociedad civil, medios de comunicación, academia, instituciones de investigación y personas «a desarrollar y respaldar enfoques y marcos regulatorios y de gobernanza» para sistemas de inteligencia artificial seguros.

Derecho de las tecnologías y las tecnologías para el derecho

Flórez Rojas, María LorenaDerecho de las tecnologías y las tecnologías para el derecho. Ediciones Uniandes, 2022. https://muse.jhu.edu/pub/510/edited_volume/book/116622.

Derecho de las tecnologías y las tecnologías para el derecho conmemora el vigésimo aniversario de nuestro Grupo de Estudios en Internet, Comercio Electrónico, Telecomunicaciones e Informática (GECTI), de la Facultad de Derecho de la Universidad de los Andes. Sin embargo, no es un producto aislado de una iniciativa tendiente solo a conmemorar este aniversario, sino que es fruto del esfuerzo continuado de nuestro grupo de miembros por compartir y discutir temas trascendentales en este mundo tan dinámico del derecho a partir del desarrollo de tecnologías disruptivas que hoy nos generan grandes retos.

El libro se destaca por contar con temas innovadores en materia de dichas tecnologías y su aplicación y visión en Colombia. Por un lado, se abordan las nuevas cibercompetencias con las que deben contar no solo los profesionales del derecho, sino también nuestros jueces y legisladores. Por otro, también se tratan temas imprescindibles como la inteligencia artificial, esta vez enfocada en los mercados y el régimen de competencia. La incursión de la inteligencia artificial en todos los ámbitos de la vida es innegable y, por ello, es crucial con-templar sus implicaciones en las normas existentes en materia de competencia, protección de datos y derecho del consumo. Finalmente, se discute sobre la tecnología aplicada a servicios financieros y modelos de negocios, que, si bien buscan la innovación y la competitividad, deben adelantarse bajo parámetros que logren no solo la estabilidad financiera sino también la protección a los consumidores.

La Cámara de Idaho aprueba el último proyecto de ley sobre «porno en bibliotecas»

Boise State Public Radio. «Idaho House Passes Latest “library Porn” Bill», 14 de marzo de 2024. https://www.boisestatepublicradio.org/politics-government/2024-03-14/idaho-house-passes-latest-library-porn-bill.

Los legisladores de la Cámara de Representantes han vuelto a aprobar un proyecto de ley destinado a abordar el contenido «obsceno» encontrado en las bibliotecas públicas y privadas de Idaho. Según esta propuesta, tanto las bibliotecas comunitarias como las de las escuelas públicas y privadas tendrían la obligación de mover un libro a una sección exclusiva para adultos dentro de un plazo de 30 días después de recibir una queja.


El Comité de Asuntos Estatales de la Cámara de Representantes introdujo una nueva versión del proyecto de ley sobre «materiales obscenos» en las bibliotecas públicas que el gobernador vetó el año pasado.

El representante Jaron Crane, R-Nampa, patrocinó el proyecto de ley el miércoles y dijo que aborda las preocupaciones que el gobernador tenía con el proyecto de ley del año pasado. El proyecto de ley, que él llama Ley de Protección de los Niños y las Bibliotecas, no prohíbe los libros. Permitiría a las bibliotecas 30 días para reubicar cualquier material encontrado en la sección infantil de la biblioteca que se considere obsceno.

Si el material no se reubica, se puede presentar una causa civil contra la escuela o la biblioteca pública, pero el nuevo proyecto de ley limita esa recompensa a 250$ por daños estatutarios.

«Les garantizo que eso no llevará a la quiebra a ninguna biblioteca aquí en Idaho», dijo Crane al comité.

Cuando el gobernador Brad Little vetó el proyecto de ley del año pasado, escribió en su carta de veto que «permitir a cualquier padre, independientemente de la intención, recolectar 2,500$ en multas automáticas crea un sistema de recompensas para las bibliotecas que solo aumentará los costos que incurren las bibliotecas locales, especialmente las bibliotecas rurales».

Sin embargo, el proyecto de ley presentado el miércoles aún permite los «daños reales», que no tienen un límite para lo que un demandante puede recolectar.

Según el proyecto de ley, el contenido podría considerarse perjudicial para los menores cuando «sea juzgado por la persona promedio, aplicando los estándares contemporáneos de la comunidad».

Gran parte del debate del año pasado giró en torno a cómo define el proyecto de ley «materiales obscenos».

El nuevo proyecto de ley aún incluye desnudez, conducta sexual que incluye masturbación y homosexualidad, excitación sexual y abuso sadomasoquista como factores que podrían ser «patentemente ofensivos para los estándares predominantes en la comunidad adulta con respecto a lo que es material adecuado para los menores».

El proyecto de ley aún debe recibir una audiencia pública antes de avanzar. Hasta el miércoles por la mañana no se había establecido una fecha para la audiencia.

El proyecto de ley No AI FRAUD: sin Fraudes, Sin Falsificaciones… ¿Sin Uso Justo?

No Frauds, No Fakes…No Fair Use? Katherine Klosek, March 1, 2024. Accessed March 2, 2024. https://www.arl.org/blog/nofraudsnofakes/.

Katherine Klosek discute el potencial de la inteligencia artificial en instituciones de memoria, señalando su utilidad en la síntesis de descripciones de libros y la corrección de errores en las atribuciones de contribuciones. Sin embargo, destaca la preocupación del Congreso por los deepfakes y la legislación propuesta para prevenir su uso fraudulento, argumentando que cualquier legislación debe equilibrar la protección contra el fraude con la preservación de la libertad de expresión, utilizando las excepciones en la Ley de Derechos de Autor como modelo

La inteligencia artificial tiene el potencial de servir como una poderosa herramienta para bibliotecas y otras instituciones de memoria. Durante una reciente audiencia del Comité de Reglas del Senado de los Estados Unidos, la Bibliotecaria del Congreso Carla Hayden describió cómo la Biblioteca del Congreso está experimentando con modelos de aprendizaje automático para sintetizar descripciones de libros para comunidades ciegas, con discapacidad visual y con dificultades de lectura. Meroe Park, secretaria adjunta y directora de operaciones del Instituto Smithsonian, habló sobre el trabajo del Laboratorio de Ciencia de Datos del Smithsonian para desarrollar un nuevo modelo de IA que pueda descubrir y corregir instancias en sus colecciones en las que las contribuciones de las mujeres fueron erróneamente atribuidas a hombres. Las bibliotecas universitarias también apoyan metodologías de investigación no generativas como la minería de texto y datos para analizar mejor las obras creativas de mujeres, minorías de género y artistas de color para explorar preguntas importantes sobre la cultura y la sociedad. Esta tecnología ofrece oportunidades innumerables para avanzar en la investigación y preservar el patrimonio cultural.

Aunque la promesa de la IA es evidente, el Congreso se centra en sus posibles perjuicios, presentando legislación para prevenir el uso fraudulento del nombre, imagen o semejanza de una persona para crear deepfakes. Desafortunadamente, algunas propuestas legislativas actuales podrían limitar la libertad de expresión en el proceso. Este artículo discute por qué cualquier legislación dirigida a los deepfakes debe incluir disposiciones que permitan la libre expresión. Las excepciones contenidas en la Ley de Derechos de Autor ofrecen un modelo útil para tales disposiciones.

El uso justo es una salvaguardia de la Primera Enmienda.

El uso justo es una acomodación de la Primera Enmienda que está integrada en la ley de derechos de autor, permitiendo al público usar obras expresivas sin permiso del titular de los derechos de autor. Sin el uso justo, los derechos exclusivos de reproducir, realizar, transmitir, distribuir, exhibir y crear obras derivadas consolidarían un monopolio de derechos de autor en el que los titulares de derechos de autor son los únicos que pueden usar obras expresivas a menos que otorguen permiso para hacerlo. Como escribió Public Knowledge después de una audiencia reciente sobre IA y derecho a la publicidad:

Los regímenes de propiedad intelectual son ellos mismos una forma de regulación de la expresión. Al otorgar un monopolio sobre un tipo específico de expresión, en este caso, la expresión que utiliza la semejanza audiovisual de un individuo, un derecho de publicidad prohíbe a todas las demás personas participar en ese subconjunto particular de expresión. Esto significa, para bien o para mal, que cualquier régimen de PI debe contener excepciones y limitaciones significativas para acomodar la Primera Enmienda. El derecho de autor es constitucionalmente sólido solo debido a una doctrina de uso justo robusta y flexible; cualquier derecho de publicidad federal tendría que permitir de manera similar una amplia gama de expresión.

Las recientes propuestas para regular el uso de una semejanza generada por IA crearían un nuevo régimen de PI amplio, pero sin las acomodaciones necesarias para la libertad de expresión como las excepciones y limitaciones robustas, explícitas y flexibles en la Ley de Derechos de Autor de EE. UU.

Se necesitan excepciones sólidas en la legislación sobre derechos de publicidad.

La Ley de Replicas y Duplicaciones No Autorizadas de Inteligencia Artificial Falsa, o la Ley No AI FRAUD (H.R. 6943), crearía un derecho de propiedad intelectual federal que sobreviviría al individuo cuya semejanza digital y voz estén protegidas. Cualquier persona que publique, realice, distribuya, transmita o de cualquier otra manera ponga a disposición del público una réplica de voz digital, una representación digital o un servicio de clonación personalizado, con el conocimiento de que no fue autorizado por el titular de los derechos, estaría infringiendo la ley. El proyecto de ley efectivamente permite a los titulares de derechos controlar una amplia cantidad de contenido digital sin ninguna válvula de seguridad que permita el ejercicio de la libre expresión, como una excepción para fines de investigación o académicos.

El proyecto de ley No AI FRAUD intenta sortear su problema de libre expresión con una cláusula que establece que la Primera Enmienda sirve como defensa. Pero el proyecto de ley limita inmediatamente la defensa de la Primera Enmienda al requerir que los tribunales equilibren «el interés público en el acceso al uso» contra «el interés de propiedad intelectual en la voz o semejanza». Como señala Jennifer Rothman, esta prueba es probablemente inconstitucionalmente vaga.

La Ley Nurture Originals, Foster Art, and Keep Entertainment Safe Act of 2023, or the NO FAKES Act of 2023, en el Senado, crea de manera similar responsabilidad para los usuarios de réplicas digitales. NO FAKES excluye explícitamente las réplicas digitales que se utilizan en documentales o docudramas, o con fines de comentario, crítica, investigación, sátira o parodia, de violar la ley. Este enfoque prescriptivo ofrece certeza sobre los usos enumerados, pero sin la flexibilidad que requiere un análisis de uso justo.

La flexibilidad y especificidad del uso justo apoyan el progreso del conocimiento.

Las excepciones en la Ley de Derechos de Autor proporcionan a los usuarios tanto certeza como flexibilidad. Por un lado, las excepciones establecidas en las Secciones 108-121A describen una variedad de circunstancias específicas en las que una obra puede ser utilizada sin autorización del titular de los derechos de autor. Al mismo tiempo, el uso justo en la Sección 107 permite usos de acuerdo con una evaluación dinámica de factores, incluido si un nuevo uso agrega algo al propósito o carácter de una obra. Décadas de litigios sobre uso justo han aclarado usos adicionales; por ejemplo, aunque la parodia no está mencionada en la Ley de Derechos de Autor, los tribunales establecieron que la parodia puede calificar como uso justo en el caso Campbell v. Acuff Rose Music. La naturaleza flexible

Más de 400 expertos en IA, artistas y políticos firmaron la carta pidiendo regular la propagación de deepfakes dañinos

Shapero, Julia. «Facebook Whistleblower, AI Godfather Join Hundreds Calling for Deepfake Regulation». Text. The Hill (blog), 21 de febrero de 2024. https://thehill.com/policy/technology/4480812-facebook-whistleblower-ai-godfather-deepfake-regulation/.

Más de 400 expertos en IA, artistas y políticos firmaron la carta, que instaba a los gobiernos a aprobar leyes que criminalicen la pornografía infantil generada por deepfakes y establezcan sanciones penales para aquellos que creen o faciliten la propagación de deepfakes dañinos de manera consciente.

La carta también sugirió que los desarrolladores y distribuidores de software estén obligados a prevenir que sus productos creen deepfakes dañinos y sean responsables si sus medidas son fácilmente eludibles.

Los deepfakes, descritos en la carta como «voces, imágenes o videos generados por IA no consensuales y gravemente engañosos, que una persona razonable confundiría como reales», representan riesgos crecientes a medida que la tecnología de IA se ha vuelto más ampliamente disponible.

«Los deepfakes son una gran amenaza para la sociedad humana y ya están causando un daño creciente a individuos, comunidades y al funcionamiento de la democracia», dijo Andrew Critch, investigador de IA de la Universidad de California, Berkeley, y autor principal de la carta, en un comunicado.

«Necesitamos acción inmediata para combatir la proliferación de deepfakes, y mis colegas y yo creamos esta carta como una forma para que las personas de todo el mundo muestren su apoyo a los esfuerzos legislativos para detener los deepfakes», agregó.

Imágenes explícitas generadas por IA de la superestrella del pop Taylor Swift se volvieron virales el mes pasado, lo que llevó a la Casa Blanca a expresar preocupaciones.

«Estamos alarmados por los informes de la circulación de las … imágenes falsas», dijo en ese momento la secretaria de prensa de la Casa Blanca, Karine Jean-Pierre.

«Aunque las empresas de redes sociales toman sus propias decisiones independientes sobre la gestión de contenido, creemos que tienen un papel importante que desempeñar en la aplicación de sus propias reglas para evitar la propagación de información errónea e imágenes íntimas no consensuales de personas reales», agregó.

También se enviaron mensajes que imitaban al presidente Biden a votantes de Nuevo Hampshire el mes pasado, instándolos a no emitir su voto en las primarias del estado y destacando preocupaciones sobre la posible desinformación electoral.

A principios de este mes, la Comisión Federal de Comunicaciones prohibió el uso de voces generadas por IA en llamadas automáticas. La Comisión Federal de Comercio también propuso una regla la semana pasada que prohibiría la suplantación de personas, señalando el reciente aumento de deepfakes generados por IA.