Archivo de la etiqueta: Legislación

Resolución del Parlamento Europeo, de 14 de septiembre de 2023, sobre el futuro del sector europeo del libro

European Parliament resolution of 14 September 2023 on the future of the European book sector (2023/2053(INI)) (OJ C, C/2024/1768, 22.03.2024, ELI: http://data.europa.eu/eli/C/2024/1768/oj)

El Parlamento Europeo ha instado a todos los Estados miembros a reconocer los libros como bienes esenciales y a tomar medidas a nivel nacional para promover la lectura desde una edad temprana. Además, se destaca la necesidad de equilibrar el ecosistema del libro, protegiendo los roles específicos de los diversos actores en la cadena de valor, como autores, editores, impresores, distribuidores, traductores, libreros y bibliotecas. Se enfatiza el valor de los libros como herramientas para promover la diversidad y la inclusión de grupos en riesgo de marginalización en la sociedad, como personas sin habilidades digitales, personas con discapacidades y minorías. También se llama a los Estados miembros a implementar el Acta Europea de Accesibilidad y tomar medidas para garantizar que los libros estén disponibles en formatos accesibles para personas con discapacidades, en aras de la inclusión cultural, social y profesional.

Se recuerda que el Acta Europea de Accesibilidad va de la mano con el Tratado de Marrakech, y se subraya la necesidad de evitar la duplicación y la competencia desleal al hacer accesibles los libros. Se reconoce que, debido al gran número de títulos disponibles en el mercado y los desafíos técnicos relacionados con la accesibilidad, no todos los libros electrónicos serán accesibles para 2025. Por lo tanto, se insta a los Estados miembros a garantizar recursos adecuados para cubrir los altos costos y respetar las derogaciones otorgadas por el Acta Europea de Accesibilidad, especialmente para pequeños y microeditores.

Se hace un llamado a los Estados miembros para proporcionar apoyo financiero y estructural adecuado al sector, especialmente a las pymes y microempresas, mientras se financia la investigación y la innovación dedicadas a aumentar la accesibilidad. Además, se invita a la Comisión a introducir objetivos medibles para mejorar la accesibilidad de los libros para personas con discapacidades en la revisión intermedia del programa Europa Creativa 2021-2027.

Resolución de las Naciones Unidas sobre inteligencia artificial

«Aprovechar las oportunidades de sistemas seguros, protegidos y fiables de inteligencia artificial para el desarrollo sostenible«. ONU, mazo 2024

Ver documento en español

La Asamblea General aprobó el primer proyecto de resolución de las Naciones Unidas sobre inteligencia artificial el jueves, respaldando un esfuerzo internacional para garantizar que la poderosa nueva tecnología beneficie a todas las naciones, respete los derechos humanos y sea «segura, sólida y confiable».

El proyecto de resolución, patrocinado por Estados Unidos y co-patrocinado por 123 países, incluida China, fue adoptado por consenso con un golpe de martillo y sin votación, lo que significa que cuenta con el apoyo de los 193 países miembros de la ONU.

La vicepresidenta de Estados Unidos, Kamala Harris, y el asesor de seguridad nacional, Jake Sullivan, calificaron la resolución de «histórica» por establecer principios para el uso seguro de la inteligencia artificial. El secretario de Estado, Antony Blinken, la describió como «un esfuerzo pionero y un enfoque global único para el desarrollo y uso de esta poderosa tecnología emergente».

Durante los últimos meses, Estados Unidos trabajó con más de 120 países en las Naciones Unidas, incluidos Rusia, China y Cuba, para negociar el texto de la resolución adoptada el jueves.

El proyecto de resolución busca cerrar la brecha digital entre los países desarrollados y los países en desarrollo y asegurar que todos estén en la mesa en las discusiones sobre inteligencia artificial. También tiene como objetivo garantizar que los países en desarrollo tengan la tecnología y las capacidades para aprovechar los beneficios de la inteligencia artificial, incluida la detección de enfermedades, la predicción de inundaciones, la ayuda a los agricultores y la formación de la próxima generación de trabajadores.

El proyecto de resolución reconoce la rápida aceleración del desarrollo y uso de la inteligencia artificial y subraya «la urgencia de lograr un consenso global sobre sistemas de inteligencia artificial seguros, sólidos y confiables».

A diferencia de las resoluciones del Consejo de Seguridad, las resoluciones de la Asamblea General no son legalmente vinculantes, pero son un barómetro de la opinión mundial.

El proyecto de resolución alienta a todos los países, organizaciones regionales e internacionales, comunidades tecnológicas, sociedad civil, medios de comunicación, academia, instituciones de investigación y personas «a desarrollar y respaldar enfoques y marcos regulatorios y de gobernanza» para sistemas de inteligencia artificial seguros.

Derecho de las tecnologías y las tecnologías para el derecho

Flórez Rojas, María LorenaDerecho de las tecnologías y las tecnologías para el derecho. Ediciones Uniandes, 2022. https://muse.jhu.edu/pub/510/edited_volume/book/116622.

Derecho de las tecnologías y las tecnologías para el derecho conmemora el vigésimo aniversario de nuestro Grupo de Estudios en Internet, Comercio Electrónico, Telecomunicaciones e Informática (GECTI), de la Facultad de Derecho de la Universidad de los Andes. Sin embargo, no es un producto aislado de una iniciativa tendiente solo a conmemorar este aniversario, sino que es fruto del esfuerzo continuado de nuestro grupo de miembros por compartir y discutir temas trascendentales en este mundo tan dinámico del derecho a partir del desarrollo de tecnologías disruptivas que hoy nos generan grandes retos.

El libro se destaca por contar con temas innovadores en materia de dichas tecnologías y su aplicación y visión en Colombia. Por un lado, se abordan las nuevas cibercompetencias con las que deben contar no solo los profesionales del derecho, sino también nuestros jueces y legisladores. Por otro, también se tratan temas imprescindibles como la inteligencia artificial, esta vez enfocada en los mercados y el régimen de competencia. La incursión de la inteligencia artificial en todos los ámbitos de la vida es innegable y, por ello, es crucial con-templar sus implicaciones en las normas existentes en materia de competencia, protección de datos y derecho del consumo. Finalmente, se discute sobre la tecnología aplicada a servicios financieros y modelos de negocios, que, si bien buscan la innovación y la competitividad, deben adelantarse bajo parámetros que logren no solo la estabilidad financiera sino también la protección a los consumidores.

La Cámara de Idaho aprueba el último proyecto de ley sobre «porno en bibliotecas»

Boise State Public Radio. «Idaho House Passes Latest “library Porn” Bill», 14 de marzo de 2024. https://www.boisestatepublicradio.org/politics-government/2024-03-14/idaho-house-passes-latest-library-porn-bill.

Los legisladores de la Cámara de Representantes han vuelto a aprobar un proyecto de ley destinado a abordar el contenido «obsceno» encontrado en las bibliotecas públicas y privadas de Idaho. Según esta propuesta, tanto las bibliotecas comunitarias como las de las escuelas públicas y privadas tendrían la obligación de mover un libro a una sección exclusiva para adultos dentro de un plazo de 30 días después de recibir una queja.


El Comité de Asuntos Estatales de la Cámara de Representantes introdujo una nueva versión del proyecto de ley sobre «materiales obscenos» en las bibliotecas públicas que el gobernador vetó el año pasado.

El representante Jaron Crane, R-Nampa, patrocinó el proyecto de ley el miércoles y dijo que aborda las preocupaciones que el gobernador tenía con el proyecto de ley del año pasado. El proyecto de ley, que él llama Ley de Protección de los Niños y las Bibliotecas, no prohíbe los libros. Permitiría a las bibliotecas 30 días para reubicar cualquier material encontrado en la sección infantil de la biblioteca que se considere obsceno.

Si el material no se reubica, se puede presentar una causa civil contra la escuela o la biblioteca pública, pero el nuevo proyecto de ley limita esa recompensa a 250$ por daños estatutarios.

«Les garantizo que eso no llevará a la quiebra a ninguna biblioteca aquí en Idaho», dijo Crane al comité.

Cuando el gobernador Brad Little vetó el proyecto de ley del año pasado, escribió en su carta de veto que «permitir a cualquier padre, independientemente de la intención, recolectar 2,500$ en multas automáticas crea un sistema de recompensas para las bibliotecas que solo aumentará los costos que incurren las bibliotecas locales, especialmente las bibliotecas rurales».

Sin embargo, el proyecto de ley presentado el miércoles aún permite los «daños reales», que no tienen un límite para lo que un demandante puede recolectar.

Según el proyecto de ley, el contenido podría considerarse perjudicial para los menores cuando «sea juzgado por la persona promedio, aplicando los estándares contemporáneos de la comunidad».

Gran parte del debate del año pasado giró en torno a cómo define el proyecto de ley «materiales obscenos».

El nuevo proyecto de ley aún incluye desnudez, conducta sexual que incluye masturbación y homosexualidad, excitación sexual y abuso sadomasoquista como factores que podrían ser «patentemente ofensivos para los estándares predominantes en la comunidad adulta con respecto a lo que es material adecuado para los menores».

El proyecto de ley aún debe recibir una audiencia pública antes de avanzar. Hasta el miércoles por la mañana no se había establecido una fecha para la audiencia.

El proyecto de ley No AI FRAUD: sin Fraudes, Sin Falsificaciones… ¿Sin Uso Justo?

No Frauds, No Fakes…No Fair Use? Katherine Klosek, March 1, 2024. Accessed March 2, 2024. https://www.arl.org/blog/nofraudsnofakes/.

Katherine Klosek discute el potencial de la inteligencia artificial en instituciones de memoria, señalando su utilidad en la síntesis de descripciones de libros y la corrección de errores en las atribuciones de contribuciones. Sin embargo, destaca la preocupación del Congreso por los deepfakes y la legislación propuesta para prevenir su uso fraudulento, argumentando que cualquier legislación debe equilibrar la protección contra el fraude con la preservación de la libertad de expresión, utilizando las excepciones en la Ley de Derechos de Autor como modelo

La inteligencia artificial tiene el potencial de servir como una poderosa herramienta para bibliotecas y otras instituciones de memoria. Durante una reciente audiencia del Comité de Reglas del Senado de los Estados Unidos, la Bibliotecaria del Congreso Carla Hayden describió cómo la Biblioteca del Congreso está experimentando con modelos de aprendizaje automático para sintetizar descripciones de libros para comunidades ciegas, con discapacidad visual y con dificultades de lectura. Meroe Park, secretaria adjunta y directora de operaciones del Instituto Smithsonian, habló sobre el trabajo del Laboratorio de Ciencia de Datos del Smithsonian para desarrollar un nuevo modelo de IA que pueda descubrir y corregir instancias en sus colecciones en las que las contribuciones de las mujeres fueron erróneamente atribuidas a hombres. Las bibliotecas universitarias también apoyan metodologías de investigación no generativas como la minería de texto y datos para analizar mejor las obras creativas de mujeres, minorías de género y artistas de color para explorar preguntas importantes sobre la cultura y la sociedad. Esta tecnología ofrece oportunidades innumerables para avanzar en la investigación y preservar el patrimonio cultural.

Aunque la promesa de la IA es evidente, el Congreso se centra en sus posibles perjuicios, presentando legislación para prevenir el uso fraudulento del nombre, imagen o semejanza de una persona para crear deepfakes. Desafortunadamente, algunas propuestas legislativas actuales podrían limitar la libertad de expresión en el proceso. Este artículo discute por qué cualquier legislación dirigida a los deepfakes debe incluir disposiciones que permitan la libre expresión. Las excepciones contenidas en la Ley de Derechos de Autor ofrecen un modelo útil para tales disposiciones.

El uso justo es una salvaguardia de la Primera Enmienda.

El uso justo es una acomodación de la Primera Enmienda que está integrada en la ley de derechos de autor, permitiendo al público usar obras expresivas sin permiso del titular de los derechos de autor. Sin el uso justo, los derechos exclusivos de reproducir, realizar, transmitir, distribuir, exhibir y crear obras derivadas consolidarían un monopolio de derechos de autor en el que los titulares de derechos de autor son los únicos que pueden usar obras expresivas a menos que otorguen permiso para hacerlo. Como escribió Public Knowledge después de una audiencia reciente sobre IA y derecho a la publicidad:

Los regímenes de propiedad intelectual son ellos mismos una forma de regulación de la expresión. Al otorgar un monopolio sobre un tipo específico de expresión, en este caso, la expresión que utiliza la semejanza audiovisual de un individuo, un derecho de publicidad prohíbe a todas las demás personas participar en ese subconjunto particular de expresión. Esto significa, para bien o para mal, que cualquier régimen de PI debe contener excepciones y limitaciones significativas para acomodar la Primera Enmienda. El derecho de autor es constitucionalmente sólido solo debido a una doctrina de uso justo robusta y flexible; cualquier derecho de publicidad federal tendría que permitir de manera similar una amplia gama de expresión.

Las recientes propuestas para regular el uso de una semejanza generada por IA crearían un nuevo régimen de PI amplio, pero sin las acomodaciones necesarias para la libertad de expresión como las excepciones y limitaciones robustas, explícitas y flexibles en la Ley de Derechos de Autor de EE. UU.

Se necesitan excepciones sólidas en la legislación sobre derechos de publicidad.

La Ley de Replicas y Duplicaciones No Autorizadas de Inteligencia Artificial Falsa, o la Ley No AI FRAUD (H.R. 6943), crearía un derecho de propiedad intelectual federal que sobreviviría al individuo cuya semejanza digital y voz estén protegidas. Cualquier persona que publique, realice, distribuya, transmita o de cualquier otra manera ponga a disposición del público una réplica de voz digital, una representación digital o un servicio de clonación personalizado, con el conocimiento de que no fue autorizado por el titular de los derechos, estaría infringiendo la ley. El proyecto de ley efectivamente permite a los titulares de derechos controlar una amplia cantidad de contenido digital sin ninguna válvula de seguridad que permita el ejercicio de la libre expresión, como una excepción para fines de investigación o académicos.

El proyecto de ley No AI FRAUD intenta sortear su problema de libre expresión con una cláusula que establece que la Primera Enmienda sirve como defensa. Pero el proyecto de ley limita inmediatamente la defensa de la Primera Enmienda al requerir que los tribunales equilibren «el interés público en el acceso al uso» contra «el interés de propiedad intelectual en la voz o semejanza». Como señala Jennifer Rothman, esta prueba es probablemente inconstitucionalmente vaga.

La Ley Nurture Originals, Foster Art, and Keep Entertainment Safe Act of 2023, or the NO FAKES Act of 2023, en el Senado, crea de manera similar responsabilidad para los usuarios de réplicas digitales. NO FAKES excluye explícitamente las réplicas digitales que se utilizan en documentales o docudramas, o con fines de comentario, crítica, investigación, sátira o parodia, de violar la ley. Este enfoque prescriptivo ofrece certeza sobre los usos enumerados, pero sin la flexibilidad que requiere un análisis de uso justo.

La flexibilidad y especificidad del uso justo apoyan el progreso del conocimiento.

Las excepciones en la Ley de Derechos de Autor proporcionan a los usuarios tanto certeza como flexibilidad. Por un lado, las excepciones establecidas en las Secciones 108-121A describen una variedad de circunstancias específicas en las que una obra puede ser utilizada sin autorización del titular de los derechos de autor. Al mismo tiempo, el uso justo en la Sección 107 permite usos de acuerdo con una evaluación dinámica de factores, incluido si un nuevo uso agrega algo al propósito o carácter de una obra. Décadas de litigios sobre uso justo han aclarado usos adicionales; por ejemplo, aunque la parodia no está mencionada en la Ley de Derechos de Autor, los tribunales establecieron que la parodia puede calificar como uso justo en el caso Campbell v. Acuff Rose Music. La naturaleza flexible

Más de 400 expertos en IA, artistas y políticos firmaron la carta pidiendo regular la propagación de deepfakes dañinos

Shapero, Julia. «Facebook Whistleblower, AI Godfather Join Hundreds Calling for Deepfake Regulation». Text. The Hill (blog), 21 de febrero de 2024. https://thehill.com/policy/technology/4480812-facebook-whistleblower-ai-godfather-deepfake-regulation/.

Más de 400 expertos en IA, artistas y políticos firmaron la carta, que instaba a los gobiernos a aprobar leyes que criminalicen la pornografía infantil generada por deepfakes y establezcan sanciones penales para aquellos que creen o faciliten la propagación de deepfakes dañinos de manera consciente.

La carta también sugirió que los desarrolladores y distribuidores de software estén obligados a prevenir que sus productos creen deepfakes dañinos y sean responsables si sus medidas son fácilmente eludibles.

Los deepfakes, descritos en la carta como «voces, imágenes o videos generados por IA no consensuales y gravemente engañosos, que una persona razonable confundiría como reales», representan riesgos crecientes a medida que la tecnología de IA se ha vuelto más ampliamente disponible.

«Los deepfakes son una gran amenaza para la sociedad humana y ya están causando un daño creciente a individuos, comunidades y al funcionamiento de la democracia», dijo Andrew Critch, investigador de IA de la Universidad de California, Berkeley, y autor principal de la carta, en un comunicado.

«Necesitamos acción inmediata para combatir la proliferación de deepfakes, y mis colegas y yo creamos esta carta como una forma para que las personas de todo el mundo muestren su apoyo a los esfuerzos legislativos para detener los deepfakes», agregó.

Imágenes explícitas generadas por IA de la superestrella del pop Taylor Swift se volvieron virales el mes pasado, lo que llevó a la Casa Blanca a expresar preocupaciones.

«Estamos alarmados por los informes de la circulación de las … imágenes falsas», dijo en ese momento la secretaria de prensa de la Casa Blanca, Karine Jean-Pierre.

«Aunque las empresas de redes sociales toman sus propias decisiones independientes sobre la gestión de contenido, creemos que tienen un papel importante que desempeñar en la aplicación de sus propias reglas para evitar la propagación de información errónea e imágenes íntimas no consensuales de personas reales», agregó.

También se enviaron mensajes que imitaban al presidente Biden a votantes de Nuevo Hampshire el mes pasado, instándolos a no emitir su voto en las primarias del estado y destacando preocupaciones sobre la posible desinformación electoral.

A principios de este mes, la Comisión Federal de Comunicaciones prohibió el uso de voces generadas por IA en llamadas automáticas. La Comisión Federal de Comercio también propuso una regla la semana pasada que prohibiría la suplantación de personas, señalando el reciente aumento de deepfakes generados por IA.

Legislación sobre IA en el mundo

Amara. «AI Regulations». Substack newsletter. Genuine Impact – Charting Finance, Investing & Tech (blog), 14 de agosto de 2023. https://genuineimpact.substack.com/p/ai-regulations.

A medida que esta tecnología se ha integrado cada vez más en nuestra vida cotidiana, ¿cómo han respondido los gobiernos? Observamos el panorama regulatorio de la IA desde 2016 hasta ahora, demostrando cómo un número creciente de proyectos de ley están siendo aprobados o al menos considerados.

Proyectos de ley relacionados con la IA por país El mapa a continuación muestra cómo diferentes países están respondiendo a los avances en IA. Los datos se han recopilado sobre cuántos proyectos de ley han sido aprobados por los cuerpos legislativos con las palabras «Inteligencia Artificial» en el título o en el cuerpo del proyecto de ley. Los Estados Unidos han aprobado la mayor cantidad de proyectos de ley relacionados con la IA desde 2016, con 22, lo que está bastante por delante de Portugal en segundo lugar. La mayoría de los otros países principales se encuentran en Europa.

¿Cuántos proyectos de ley relacionados con la IA se han aprobado? Es evidente ver a continuación cómo, a medida que la IA se ha vuelto más prevalente, los gobiernos han respondido aprobando más proyectos de ley para regular la tecnología y proteger al público. En 2022, se aprobaron 37 leyes a nivel mundial, y se espera que este número siga aumentando.

Ejemplos de proyectos de ley relacionados con la IA La UE, el Reino Unido y EE. UU. han aprobado o propuesto recientemente proyectos de ley relacionados con la IA. Por ejemplo, la UE ha propuesto ‘La Ley de IA’, que categoriza las aplicaciones de IA según su nivel individual de riesgo. Aquellas con riesgo inaceptable (como el Sistema de Crédito Social de China) serían prohibidas. A diferencia del proyecto de ley de la UE, la ‘Declaración de Derechos de la IA’ de EE. UU. no es vinculante y en su lugar guía la implementación de la IA. El ejemplo del Reino Unido es más específico y se centra en proteger a los trabajadores de ser gestionados y supervisados por IA.

EUROPA La Ley Al es una propuesta de ley sobre Al. Asigna las aplicaciones de Al en 3 categorías de riesgo diferentes: riesgo inaceptable, alto riesgo y bajo riesgo. Aquellos en la categoría de riesgo inaceptable serían prohibidos, los de alto riesgo estarían sujetos a requisitos legales y los de bajo riesgo quedarían en gran medida sin regulación.

ESTADOS UNIDOS La Declaración de Derechos de Al no es vinculante, a diferencia de la «Ley Al» de la UE. En lugar de ello, enumera y proporciona orientación sobre la implementación de cinco principios destinados a reducir el daño causado por Al. Estos 5 principios son: Sistemas seguros y eficaces, Protección contra la discriminación algorítmica, Privacidad y Avisos y explicaciones.

REINO UNIDO. El proyecto de ley Al (Regulación y Derechos de los Trabajadores) se está presentando debido a la creciente preocupación de que los empleados sean cada vez más administrados y monitoreados por Al. El diputado laborista Mick Whitley dijo: «El proyecto de ley fortalecería la ley de igualdad existente para evitar la discriminación por algoritmo».

Se presentan 50 proyectos de ley sobre IA a la semana en EE.UU.

Heath, Ryan. «Exclusive: AI Legislation Spikes across U.S. States to Combat Deepfakes». Axios, 14 de febrero de 2024. https://www.axios.com/2024/02/14/ai-bills-state-legislatures-deepfakes-bias-discrimination.

Casi todas las legislaturas estatales actualmente en sesión están considerando proyectos de ley relacionados con la inteligencia artificial (IA), y casi la mitad de esos proyectos abordan los deepfakes, según un análisis del grupo de la industria del software BSA, compartido exclusivamente con Axios.

Por qué es importante:

La rápida innovación en IA y el vacío regulatorio federal han dado a las legislaturas estatales el ímpetu para generar un aumento seis veces mayor en la legislación sobre IA en comparación con hace un año.

Lo que está sucediendo:

Hasta el 7 de febrero había un total de 407 proyectos de ley relacionados con la IA en más de 40 estados, frente a los 67 proyectos de ley del año pasado. Los estados introdujeron 211 proyectos de ley sobre IA el mes pasado.

Puesta al día rápida:

Los objetivos de los proyectos de ley van desde el sesgo y la discriminación hasta la tecnología de reconocimiento facial y los deepfakes.

Los legisladores en 33 estados han presentado proyectos de ley sobre IA relacionados con las elecciones.

  • Enero vio un gran aumento en nuevos proyectos de ley. Ahora se están produciendo a un ritmo de 50 por semana, la mitad de ellos relacionados con los deepfakes.
  • Un proyecto de ley de California introducido el 8 de febrero requeriría la licencia de modelos de IA potentes, a través de una nueva agencia estatal, y crearía un clúster de cómputo público de IA.
  • La gobernadora republicana de Dakota del Sur, Kristi Noem, ha firmado una ley actualizada contra las imágenes de abuso sexual infantil el 12 de febrero, que obliga a prisión a aquellos que sean atrapados creando, distribuyendo y poseyendo imágenes generadas por IA.

Por los números: Los estados con más proyectos de ley en consideración son Nueva York (65), California (29), Tennessee (28), Illinois (27) y Nueva Jersey (25).

  • Alabama y Wyoming son los únicos estados actualmente en sesión sin legislación sobre IA en consideración.
  • Maryland, Massachusetts, Virginia y Washington anunciaron acciones ejecutivas sobre IA en enero.
  • Connecticut ahora requiere evaluaciones continuas para asegurar que la IA no cause discriminación o impacto dispar.

La intriga: Los estados con las mayores industrias de IA, California y Nueva York, también son los que generan la mayor cantidad de proyectos de ley en borrador.

La explosión legislativa de IA de Tennessee está impulsada por las preocupaciones de derechos de autor de la industria musical local, liderada por la Ley ELVIS (Garantizando la Seguridad de la Voz y la Imagen) promulgada en enero.

Entre líneas: Los legisladores estatales de hoy parecen determinados a no repetir la inacción en la regulación de las redes sociales.

Algunos de los legisladores de IA más prominentes estuvieron activos en la legislación estatal de privacidad, considerando los guardrails de IA como un próximo paso lógico en los derechos digitales.

Antecedentes: Los legisladores estatales comenzaron a construir su impulso de IA durante el verano de 2023, presentando 191 proyectos de ley en 31 estados para septiembre, pero solo 14 se convirtieron en ley.

Lo que están diciendo: «Las penalizaciones por deepfakes son el tema candente», dijo Craig Albright, vicepresidente senior de relaciones gubernamentales de BSA, a Axios.

«Muchos de los lenguajes sobre deepfakes son similares en los estados. Estamos viendo mucha coordinación», dijo Matt Lenz, director senior de defensa estatal de BSA.
Algunos grupos de defensa se preocupan de que una estricta regulación de la IA termine protegiendo a los primeros líderes en IA, porque tendrán más recursos para manejar la carga.

«Envolver los nuevos modelos de IA en trámites burocráticos efectivamente consolida a los mayores actores tecnológicos como ganadores de la carrera de IA», dijo Todd O’Boyle, director de política tecnológica de Chamber of Progress, por correo electrónico.

Sí, pero: Hasta ahora, los gobernadores no han hecho de la IA una prioridad en sus discursos sobre el estado del estado en 2024.

Próximo paso: Los gobernadores estatales tienen la oportunidad de fortalecer la coordinación sobre la legislación y la acción ejecutiva de IA mientras se reúnen en Washington D.C. esta semana.

Urge solucionar la falta de transparencia en torno a los datos utilizados para entrenar modelos de Inteligencia Artificial

Hardinges, Jack, Elena Simperl, y Nigel Shadbolt. 2023. «We Must Fix the Lack of Transparency Around the Data Used to Train Foundation Models». Harvard Data Science Review, diciembre. https://doi.org/10.1162/99608f92.a50ec6e6.

En el ámbito de la IA, los modelos, ya sean de aprendizaje supervisado, no supervisado o de otro tipo, necesitan ser alimentados con grandes cantidades de datos para aprender patrones y realizar tareas específicas. Abordar esta falta de transparencia es crucial para garantizar que la IA se desarrolle y utilice de manera ética y responsable. La transparencia en este proceso implica proporcionar información clara y completa sobre la naturaleza y la fuente de los datos utilizados en el entrenamiento de estos modelos. Sin embargo, en la mayoría de los casos, las empresas o desarrolladores no muestran de dónde compilan esta información, lo que puede tener consecuencias significativas en términos de ética, sesgo y confianza pública.


El estudio aborda la importancia del acceso a información sobre los datos utilizados en la formación de modelos de inteligencia artificial (IA). Aunque algunos sectores de la comunidad de IA han progresado, persiste una falta general de transparencia sobre el contenido y las fuentes de los conjuntos de datos de entrenamiento, ya sea por iniciativa voluntaria de las empresas o por intervención regulatoria, y esto debe cambiar.

Los modelos fundamentales se entrenan con grandes colecciones de datos, muchos de los cuales se recopilan de toda la web. La investigación del Instituto Allen de IA y The Washington Post sobre el popular conjunto de datos de entrenamiento C4 reveló que su contenido provenía de 15 millones de dominios web diferentes.

Conocer el contenido de los conjuntos de datos utilizados para entrenar modelos y cómo se han compilado es de vital importancia. Sin esta información, el trabajo de desarrolladores, investigadores y éticos para abordar sesgos o eliminar contenido perjudicial de los datos se ve obstaculizado. La información sobre los datos de entrenamiento también es crucial para que los legisladores evalúen si los modelos fundamentales han absorbido datos personales o material con derechos de autor. Además, los operadores previstos de los sistemas de IA y aquellos afectados por su uso son mucho más propensos a confiar en ellos si comprenden cómo se han desarrollado.

Sin embargo, algunas empresas no documentan el contenido de sus datos de entrenamiento, incluso internamente, por temor a encontrar información personal sobre individuos identificables, material con derechos de autor y otros datos obtenidos sin consentimiento.

En público, las empresas han utilizado diferentes argumentos para justificar la falta de transparencia en torno a sus datos de entrenamiento. OpenAI, en el lanzamiento de su modelo GPT-4, declaró que no compartiría información detallada sobre la «construcción del conjunto de datos» y otros aspectos del desarrollo del modelo debido al «panorama competitivo y las implicaciones de seguridad de los modelos a gran escala». Aunque algunas empresas han publicado los datos de ajuste fino, tienden a omitir los conjuntos de datos de entrenamiento más grandes y complejos que son más propensos a contener contenido perjudicial o material con derechos de autor.

Partes de la comunidad de IA han avanzado en la transparencia de los datos de entrenamiento. La plataforma Hugging Face, inspirada en los pioneros de la seguridad de la IA Emily Bender, Batya Friedman y Timnit Gebru, promueve el uso de Model Cards y Dataset Cards entre su comunidad de desarrolladores. Las Dataset Cards documentan cómo se creó un conjunto de datos, su contenido y posibles problemas legales o éticos asociados.

En julio de 2023, la Casa Blanca anunció que siete grandes empresas de IA se comprometieron a «desarrollar medidas técnicas sólidas para garantizar que los usuarios sepan cuándo el contenido es generado por IA, como el marcado de agua». Dado que los modelos fundamentales de IA han comenzado a entrenarse con datos generados por IA, estas herramientas desempeñarán un papel importante en documentar la procedencia de los datos de entrenamiento y la integridad de las salidas resultantes de la IA.

Las decisiones sobre qué documentar sobre los datos de entrenamiento podrían eventualmente salir de las manos de los desarrolladores. La Comisión Federal de Comercio de EE. UU. ha ordenado recientemente a OpenAI que documente todas las fuentes de datos utilizadas para entrenar sus grandes modelos de lenguaje. Un grupo de grandes medios de comunicación ha publicado una carta abierta instando a los legisladores de todo el mundo a introducir nuevas regulaciones que exijan transparencia en los conjuntos de datos de entrenamiento.

Se prevé que la demanda de información sobre los datos de entrenamiento sea la última ola en un esfuerzo continuo por la transparencia empresarial. En el Reino Unido, las leyes sobre el registro obligatorio y la publicación de información por parte de las empresas se remontan al siglo XIX, y a lo largo del tiempo, los reguladores han desarrollado enfoques estandarizados para evitar que cada empresa elija su propia forma de informar sobre sus finanzas y otras actividades. Quizás necesitemos lo mismo para las divulgaciones sobre los datos en los que se han entrenado los modelos fundamentales de IA.

Ya sea que las empresas den un paso adelante o que intervengan los gobiernos, deben asegurarnos de que los datos utilizados para entrenar sistemas de IA no estén envueltos en secreto. La confianza pública, nuestra capacidad para mitigar sus posibles daños y la eficacia de nuestro régimen regulatorio dependen de ello.

El uso legítimo: mitos y conceptos erróneos sobre los derechos de autor

Carrie Russell «Figuring Out Fair Use». 2023. American Libraries Magazine. 1 de noviembre de 2023. https://americanlibrariesmagazine.org/?p=140589.

Libreros y maestros, profesionales bibliotecarios especializados en alfabetización informacional, acceso equitativo a la información y avance del aprendizaje, a menudo enfrentan ansiedades y conceptos erróneos sobre el copyright. El miedo infundado a litigios de copyright y la falta de educación sobre el tema contribuyen a esta situación.

El desconocimiento sobre el copyright se agrava en entornos educativos saturados de trabajo, donde el personal, ya sobrecargado, carece de tiempo para abordar cuestiones legales como el copyright. La complejidad añadida de los formatos digitales y las licencias privadas complica aún más la gestión efectiva del copyright en las escuelas.

La Constitución de EE.UU. dice que la ley de derechos de autor se crea «para promover el progreso de la ciencia y de las artes útiles». Su intención es, ante todo, fomentar la creación y difusión de obras originales y creativas que beneficien al público. Estas políticas también están diseñadas para avanzar en el bienestar público poniendo a disposición obras que promuevan el aprendizaje, inspiren la creación de nuevas obras, produzcan ciudadanos bien informados y fomenten la búsqueda de la felicidad.

La noción de que la ley de derechos de autor sirve al interés público puede sonar pintoresca cuando gran parte de la discusión pública, y ciertamente gran parte del debate político, gira en torno al valor monetario de los derechos de autor. Aunque los derechos de autor tienen un importante valor económico en la economía global de la información, el propósito fundamental de estas leyes es el bienestar público. Por lo tanto, los valores que subyacen a la ley de derechos de autor son totalmente coherentes con los valores profesionales de profesores y bibliotecarios.

A menudo se confunde a la gente o se le hace creer que la ley de derechos de autor es lo mismo que la ley de propiedad. Esta confusión se ve agravada por términos como propiedad intelectual, que es un término equivocado. En cambio, la ley de derechos de autor se asemeja a la regulación gubernamental en que el Congreso crea la ley para intervenir en el mercado mediante la concesión a los titulares de derechos de un monopolio -a través de los derechos exclusivos de autor- para lograr un propósito público.

A muchos bibliotecarios y profesores les molesta que no existan normas claras. A menudo, la respuesta a una pregunta concreta sobre derechos de autor exige analizar la situación para determinar si se trata de un uso legítimo. Puede que sea molesto, pero nos conviene que la ley sea ambigua. Fijar las normas de derechos de autor en piedra sería congelar la ley. La ley debe ser maleable para servir a nuestra sociedad ahora y en el futuro, un futuro sobre el que sólo podemos especular. El uso legítimo nos servirá porque está abierto a las nuevas tecnologías.

Cinco conceptos erróneos comunes sobre el copyright se destacan en el artículo:

  1. Erróneamente se cree que el propósito principal del copyright es compensar monetariamente a los autores y creadores, cuando en realidad busca fomentar el progreso de la ciencia y las artes útiles en beneficio del público.
  2. Existe el temor de que los titulares de derechos demanden a bibliotecarios, maestros y escuelas con frecuencia, cuando los casos reales en los tribunales son raros. Además, existen limitaciones legales y protecciones para instituciones educativas y bibliotecas.
  3. La confusión entre la ley de copyright y la propiedad intelectual lleva a la creencia errónea de que las obras protegidas son propiedad exclusiva de los creadores. En realidad, el copyright otorga derechos exclusivos para comercializar la obra, no para poseerla.
  4. Muchos esperan reglas legales definitivas para cuestiones de copyright, pero la ley es flexible y la determinación de uso justo a menudo requiere análisis caso por caso.
  5. Se percibe que el uso justo es difícil de entender y aplicar, cuando, en realidad, comprender y aplicar los cuatro factores del uso justo puede ser más natural con la práctica.

En conclusión, a pesar de las dificultades y malentendidos, es crucial para los profesionales de bibliotecas y educación comprender el copyright y aplicar el uso justo para equilibrar los derechos de los usuarios con los intereses de los titulares de derechos.