Archivo de la etiqueta: Legislación

El acceso abierto como alternativa a las licencias restrictivas sobre el uso de la investigación para entrenar sistema de IA

Waibel, Günter, y Dave Hansen. «AI Deals Underscore the Importance of Open AccessInside Higher Ed, 7 de enero de 2025. https://www.insidehighered.com/opinion/views/2025/01/07/ai-deals-underscore-importance-open-access-opinion

Günter Waibel y Dave Hansen abordan la preocupación creciente en la comunidad académica sobre los lucrativos acuerdos entre editoriales y empresas de inteligencia artificial (IA) para el uso de publicaciones académicas como datos de entrenamiento. Argumentan que la respuesta adecuada no es recurrir a licencias más restrictivas, sino abogar por el acceso abierto, una práctica que beneficiaría tanto a los académicos como al público en general.

Explican que muchos autores académicos, al publicar sus obras, transfieren los derechos de autor a las editoriales, lo que permite a estas controlar legalmente el contenido y negociar con empresas de IA sin necesidad de consultar a los creadores originales. Esto ha generado críticas y dudas sobre la equidad de estas prácticas, especialmente considerando las grandes sumas de dinero involucradas.

Waibel y Hansen subrayan que, aunque puede ser tentador para los autores recurrir a la publicación detrás de un muro de pago para proteger sus obras de ser utilizadas por la IA, esta estrategia es contraproducente. En realidad, refuerza el monopolio de las editoriales sobre el contenido académico, permitiendo que sigan explotando el trabajo de los académicos para beneficio comercial.

En contraste, proponen que el acceso abierto no solo democratiza el acceso al conocimiento, sino que también permite un uso más ético y productivo de las tecnologías de IA en la investigación. Al eliminar las barreras económicas para acceder a la literatura académica, se crea un corpus accesible para la investigación computacional, impulsando nuevas metodologías y avances científicos.

Además, señalan que el uso justo (fair use) es un principio fundamental que permite tanto a las empresas de IA como a los investigadores académicos utilizar el contenido de manera transformadora para promover el progreso de la ciencia y la cultura. Limitar este uso solo para las empresas desfavorecidas podría erosionar los derechos de uso justo para todos, incluidos los académicos.

Finalmente, Waibel y Hansen hacen un llamado a la comunidad académica para que adopte el acceso abierto como un medio para maximizar el impacto público de la investigación. Argumentan que esto no solo es beneficioso para los académicos, que tendrían acceso pleno a las herramientas y metodologías más avanzadas, sino que también fortalece el bien público al ampliar el alcance del conocimiento generado en las universidades.

Una propuesta legislativa busca retirar fondos a las bibliotecas públicas que prohíban libros

KRQE News. «Legislative Bill Would Cut Funding for New Mexico Public Libraries That Ban BooksKRQE, January 4, 2025. https://www.krqe.com/news/politics-government/legislature/legislative-bill-would-cut-funding-for-new-mexico-public-libraries-that-ban-books/.

La representante estatal de Nuevo México, Kathleen Cates, ha reintroducido una propuesta legislativa que busca retirar fondos a las bibliotecas públicas que prohíban libros. Esta iniciativa, que casi fue aprobada en la sesión legislativa de 2024, pretende garantizar que las bibliotecas públicas no censuren materiales, protegiendo así el acceso de los niños a diversos contenidos. Cates enfatiza que el proyecto no forma parte de una «guerra cultural», sino que busca salvaguardar las bibliotecas y el derecho a la información.

El proyecto de ley propone que las bibliotecas públicas adopten la Declaración de Derechos de la Biblioteca de la Asociación Americana de Bibliotecas de 2019. Esta declaración establece principios fundamentales sobre la libertad intelectual y el acceso equitativo a la información. Al exigir su adopción, la legislación busca asegurar que las bibliotecas no excluyan materiales basándose en contenido político, social o religioso.

La censura de libros en Estados Unidos ha sido un tema recurrente, especialmente en relación con obras que abordan temas LGBTQ+. Por ejemplo, «Gender Queer» de Maia Kobabe ha sido uno de los libros más desafiados en los últimos años debido a su contenido explícito y temas de identidad de género

La propuesta de Cates se enmarca en un contexto más amplio de debates sobre la censura y la libertad de expresión en las bibliotecas públicas. La Asociación Americana de Bibliotecas y otras organizaciones abogan por el acceso libre y sin restricciones a la información, considerando que la censura socava los principios democráticos y el derecho del público a la información.

Se espera que la reintroducción de este proyecto de ley genere debates significativos en la próxima sesión legislativa de Nuevo México, ya que aborda cuestiones fundamentales sobre la libertad intelectual, la censura y el papel de las bibliotecas públicas en la sociedad.

Posibles problemas legales por el entrenamiento de Sora de OpenAI con contenido de videojuegos

Wiggers, Kyle. «It Sure Looks Like OpenAI Trained Sora on Game Content — and Legal Experts Say That Could Be a ProblemTechCrunch, December 11, 2024. https://techcrunch.com/2024/12/11/it-sure-looks-like-openai-trained-sora-on-game-content-and-legal-experts-say-that-could-be-a-problem/.

OpenAI ha lanzado Sora, una IA generadora de videos que parece haber sido entrenada con contenido de videojuegos, incluidos streamings de Twitch y videojuegos populares. Esto podría generar problemas legales debido al uso no autorizado de material con derechos de autor. Expertos en propiedad intelectual advierten sobre los riesgos de infringir derechos de autor y marcas al entrenar modelos generativos con estos datos.

OpenAI nunca ha revelado completamente los datos específicos utilizados para entrenar a Sora, su IA generadora de videos, pero parece probable que al menos parte de su material de entrenamiento provenga de transmisiones de Twitch y guías de juegos. Sora, que fue lanzada el lunes, puede generar videos de hasta 20 segundos de duración en varios formatos y resoluciones a partir de indicaciones de texto o imagen. Aunque OpenAI insinuó anteriormente que el modelo fue entrenado usando videos de Minecraft, parece que otro contenido de videojuegos también pudo haber sido incluido en el conjunto de entrenamiento. En algunas pruebas, Sora fue capaz de generar metraje de un juego similar a Super Mario Bros., un shooter en primera persona inspirado en juegos como Call of Duty y Counter-Strike, y un luchador estilo arcade de los años 90, semejante a los juegos de Teenage Mutant Ninja Turtles.

Una característica destacada de Sora es su aparente comprensión de las transmisiones en Twitch, ya que generó un video que imita la apariencia y el estilo de una plataforma de streaming popular. Esto incluyó un personaje que se parecía a Auronplay, un conocido streamer de Twitch, e incluso una figura similar a Pokimane, otra streamer prominente. Aunque OpenAI ha implementado medidas para evitar la generación de clips que involucren personajes con derechos de autor, mis pruebas sugieren que el contenido de videojuegos, posiblemente de Twitch y otras fuentes, pudo haber contribuido al entrenamiento de Sora.

OpenAI ha sido ambigua respecto a sus fuentes de datos, y en una entrevista anterior, la entonces CTO de la compañía, Mira Murati, no negó que el modelo pudiera haber sido entrenado utilizando contenido de plataformas como YouTube, Instagram y Facebook. OpenAI también ha reconocido el uso de datos disponibles públicamente y materiales con licencia de bibliotecas de medios de stock como Shutterstock en el desarrollo de Sora. Sin embargo, si el contenido de videojuegos forma parte del conjunto de entrenamiento, podría haber consecuencias legales, especialmente si OpenAI desarrolla aplicaciones interactivas sobre Sora.

Los expertos legales han expresado preocupaciones sobre los posibles riesgos de usar contenido de videojuegos no autorizado para entrenar modelos de IA. Joshua Weigensberg, un abogado de propiedad intelectual, señaló que el uso de material con derechos de autor de videojuegos sin las licencias adecuadas podría llevar a infracciones, especialmente si dichos datos se utilizan en modelos generativos de IA que producen nuevas obras. Los propios juegos suelen contener elementos protegidos, como texturas propietarias, y si estos se incluyen en los datos de entrenamiento de un modelo, podrían surgir problemas legales.

Además del riesgo de infracción de derechos de autor, existen preocupaciones sobre otros derechos de propiedad intelectual, como los derechos de marca registrada y los derechos sobre el contenido generado por los usuarios. Evan Everist, abogado especializado en derechos de autor, explicó que los videos de las partidas de juegos pueden implicar múltiples capas de protección de derechos de autor, como los derechos sobre el contenido del juego en sí, el video único creado por el jugador y el contenido generado por los usuarios. Esto crea una red compleja de titulares de derechos de autor que podrían reclamar infracción si las empresas de IA usan tales materiales en sus datos de entrenamiento.

Si bien algunos casos legales contra las empresas de IA se han centrado en si la IA generativa puede considerarse transformativa y, por lo tanto, no infringe los derechos de autor, los tribunales aún no han resuelto cuestiones clave sobre el uso de materiales con derechos de autor para entrenar la IA. Incluso si las empresas de IA ganan estos litigios, los usuarios individuales aún podrían ser responsables de infracción de derechos de autor si usan contenido generado por IA que copie obras protegidas. Además, existe el riesgo adicional de violación de derechos de marca registrada, especialmente si los videos generados por IA presentan personajes de juegos reconocibles u otros elementos protegidos. El creciente uso de modelos de mundo, que implican generar videojuegos sintéticos o experiencias interactivas en tiempo real, podría complicar aún más el panorama legal.

Regulación de las plataformas digitales: Perspectivas globales sobre la gobernanza de Internet

Flew, Terry, y Fiona R. Martin, eds. Digital Platform Regulation: Global Perspectives on Internet Governance. Cham: Springer, 2022. https://directory.doabooks.org/handle/20.500.12854/84346

Este volumen de acceso abierto, editado por Terry Flew y Fiona R. Martin, aborda en profundidad las cuestiones globales de política y gobernanza relacionadas con la regulación de plataformas digitales. El libro parte de una pregunta clave: ¿qué implicaría realmente la regulación de las plataformas digitales?

El auge de escándalos como el de Cambridge Analytica y la creciente reacción global contra los monopolios tecnológicos han llevado el tema de la gobernanza de internet al centro del debate político. Este libro responde a la necesidad de conectar el análisis crítico de las plataformas digitales con cuestiones de políticas públicas.

Anthropic advierte de la catástrofe de la IA si los gobiernos no regulan en 18 meses

Anthropic. «The Case for Targeted RegulationAnthropic, 31 de octubre de 2024. https://www.anthropic.com/news/the-case-for-targeted-regulation.

La regulación de la IA es esencial para balancear los beneficios y los riesgos. Si bien es un desafío complejo, es crucial implementarla pronto para evitar consecuencias negativas y asegurar el progreso en áreas clave como la ciencia y la medicina.

Los sistemas de inteligencia artificial (IA) están avanzando rápidamente, ofreciendo enormes beneficios potenciales en áreas como la ciencia, la medicina y la economía. Sin embargo, también presentan riesgos significativos, como el uso indebido en ciberseguridad o biotecnología, y la posibilidad de comportamientos autónomos y destructivos de los propios sistemas. Ante estos riesgos, se urge a los gobiernos a implementar políticas de IA en los próximos 18 meses, ya que el margen para prevenir estos riesgos está cerrándose rápidamente.

Una regulación bien diseñada y específica puede permitir que se aprovechen los beneficios de la IA, mitigando al mismo tiempo sus peligros. Sin embargo, si se retrasan las acciones, el resultado podría ser una regulación ineficaz que limite el progreso sin evitar los riesgos. Se propone una regulación dirigida que se enfoque en tres principios clave:

  1. Urgencia: La IA ha avanzado significativamente en el último año, con mejoras notables en tareas de codificación, razonamiento y matemáticas, lo que aumenta tanto las aplicaciones positivas como las posibilidades de uso indebido, especialmente en áreas como la ciberseguridad y la biotecnología.
  2. Política de Escalamiento Responsable (RSP): En Anthropic, la empresa responsable del artículo, se ha implementado una política llamada «Escalamiento Responsable», que ajusta las medidas de seguridad y mitigación de riesgos en función de los niveles de capacidad de los modelos de IA. Esta política se adapta de forma continua según el desarrollo de los modelos y su potencial de generar riesgos catastróficos.
  3. Elementos clave para la regulación de la IA:
    • Transparencia: Las empresas deben ser obligadas a publicar sus políticas de seguridad y las evaluaciones de riesgo de cada nueva generación de modelos de IA.
    • Incentivos para mejores prácticas de seguridad: La regulación debe fomentar que las empresas desarrollen políticas efectivas que prevengan riesgos graves.
    • Simplicidad y enfoque: La regulación debe ser precisa y evitar cargas innecesarias o reglas complicadas que puedan obstaculizar el progreso.

Se destaca la necesidad urgente de que los gobiernos y la industria trabajen juntos para desarrollar un marco regulatorio efectivo, que no solo reduzca los riesgos catastróficos de la IA, sino que también permita a la industria seguir innovando. Esto debe lograrse de manera flexible, considerando el rápido avance de la tecnología y adaptando las políticas a las mejores prácticas emergentes.

Directrices sobre el uso de las redes sociales por los jueces canadienses

Guidelines on the Use of Social Media by Federally Appointed Judges. The Canadian Judicial Council (CJC), 2024

Texto completo

The Canadian Judicial Council (CJC) publicó recientemente unas directrices sobre el uso de las redes sociales por jueces nombrados a nivel federal. Estas guías buscan orientar a los jueces en el uso seguro y adecuado de redes sociales, reconociendo tanto los riesgos como los beneficios potenciales, tales como: fortalecer la conexión con la comunidad judicial, fomentar la educación pública sobre el rol judicial, mantener vínculos personales importantes para el bienestar de los jueces, y familiarizarse con tecnologías relevantes para su labor.

Las directrices subrayan que el uso inapropiado de redes sociales podría perjudicar la confianza pública en el sistema judicial y los principios fundamentales de la función judicial: independencia, integridad, respeto, diligencia, competencia, igualdad e imparcialidad. El CJC, presidido por el juez principal del Tribunal Supremo de Canadá, es responsable de garantizar la conducta adecuada de los jueces federales y de mejorar la calidad de los servicios judiciales.

Posición del Comité Consultivo de Derecho de Autor y otros Asuntos Jurídicos de IFLA sobre la Inteligencia Artificial

Levine, Melissa, y Advisory Committee on Copyright and other Legal Matters (CLM). 2024. «Advisory Committee on Copyright and Other Legal Matters Position on Artificial Intelligence», octubre.

Texto completo

Este documento está diseñado para ayudar a las bibliotecas miembros de IFLA a navegar los problemas de derechos de autor relacionados con el uso de la IA y a apoyar el desarrollo de programas y servicios bibliotecarios relevantes. También respalda el trabajo del Grupo de Interés Especial de IFLA sobre Inteligencia Artificial, alineándose con el Manifiesto y el plan de Comunicación y Outreach de IFLA.

Consideraciones:

  • La aparición de tecnologías de IA plantea múltiples consideraciones para las bibliotecas, incluida la forma en que se utiliza el contenido y quién lo utiliza. Las bibliotecas están en una posición única para liderar en este ámbito, afirmando su papel como innovadoras, desde la inclusión de contenido generado por IA en sus colecciones hasta la mejora y eficiencia en la entrega de servicios de referencia y préstamo interbibliotecario.
  • En muchos países, las leyes de derechos de autor (tanto derechos económicos como morales) han evolucionado para adaptarse a tecnologías innovadoras y son adecuadas para abordar las preocupaciones legítimas de los creadores, incluidas las bibliotecas en su rol como creadoras de procesos y servicios basados en IA.
  • La legislación relacionada con la IA a menudo también existe fuera del ámbito del derecho de autor. Para temas no relacionados con los derechos de autor, como salud, seguridad, privacidad y cuestiones éticas, se debe acudir a la fuente de información política más adecuada. Las bibliotecas deben considerar las herramientas de IA desde un enfoque basado en valores, asegurándose de que no comprometan la libertad de expresión, la privacidad ni otras áreas de preocupación.

Recomendaciones:

  • Las bibliotecas deben ofrecer capacitación y desarrollo esenciales sobre tecnologías en evolución, incluida la IA, para apoyar a empleados, investigadores y otros usuarios de la biblioteca.
  • En jurisdicciones donde la ley de derechos de autor no respalda los usos típicos y en evolución de la IA por parte de las bibliotecas, se debe abogar para informar a los tomadores de decisiones sobre los beneficios de expandir las limitaciones y excepciones existentes para permitir usos como la minería de texto y datos (TDM).
  • Las convenciones de derechos humanos existentes deberían guiar el desarrollo de trabajos normativos relacionados con la IA. Se deben apoyar los esfuerzos de las bibliotecas para desarrollar prácticas éticas en respuesta a las preocupaciones relacionadas con las herramientas de IA.
  • Los contratos para recursos bibliotecarios licenciados no deben incluir cláusulas que obstaculicen o restrinjan indebidamente el uso de la IA por parte de los usuarios de la biblioteca ni que impidan el uso de excepciones aplicables en la ley de derechos de autor.
  • Las bibliotecas se comprometen a abordar los sesgos mientras navegan por los desafíos de derechos de autor. El acceso limitado a datos y recursos puede conducir a sesgos en los sistemas de IA, por lo que abogamos por el monitoreo continuo de los servicios de IA en las bibliotecas para garantizar la diversidad y el acceso equitativo a la información.

Principios de la Alianza de Derechos de Autor de Bibliotecas para el Copyright y la Inteligencia Artificial

Library Copyright Alliance Principles for Copyright and Artificial Intelligence. Library Copyright Alliance, ALA, ACRL, 2023

Texto completo

La Ley de Derechos de Autor de EE. UU. existente, tal como es aplicada e interpretada por la Oficina de Derechos de Autor y los tribunales, es plenamente capaz en este momento de abordar la intersección entre derechos de autor e IA sin necesidad de enmiendas.

  • Basado en precedentes bien establecidos, la incorporación de obras protegidas por derechos de autor para crear modelos de lenguaje grandes (LLM) u otras bases de datos de entrenamiento de IA generalmente se considera un uso justo.
  • Dado que decenas, si no cientos, de millones de obras son incorporadas para crear un LLM, la contribución de cualquier obra individual al funcionamiento del LLM es de minimis; por lo tanto, la remuneración por la incorporación no es ni apropiada ni factible.
  • Además, los propietarios de derechos de autor pueden emplear medios técnicos, como el Protocolo de Exclusión de Robots, para evitar que sus obras sean utilizadas para entrenar a las IA.
  • Si una IA produce una obra que es sustancialmente similar en expresión protegida a una obra que fue incorporada por la IA, esa nueva obra infringe el copyright de la obra original.
  • Si la obra original fue registrada antes de la infracción, el propietario de los derechos de autor de la obra original puede presentar una acción por infracción de derechos de autor para obtener daños estatutarios contra el proveedor de la IA y el usuario que solicitó a la IA producir la obra sustancialmente similar.
  • Aplicando principios tradicionales de autoría humana, una obra generada por una IA podría ser susceptible de derechos de autor si los prompts proporcionados por el usuario controlaban suficientemente a la IA de tal manera que la obra resultante en su conjunto constituyera una obra original de autoría humana.

La IA tiene el potencial de interrumpir muchas profesiones, no solo a los creadores individuales. La respuesta a esta interrupción (por ejemplo, el apoyo a la re-capacitación laboral a través de instituciones como colegios comunitarios y bibliotecas públicas) debería desarrollarse de manera integral en la economía, y la ley de derechos de autor no debería ser tratada como un medio para abordar estos desafíos sociales más amplios.

Además, la IA también tiene el potencial de servir como una herramienta poderosa en manos de los artistas, permitiéndoles expresar su creatividad de maneras nuevas y eficientes, promoviendo así los objetivos del sistema de derechos de autor.

10 de julio de 2023.

Problemas legales y de propiedad en torno a los productos generados por la inteligencia artificial (IA)

«Who Owns AI’s Output? – Communications of the ACM», 4 de octubre de 2024, https://cacm.acm.org/news/who-owns-ais-output/.

El artículo “Who Owns AI’s Output?” de Logan Kugler, explora los problemas legales y de propiedad en torno a los productos generados por la inteligencia artificial (IA). En un contexto en el que la IA generativa ha avanzado rápidamente en los últimos años, surgen preguntas sobre quién posee los derechos de autor o patentes de las creaciones de IA, como textos, imágenes, videos, audio y código.

Los diferentes países abordan de manera distinta la cuestión de la propiedad de las obras generadas por IA. En los Estados Unidos, la ley es estricta y no permite otorgar derechos de autor o patentes a obras creadas únicamente por IA. Se requiere la intervención significativa de un ser humano para que se otorgue protección a través de estos mecanismos legales. Sin embargo, otros países como el Reino Unido y Sudáfrica tienen leyes más flexibles que permiten, en algunos casos, la protección de obras generadas por IA.

Otro problema destacado en el artículo es el uso de datos protegidos por derechos de autor para entrenar a los modelos de IA. La mayoría de los sistemas de IA se entrenan utilizando grandes volúmenes de datos, a menudo sin el consentimiento del creador original. Esto ha generado múltiples demandas, como la presentada por el New York Times contra OpenAI, acusando a la compañía de usar su contenido sin permiso para entrenar ChatGPT.

En respuesta a estos desafíos, algunos países, como la Unión Europea, han implementado regulaciones más estrictas para controlar cómo se utilizan los datos protegidos en el entrenamiento de IA. Por otro lado, Japón ha adoptado un enfoque más permisivo, permitiendo el uso de materiales protegidos para el entrenamiento de IA bajo excepciones amplias a la ley de derechos de autor.

El artículo concluye que las regulaciones sobre IA están evolucionando rápidamente, pero presentan grandes retos para los legisladores debido a la velocidad con la que avanza la tecnología. A medida que los países tratan de equilibrar la protección de los derechos de autor y fomentar la innovación tecnológica, es probable que se vean más cambios en las leyes y normativas sobre la propiedad de los productos generados por IA.

Más de 120 proyectos de ley sobre IA están siendo discutidos en el Congreso de EE.UU.

«There Are More than 120 AI Bills in Congress Right Now», MIT Technology Review, accedido 19 de septiembre de 2024, https://www.technologyreview.com/2024/09/18/1104015/here-are-all-the-ai-bills-in-congress-right-now/.

En 2024, más de 120 proyectos de ley relacionados con la inteligencia artificial (IA) están siendo discutidos en el Congreso de EE.UU. Estos proyectos son muy variados, abarcando desde mejorar la educación sobre IA en escuelas públicas hasta exigir que los desarrolladores revelen el uso de material con derechos de autor en el entrenamiento de modelos de IA. Algunos tratan de mitigar los riesgos biológicos de la IA o regular el uso de deepfakes en campañas políticas y pornografía no consensual. Incluso hay un proyecto que prohíbe que la IA lance armas nucleares sin intervención humana.

La gran cantidad de propuestas refleja la urgencia con la que el Congreso está intentando regular una tecnología que avanza rápidamente. Sin embargo, debido al proceso legislativo, la mayoría de estos proyectos no se convertirán en ley. Muchos ni siquiera serán votados, ya que algunos líderes políticos no los impulsan si consideran que no tienen suficientes apoyos. En un entorno político polarizado, lograr que los proyectos reciban apoyo bipartidista es una tarea monumental.

Algunos avances legislativos han sido hechos, como la creación del Instituto de Seguridad en IA de EE.UU. (AISI), que se encargará de establecer guías voluntarias para el desarrollo seguro de IA. Otros proyectos buscan expandir la educación en IA y aumentar los recursos públicos para la investigación en esta área. Sin embargo, muchos de los proyectos evitan imponer regulaciones estrictas, lo cual responde al temor de frenar la innovación tecnológica.

Un aspecto notable es el papel que juegan las grandes empresas tecnológicas en este debate. Aunque algunas han solicitado más regulación, sus grupos de presión (lobbies) intentan suavizar o eliminar las restricciones. Esto preocupa a expertos que creen que las compañías pueden aprovechar los compromisos voluntarios para definir sus propios estándares sin cumplir con regulaciones significativas.

La falta de atención a temas de equidad y minorías en estos proyectos es también destacable. Aunque algunos intentos de abordar los sesgos en los modelos de IA han sido discutidos, han encontrado resistencia, especialmente entre los legisladores republicanos. A pesar de ello, algunos proyectos bipartidistas, como los que regulan los deepfakes, están avanzando debido a la preocupación compartida sobre su impacto en elecciones y la privacidad de las personas.

Los proyectos de ley actuales reflejan un enfoque mixto: promover el desarrollo tecnológico sin imponer barreras regulatorias estrictas. Sin embargo, lograr una regulación efectiva que también aborde temas de equidad y responsabilidad sigue siendo un desafío en evolución.