Archivo de la etiqueta: Legislación

Iowa impulsa una ley para la criminalización de bibliotecarios, la censura y el control político en las bibliotecas públicas

Jensen, Kelly. «Iowa Rushes, Advances Librarian Criminalization BillBook Riot, February 19, 2025. https://bookriot.com/iowa-rushes-advances-librarian-criminalization-bill/

En un contexto de crecientes iniciativas legislativas en Estados Unidos que buscan restringir el acceso a libros y criminalizar el trabajo de bibliotecarios, Iowa ha avanzado con inusitada rapidez en la tramitación del proyecto de ley HF 274. Esta propuesta, introducida el 10 de febrero de 2025 por la representante Helena Hayes (Distrito 88 de Iowa), ya ha superado el Comité de Educación de la Cámara de Representantes estatal, lo que le permite avanzar a debate y votación en el pleno de la Cámara.

HF 274 propone eliminar las protecciones que actualmente tienen las bibliotecas públicas y las instituciones educativas respecto a la posesión y circulación de materiales considerados “obscenos”. Además, la ley plantea nuevas restricciones sobre el acceso de menores a las bibliotecas públicas, limitando su derecho a asistir a eventos o a consultar cualquier material disponible si se considera que en la institución hay contenido «obsceno». En la práctica, esto podría traducirse en la prohibición de la entrada de menores de 18 años a bibliotecas que alberguen libros considerados inapropiados por ciertos sectores políticos o religiosos.

El término «obsceno», sin embargo, ha sido manipulado en este tipo de legislaciones para censurar principalmente libros con temáticas LGBTQ+. Aunque legalmente la obscenidad se define a través del Test de Miller, un criterio de tres pasos establecido por la Corte Suprema de EE.UU., en la práctica, legislaciones como HF 274 buscan aplicar esta etiqueta de manera arbitraria para justificar la eliminación de obras que incomodan a ciertos sectores políticos y religiosos. Un antecedente claro es la aprobación del Senate File 496 en 2023, una ley que ya restringía el acceso a ciertos libros en las escuelas públicas de Iowa.

El avance de HF 274 se enmarca en una tendencia nacional de censura y ataques contra las bibliotecas. Un caso emblemático ocurrió en 2023 en la Biblioteca Pública de Pella, donde la novela gráfica Gender Queer, de Maia Kobabe, fue blanco de una intensa campaña de censura. Grupos locales intentaron cambiar la estructura de gobierno de la biblioteca para colocarla bajo control de funcionarios electos, lo que habría permitido censurar materiales con mayor facilidad. Aunque esta iniciativa fracasó, evidenció los recursos y estrategias empleados por grupos que buscan restringir el acceso a determinados contenidos.

La aprobación de HF 274 no solo limitaría el acceso a la información en bibliotecas públicas, sino que también podría abrir la puerta a demandas legales contra las instituciones y los bibliotecarios, como ha sucedido en Idaho. Allí, una ley reciente permite que los padres demanden a las bibliotecas si no retiran con suficiente rapidez libros que consideren inapropiados. Además, otras legislaciones similares en Utah y Carolina del Sur ya han impuesto sanciones económicas a bibliotecas y escuelas por mantener ciertos títulos en sus colecciones.

En paralelo, el Senado de Iowa está tramitando otro proyecto de ley, SF 116, que busca penalizar con cargos criminales a bibliotecarios y educadores que organicen eventos de drag en bibliotecas o que posean material considerado “obsceno” al alcance de menores. La combinación de HF 274 y SF 116 supondría una transformación radical del sistema de bibliotecas y educación pública en Iowa, convirtiéndolos en herramientas de control político y moral, y socavando su función de servicio público accesible a todos.

Los promotores de estas leyes justifican su avance en la defensa de los “derechos de los padres” y la protección de los menores. Sin embargo, lo que realmente ocurre es una reconfiguración del concepto de obscenidad para imponer restricciones basadas en intereses ideológicos y partidistas. En lugar de permitir que los padres decidan qué pueden leer sus hijos, estas leyes otorgan al gobierno el poder de definir qué es aceptable y qué no en los espacios públicos.

Además de afectar directamente a los usuarios de las bibliotecas, estas medidas también buscan deslegitimar la labor profesional de los bibliotecarios, al considerarlos actores prescindibles en la gestión de la información y el acceso a la cultura. Esto representa una amenaza grave para la integridad del sistema bibliotecario y el derecho de los ciudadanos a acceder libremente al conocimiento.

El caso de Iowa es un reflejo de una batalla más amplia que se está librando en todo Estados Unidos, donde los intentos de censura en bibliotecas públicas y escolares están en aumento. La rapidez con la que se ha tramitado HF 274 demuestra que sus impulsores buscan minimizar el debate público y evitar la movilización en su contra.

Identificación de las implicaciones económicas de la inteligencia artificial para la política de derechos de autor

: Lutes, Brent A. ed., Identifying the Economic Implications of Artificial Intelligence for Copyright Policy: Context and Direction for Economic Research, U.S. Copyright Office, 2025

Texto completo

Las cuestiones económicas en torno a la inteligencia artificial (IA) son amplias y complejas. Este análisis no pretende abordarlas en su totalidad ni ofrecer respuestas definitivas, sino identificar las preguntas económicas más relevantes en el contexto específico de la política de derechos de autor y proporcionar un marco para aplicar las respuestas provenientes de la comunidad económica a los debates de políticas públicas.

Antes de ello, se ofrece un repaso sobre la economía del copyright, los términos clave y el contexto tecnológico. El documento se divide en siete partes:

  • Partes 2, 3 y 4: Analizan el impacto de la IA en la producción de contenido, incluyendo la competencia entre obras generadas por IA y creaciones humanas, la replicación de obras humanas por parte de la IA y los derechos de imagen y publicidad.
  • Partes 5 a 8: Se centran en el uso de obras con copyright como insumo para la IA, abordando su efecto en los incentivos creativos, el desarrollo tecnológico e industrial de la IA, el control de acceso a obras protegidas y los efectos colaterales de las políticas de IA.

Dado que estos temas están interconectados (por ejemplo, el poder de mercado influye en varios de ellos), es esencial considerarlos de manera integral y no abordar cada cuestión de forma aislada.

Thomson Reuters gana una sentencia de «uso justo» de los derechos de autor de IA contra Ross Intelligence

Reuters. «Thomson Reuters Wins AI Copyright Fair Use Ruling Against One-Time Competitor.» Reuters, 11 de febrero de 2025. https://www.reuters.com/legal/thomson-reuters-wins-ai-copyright-fair-use-ruling-against-one-time-competitor-2025-02-11/

Sentencia

El fallo reciente de un juez federal en Delaware a favor de Thomson Reuters en un caso de derechos de autor contra Ross Intelligence ha generado un importante precedente legal en el ámbito de la inteligencia artificial (IA) y el uso de contenido protegido. Este veredicto, emitido por el juez Stephanos Bibas, es el primero en los Estados Unidos que aborda específicamente la doctrina de uso justo (fair use) en el contexto de litigios relacionados con la IA.

Ross Intelligence, una firma de investigación legal que ya no está operativa, fue acusada de utilizar contenido protegido por derechos de autor de Thomson Reuters para desarrollar una plataforma de investigación legal basada en IA que competía directamente con Westlaw, el reconocido servicio de investigación legal de Thomson Reuters. En su decisión, Bibas reconsideró un fallo anterior en el que había sugerido que la determinación sobre el uso justo debería ser realizada por un jurado. Tras un análisis más detallado de los materiales del caso, el juez concluyó que Ross había infringido los derechos de autor al desarrollar un sustituto de mercado utilizando contenido de Thomson Reuters.

La doctrina de uso justo permite, bajo ciertas condiciones, el uso de obras protegidas sin permiso expreso, como en parodias, investigación no comercial o producción de noticias. Sin embargo, los tribunales evalúan el uso justo mediante un test de cuatro factores: el propósito del uso, la naturaleza de la obra original, la cantidad utilizada y el impacto en el valor de mercado de la obra original. Thomson Reuters prevaleció en dos de estos cuatro factores, y el juez Bibas enfatizó que el cuarto factor, el impacto en el mercado, era el más crucial, ya que Ross buscaba competir directamente con Westlaw.

Este fallo ha generado preocupación entre las empresas de IA, ya que podría influir en otros casos similares en curso contra gigantes tecnológicos como OpenAI y Microsoft. James Grimmelmann, profesor de derecho digital e internet en la Universidad de Cornell, señaló que si esta decisión se adopta en otros tribunales, representaría un obstáculo significativo para las empresas de IA generativa, ya que muchos de los argumentos legales que utilizan para defenderse podrían considerarse irrelevantes.

Es importante destacar que este caso involucra una IA no generativa, a diferencia de las herramientas de IA generativa como los modelos de lenguaje de gran tamaño (LLM). Ross Intelligence cerró en 2021, alegando que la demanda de Thomson Reuters era infundada, pero que no podía recaudar suficientes fondos para continuar operando mientras se enfrentaba al litigio.

Este precedente podría afectar profundamente el desarrollo y uso de la IA, especialmente en el contexto de la utilización de contenido protegido, y plantea interrogantes sobre cómo las empresas de tecnología podrán entrenar sus modelos sin infringir derechos de autor. A medida que otros casos similares avanzan en los tribunales, la industria de la IA está atenta a las posibles implicaciones legales de este fallo.

El acceso abierto como alternativa a las licencias restrictivas sobre el uso de la investigación para entrenar sistema de IA

Waibel, Günter, y Dave Hansen. «AI Deals Underscore the Importance of Open AccessInside Higher Ed, 7 de enero de 2025. https://www.insidehighered.com/opinion/views/2025/01/07/ai-deals-underscore-importance-open-access-opinion

Günter Waibel y Dave Hansen abordan la preocupación creciente en la comunidad académica sobre los lucrativos acuerdos entre editoriales y empresas de inteligencia artificial (IA) para el uso de publicaciones académicas como datos de entrenamiento. Argumentan que la respuesta adecuada no es recurrir a licencias más restrictivas, sino abogar por el acceso abierto, una práctica que beneficiaría tanto a los académicos como al público en general.

Explican que muchos autores académicos, al publicar sus obras, transfieren los derechos de autor a las editoriales, lo que permite a estas controlar legalmente el contenido y negociar con empresas de IA sin necesidad de consultar a los creadores originales. Esto ha generado críticas y dudas sobre la equidad de estas prácticas, especialmente considerando las grandes sumas de dinero involucradas.

Waibel y Hansen subrayan que, aunque puede ser tentador para los autores recurrir a la publicación detrás de un muro de pago para proteger sus obras de ser utilizadas por la IA, esta estrategia es contraproducente. En realidad, refuerza el monopolio de las editoriales sobre el contenido académico, permitiendo que sigan explotando el trabajo de los académicos para beneficio comercial.

En contraste, proponen que el acceso abierto no solo democratiza el acceso al conocimiento, sino que también permite un uso más ético y productivo de las tecnologías de IA en la investigación. Al eliminar las barreras económicas para acceder a la literatura académica, se crea un corpus accesible para la investigación computacional, impulsando nuevas metodologías y avances científicos.

Además, señalan que el uso justo (fair use) es un principio fundamental que permite tanto a las empresas de IA como a los investigadores académicos utilizar el contenido de manera transformadora para promover el progreso de la ciencia y la cultura. Limitar este uso solo para las empresas desfavorecidas podría erosionar los derechos de uso justo para todos, incluidos los académicos.

Finalmente, Waibel y Hansen hacen un llamado a la comunidad académica para que adopte el acceso abierto como un medio para maximizar el impacto público de la investigación. Argumentan que esto no solo es beneficioso para los académicos, que tendrían acceso pleno a las herramientas y metodologías más avanzadas, sino que también fortalece el bien público al ampliar el alcance del conocimiento generado en las universidades.

Una propuesta legislativa busca retirar fondos a las bibliotecas públicas que prohíban libros

KRQE News. «Legislative Bill Would Cut Funding for New Mexico Public Libraries That Ban BooksKRQE, January 4, 2025. https://www.krqe.com/news/politics-government/legislature/legislative-bill-would-cut-funding-for-new-mexico-public-libraries-that-ban-books/.

La representante estatal de Nuevo México, Kathleen Cates, ha reintroducido una propuesta legislativa que busca retirar fondos a las bibliotecas públicas que prohíban libros. Esta iniciativa, que casi fue aprobada en la sesión legislativa de 2024, pretende garantizar que las bibliotecas públicas no censuren materiales, protegiendo así el acceso de los niños a diversos contenidos. Cates enfatiza que el proyecto no forma parte de una «guerra cultural», sino que busca salvaguardar las bibliotecas y el derecho a la información.

El proyecto de ley propone que las bibliotecas públicas adopten la Declaración de Derechos de la Biblioteca de la Asociación Americana de Bibliotecas de 2019. Esta declaración establece principios fundamentales sobre la libertad intelectual y el acceso equitativo a la información. Al exigir su adopción, la legislación busca asegurar que las bibliotecas no excluyan materiales basándose en contenido político, social o religioso.

La censura de libros en Estados Unidos ha sido un tema recurrente, especialmente en relación con obras que abordan temas LGBTQ+. Por ejemplo, «Gender Queer» de Maia Kobabe ha sido uno de los libros más desafiados en los últimos años debido a su contenido explícito y temas de identidad de género

La propuesta de Cates se enmarca en un contexto más amplio de debates sobre la censura y la libertad de expresión en las bibliotecas públicas. La Asociación Americana de Bibliotecas y otras organizaciones abogan por el acceso libre y sin restricciones a la información, considerando que la censura socava los principios democráticos y el derecho del público a la información.

Se espera que la reintroducción de este proyecto de ley genere debates significativos en la próxima sesión legislativa de Nuevo México, ya que aborda cuestiones fundamentales sobre la libertad intelectual, la censura y el papel de las bibliotecas públicas en la sociedad.

Posibles problemas legales por el entrenamiento de Sora de OpenAI con contenido de videojuegos

Wiggers, Kyle. «It Sure Looks Like OpenAI Trained Sora on Game Content — and Legal Experts Say That Could Be a ProblemTechCrunch, December 11, 2024. https://techcrunch.com/2024/12/11/it-sure-looks-like-openai-trained-sora-on-game-content-and-legal-experts-say-that-could-be-a-problem/.

OpenAI ha lanzado Sora, una IA generadora de videos que parece haber sido entrenada con contenido de videojuegos, incluidos streamings de Twitch y videojuegos populares. Esto podría generar problemas legales debido al uso no autorizado de material con derechos de autor. Expertos en propiedad intelectual advierten sobre los riesgos de infringir derechos de autor y marcas al entrenar modelos generativos con estos datos.

OpenAI nunca ha revelado completamente los datos específicos utilizados para entrenar a Sora, su IA generadora de videos, pero parece probable que al menos parte de su material de entrenamiento provenga de transmisiones de Twitch y guías de juegos. Sora, que fue lanzada el lunes, puede generar videos de hasta 20 segundos de duración en varios formatos y resoluciones a partir de indicaciones de texto o imagen. Aunque OpenAI insinuó anteriormente que el modelo fue entrenado usando videos de Minecraft, parece que otro contenido de videojuegos también pudo haber sido incluido en el conjunto de entrenamiento. En algunas pruebas, Sora fue capaz de generar metraje de un juego similar a Super Mario Bros., un shooter en primera persona inspirado en juegos como Call of Duty y Counter-Strike, y un luchador estilo arcade de los años 90, semejante a los juegos de Teenage Mutant Ninja Turtles.

Una característica destacada de Sora es su aparente comprensión de las transmisiones en Twitch, ya que generó un video que imita la apariencia y el estilo de una plataforma de streaming popular. Esto incluyó un personaje que se parecía a Auronplay, un conocido streamer de Twitch, e incluso una figura similar a Pokimane, otra streamer prominente. Aunque OpenAI ha implementado medidas para evitar la generación de clips que involucren personajes con derechos de autor, mis pruebas sugieren que el contenido de videojuegos, posiblemente de Twitch y otras fuentes, pudo haber contribuido al entrenamiento de Sora.

OpenAI ha sido ambigua respecto a sus fuentes de datos, y en una entrevista anterior, la entonces CTO de la compañía, Mira Murati, no negó que el modelo pudiera haber sido entrenado utilizando contenido de plataformas como YouTube, Instagram y Facebook. OpenAI también ha reconocido el uso de datos disponibles públicamente y materiales con licencia de bibliotecas de medios de stock como Shutterstock en el desarrollo de Sora. Sin embargo, si el contenido de videojuegos forma parte del conjunto de entrenamiento, podría haber consecuencias legales, especialmente si OpenAI desarrolla aplicaciones interactivas sobre Sora.

Los expertos legales han expresado preocupaciones sobre los posibles riesgos de usar contenido de videojuegos no autorizado para entrenar modelos de IA. Joshua Weigensberg, un abogado de propiedad intelectual, señaló que el uso de material con derechos de autor de videojuegos sin las licencias adecuadas podría llevar a infracciones, especialmente si dichos datos se utilizan en modelos generativos de IA que producen nuevas obras. Los propios juegos suelen contener elementos protegidos, como texturas propietarias, y si estos se incluyen en los datos de entrenamiento de un modelo, podrían surgir problemas legales.

Además del riesgo de infracción de derechos de autor, existen preocupaciones sobre otros derechos de propiedad intelectual, como los derechos de marca registrada y los derechos sobre el contenido generado por los usuarios. Evan Everist, abogado especializado en derechos de autor, explicó que los videos de las partidas de juegos pueden implicar múltiples capas de protección de derechos de autor, como los derechos sobre el contenido del juego en sí, el video único creado por el jugador y el contenido generado por los usuarios. Esto crea una red compleja de titulares de derechos de autor que podrían reclamar infracción si las empresas de IA usan tales materiales en sus datos de entrenamiento.

Si bien algunos casos legales contra las empresas de IA se han centrado en si la IA generativa puede considerarse transformativa y, por lo tanto, no infringe los derechos de autor, los tribunales aún no han resuelto cuestiones clave sobre el uso de materiales con derechos de autor para entrenar la IA. Incluso si las empresas de IA ganan estos litigios, los usuarios individuales aún podrían ser responsables de infracción de derechos de autor si usan contenido generado por IA que copie obras protegidas. Además, existe el riesgo adicional de violación de derechos de marca registrada, especialmente si los videos generados por IA presentan personajes de juegos reconocibles u otros elementos protegidos. El creciente uso de modelos de mundo, que implican generar videojuegos sintéticos o experiencias interactivas en tiempo real, podría complicar aún más el panorama legal.

Regulación de las plataformas digitales: Perspectivas globales sobre la gobernanza de Internet

Flew, Terry, y Fiona R. Martin, eds. Digital Platform Regulation: Global Perspectives on Internet Governance. Cham: Springer, 2022. https://directory.doabooks.org/handle/20.500.12854/84346

Este volumen de acceso abierto, editado por Terry Flew y Fiona R. Martin, aborda en profundidad las cuestiones globales de política y gobernanza relacionadas con la regulación de plataformas digitales. El libro parte de una pregunta clave: ¿qué implicaría realmente la regulación de las plataformas digitales?

El auge de escándalos como el de Cambridge Analytica y la creciente reacción global contra los monopolios tecnológicos han llevado el tema de la gobernanza de internet al centro del debate político. Este libro responde a la necesidad de conectar el análisis crítico de las plataformas digitales con cuestiones de políticas públicas.

Anthropic advierte de la catástrofe de la IA si los gobiernos no regulan en 18 meses

Anthropic. «The Case for Targeted RegulationAnthropic, 31 de octubre de 2024. https://www.anthropic.com/news/the-case-for-targeted-regulation.

La regulación de la IA es esencial para balancear los beneficios y los riesgos. Si bien es un desafío complejo, es crucial implementarla pronto para evitar consecuencias negativas y asegurar el progreso en áreas clave como la ciencia y la medicina.

Los sistemas de inteligencia artificial (IA) están avanzando rápidamente, ofreciendo enormes beneficios potenciales en áreas como la ciencia, la medicina y la economía. Sin embargo, también presentan riesgos significativos, como el uso indebido en ciberseguridad o biotecnología, y la posibilidad de comportamientos autónomos y destructivos de los propios sistemas. Ante estos riesgos, se urge a los gobiernos a implementar políticas de IA en los próximos 18 meses, ya que el margen para prevenir estos riesgos está cerrándose rápidamente.

Una regulación bien diseñada y específica puede permitir que se aprovechen los beneficios de la IA, mitigando al mismo tiempo sus peligros. Sin embargo, si se retrasan las acciones, el resultado podría ser una regulación ineficaz que limite el progreso sin evitar los riesgos. Se propone una regulación dirigida que se enfoque en tres principios clave:

  1. Urgencia: La IA ha avanzado significativamente en el último año, con mejoras notables en tareas de codificación, razonamiento y matemáticas, lo que aumenta tanto las aplicaciones positivas como las posibilidades de uso indebido, especialmente en áreas como la ciberseguridad y la biotecnología.
  2. Política de Escalamiento Responsable (RSP): En Anthropic, la empresa responsable del artículo, se ha implementado una política llamada «Escalamiento Responsable», que ajusta las medidas de seguridad y mitigación de riesgos en función de los niveles de capacidad de los modelos de IA. Esta política se adapta de forma continua según el desarrollo de los modelos y su potencial de generar riesgos catastróficos.
  3. Elementos clave para la regulación de la IA:
    • Transparencia: Las empresas deben ser obligadas a publicar sus políticas de seguridad y las evaluaciones de riesgo de cada nueva generación de modelos de IA.
    • Incentivos para mejores prácticas de seguridad: La regulación debe fomentar que las empresas desarrollen políticas efectivas que prevengan riesgos graves.
    • Simplicidad y enfoque: La regulación debe ser precisa y evitar cargas innecesarias o reglas complicadas que puedan obstaculizar el progreso.

Se destaca la necesidad urgente de que los gobiernos y la industria trabajen juntos para desarrollar un marco regulatorio efectivo, que no solo reduzca los riesgos catastróficos de la IA, sino que también permita a la industria seguir innovando. Esto debe lograrse de manera flexible, considerando el rápido avance de la tecnología y adaptando las políticas a las mejores prácticas emergentes.

Directrices sobre el uso de las redes sociales por los jueces canadienses

Guidelines on the Use of Social Media by Federally Appointed Judges. The Canadian Judicial Council (CJC), 2024

Texto completo

The Canadian Judicial Council (CJC) publicó recientemente unas directrices sobre el uso de las redes sociales por jueces nombrados a nivel federal. Estas guías buscan orientar a los jueces en el uso seguro y adecuado de redes sociales, reconociendo tanto los riesgos como los beneficios potenciales, tales como: fortalecer la conexión con la comunidad judicial, fomentar la educación pública sobre el rol judicial, mantener vínculos personales importantes para el bienestar de los jueces, y familiarizarse con tecnologías relevantes para su labor.

Las directrices subrayan que el uso inapropiado de redes sociales podría perjudicar la confianza pública en el sistema judicial y los principios fundamentales de la función judicial: independencia, integridad, respeto, diligencia, competencia, igualdad e imparcialidad. El CJC, presidido por el juez principal del Tribunal Supremo de Canadá, es responsable de garantizar la conducta adecuada de los jueces federales y de mejorar la calidad de los servicios judiciales.

Posición del Comité Consultivo de Derecho de Autor y otros Asuntos Jurídicos de IFLA sobre la Inteligencia Artificial

Levine, Melissa, y Advisory Committee on Copyright and other Legal Matters (CLM). 2024. «Advisory Committee on Copyright and Other Legal Matters Position on Artificial Intelligence», octubre.

Texto completo

Este documento está diseñado para ayudar a las bibliotecas miembros de IFLA a navegar los problemas de derechos de autor relacionados con el uso de la IA y a apoyar el desarrollo de programas y servicios bibliotecarios relevantes. También respalda el trabajo del Grupo de Interés Especial de IFLA sobre Inteligencia Artificial, alineándose con el Manifiesto y el plan de Comunicación y Outreach de IFLA.

Consideraciones:

  • La aparición de tecnologías de IA plantea múltiples consideraciones para las bibliotecas, incluida la forma en que se utiliza el contenido y quién lo utiliza. Las bibliotecas están en una posición única para liderar en este ámbito, afirmando su papel como innovadoras, desde la inclusión de contenido generado por IA en sus colecciones hasta la mejora y eficiencia en la entrega de servicios de referencia y préstamo interbibliotecario.
  • En muchos países, las leyes de derechos de autor (tanto derechos económicos como morales) han evolucionado para adaptarse a tecnologías innovadoras y son adecuadas para abordar las preocupaciones legítimas de los creadores, incluidas las bibliotecas en su rol como creadoras de procesos y servicios basados en IA.
  • La legislación relacionada con la IA a menudo también existe fuera del ámbito del derecho de autor. Para temas no relacionados con los derechos de autor, como salud, seguridad, privacidad y cuestiones éticas, se debe acudir a la fuente de información política más adecuada. Las bibliotecas deben considerar las herramientas de IA desde un enfoque basado en valores, asegurándose de que no comprometan la libertad de expresión, la privacidad ni otras áreas de preocupación.

Recomendaciones:

  • Las bibliotecas deben ofrecer capacitación y desarrollo esenciales sobre tecnologías en evolución, incluida la IA, para apoyar a empleados, investigadores y otros usuarios de la biblioteca.
  • En jurisdicciones donde la ley de derechos de autor no respalda los usos típicos y en evolución de la IA por parte de las bibliotecas, se debe abogar para informar a los tomadores de decisiones sobre los beneficios de expandir las limitaciones y excepciones existentes para permitir usos como la minería de texto y datos (TDM).
  • Las convenciones de derechos humanos existentes deberían guiar el desarrollo de trabajos normativos relacionados con la IA. Se deben apoyar los esfuerzos de las bibliotecas para desarrollar prácticas éticas en respuesta a las preocupaciones relacionadas con las herramientas de IA.
  • Los contratos para recursos bibliotecarios licenciados no deben incluir cláusulas que obstaculicen o restrinjan indebidamente el uso de la IA por parte de los usuarios de la biblioteca ni que impidan el uso de excepciones aplicables en la ley de derechos de autor.
  • Las bibliotecas se comprometen a abordar los sesgos mientras navegan por los desafíos de derechos de autor. El acceso limitado a datos y recursos puede conducir a sesgos en los sistemas de IA, por lo que abogamos por el monitoreo continuo de los servicios de IA en las bibliotecas para garantizar la diversidad y el acceso equitativo a la información.