Archivo de la etiqueta: Legislación

Guía rápida de la Ley de Inteligencia Artificial (IA) de la Unión Europea

Quick Guide to the EU AI Act

Ver infografía

Texto completo

Original

«La inteligencia artificial ya está cambiando nuestra vida cotidiana, y eso tan solo es el principio. Utilizada de forma sensata y generalizada, la inteligencia artificial promete enormes beneficios para nuestra economía y nuestra sociedad. Por lo tanto, celebro con gran satisfacción el acuerdo político alcanzado hoy por el Parlamento Europeo y el Consejo sobre la Ley de Inteligencia Artificial. La Ley de IA de la UE es el primer marco jurídico global en materia de inteligencia artificial en todo el mundo. Así pues, se trata de un momento histórico. La Ley de IA lleva los valores europeos a una nueva era. Al centrar la regulación en los riesgos identificables, el acuerdo alcanzado hoy fomentará la innovación responsable en Europa. Al velar por la seguridad y los derechos fundamentales de las personas y las empresas, apoyará el desarrollo, la implantación y la aceptación de una inteligencia artificial fiable en la UE. Nuestra Ley de IA contribuirá de manera sustancial a la formulación de normas y principios mundiales sobre una inteligencia artificial centrada en el ser humano.»

Ursula von der Leyen, President of the European Commission – 09/12/2023


La Ley de Inteligencia Artificial de la UE, oficialmente conocida como «Propuesta de Reglamento del Parlamento Europeo y del Consejo por la que se establecen normas armonizadas sobre la inteligencia artificial (Reglamento de Inteligencia Artificial)», es una iniciativa legislativa destinada a regular el desarrollo y uso de tecnologías de inteligencia artificial (IA) dentro de la Unión Europea. Aquí tienes una guía rápida sobre los puntos clave de la Ley de IA de la UE:

1. Ámbito de Aplicación:

  • La Ley de IA se aplica a los proveedores que colocan sistemas de IA en el mercado de la UE o los ponen en servicio, independientemente de si están establecidos dentro o fuera de la UE.

2. Definición de Sistemas de IA:

  • La regulación define los sistemas de IA como software desarrollado con la capacidad de utilizar datos para lograr un propósito que normalmente requeriría inteligencia humana. Cubre una amplia gama de aplicaciones de IA, incluidos modelos de aprendizaje automático y sistemas basados en reglas.

3. Enfoque Basado en el Riesgo:

  • La regulación categoriza los sistemas de IA en cuatro niveles de riesgo: Riesgo Inaceptable, Riesgo Elevado, Riesgo Limitado y Riesgo Mínimo. El nivel de riesgo determina los requisitos y obligaciones regulatorias impuestas a los desarrolladores y usuarios.

4. Sistemas de IA de Alto Riesgo:

  • Los sistemas de IA de alto riesgo incluyen aquellos utilizados en infraestructuras críticas, formación educativa o vocacional, servicios públicos esenciales, aplicación de la ley, control de migración y fronteras, e identificación biométrica. Se aplican requisitos más estrictos a estos sistemas.

5. Requisitos para Sistemas de IA de Alto Riesgo:

  • Para los sistemas de IA de alto riesgo, los desarrolladores deben cumplir con varios requisitos, incluida la calidad de los datos, documentación, transparencia, supervisión humana y robustez. Los análisis de conformidad, con la participación de un tercero, son obligatorios.

6. Transparencia y Explicabilidad:

  • La Ley de IA destaca la importancia de la transparencia y requiere que los sistemas de IA proporcionen a los usuarios información clara y accesible sobre las capacidades y limitaciones del sistema. También se exigen explicaciones para las decisiones tomadas por los sistemas de IA.

7. Gobernanza de Datos:

  • La regulación aborda el uso de datos en sistemas de IA, enfatizando la necesidad de gobernanza de datos. Promueve el uso de conjuntos de datos de entrenamiento de alta calidad, y los desarrolladores deben asegurarse de que los datos utilizados sean relevantes, representativos y libres de sesgos.

8. Prácticas Prohibidas:

  • Algunas prácticas de IA están prohibidas de manera absoluta en la regulación, especialmente aquellas consideradas como representando riesgos inaceptables. Esto incluye la manipulación de individuos a través de técnicas subliminales y la explotación de vulnerabilidades de grupos específicos.

9. Cumplimiento y Sanciones:

  • Las autoridades competentes nacionales supervisarán el cumplimiento de la Ley de IA. El incumplimiento puede resultar en sanciones, multas o suspensión del marketing de un sistema de IA. Las infracciones graves pueden llevar a multas de hasta 30 millones de euros o el 6% de la facturación total anual mundial, lo que sea mayor.

10. Cooperación Internacional:

  • La UE fomenta la cooperación internacional en la regulación de la IA. La Ley de IA de la UE busca establecer un estándar global para la ética y la regulación de la IA, fomentando la colaboración con socios internacionales.

Es importante tener en cuenta que la Ley de IA de la UE es un paso significativo hacia la creación de un marco normativo para las tecnologías de IA, abordando preocupaciones éticas y asegurando el desarrollo y despliegue responsables de sistemas de IA dentro de la Unión Europea.

Declaración pública de LIBER sobre la Ley de Servicios Digitales

LIBER Signs Public Statement on Digital Services Act. LIBER Europe [en línea], [2022]. [consulta: 1 diciembre 2023]. Disponible en: https://libereurope.eu/article/press-release-liber-signs-public-statement-on-digital-services-act/.

LIBER firmó una declaración pública junto con la asociación universitaria CESAER y la Confederación de Repositorios de Acceso Abierto (COAR), instando a la Unión Europea a reconocer proactivamente la importancia de las infraestructuras digitales para la educación e investigación al diseñar legislación centrada en lo digital. LIBER trabajó con éxito con otras asociaciones bibliotecarias y culturales para crear una exención para los repositorios educativos y científicos del artículo 17 de la Directiva sobre derechos de autor en el mercado único digital.

La legislación relacionada con plataformas digitales se diseña en torno a hacer que las plataformas comerciales sean responsables de los usuarios que cargan contenido ilegal, por ejemplo, música o películas que se cargan en YouTube o Facebook. Estudiantes, académicos, investigadores y profesores cargan artículos, libros, grabaciones de sonido, datos de investigación y películas en una variedad de plataformas de educación e investigación, desde el repositorio institucional de una universidad hasta repositorios ampliamente utilizados como Dryad, ArXiv.org, repositorios nacionales y la Nube Europea de Ciencia Abierta (EOSC).

Las preocupaciones incluyen:

  1. Las organizaciones educativas e investigativas llevan a cabo el hospedaje de contenido para apoyar el aprendizaje, el conocimiento y el descubrimiento científico. Es totalmente inapropiado que las intervenciones legales dirigidas a empresas con fines de lucro se apliquen de esta manera generalizada, donde los impactos para la educación e investigación no son más que daños colaterales. En el mejor de los casos, esto significará nuevas cargas administrativas y legales para que las organizaciones educativas e investigativas cumplan, y en el peor de los casos, cerrar o no lanzar servicios en línea que permitan la carga debido a temores de las responsabilidades que esto podría implicar.
  2. La evaluación de impacto de la Ley de Servicios Digitales no contiene una evaluación del costo o el tiempo que esta legislación y sus obligaciones tendrían en las bibliotecas, universidades u organizaciones de investigación cuyo papel principal es apoyar el aprendizaje. En resumen, las organizaciones educativas e investigativas no reciben ingresos de los artículos, libros y datos de investigación alojados en nuestras plataformas, a diferencia de la mayoría de las plataformas de hospedaje para las cuales se ha diseñado esta legislación.
  3. La confusión legal que una exención bajo la Directiva de Derechos de Autor en el Mercado Único Digital pero la inclusión bajo la Ley de Servicios Digitales crearía para nuestras instituciones y, potencialmente, incluso para los tribunales.

Derecho a la información, bibliotecas y archivos: pluralidad e injusticias epistémicas en los sistemas de información contemporáneos.

Morán Reyes, Ariel Antonio. Derecho a La Información, Bibliotecas y Archivos: Pluralidad e Injusticias Epistémicas En Los Sistemas de Información Contemporáneos. Universidad Nacional Autónoma de México, Facultad de Filosofía y Letras, 2022.

Texto completo

En esta investigación se emprendió el cometido de demostrar que la biblioteca (como institución) y el bibliotecario (como profesional) son agentes facilitadores de los procesos democráticos, mismos que deben encaminarse hacia la consecución de la autonomía de la ciudadanía, gracias a la circulación social de la información. En el Capítulo 1 se discurrió sobre la forma en la que la democracia mexicana—fundada en un estado constitucional de derecho—afronta el reto de garantizar el acceso a la información de una manera transparente, al apoyar actividades en la materia para incrementar la participación ciudadana. En el Capítulo 2 se precisaron aquellos mecanismos a través de los cuales el derecho a la información se constituye como un elemento imprescindible que permite generar condiciones de igualdad en entornos multiculturales inmersos en un régimen globalizado. Este derecho debe avanzar conforme al desarrollo de la sociedad informacional, sobre todo en su relación con la pléyade de tecnologías digitales, en las cuales se apoya materialmente. La autodeterminación informativa no se circunscribe únicamente en procesos oficiales de toma de decisiones, sino que también contempla el fortalecimiento de las condiciones de justicia social. Como corolario, en el Capítulo 3 se puntualizaron las rutas, caminos y retos que debe emprender un profesional de la información documental para que pueda concretar sus advocaciones sociales, al amparo del derecho a la información, como un derecho humano fundamental y como prerrogativa constitucional. La tarea que tienen ante sí los bibliotecarios y archivistas es de suma trascendencia para la procuración y defensa del derecho a la información. Como parte de su misión, deben reconocer que las necesidades de información son necesidades básicas legítimas, además de atenuar las injusticias y las asimetrías informativas, para lo cual tendrán que concebir estrategias de inclusión (tanto en el espacio de los flujos como en el espacio de los lugares).

Redefiniendo la Inteligencia Artificial: cómo la práctica de la Propiedad Intelectual se va adaptando a lo que se avecina

Los avances rápidos en inteligencia artificial indudablemente influirán en la ley y la práctica de la propiedad intelectual. Esto requiere que los profesionales de PI y sus socios tecnológicos reevalúen ciertas suposiciones sobre cómo se crea, protege y administra la PI. Se espera que estos cambios no lleguen como una revolución, sino a través de una serie de pasos incrementales.

Clarivate Plc ha publicado un informe titulado «Redefining AI: How IP practice meets the coming wave«, que investiga el impacto de la inteligencia artificial (IA) en la ley, la práctica y los procesos de propiedad intelectual (PI). El informe revela que la IA se está adoptando cada vez más en el campo de la PI, ofreciendo beneficios como la automatización de tareas manuales y la mejora de la productividad.

El informe aborda las percepciones de la IA y se centra en los beneficios, riesgos y la disposición a su integración en el ciclo de vida de la PI. Se parte de la suposición fundamental de que las perspectivas reales y los usos de la IA deben ser centrales en su desarrollo. El informe se basa en una encuesta en línea en la que participaron 575 profesionales de PI e investigación y desarrollo (I+D) de firmas de abogados y corporaciones de todo el mundo entre el 17 de julio y el 1 de agosto de 2023.

Al igual que en muchos sectores, el uso de la IA para potenciar los procesos de PI y la toma de decisiones abarca una amplia gama de tecnologías con diferentes niveles de sofisticación. El 43% de los encuestados informaron que actualmente no se estaba utilizando la IA. La mayoría de los encuestados mostraron un sentimiento negativo hacia la IA en general y expresaron su mayor preocupación por la precisión (74%). Hubo un fuerte interés en que la IA respaldara tareas manuales y laboriosas (67%), con solo una pequeña minoría (8%) sugiriendo que no querían que la IA se aplicara en absoluto a los procesos de PI. En conjunto, estos hallazgos sugieren la posibilidad de que la implementación de la IA sea altamente contextual, dependiendo del problema específico a resolver y del entorno de riesgo. Las percepciones negativas de la IA tienden naturalmente hacia tareas de alto riesgo que dependen en gran medida de la experiencia. En estas áreas, se enfatiza la creación de herramientas que ponen de relieve la experiencia. Enfoques centrados en el ser humano pueden mitigar algunos riesgos asociados con la incorporación de la IA en los flujos de trabajo de PI, calibrando su desarrollo a las necesidades de los profesionales. Sin confianza en sistemas autónomos, es poco probable que se aproveche el verdadero potencial de la IA. Situamos la IA responsable y ética en el contexto de la práctica de la PI, no para sugerir que el desarrollo de la IA hasta la fecha haya sido irresponsable, sino para avanzar hacia un panorama equitativo en el que las tecnologías basadas en la IA satisfagan las necesidades de quienes las utilizan.

Puntos clave del informe:

  1. La IA se está adoptando en la gestión de la PI, mejorando la toma de decisiones y acelerando los procesos de investigación.
  2. Las actitudes hacia la adopción de la IA en el campo de la PI varían según los roles y las ubicaciones geográficas. Los abogados y las firmas de abogados son más reacios, mientras que los no abogados, ejecutivos y profesionales de I+D se sienten más cómodos con la IA.
  3. Europa y los Estados Unidos muestran actitudes más cautelosas hacia la adopción de la IA, mientras que las regiones de Asia Pacífico y MENA son más receptivas.
  4. Las preocupaciones sobre la adopción de la IA incluyen la precisión de los resultados, la confiabilidad, consideraciones éticas, la confidencialidad del cliente, la responsabilidad y la falta de regulación.
  5. Las firmas de abogados, en particular, expresan reservas sobre la adopción de la IA, con preocupaciones sobre la responsabilidad, la confiabilidad y la confidencialidad del cliente.
  6. Los profesionales de I+D son los más entusiastas acerca de la adopción de la IA y creen que tendrá un impacto positivo en su función.
  7. Los departamentos legales internos y las firmas de abogados enfrentan barreras significativas para adoptar la IA, lo que enfatiza la necesidad de un enfoque responsable que tenga en cuenta las implicaciones legales, éticas y sociales.

El informe sugiere que adoptar la IA en la PI requiere un compromiso continuo para gestionar y evaluar riesgos, teniendo en cuenta consideraciones legales, éticas y sociales. Este enfoque puede ayudar a calibrar los sistemas de IA para satisfacer necesidades específicas y al mismo tiempo mantener la integridad del sistema de PI y garantizar la equidad y la justicia.

El préstamo digital controlado en España. Bibliotecas y límites en el contexto digital

Xalabarder, Raquel Bibliotecas y límites en el contexto digital. El préstamo digital controlado en España. Madrid: FESABID, 2023

Texto completo

El Préstamo Digital Controlado, en adelante PDC, ha sido objeto de análisis en los últimos años. Consiste en la práctica de prestar bajo ciertas condiciones un ejemplar digitalizado de una obra literaria, artística o científica que se encuentra en los fondos de la institución. Este servicio contribuye a cumplir la misión de las bibliotecas de apoyar a la investigación, la educación y la participación cultural, teniendo en cuenta los límites de las leyes existentes en propiedad intelectual.

Para facilitar el conocimiento de los condicionantes jurídicos que hacen viable este servicio, FESABID ha publicado el informe “Bibliotecas y límites en el contexto digital. El préstamo digital controlado en España”obra de Raquel Xalabarder, catedrática de Propiedad Intelectual en la Universitat Oberta de Catalunya (UOC) y una reconocida experta internacional en materia de propiedad intelectual; con amplio conocimiento sobre los límites a la propiedad intelectual, que facilitan las actividades de bibliotecas, archivos y museos. En la actualidad es presidenta del grupo español Asociación Literaria y Artística para la Defensa del Derecho del Autor, de la ALAI, la Sociedad Europea de Derechos de Autor y de la Asociación Literaria y Artística Internacional. Recientemente ha sido nombrada directora de la Patent Academy, de la European Patent Office.

Sobre la IA: ¿Qué debemos regular?

«Regulatory Framework Proposal on Artificial Intelligence | Shaping Europe’s Digital Future», 30 de junio de 2023. https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.

La Comisión Europea propuesto el primer marco legal sobre inteligencia artificial (IA) que aborda los riesgos de la IA y coloca a Europa en una posición líder a nivel mundial.

La propuesta regulatoria tiene como objetivo proporcionar a los desarrolladores, implementadores y usuarios de IA requisitos y obligaciones claras con respecto a usos específicos de la IA. Al mismo tiempo, la propuesta busca reducir las cargas administrativas y financieras para las empresas, en particular las pequeñas y medianas empresas (PYMEs).

La propuesta forma parte de un paquete más amplio sobre IA, que también incluye el Plan Coordinado actualizado sobre IA. Juntos, el marco regulatorio y el Plan Coordinado garantizarán la seguridad y los derechos fundamentales de las personas y las empresas en lo que respecta a la IA. Además, fortalecerán la adopción, inversión e innovación en IA en toda la Unión Europea.

¿Por qué necesitamos normas sobre la inteligencia artificial (IA)?

La regulación propuesta sobre la IA garantiza que los europeos puedan confiar en lo que la IA tiene para ofrecer. Si bien la mayoría de los sistemas de IA presentan un riesgo limitado o nulo y pueden contribuir a resolver muchos desafíos sociales, ciertos sistemas de IA crean riesgos que debemos abordar para evitar resultados indeseables.

Por ejemplo, a menudo no es posible averiguar por qué un sistema de IA ha tomado una decisión o predicción y ha tomado una acción particular. Por lo tanto, puede resultar difícil evaluar si alguien ha sido perjudicado injustamente, como en una decisión de contratación o en una solicitud para un programa de beneficios públicos.

Aunque la legislación existente proporciona cierta protección, no es suficiente para abordar los desafíos específicos que pueden plantear los sistemas de IA.

Las normas propuestas:

  • Abordar los riesgos creados específicamente por las aplicaciones de IA.
  • Proponer una lista de aplicaciones de alto riesgo.
  • Establecer requisitos claros para los sistemas de IA en aplicaciones de alto riesgo.
  • Definir obligaciones específicas para los usuarios de IA y los proveedores de aplicaciones de alto riesgo.
  • Proponner una evaluación de conformidad antes de que el sistema de IA se ponga en servicio o se coloque en el mercado.
  • Proponer la aplicación después de que dicho sistema de IA se haya colocado en el mercado.
  • Proponer una estructura de gobernanza a nivel europeo y nacional.

El Marco Regulatorio define 4 niveles de riesgo en la inteligencia artificial (IA):

  1. Riesgo inaceptable
  2. Riesgo alto
  3. Riesgo limitado
  4. Riesgo mínimo o nulo

Riesgo inaceptable

Todos los sistemas de inteligencia artificial (IA) considerados una amenaza evidente para la seguridad, los medios de vida y los derechos de las personas serán prohibidos, desde la calificación social por parte de los gobiernos hasta los juguetes que utilizan asistentes de voz que fomentan un comportamiento peligroso.

Riesgo alto

Los sistemas de IA identificados como de alto riesgo incluyen la tecnología de IA utilizada en:

  • Infraestructuras críticas (por ejemplo, transporte), que podrían poner en riesgo la vida y la salud de los ciudadanos.
  • Educación o formación profesional, que pueden determinar el acceso a la educación y la carrera profesional de alguien (por ejemplo, calificación de exámenes).
  • Componentes de seguridad de productos (por ejemplo, aplicaciones de IA en cirugía asistida por robots).
  • Empleo, gestión de trabajadores y acceso al trabajo por cuenta propia (por ejemplo, software de clasificación de CV para procedimientos de contratación).
  • Servicios privados y públicos esenciales (por ejemplo, calificación crediticia que niega a los ciudadanos la oportunidad de obtener un préstamo).
  • Aplicación de la ley que puede interferir con los derechos fundamentales de las personas (por ejemplo, evaluación de la fiabilidad de la evidencia).
  • Gestión de migración, asilo y control fronterizo (por ejemplo, verificación de la autenticidad de documentos de viaje).
  • Administración de justicia y procesos democráticos (por ejemplo, aplicación de la ley a un conjunto concreto de hechos).

Los sistemas de IA de alto riesgo estarán sujetos a estrictas obligaciones antes de que puedan ser puestos en el mercado:

  • Sistemas adecuados de evaluación y mitigación de riesgos.
  • Alta calidad de los conjuntos de datos que alimentan el sistema para minimizar riesgos y resultados discriminatorios.
  • Registro de la actividad para garantizar la trazabilidad de los resultados.
  • Documentación detallada que proporcione toda la información necesaria sobre el sistema y su propósito para que las autoridades evalúen su cumplimiento.
  • Información clara y adecuada para el usuario.
  • Medidas apropiadas de supervisión humana para minimizar el riesgo.
  • Alto nivel de robustez, seguridad y precisión.

Todos los sistemas de identificación biométrica remota se consideran de alto riesgo y están sujetos a requisitos estrictos. El uso de la identificación biométrica remota en espacios de acceso público con fines de aplicación de la ley está, en principio, prohibido.

Se definen y regulan estrictamente excepciones limitadas, como cuando sea necesario buscar a un niño desaparecido, prevenir una amenaza terrorista específica e inminente o detectar, localizar, identificar o procesar a un autor o sospechoso de un delito grave.

Dicho uso está sujeto a autorización por parte de un órgano judicial u otro organismo independiente y a límites adecuados en cuanto a tiempo, alcance geográfico y bases de datos consultadas.

Riesgo limitado

El riesgo limitado se refiere a los sistemas de IA con obligaciones específicas de transparencia. Cuando se utilizan sistemas de IA como chatbots, los usuarios deben estar conscientes de que están interactuando con una máquina para que puedan tomar una decisión informada sobre si continúan o retroceden.

Riesgo mínimo o nulo

La propuesta permite el uso gratuito de la IA de riesgo mínimo. Esto incluye aplicaciones como videojuegos habilitados para la IA o filtros de correo no deseado. La gran mayoría de los sistemas de IA actualmente utilizados en la Unión Europea entran en esta categoría.

¿Qué son Los derechos de publicación secundarios?

Los derechos de publicación secundarios, también conocidos como «secondary rights» en inglés, se refieren a los derechos de un autor o creador que se derivan de la explotación secundaria de su obra después de la publicación inicial o su uso principal. Estos derechos pueden involucrar la reproducción, distribución y adaptación de la obra en diferentes formatos o para diferentes propósitos. Aquí hay algunas aclaraciones sobre los derechos de publicación secundarios:

  • Derechos de reproducción: Esto incluye el derecho de permitir que la obra se reproduzca en diferentes formatos o medios, como impresiones posteriores de libros, reediciones, versiones electrónicas o incluso adaptaciones cinematográficas.
  • Derechos de traducción: Los autores pueden otorgar derechos para que su obra sea traducida a diferentes idiomas y publicada en mercados internacionales.
  • Derechos de adaptación: Esto se refiere a la posibilidad de que la obra sea adaptada a otros medios, como películas, series de televisión, obras de teatro, videojuegos o cualquier otra forma de entretenimiento.
  • Derechos de distribución: Los derechos de distribución pueden incluir acuerdos para que la obra se distribuya en diferentes territorios geográficos o en diversos canales de venta, como librerías, tiendas en línea, bibliotecas, etc.
  • Derechos de sincronización: En el ámbito musical, los derechos de sincronización permiten que una canción sea utilizada en películas, programas de televisión, anuncios, videojuegos y otros medios audiovisuales.
  • Derechos de representación y actuación: En el teatro y las artes escénicas, los derechos de representación y actuación permiten la representación pública de una obra, ya sea en un teatro o en otro lugar.
  • Derechos de impresión de arte: En el caso de los artistas visuales, los derechos de impresión de arte pueden permitir la reproducción de su obra en forma de impresiones, carteles, tarjetas, etc.

En resumen, los derechos de publicación secundarios son una parte importante de la propiedad intelectual de un autor o creador y pueden generar ingresos adicionales a lo largo del tiempo a medida que su obra se utiliza de diversas formas o se difunde en diferentes mercados. Estos derechos se negocian generalmente a través de contratos y acuerdos entre el autor o creador y las partes interesadas, como editoriales, productoras de cine, agentes literarios, entre otros.

Los derechos de publicación secundarios pueden mejorar el acceso público a la investigación científica

Selman, Brianne, y Mark Swartz. «Secondary Publishing Rights Can Improve Public Access to Academic Research». The Conversation, 25 de julio de 2023. http://theconversation.com/secondary-publishing-rights-can-improve-public-access-to-academic-research-209761.

Tradicionalmente, los autores académicos ceden sus derechos de autor a editoriales privadas o no retienen suficientes derechos que les permitan a ellos o a sus financiadores volver a publicar o reutilizar su propio trabajo, o no conservan suficientes derechos que les permitan a ellos o a sus financiadores volver a publicar o reutilizar su propio trabajo. Esta práctica se opone al objetivo de la educación y la investigación: maximizar el impacto de la investigación compartiéndola lo más ampliamente posible y en el menor tiempo posible. impacto de la investigación compartiéndola lo más ampliamente posible en el momento oportuno.

Las agencias federales canadienses que conceden ayudas a la investigación anunciaron recientemente una revisión de la Política de Acceso Abierto a las Publicaciones de la Tri-Agencia, con el objetivo de exigir el acceso abierto y gratuito inmediato a todas las publicaciones académicas generadas a través de la investigación apoyada por la Tri-Agencia para 2025.

Para cumplir este requisito, el gobierno canadiense debería capacitar a los autores académicos mediante la adopción de derechos de publicación secundarios. Estos derechos garantizarían que los autores puedan «volver a publicar inmediatamente la investigación financiada con fondos públicos tras su primer depósito en un repositorio de acceso abierto o en cualquier otro lugar», incluso en los casos en que los editores lo prohíban.

Modificar la Ley de Propiedad Intelectual para incluir estos derechos daría a los autores académicos la posibilidad de poner a disposición del público artículos de revistas financiados por los contribuyentes a través del acceso abierto tras su publicación.

Permitir que la investigación canadiense sea accesible abiertamente sin barreras contribuirá al bien público, ayudando a fomentar la innovación y el descubrimiento.

La investigación encerrada tras muros de pago es un impedimento para la ciencia, la innovación y el progreso cultural. En el pasado, la mayoría de los trabajos de investigación sólo eran accesibles para las personas que pagaban por acceder a ellos o que trabajaban o estudiaban en universidades dispuestas a pagar por el acceso. Este modelo está cambiando, y muchas publicaciones están ahora a disposición del público en abierto. Sin embargo, cada vez se exige más a los autores que paguen a los editores para poder publicar en acceso abierto.

La actual Política de Acceso Abierto a las Publicaciones de la Agencia Tripartita exige que los autores pongan a disposición del público en línea copias de los artículos de revistas financiadas, pero permite un periodo de embargo de 12 meses en el que los editores obtienen derechos exclusivos sobre el contenido y pueden mantenerlo bloqueado tras un muro de pago. Esto puede suponer importantes retrasos en el libre acceso a investigaciones vitales.

Los datos de OA.Report muestran que las publicaciones financiadas por el Consejo de Investigación de Ciencias Sociales y Humanidades de Canadá solo cumplían la política en un 52% en 2023 hasta la fecha. El resultado es que gran parte de la investigación financiada con fondos públicos sigue sin estar a disposición del público.

Las APC son tasas que pagan los autores académicos por publicar en revistas de acceso abierto. Los autores pueden pagar entre 1.000 y 13.000 dólares. Las revistas dependen cada vez más de los APC, lo que hace que el coste de la publicación en acceso abierto sea prohibitivo para muchos autores. Las estimaciones indican que los autores académicos canadienses gastaron al menos 27,6 millones de dólares en gastos de procesamiento de 2015 a 2018, a pesar de la preponderancia de las revistas de acceso abierto gratuitas.

Los autores no siempre tienen fondos para cubrir estas tarifas, y descargarlas a las bibliotecas universitarias a través de fondos de acceso abierto o acuerdos transformadores no es sostenible y conduce a oportunidades de publicación desiguales entre instituciones grandes y pequeñas. Además, los académicos del Sur Global han llamado la atención sobre la naturaleza desigual de la publicación basada en APC, mientras que otros modelos de financiación de revistas de acceso abierto se están eliminando.

Existen vías claras que permiten un acceso más abierto. Mientras que la publicación de revistas académicas es extremadamente rentable para las editoriales, los autores, editores y revisores que forman la columna vertebral del sistema rara vez son compensados por su trabajo y se enfrentan a dificultades para negociar acuerdos de publicación justos.

La Federación Canadiense de Asociaciones de Bibliotecarios y Bibliotecas ha propuesto recientemente una solución parcial: ofrecer derechos de publicación secundarios a los autores académicos en Canadá. La propuesta cuenta también con el respaldo de la Asociación Canadiense de Bibliotecas de Investigación.

Los derechos de publicación secundarios ya se han implantado en múltiples países europeos, siendo quizás el ejemplo más notable la Enmienda Taverne en los Países Bajos, que ha visto cómo la tasa de acceso abierto superaba el 80%.

La aplicación de estos derechos en los países europeos incluye actualmente periodos de embargo. Sin embargo, la Asociación Europea de Bibliotecas de Investigación ha publicado un borrador de redacción de derechos secundarios sin periodo de embargo que permitiría el «autoarchivo legal en repositorios abiertos, públicos y sin ánimo de lucro«.

Si Canadá adoptara una ley similar junto con la revisión de la política de la Triple Agencia, se podría convertir en un líder mundial en publicaciones académicas de acceso abierto.

En última instancia, un acceso abierto más inmediato y a menor coste significaría que todos tendríamos un mejor acceso a la información que podría ayudarnos a comprender mejor el mundo que nos rodea, ya se trate de información médica, innovaciones en ingeniería o nuevas exploraciones de la cultura y la historia.

Políticas de IA en todo el mundo: Implicaciones y recomendaciones para las bibliotecas

Lo, Leo S. «AI Policies across the Globe: Implications and Recommendations for Libraries». IFLA Journal, 27 de agosto de 2023, 03400352231196172. https://doi.org/10.1177/03400352231196172.

Este artículo analiza las políticas sobre inteligencia artificial propuestas en EE.UU., Reino Unido, Unión Europea, Canadá y China, y sus implicaciones para las bibliotecas. A medida que la inteligencia artificial revoluciona el funcionamiento de las bibliotecas, plantea retos complejos, como dilemas éticos, problemas de privacidad de los datos y cuestiones de acceso equitativo. El artículo destaca temas clave de estas políticas, como la ética, la transparencia, el equilibrio entre innovación y regulación y la privacidad de los datos. También identifica áreas de mejora, como la necesidad de directrices específicas sobre la mitigación de sesgos en los sistemas de inteligencia artificial y la navegación por las cuestiones de privacidad de datos. El artículo ofrece además recomendaciones prácticas para que las bibliotecas se comprometan con estas políticas y desarrollen mejores prácticas para el uso de la inteligencia artificial. El estudio subraya la necesidad de que las bibliotecas no sólo se adapten a estas políticas, sino que se comprometan activamente con ellas, contribuyendo al desarrollo de una gobernanza de la inteligencia artificial más completa y eficaz.

Introduction

La inteligencia artificial (IA) está revolucionando el funcionamiento de las bibliotecas, ofreciendo nuevas vías para las recomendaciones personalizadas, la investigación avanzada y la eficiencia operativa. Sin embargo, el rápido avance de la IA también plantea retos complejos, como dilemas éticos, problemas de privacidad de los datos y cuestiones de acceso equitativo. Por ello, las políticas y normativas sobre IA propuestas por EE.UU., Reino Unido, la Unión Europea, Canadá y China no sólo proporcionan un marco crucial para afrontar estos retos, sino que también revelan áreas de crítica que deben abordarse.

El «Blueprint for an AI bill of rights» de EE.UU.  (Office of Science and Technology Policy, 2022), Reino Unido “A pro-innovation approach to AI regulation” (Secretary of State for Science, Innovation and Technology, 2023), Ley de Inteligencia Artificial de la Unión Europea (European Commission, 2021), a Ley de Inteligencia Artificial y Datos de Canadá (Government of Canada, 2023), y las «Medidas para la gestión de los servicios de inteligencia artificial generativa» de China (Webster, 2023) representan cada una un paso significativo para abordar las implicaciones éticas de la IA y garantizar un acceso equitativo a las oportunidades. Estas políticas ponen de relieve temas clave, como la ética, la transparencia, el equilibrio entre innovación y regulación, la privacidad de los datos y la naturaleza del panorama normativo. Sin embargo, también revelan áreas de crítica que deben abordarse, incluida la necesidad de directrices específicas sobre la mitigación de los sesgos en los sistemas de IA, la navegación por las cuestiones de privacidad de datos y la determinación del nivel de riesgo asociado con un sistema de IA en particular.

Aunque muchos otros países también han desarrollado o están desarrollando sus propias políticas u hojas de ruta en materia de IA (OCDE.AI, s.f.), se seleccionaron estas cinco políticas propuestas por varias razones:

  • Influencia mundial: EE.UU., Reino Unido, la Unión Europea, Canadá y China son actores importantes en el panorama mundial de la IA. Es probable que sus políticas tengan un impacto sustancial en las normas y prácticas mundiales de IA, influyendo en la dirección del desarrollo y la regulación de la IA en todo el mundo.
  • Diversidad de enfoques: las políticas seleccionadas representan una variedad de enfoques de la regulación de la IA, desde el enfoque más laissez-faire y centrado en la innovación del Reino Unido hasta el enfoque exhaustivo y basado en el riesgo de la Unión Europea. Esta diversidad permite una comparación y un análisis más sólidos de las distintas estrategias reguladoras.
  • Relevancia para las bibliotecas: cada una de estas políticas tiene implicaciones significativas para las bibliotecas, un aspecto clave de este artículo. Al examinar estas políticas, podemos hacernos una idea de los posibles retos y oportunidades a los que pueden enfrentarse las bibliotecas en la era de la IA.

A medida que las bibliotecas aprovechan progresivamente el poder de la IA para aumentar sus servicios y operaciones -incluido el uso de chatbots para los servicios de referencia  (Ehrenpreis and DeLooper, 2022), la indexación y clasificación automatizada de materias (National Library of Finland, n.d.) y los repositorios institucionales mejorados con aprendizaje automático (Yelton, n.d.)-, es imperativo que no solo se adapten a las políticas de IA imperantes, sino que también se comprometan proactivamente con ellas. Este compromiso implica la participación activa en el discurso en curso en torno a la gobernanza de la IA, la defensa de políticas que aborden de manera integral sus necesidades y desafíos únicos, y el desarrollo de mejores prácticas para la utilización de la IA que estén en consonancia con su misión y valores. A medida que el panorama de la IA evoluciona rápidamente, las políticas y prácticas de las bibliotecas deben adaptarse y evolucionar al mismo tiempo.

Estas políticas subrayan temas clave, como la ética, la transparencia, el equilibrio entre innovación y regulación, la privacidad de los datos y la naturaleza del panorama normativo. Sin embargo, también exponen áreas que deben seguir explorándose y mejorándose, incluida la necesidad de directrices explícitas sobre la mitigación de los sesgos en los sistemas de IA, el tratamiento de las preocupaciones sobre la privacidad de los datos y la evaluación del nivel de riesgo asociado a sistemas específicos de IA.

Es crucial reconocer que estas cinco políticas de IA, en el momento de redactar este documento, se encuentran en fase de propuesta y desarrollo, y aún no se han codificado como ley. Sus versiones finales pueden desviarse significativamente de sus formas actuales, lo que pone de relieve la naturaleza dinámica del panorama político de la IA. Esta fluidez exige que las bibliotecas permanezcan vigilantes y receptivas a estos desarrollos en evolución. A medida que estas políticas maduren y puedan convertirse en leyes, las bibliotecas tendrán que ajustar sus prácticas para garantizar el cumplimiento de las normativas más recientes, sin dejar de utilizar la IA para aumentar sus servicios y operaciones.

Más allá de estas recomendaciones, las bibliotecas también deberían contemplar el papel de la alfabetización en IA dentro de sus servicios. Las bibliotecas pueden desempeñar un papel fundamental en el fomento de la alfabetización en IA entre el público en general, promoviendo la transparencia, creando una demanda de responsabilidad y fomentando un compromiso crítico con las decisiones sobre IA. Las bibliotecas también pueden implementar medidas para salvaguardar los datos de los usuarios en el contexto de la IA, como garantizar que cualquier experimento con aplicaciones de IA que modifiquen o impulsen el comportamiento de los usuarios de la biblioteca se lleve a cabo sobre una base de consentimiento informado, o revisar meticulosamente las opciones de la biblioteca de aplicaciones de IA de terceros para evaluar su impacto en la privacidad de los usuarios (IFLA, 2020)..

OpenAI se esta enfrentando a varias demandas que alegan que la compañía utilizó conjuntos de datos con información personal y materiales bajo derechos de autor para entrenar a ChatGPT

OpenAI ha enfrentado múltiples demandas en las últimas semanas debido al uso de conjuntos de datos que contienen información personal y materiales con derechos de autor en el entrenamiento de sus modelos de IA, como ChatGPT. Estas demandas plantean preocupaciones sobre presuntas infracciones de derechos de autor y el uso indebido de datos sensibles, como registros médicos y conversaciones privadas, sin el consentimiento apropiado.


OpenAI se ha enfrentado a varias demandas presentadas en las últimas semanas. Estas demandas han planteado preocupaciones sobre el uso de conjuntos de datos que contienen información personal y materiales con derechos de autor para entrenar a sus modelos de IA, como ChatGPT. Algunas de las demandas alegan infracciones de derechos de autor, mientras que otras afirman que OpenAI utilizó datos sensibles, como conversaciones privadas y registros médicos, sin el consentimiento adecuado.

Entre las demandas más destacadas se encuentra una demanda presentada por 16 demandantes no identificados que afirman que OpenAI utilizó datos sensibles en el entrenamiento de sus modelos de IA. Además, la comediante y autora Sarah Silverman, junto con los autores Christopher Golden y Richard Kadrey, han presentado demandas por infracción de derechos de autor contra OpenAI y Meta en un tribunal de distrito de Estados Unidos. Las demandas alegan, entre otras cosas, que los modelos ChatGPT de OpenAI y LLaMA de Meta fueron entrenados utilizando conjuntos de datos adquiridos ilegalmente que contenían sus obras, las cuales afirman haber sido obtenidas de sitios web de «bibliotecas piratas» como Bibliotik, Library Genesis, Z-Library y otros, mencionando que los libros están «disponibles en masa a través de sistemas de torrents». En la demanda contra OpenAI, los creadores presenta pruebas que demuestran que cuando se le solicita, ChatGPT resume sus libros, infringiendo sus derechos de autor. En las pruebas se muestra que el primer libro resumido por ChatGPT es Bedwetter de Silverman, mientras que también se utiliza como ejemplo el libro Ararat de Golden y el libro Sandman Slim de Kadrey. La demanda afirma que el chatbot no se preocupó por «reproducir ninguna de las informaciones de gestión de derechos de autor que los demandantes incluyeron en sus obras publicadas».

Una demanda presentada en un tribunal federal en San Francisco alega que OpenAI copió texto de libros ilegalmente al no obtener el consentimiento de los titulares de los derechos de autor, darles crédito ni compensarlos. La demanda, Tremblay v. OpenAI Inc, afirma que ChatGPT puede resumir de manera precisa los libros de ciencia ficción y terror de los autores. Esto sugiere que el chatbot ha leído y absorbido sus obras. Los autores alegan que ChatGPT violó la ley de derechos de autor al eliminar los avisos de derechos de autor de estos libros.

Otra demanda alega que los modelos de aprendizaje automático de OpenAI, incluyendo ChatGPT y DALL-E, recopilan ilegalmente la información personal de las personas en Internet, violando diversas leyes de privacidad. La demanda, conocida como PM v. OpenAI LP, afirma que OpenAI obtiene información privada de las personas directamente a través de sus sistemas de IA y otras aplicaciones que incorporan ChatGPT. La demanda alega que OpenAI ha incorporado sus sistemas en varias plataformas como Snapchat, Spotify, Stripe, Slack y Microsoft Teams. Afirma que OpenAI recopiló clandestinamente imágenes, ubicaciones, preferencias musicales, información financiera y comunicaciones privadas de los usuarios a través de estas integraciones. Además, la denuncia argumenta que esta recopilación y uso de datos violaron las leyes de privacidad, especialmente en lo que respecta a los datos de los niños.

Estas demandas han generado un debate sobre la ética y las prácticas de recopilación de datos utilizadas en el desarrollo de modelos de IA. OpenAI aún no ha hecho comentarios públicos específicos sobre las demandas y se espera que el proceso legal siga su curso para determinar los resultados. Las acusaciones resaltan la importancia de abordar de manera ética y legal la recopilación y el uso de datos en el desarrollo de la inteligencia artificial. El proceso legal determinará los resultados de estas demandas y puede tener implicaciones significativas para la industria, y la regulación en el campo de la IA.