Archivo de la etiqueta: Legislación

Se presentan 50 proyectos de ley sobre IA a la semana en EE.UU.

Heath, Ryan. «Exclusive: AI Legislation Spikes across U.S. States to Combat Deepfakes». Axios, 14 de febrero de 2024. https://www.axios.com/2024/02/14/ai-bills-state-legislatures-deepfakes-bias-discrimination.

Casi todas las legislaturas estatales actualmente en sesión están considerando proyectos de ley relacionados con la inteligencia artificial (IA), y casi la mitad de esos proyectos abordan los deepfakes, según un análisis del grupo de la industria del software BSA, compartido exclusivamente con Axios.

Por qué es importante:

La rápida innovación en IA y el vacío regulatorio federal han dado a las legislaturas estatales el ímpetu para generar un aumento seis veces mayor en la legislación sobre IA en comparación con hace un año.

Lo que está sucediendo:

Hasta el 7 de febrero había un total de 407 proyectos de ley relacionados con la IA en más de 40 estados, frente a los 67 proyectos de ley del año pasado. Los estados introdujeron 211 proyectos de ley sobre IA el mes pasado.

Puesta al día rápida:

Los objetivos de los proyectos de ley van desde el sesgo y la discriminación hasta la tecnología de reconocimiento facial y los deepfakes.

Los legisladores en 33 estados han presentado proyectos de ley sobre IA relacionados con las elecciones.

  • Enero vio un gran aumento en nuevos proyectos de ley. Ahora se están produciendo a un ritmo de 50 por semana, la mitad de ellos relacionados con los deepfakes.
  • Un proyecto de ley de California introducido el 8 de febrero requeriría la licencia de modelos de IA potentes, a través de una nueva agencia estatal, y crearía un clúster de cómputo público de IA.
  • La gobernadora republicana de Dakota del Sur, Kristi Noem, ha firmado una ley actualizada contra las imágenes de abuso sexual infantil el 12 de febrero, que obliga a prisión a aquellos que sean atrapados creando, distribuyendo y poseyendo imágenes generadas por IA.

Por los números: Los estados con más proyectos de ley en consideración son Nueva York (65), California (29), Tennessee (28), Illinois (27) y Nueva Jersey (25).

  • Alabama y Wyoming son los únicos estados actualmente en sesión sin legislación sobre IA en consideración.
  • Maryland, Massachusetts, Virginia y Washington anunciaron acciones ejecutivas sobre IA en enero.
  • Connecticut ahora requiere evaluaciones continuas para asegurar que la IA no cause discriminación o impacto dispar.

La intriga: Los estados con las mayores industrias de IA, California y Nueva York, también son los que generan la mayor cantidad de proyectos de ley en borrador.

La explosión legislativa de IA de Tennessee está impulsada por las preocupaciones de derechos de autor de la industria musical local, liderada por la Ley ELVIS (Garantizando la Seguridad de la Voz y la Imagen) promulgada en enero.

Entre líneas: Los legisladores estatales de hoy parecen determinados a no repetir la inacción en la regulación de las redes sociales.

Algunos de los legisladores de IA más prominentes estuvieron activos en la legislación estatal de privacidad, considerando los guardrails de IA como un próximo paso lógico en los derechos digitales.

Antecedentes: Los legisladores estatales comenzaron a construir su impulso de IA durante el verano de 2023, presentando 191 proyectos de ley en 31 estados para septiembre, pero solo 14 se convirtieron en ley.

Lo que están diciendo: «Las penalizaciones por deepfakes son el tema candente», dijo Craig Albright, vicepresidente senior de relaciones gubernamentales de BSA, a Axios.

«Muchos de los lenguajes sobre deepfakes son similares en los estados. Estamos viendo mucha coordinación», dijo Matt Lenz, director senior de defensa estatal de BSA.
Algunos grupos de defensa se preocupan de que una estricta regulación de la IA termine protegiendo a los primeros líderes en IA, porque tendrán más recursos para manejar la carga.

«Envolver los nuevos modelos de IA en trámites burocráticos efectivamente consolida a los mayores actores tecnológicos como ganadores de la carrera de IA», dijo Todd O’Boyle, director de política tecnológica de Chamber of Progress, por correo electrónico.

Sí, pero: Hasta ahora, los gobernadores no han hecho de la IA una prioridad en sus discursos sobre el estado del estado en 2024.

Próximo paso: Los gobernadores estatales tienen la oportunidad de fortalecer la coordinación sobre la legislación y la acción ejecutiva de IA mientras se reúnen en Washington D.C. esta semana.

Urge solucionar la falta de transparencia en torno a los datos utilizados para entrenar modelos de Inteligencia Artificial

Hardinges, Jack, Elena Simperl, y Nigel Shadbolt. 2023. «We Must Fix the Lack of Transparency Around the Data Used to Train Foundation Models». Harvard Data Science Review, diciembre. https://doi.org/10.1162/99608f92.a50ec6e6.

En el ámbito de la IA, los modelos, ya sean de aprendizaje supervisado, no supervisado o de otro tipo, necesitan ser alimentados con grandes cantidades de datos para aprender patrones y realizar tareas específicas. Abordar esta falta de transparencia es crucial para garantizar que la IA se desarrolle y utilice de manera ética y responsable. La transparencia en este proceso implica proporcionar información clara y completa sobre la naturaleza y la fuente de los datos utilizados en el entrenamiento de estos modelos. Sin embargo, en la mayoría de los casos, las empresas o desarrolladores no muestran de dónde compilan esta información, lo que puede tener consecuencias significativas en términos de ética, sesgo y confianza pública.


El estudio aborda la importancia del acceso a información sobre los datos utilizados en la formación de modelos de inteligencia artificial (IA). Aunque algunos sectores de la comunidad de IA han progresado, persiste una falta general de transparencia sobre el contenido y las fuentes de los conjuntos de datos de entrenamiento, ya sea por iniciativa voluntaria de las empresas o por intervención regulatoria, y esto debe cambiar.

Los modelos fundamentales se entrenan con grandes colecciones de datos, muchos de los cuales se recopilan de toda la web. La investigación del Instituto Allen de IA y The Washington Post sobre el popular conjunto de datos de entrenamiento C4 reveló que su contenido provenía de 15 millones de dominios web diferentes.

Conocer el contenido de los conjuntos de datos utilizados para entrenar modelos y cómo se han compilado es de vital importancia. Sin esta información, el trabajo de desarrolladores, investigadores y éticos para abordar sesgos o eliminar contenido perjudicial de los datos se ve obstaculizado. La información sobre los datos de entrenamiento también es crucial para que los legisladores evalúen si los modelos fundamentales han absorbido datos personales o material con derechos de autor. Además, los operadores previstos de los sistemas de IA y aquellos afectados por su uso son mucho más propensos a confiar en ellos si comprenden cómo se han desarrollado.

Sin embargo, algunas empresas no documentan el contenido de sus datos de entrenamiento, incluso internamente, por temor a encontrar información personal sobre individuos identificables, material con derechos de autor y otros datos obtenidos sin consentimiento.

En público, las empresas han utilizado diferentes argumentos para justificar la falta de transparencia en torno a sus datos de entrenamiento. OpenAI, en el lanzamiento de su modelo GPT-4, declaró que no compartiría información detallada sobre la «construcción del conjunto de datos» y otros aspectos del desarrollo del modelo debido al «panorama competitivo y las implicaciones de seguridad de los modelos a gran escala». Aunque algunas empresas han publicado los datos de ajuste fino, tienden a omitir los conjuntos de datos de entrenamiento más grandes y complejos que son más propensos a contener contenido perjudicial o material con derechos de autor.

Partes de la comunidad de IA han avanzado en la transparencia de los datos de entrenamiento. La plataforma Hugging Face, inspirada en los pioneros de la seguridad de la IA Emily Bender, Batya Friedman y Timnit Gebru, promueve el uso de Model Cards y Dataset Cards entre su comunidad de desarrolladores. Las Dataset Cards documentan cómo se creó un conjunto de datos, su contenido y posibles problemas legales o éticos asociados.

En julio de 2023, la Casa Blanca anunció que siete grandes empresas de IA se comprometieron a «desarrollar medidas técnicas sólidas para garantizar que los usuarios sepan cuándo el contenido es generado por IA, como el marcado de agua». Dado que los modelos fundamentales de IA han comenzado a entrenarse con datos generados por IA, estas herramientas desempeñarán un papel importante en documentar la procedencia de los datos de entrenamiento y la integridad de las salidas resultantes de la IA.

Las decisiones sobre qué documentar sobre los datos de entrenamiento podrían eventualmente salir de las manos de los desarrolladores. La Comisión Federal de Comercio de EE. UU. ha ordenado recientemente a OpenAI que documente todas las fuentes de datos utilizadas para entrenar sus grandes modelos de lenguaje. Un grupo de grandes medios de comunicación ha publicado una carta abierta instando a los legisladores de todo el mundo a introducir nuevas regulaciones que exijan transparencia en los conjuntos de datos de entrenamiento.

Se prevé que la demanda de información sobre los datos de entrenamiento sea la última ola en un esfuerzo continuo por la transparencia empresarial. En el Reino Unido, las leyes sobre el registro obligatorio y la publicación de información por parte de las empresas se remontan al siglo XIX, y a lo largo del tiempo, los reguladores han desarrollado enfoques estandarizados para evitar que cada empresa elija su propia forma de informar sobre sus finanzas y otras actividades. Quizás necesitemos lo mismo para las divulgaciones sobre los datos en los que se han entrenado los modelos fundamentales de IA.

Ya sea que las empresas den un paso adelante o que intervengan los gobiernos, deben asegurarnos de que los datos utilizados para entrenar sistemas de IA no estén envueltos en secreto. La confianza pública, nuestra capacidad para mitigar sus posibles daños y la eficacia de nuestro régimen regulatorio dependen de ello.

El uso legítimo: mitos y conceptos erróneos sobre los derechos de autor

Carrie Russell «Figuring Out Fair Use». 2023. American Libraries Magazine. 1 de noviembre de 2023. https://americanlibrariesmagazine.org/?p=140589.

Libreros y maestros, profesionales bibliotecarios especializados en alfabetización informacional, acceso equitativo a la información y avance del aprendizaje, a menudo enfrentan ansiedades y conceptos erróneos sobre el copyright. El miedo infundado a litigios de copyright y la falta de educación sobre el tema contribuyen a esta situación.

El desconocimiento sobre el copyright se agrava en entornos educativos saturados de trabajo, donde el personal, ya sobrecargado, carece de tiempo para abordar cuestiones legales como el copyright. La complejidad añadida de los formatos digitales y las licencias privadas complica aún más la gestión efectiva del copyright en las escuelas.

La Constitución de EE.UU. dice que la ley de derechos de autor se crea «para promover el progreso de la ciencia y de las artes útiles». Su intención es, ante todo, fomentar la creación y difusión de obras originales y creativas que beneficien al público. Estas políticas también están diseñadas para avanzar en el bienestar público poniendo a disposición obras que promuevan el aprendizaje, inspiren la creación de nuevas obras, produzcan ciudadanos bien informados y fomenten la búsqueda de la felicidad.

La noción de que la ley de derechos de autor sirve al interés público puede sonar pintoresca cuando gran parte de la discusión pública, y ciertamente gran parte del debate político, gira en torno al valor monetario de los derechos de autor. Aunque los derechos de autor tienen un importante valor económico en la economía global de la información, el propósito fundamental de estas leyes es el bienestar público. Por lo tanto, los valores que subyacen a la ley de derechos de autor son totalmente coherentes con los valores profesionales de profesores y bibliotecarios.

A menudo se confunde a la gente o se le hace creer que la ley de derechos de autor es lo mismo que la ley de propiedad. Esta confusión se ve agravada por términos como propiedad intelectual, que es un término equivocado. En cambio, la ley de derechos de autor se asemeja a la regulación gubernamental en que el Congreso crea la ley para intervenir en el mercado mediante la concesión a los titulares de derechos de un monopolio -a través de los derechos exclusivos de autor- para lograr un propósito público.

A muchos bibliotecarios y profesores les molesta que no existan normas claras. A menudo, la respuesta a una pregunta concreta sobre derechos de autor exige analizar la situación para determinar si se trata de un uso legítimo. Puede que sea molesto, pero nos conviene que la ley sea ambigua. Fijar las normas de derechos de autor en piedra sería congelar la ley. La ley debe ser maleable para servir a nuestra sociedad ahora y en el futuro, un futuro sobre el que sólo podemos especular. El uso legítimo nos servirá porque está abierto a las nuevas tecnologías.

Cinco conceptos erróneos comunes sobre el copyright se destacan en el artículo:

  1. Erróneamente se cree que el propósito principal del copyright es compensar monetariamente a los autores y creadores, cuando en realidad busca fomentar el progreso de la ciencia y las artes útiles en beneficio del público.
  2. Existe el temor de que los titulares de derechos demanden a bibliotecarios, maestros y escuelas con frecuencia, cuando los casos reales en los tribunales son raros. Además, existen limitaciones legales y protecciones para instituciones educativas y bibliotecas.
  3. La confusión entre la ley de copyright y la propiedad intelectual lleva a la creencia errónea de que las obras protegidas son propiedad exclusiva de los creadores. En realidad, el copyright otorga derechos exclusivos para comercializar la obra, no para poseerla.
  4. Muchos esperan reglas legales definitivas para cuestiones de copyright, pero la ley es flexible y la determinación de uso justo a menudo requiere análisis caso por caso.
  5. Se percibe que el uso justo es difícil de entender y aplicar, cuando, en realidad, comprender y aplicar los cuatro factores del uso justo puede ser más natural con la práctica.

En conclusión, a pesar de las dificultades y malentendidos, es crucial para los profesionales de bibliotecas y educación comprender el copyright y aplicar el uso justo para equilibrar los derechos de los usuarios con los intereses de los titulares de derechos.

Guía rápida de la Ley de Inteligencia Artificial (IA) de la Unión Europea

Quick Guide to the EU AI Act

Ver infografía

Texto completo

Original

«La inteligencia artificial ya está cambiando nuestra vida cotidiana, y eso tan solo es el principio. Utilizada de forma sensata y generalizada, la inteligencia artificial promete enormes beneficios para nuestra economía y nuestra sociedad. Por lo tanto, celebro con gran satisfacción el acuerdo político alcanzado hoy por el Parlamento Europeo y el Consejo sobre la Ley de Inteligencia Artificial. La Ley de IA de la UE es el primer marco jurídico global en materia de inteligencia artificial en todo el mundo. Así pues, se trata de un momento histórico. La Ley de IA lleva los valores europeos a una nueva era. Al centrar la regulación en los riesgos identificables, el acuerdo alcanzado hoy fomentará la innovación responsable en Europa. Al velar por la seguridad y los derechos fundamentales de las personas y las empresas, apoyará el desarrollo, la implantación y la aceptación de una inteligencia artificial fiable en la UE. Nuestra Ley de IA contribuirá de manera sustancial a la formulación de normas y principios mundiales sobre una inteligencia artificial centrada en el ser humano.»

Ursula von der Leyen, President of the European Commission – 09/12/2023


La Ley de Inteligencia Artificial de la UE, oficialmente conocida como «Propuesta de Reglamento del Parlamento Europeo y del Consejo por la que se establecen normas armonizadas sobre la inteligencia artificial (Reglamento de Inteligencia Artificial)», es una iniciativa legislativa destinada a regular el desarrollo y uso de tecnologías de inteligencia artificial (IA) dentro de la Unión Europea. Aquí tienes una guía rápida sobre los puntos clave de la Ley de IA de la UE:

1. Ámbito de Aplicación:

  • La Ley de IA se aplica a los proveedores que colocan sistemas de IA en el mercado de la UE o los ponen en servicio, independientemente de si están establecidos dentro o fuera de la UE.

2. Definición de Sistemas de IA:

  • La regulación define los sistemas de IA como software desarrollado con la capacidad de utilizar datos para lograr un propósito que normalmente requeriría inteligencia humana. Cubre una amplia gama de aplicaciones de IA, incluidos modelos de aprendizaje automático y sistemas basados en reglas.

3. Enfoque Basado en el Riesgo:

  • La regulación categoriza los sistemas de IA en cuatro niveles de riesgo: Riesgo Inaceptable, Riesgo Elevado, Riesgo Limitado y Riesgo Mínimo. El nivel de riesgo determina los requisitos y obligaciones regulatorias impuestas a los desarrolladores y usuarios.

4. Sistemas de IA de Alto Riesgo:

  • Los sistemas de IA de alto riesgo incluyen aquellos utilizados en infraestructuras críticas, formación educativa o vocacional, servicios públicos esenciales, aplicación de la ley, control de migración y fronteras, e identificación biométrica. Se aplican requisitos más estrictos a estos sistemas.

5. Requisitos para Sistemas de IA de Alto Riesgo:

  • Para los sistemas de IA de alto riesgo, los desarrolladores deben cumplir con varios requisitos, incluida la calidad de los datos, documentación, transparencia, supervisión humana y robustez. Los análisis de conformidad, con la participación de un tercero, son obligatorios.

6. Transparencia y Explicabilidad:

  • La Ley de IA destaca la importancia de la transparencia y requiere que los sistemas de IA proporcionen a los usuarios información clara y accesible sobre las capacidades y limitaciones del sistema. También se exigen explicaciones para las decisiones tomadas por los sistemas de IA.

7. Gobernanza de Datos:

  • La regulación aborda el uso de datos en sistemas de IA, enfatizando la necesidad de gobernanza de datos. Promueve el uso de conjuntos de datos de entrenamiento de alta calidad, y los desarrolladores deben asegurarse de que los datos utilizados sean relevantes, representativos y libres de sesgos.

8. Prácticas Prohibidas:

  • Algunas prácticas de IA están prohibidas de manera absoluta en la regulación, especialmente aquellas consideradas como representando riesgos inaceptables. Esto incluye la manipulación de individuos a través de técnicas subliminales y la explotación de vulnerabilidades de grupos específicos.

9. Cumplimiento y Sanciones:

  • Las autoridades competentes nacionales supervisarán el cumplimiento de la Ley de IA. El incumplimiento puede resultar en sanciones, multas o suspensión del marketing de un sistema de IA. Las infracciones graves pueden llevar a multas de hasta 30 millones de euros o el 6% de la facturación total anual mundial, lo que sea mayor.

10. Cooperación Internacional:

  • La UE fomenta la cooperación internacional en la regulación de la IA. La Ley de IA de la UE busca establecer un estándar global para la ética y la regulación de la IA, fomentando la colaboración con socios internacionales.

Es importante tener en cuenta que la Ley de IA de la UE es un paso significativo hacia la creación de un marco normativo para las tecnologías de IA, abordando preocupaciones éticas y asegurando el desarrollo y despliegue responsables de sistemas de IA dentro de la Unión Europea.

Declaración pública de LIBER sobre la Ley de Servicios Digitales

LIBER Signs Public Statement on Digital Services Act. LIBER Europe [en línea], [2022]. [consulta: 1 diciembre 2023]. Disponible en: https://libereurope.eu/article/press-release-liber-signs-public-statement-on-digital-services-act/.

LIBER firmó una declaración pública junto con la asociación universitaria CESAER y la Confederación de Repositorios de Acceso Abierto (COAR), instando a la Unión Europea a reconocer proactivamente la importancia de las infraestructuras digitales para la educación e investigación al diseñar legislación centrada en lo digital. LIBER trabajó con éxito con otras asociaciones bibliotecarias y culturales para crear una exención para los repositorios educativos y científicos del artículo 17 de la Directiva sobre derechos de autor en el mercado único digital.

La legislación relacionada con plataformas digitales se diseña en torno a hacer que las plataformas comerciales sean responsables de los usuarios que cargan contenido ilegal, por ejemplo, música o películas que se cargan en YouTube o Facebook. Estudiantes, académicos, investigadores y profesores cargan artículos, libros, grabaciones de sonido, datos de investigación y películas en una variedad de plataformas de educación e investigación, desde el repositorio institucional de una universidad hasta repositorios ampliamente utilizados como Dryad, ArXiv.org, repositorios nacionales y la Nube Europea de Ciencia Abierta (EOSC).

Las preocupaciones incluyen:

  1. Las organizaciones educativas e investigativas llevan a cabo el hospedaje de contenido para apoyar el aprendizaje, el conocimiento y el descubrimiento científico. Es totalmente inapropiado que las intervenciones legales dirigidas a empresas con fines de lucro se apliquen de esta manera generalizada, donde los impactos para la educación e investigación no son más que daños colaterales. En el mejor de los casos, esto significará nuevas cargas administrativas y legales para que las organizaciones educativas e investigativas cumplan, y en el peor de los casos, cerrar o no lanzar servicios en línea que permitan la carga debido a temores de las responsabilidades que esto podría implicar.
  2. La evaluación de impacto de la Ley de Servicios Digitales no contiene una evaluación del costo o el tiempo que esta legislación y sus obligaciones tendrían en las bibliotecas, universidades u organizaciones de investigación cuyo papel principal es apoyar el aprendizaje. En resumen, las organizaciones educativas e investigativas no reciben ingresos de los artículos, libros y datos de investigación alojados en nuestras plataformas, a diferencia de la mayoría de las plataformas de hospedaje para las cuales se ha diseñado esta legislación.
  3. La confusión legal que una exención bajo la Directiva de Derechos de Autor en el Mercado Único Digital pero la inclusión bajo la Ley de Servicios Digitales crearía para nuestras instituciones y, potencialmente, incluso para los tribunales.

Derecho a la información, bibliotecas y archivos: pluralidad e injusticias epistémicas en los sistemas de información contemporáneos.

Morán Reyes, Ariel Antonio. Derecho a La Información, Bibliotecas y Archivos: Pluralidad e Injusticias Epistémicas En Los Sistemas de Información Contemporáneos. Universidad Nacional Autónoma de México, Facultad de Filosofía y Letras, 2022.

Texto completo

En esta investigación se emprendió el cometido de demostrar que la biblioteca (como institución) y el bibliotecario (como profesional) son agentes facilitadores de los procesos democráticos, mismos que deben encaminarse hacia la consecución de la autonomía de la ciudadanía, gracias a la circulación social de la información. En el Capítulo 1 se discurrió sobre la forma en la que la democracia mexicana—fundada en un estado constitucional de derecho—afronta el reto de garantizar el acceso a la información de una manera transparente, al apoyar actividades en la materia para incrementar la participación ciudadana. En el Capítulo 2 se precisaron aquellos mecanismos a través de los cuales el derecho a la información se constituye como un elemento imprescindible que permite generar condiciones de igualdad en entornos multiculturales inmersos en un régimen globalizado. Este derecho debe avanzar conforme al desarrollo de la sociedad informacional, sobre todo en su relación con la pléyade de tecnologías digitales, en las cuales se apoya materialmente. La autodeterminación informativa no se circunscribe únicamente en procesos oficiales de toma de decisiones, sino que también contempla el fortalecimiento de las condiciones de justicia social. Como corolario, en el Capítulo 3 se puntualizaron las rutas, caminos y retos que debe emprender un profesional de la información documental para que pueda concretar sus advocaciones sociales, al amparo del derecho a la información, como un derecho humano fundamental y como prerrogativa constitucional. La tarea que tienen ante sí los bibliotecarios y archivistas es de suma trascendencia para la procuración y defensa del derecho a la información. Como parte de su misión, deben reconocer que las necesidades de información son necesidades básicas legítimas, además de atenuar las injusticias y las asimetrías informativas, para lo cual tendrán que concebir estrategias de inclusión (tanto en el espacio de los flujos como en el espacio de los lugares).

Redefiniendo la Inteligencia Artificial: cómo la práctica de la Propiedad Intelectual se va adaptando a lo que se avecina

Los avances rápidos en inteligencia artificial indudablemente influirán en la ley y la práctica de la propiedad intelectual. Esto requiere que los profesionales de PI y sus socios tecnológicos reevalúen ciertas suposiciones sobre cómo se crea, protege y administra la PI. Se espera que estos cambios no lleguen como una revolución, sino a través de una serie de pasos incrementales.

Clarivate Plc ha publicado un informe titulado «Redefining AI: How IP practice meets the coming wave«, que investiga el impacto de la inteligencia artificial (IA) en la ley, la práctica y los procesos de propiedad intelectual (PI). El informe revela que la IA se está adoptando cada vez más en el campo de la PI, ofreciendo beneficios como la automatización de tareas manuales y la mejora de la productividad.

El informe aborda las percepciones de la IA y se centra en los beneficios, riesgos y la disposición a su integración en el ciclo de vida de la PI. Se parte de la suposición fundamental de que las perspectivas reales y los usos de la IA deben ser centrales en su desarrollo. El informe se basa en una encuesta en línea en la que participaron 575 profesionales de PI e investigación y desarrollo (I+D) de firmas de abogados y corporaciones de todo el mundo entre el 17 de julio y el 1 de agosto de 2023.

Al igual que en muchos sectores, el uso de la IA para potenciar los procesos de PI y la toma de decisiones abarca una amplia gama de tecnologías con diferentes niveles de sofisticación. El 43% de los encuestados informaron que actualmente no se estaba utilizando la IA. La mayoría de los encuestados mostraron un sentimiento negativo hacia la IA en general y expresaron su mayor preocupación por la precisión (74%). Hubo un fuerte interés en que la IA respaldara tareas manuales y laboriosas (67%), con solo una pequeña minoría (8%) sugiriendo que no querían que la IA se aplicara en absoluto a los procesos de PI. En conjunto, estos hallazgos sugieren la posibilidad de que la implementación de la IA sea altamente contextual, dependiendo del problema específico a resolver y del entorno de riesgo. Las percepciones negativas de la IA tienden naturalmente hacia tareas de alto riesgo que dependen en gran medida de la experiencia. En estas áreas, se enfatiza la creación de herramientas que ponen de relieve la experiencia. Enfoques centrados en el ser humano pueden mitigar algunos riesgos asociados con la incorporación de la IA en los flujos de trabajo de PI, calibrando su desarrollo a las necesidades de los profesionales. Sin confianza en sistemas autónomos, es poco probable que se aproveche el verdadero potencial de la IA. Situamos la IA responsable y ética en el contexto de la práctica de la PI, no para sugerir que el desarrollo de la IA hasta la fecha haya sido irresponsable, sino para avanzar hacia un panorama equitativo en el que las tecnologías basadas en la IA satisfagan las necesidades de quienes las utilizan.

Puntos clave del informe:

  1. La IA se está adoptando en la gestión de la PI, mejorando la toma de decisiones y acelerando los procesos de investigación.
  2. Las actitudes hacia la adopción de la IA en el campo de la PI varían según los roles y las ubicaciones geográficas. Los abogados y las firmas de abogados son más reacios, mientras que los no abogados, ejecutivos y profesionales de I+D se sienten más cómodos con la IA.
  3. Europa y los Estados Unidos muestran actitudes más cautelosas hacia la adopción de la IA, mientras que las regiones de Asia Pacífico y MENA son más receptivas.
  4. Las preocupaciones sobre la adopción de la IA incluyen la precisión de los resultados, la confiabilidad, consideraciones éticas, la confidencialidad del cliente, la responsabilidad y la falta de regulación.
  5. Las firmas de abogados, en particular, expresan reservas sobre la adopción de la IA, con preocupaciones sobre la responsabilidad, la confiabilidad y la confidencialidad del cliente.
  6. Los profesionales de I+D son los más entusiastas acerca de la adopción de la IA y creen que tendrá un impacto positivo en su función.
  7. Los departamentos legales internos y las firmas de abogados enfrentan barreras significativas para adoptar la IA, lo que enfatiza la necesidad de un enfoque responsable que tenga en cuenta las implicaciones legales, éticas y sociales.

El informe sugiere que adoptar la IA en la PI requiere un compromiso continuo para gestionar y evaluar riesgos, teniendo en cuenta consideraciones legales, éticas y sociales. Este enfoque puede ayudar a calibrar los sistemas de IA para satisfacer necesidades específicas y al mismo tiempo mantener la integridad del sistema de PI y garantizar la equidad y la justicia.

El préstamo digital controlado en España. Bibliotecas y límites en el contexto digital

Xalabarder, Raquel Bibliotecas y límites en el contexto digital. El préstamo digital controlado en España. Madrid: FESABID, 2023

Texto completo

El Préstamo Digital Controlado, en adelante PDC, ha sido objeto de análisis en los últimos años. Consiste en la práctica de prestar bajo ciertas condiciones un ejemplar digitalizado de una obra literaria, artística o científica que se encuentra en los fondos de la institución. Este servicio contribuye a cumplir la misión de las bibliotecas de apoyar a la investigación, la educación y la participación cultural, teniendo en cuenta los límites de las leyes existentes en propiedad intelectual.

Para facilitar el conocimiento de los condicionantes jurídicos que hacen viable este servicio, FESABID ha publicado el informe “Bibliotecas y límites en el contexto digital. El préstamo digital controlado en España”obra de Raquel Xalabarder, catedrática de Propiedad Intelectual en la Universitat Oberta de Catalunya (UOC) y una reconocida experta internacional en materia de propiedad intelectual; con amplio conocimiento sobre los límites a la propiedad intelectual, que facilitan las actividades de bibliotecas, archivos y museos. En la actualidad es presidenta del grupo español Asociación Literaria y Artística para la Defensa del Derecho del Autor, de la ALAI, la Sociedad Europea de Derechos de Autor y de la Asociación Literaria y Artística Internacional. Recientemente ha sido nombrada directora de la Patent Academy, de la European Patent Office.

Sobre la IA: ¿Qué debemos regular?

«Regulatory Framework Proposal on Artificial Intelligence | Shaping Europe’s Digital Future», 30 de junio de 2023. https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.

La Comisión Europea propuesto el primer marco legal sobre inteligencia artificial (IA) que aborda los riesgos de la IA y coloca a Europa en una posición líder a nivel mundial.

La propuesta regulatoria tiene como objetivo proporcionar a los desarrolladores, implementadores y usuarios de IA requisitos y obligaciones claras con respecto a usos específicos de la IA. Al mismo tiempo, la propuesta busca reducir las cargas administrativas y financieras para las empresas, en particular las pequeñas y medianas empresas (PYMEs).

La propuesta forma parte de un paquete más amplio sobre IA, que también incluye el Plan Coordinado actualizado sobre IA. Juntos, el marco regulatorio y el Plan Coordinado garantizarán la seguridad y los derechos fundamentales de las personas y las empresas en lo que respecta a la IA. Además, fortalecerán la adopción, inversión e innovación en IA en toda la Unión Europea.

¿Por qué necesitamos normas sobre la inteligencia artificial (IA)?

La regulación propuesta sobre la IA garantiza que los europeos puedan confiar en lo que la IA tiene para ofrecer. Si bien la mayoría de los sistemas de IA presentan un riesgo limitado o nulo y pueden contribuir a resolver muchos desafíos sociales, ciertos sistemas de IA crean riesgos que debemos abordar para evitar resultados indeseables.

Por ejemplo, a menudo no es posible averiguar por qué un sistema de IA ha tomado una decisión o predicción y ha tomado una acción particular. Por lo tanto, puede resultar difícil evaluar si alguien ha sido perjudicado injustamente, como en una decisión de contratación o en una solicitud para un programa de beneficios públicos.

Aunque la legislación existente proporciona cierta protección, no es suficiente para abordar los desafíos específicos que pueden plantear los sistemas de IA.

Las normas propuestas:

  • Abordar los riesgos creados específicamente por las aplicaciones de IA.
  • Proponer una lista de aplicaciones de alto riesgo.
  • Establecer requisitos claros para los sistemas de IA en aplicaciones de alto riesgo.
  • Definir obligaciones específicas para los usuarios de IA y los proveedores de aplicaciones de alto riesgo.
  • Proponner una evaluación de conformidad antes de que el sistema de IA se ponga en servicio o se coloque en el mercado.
  • Proponer la aplicación después de que dicho sistema de IA se haya colocado en el mercado.
  • Proponer una estructura de gobernanza a nivel europeo y nacional.

El Marco Regulatorio define 4 niveles de riesgo en la inteligencia artificial (IA):

  1. Riesgo inaceptable
  2. Riesgo alto
  3. Riesgo limitado
  4. Riesgo mínimo o nulo

Riesgo inaceptable

Todos los sistemas de inteligencia artificial (IA) considerados una amenaza evidente para la seguridad, los medios de vida y los derechos de las personas serán prohibidos, desde la calificación social por parte de los gobiernos hasta los juguetes que utilizan asistentes de voz que fomentan un comportamiento peligroso.

Riesgo alto

Los sistemas de IA identificados como de alto riesgo incluyen la tecnología de IA utilizada en:

  • Infraestructuras críticas (por ejemplo, transporte), que podrían poner en riesgo la vida y la salud de los ciudadanos.
  • Educación o formación profesional, que pueden determinar el acceso a la educación y la carrera profesional de alguien (por ejemplo, calificación de exámenes).
  • Componentes de seguridad de productos (por ejemplo, aplicaciones de IA en cirugía asistida por robots).
  • Empleo, gestión de trabajadores y acceso al trabajo por cuenta propia (por ejemplo, software de clasificación de CV para procedimientos de contratación).
  • Servicios privados y públicos esenciales (por ejemplo, calificación crediticia que niega a los ciudadanos la oportunidad de obtener un préstamo).
  • Aplicación de la ley que puede interferir con los derechos fundamentales de las personas (por ejemplo, evaluación de la fiabilidad de la evidencia).
  • Gestión de migración, asilo y control fronterizo (por ejemplo, verificación de la autenticidad de documentos de viaje).
  • Administración de justicia y procesos democráticos (por ejemplo, aplicación de la ley a un conjunto concreto de hechos).

Los sistemas de IA de alto riesgo estarán sujetos a estrictas obligaciones antes de que puedan ser puestos en el mercado:

  • Sistemas adecuados de evaluación y mitigación de riesgos.
  • Alta calidad de los conjuntos de datos que alimentan el sistema para minimizar riesgos y resultados discriminatorios.
  • Registro de la actividad para garantizar la trazabilidad de los resultados.
  • Documentación detallada que proporcione toda la información necesaria sobre el sistema y su propósito para que las autoridades evalúen su cumplimiento.
  • Información clara y adecuada para el usuario.
  • Medidas apropiadas de supervisión humana para minimizar el riesgo.
  • Alto nivel de robustez, seguridad y precisión.

Todos los sistemas de identificación biométrica remota se consideran de alto riesgo y están sujetos a requisitos estrictos. El uso de la identificación biométrica remota en espacios de acceso público con fines de aplicación de la ley está, en principio, prohibido.

Se definen y regulan estrictamente excepciones limitadas, como cuando sea necesario buscar a un niño desaparecido, prevenir una amenaza terrorista específica e inminente o detectar, localizar, identificar o procesar a un autor o sospechoso de un delito grave.

Dicho uso está sujeto a autorización por parte de un órgano judicial u otro organismo independiente y a límites adecuados en cuanto a tiempo, alcance geográfico y bases de datos consultadas.

Riesgo limitado

El riesgo limitado se refiere a los sistemas de IA con obligaciones específicas de transparencia. Cuando se utilizan sistemas de IA como chatbots, los usuarios deben estar conscientes de que están interactuando con una máquina para que puedan tomar una decisión informada sobre si continúan o retroceden.

Riesgo mínimo o nulo

La propuesta permite el uso gratuito de la IA de riesgo mínimo. Esto incluye aplicaciones como videojuegos habilitados para la IA o filtros de correo no deseado. La gran mayoría de los sistemas de IA actualmente utilizados en la Unión Europea entran en esta categoría.

¿Qué son Los derechos de publicación secundarios?

Los derechos de publicación secundarios, también conocidos como «secondary rights» en inglés, se refieren a los derechos de un autor o creador que se derivan de la explotación secundaria de su obra después de la publicación inicial o su uso principal. Estos derechos pueden involucrar la reproducción, distribución y adaptación de la obra en diferentes formatos o para diferentes propósitos. Aquí hay algunas aclaraciones sobre los derechos de publicación secundarios:

  • Derechos de reproducción: Esto incluye el derecho de permitir que la obra se reproduzca en diferentes formatos o medios, como impresiones posteriores de libros, reediciones, versiones electrónicas o incluso adaptaciones cinematográficas.
  • Derechos de traducción: Los autores pueden otorgar derechos para que su obra sea traducida a diferentes idiomas y publicada en mercados internacionales.
  • Derechos de adaptación: Esto se refiere a la posibilidad de que la obra sea adaptada a otros medios, como películas, series de televisión, obras de teatro, videojuegos o cualquier otra forma de entretenimiento.
  • Derechos de distribución: Los derechos de distribución pueden incluir acuerdos para que la obra se distribuya en diferentes territorios geográficos o en diversos canales de venta, como librerías, tiendas en línea, bibliotecas, etc.
  • Derechos de sincronización: En el ámbito musical, los derechos de sincronización permiten que una canción sea utilizada en películas, programas de televisión, anuncios, videojuegos y otros medios audiovisuales.
  • Derechos de representación y actuación: En el teatro y las artes escénicas, los derechos de representación y actuación permiten la representación pública de una obra, ya sea en un teatro o en otro lugar.
  • Derechos de impresión de arte: En el caso de los artistas visuales, los derechos de impresión de arte pueden permitir la reproducción de su obra en forma de impresiones, carteles, tarjetas, etc.

En resumen, los derechos de publicación secundarios son una parte importante de la propiedad intelectual de un autor o creador y pueden generar ingresos adicionales a lo largo del tiempo a medida que su obra se utiliza de diversas formas o se difunde en diferentes mercados. Estos derechos se negocian generalmente a través de contratos y acuerdos entre el autor o creador y las partes interesadas, como editoriales, productoras de cine, agentes literarios, entre otros.