Archivo de la etiqueta: Derechos de autor

Silicon Valley construyó la IA comprando, escaneando y descartando millones de libros

Schaffer, Aaron; Oremus, Will y Tiku, Nitasha. “How Silicon Valley Built AI: Buying, Scanning & Discarding Millions of Books”, MSN (basado en Washington Post), 27 de enero de 2026. https://www.msn.com/en-us/technology/artificial-intelligence/how-silicon-valley-built-ai-buying-scanning-and-discarding-millions-of-books/ar-AA1V4aZv

En los últimos años, las grandes empresas de tecnología y startups de Silicon Valley han librado una competencia frenética por adquirir conjuntos masivos de datos textuales, especialmente libros, como materia prima para entrenar sus modelos de inteligencia artificial (IA).

Según documentos judiciales revelados en demandas por derechos de autor, compañías como Anthropic, Meta, Google y OpenAI emprendieron acciones a gran escala para obtener millones de títulos físicos y digitales con el objetivo de mejorar la capacidad de sus modelos de lenguaje para “entender” y “escribir bien”.

Un caso emblemático es el llamado Project Panama de Anthropic, descrito en documentos internos como un esfuerzo por comprar y escanear “todos los libros del mundo”. La compañía gastó decenas de millones de dólares comprando grandes lotes de libros, a menudo en lotes de decenas de miles, y contrató servicios profesionales para desencuadernar y escanear las páginas a gran velocidad. Después del escaneo, muchas de estas copias físicas fueron recicladas o descartadas, lo que ha generado preocupación entre autores y defensores del patrimonio cultural por la eliminación física de obras impresas.

Los detalles de Project Panama, inéditos hasta ahora, salieron a la luz en más de 4.000 páginas de documentos incluidos en una demanda por derechos de autor interpuesta por escritores contra Anthropic. La empresa, valorada por sus inversores en unos 183.000 millones de dólares, aceptó pagar 1.500 millones de dólares para cerrar el litigio en agosto. Sin embargo, la decisión de un juez federal de hacer públicos numerosos documentos del caso permitió conocer con mayor profundidad la intensidad con la que Anthropic persiguió la obtención de libros.

Estos nuevos archivos, junto con otros presentados en demandas similares contra empresas de inteligencia artificial, revelan hasta qué punto compañías tecnológicas como Anthropic, Meta, Google u OpenAI llegaron a extremos notables para reunir enormes volúmenes de datos con los que “entrenar” sus sistemas. En esa carrera acelerada, los libros fueron considerados un botín esencial. Así lo reflejan los registros judiciales: en enero de 2023, uno de los cofundadores de Anthropic sostenía que entrenar modelos con libros permitiría enseñarles “a escribir bien”, en lugar de limitarse a reproducir un “lenguaje de baja calidad propio de internet”. En un correo interno de Meta fechado en 2024, el acceso a grandes bibliotecas digitales se calificaba directamente como “imprescindible” para competir con otros actores del sector.

Sin embargo, los documentos sugieren que las empresas no consideraron viable solicitar autorización directa a autores y editoriales. En su lugar, según las acusaciones recogidas en los autos, Anthropic, Meta y otras compañías recurrieron a métodos de adquisición masiva sin conocimiento de los creadores, incluida la descarga de copias pirateadas.

Estos esfuerzos reflejan las tensiones legales y éticas detrás del entrenamiento de IA con datos culturales. Muchos autores y editoriales han emprendido demandas alegando que la adquisición y uso masivo de sus obras para entrenar modelos de IA se hizo sin permiso y constituye una violación de derechos de autor. A su vez, las empresas tecnológicas han argumentado que el uso es “transformador” y, en algunos fallos judiciales, se ha considerado legal bajo la doctrina de fair use (“uso justo”). No obstante, los documentos judiciales también han expuesto que algunas empresas, incluyendo Meta, consideraron o incluso utilizaron descargas masivas desde bibliotecas pirata en línea como LibGen para obtener copias digitales de libros sin pagar por ellos, lo que ha intensificado las críticas sobre prácticas poco transparentes.

En el caso de Meta, varios empleados expresaron internamente su inquietud ante la posibilidad de infringir la ley de derechos de autor al descargar millones de libros sin permiso. Aun así, un correo electrónico de diciembre de 2023 indicaba que la práctica había sido aprobada tras una “escalada a MZ”, en aparente referencia al consejero delegado Mark Zuckerberg. Meta declinó hacer comentarios al respecto.

Además de las cuestiones legales, expertos y críticos han señalado preocupaciones más amplias sobre el impacto cultural y social de estas prácticas. La destrucción física de libros tras su digitalización plantea preguntas sobre la preservación del patrimonio literario y el valor intrínseco de las obras impresas como registros culturales. Del mismo modo, la dependencia de datos extraídos de fuentes no autorizadas subraya la necesidad de un marco ético y regulador más robusto en torno al uso de contenidos creativos para construir inteligencias artificiales avanzadas.

Reino Unido busca abrir un nuevo debate por los derechos de autor entre la IA y los creadores

Britain seeks ‘reset’ in copyright battle between AI and creators Reuters, 13 de enero de 2026 https://www.reuters.com/business/media-telecom/britain-seeks-reset-copyright-battle-between-ai-creators-2026-01-13/

El gobierno del Reino Unido ha anunciado su intención de replantear profundamente su enfoque sobre las normas de derechos de autor en relación con la inteligencia artificial (IA), en respuesta a tensiones crecientes entre los desarrolladores de IA y los creadores de contenido tradicional.

La secretaria de Tecnología, Liz Kendall, explicó que se busca un “reinicio” de las propuestas legislativas que hasta ahora habían intentado modernizar la legislación de derechos de autor para facilitar el entrenamiento de sistemas de IA con obras existentes. Esta revisión se presentará oficialmente en un informe programado para marzo de 2026.

Hasta el momento, el planteamiento inicial del gobierno —respaldado por el primer ministro Keir Starmer como parte de su objetivo de posicionar al país como una potencia en IA— pretendía relajar las leyes para permitir el uso de cualquier material al que los desarrolladores tuvieran acceso legal, dejando a los creadores la opción de excluir sus obras si así lo deseaban. Sin embargo, esta propuesta de sistema de exclusión (opt-out) fue ampliamente criticada por los sectores creativos, que consideraron insuficiente la protección de sus derechos y la compensación por el uso de sus trabajos en el entrenamiento de modelos de IA.

Tanto Kendall como la ministra de Cultura, Lisa Nandy, reconocieron ante una comisión parlamentaria que el enfoque inicial fue un error y que los principales temores de la industria —garantizar una retribución justa por su trabajo y mantener el control sobre sus creaciones— deben ser el centro de cualquier reforma futura. La intención es adoptar una estrategia más matizada y colaborativa con diversos segmentos del sector creativo para afrontar los desafíos legales y existenciales que plantea la actual interacción entre los sistemas de IA y la propiedad intelectual tradicional.

los derechos de autor en la era de la Inteligencia Artificial generativa

Chaudhry, Uzma; Borda, Ann; Forbes, Stephanie; Jones, Joe; Perini, Antonella Maia; Rättzén, Mattias; Stewart-David, Mary. Creative Grey Zones: Copyright in the Age of Hybridity. The Alan Turing Institute, 2025. https://www.turing.ac.uk/news/publications/creative-grey-zones-copyright-age-hybridity

El informe analiza cómo la IA generativa tensiona las leyes de derechos de autor al usar obras protegidas para entrenar modelos sin consentimiento claro. Identifica “zonas grises” donde se mezclan autoría humana, producción automatizada y vacíos legales. Propone comprender estos dilemas éticos, técnicos y jurídicos para guiar futuras reformas del copyright.

El informe Creative Grey Zones: Copyright in the Age of Hybridity del The Alan Turing Institute examina cómo el auge de la inteligencia artificial generativa está forzando una reevaluación global de las leyes de derecho de autor. Parte del problema radica en que los modelos de IA se entrenan utilizando enormes cantidades de material protegido por derechos de autor —sin autorización explícita de los titulares—, y luego generan nuevos contenidos derivados de ese entrenamiento. Este uso masivo pone en tensión la eficacia de los marcos legales tradicionales que regulan la autoría

El informe identifica cuatro “zonas grises” donde convergen ética, derecho, estándares técnicos y actores híbridos (usuarios, desarrolladores, titulares de derechos, reguladores), y en las que la frontera entre creación humana y producción automatizada se vuelve difusa.

Su propósito es mapear este panorama complejo —no dictar soluciones definitivas—, aportando un análisis multidisciplinar que permita un diálogo informado para futuras reformas normativas.

Entre las tensiones destacadas, están: la dificultad de definir cuándo una obra generada o asistida por IA sigue siendo fruto de creatividad humana; los dilemas sobre consentimiento o remuneración a los autores originales cuyos trabajos alimentan los modelos; y la necesidad de adaptar las leyes de copyright para incluir nuevos tipos de “stakeholders híbridos”. El informe subraya que estos retos no son puramente técnicos sino profundamente sociales y legales, lo que exige repensar las bases mismas de la autoría y la protección intelectual en la era de la IA.

¿Quién es el propietario de qué en lo que respecta a la IA y la propiedad intelectual?

Sharma, Seemantani. 2025. “Who owns what when it comes to AI and intellectual property?World Economic Forum, octubre 2025. https://www.weforum.org/stories/2025/10/intellectual-property-ai-human-creativity-ownership/

La cuestión de si las creaciones generadas por inteligencia artificial (IA) pueden considerarse objeto de propiedad intelectual, cuestionando si una IA puede ser reconocida como “autora” o “inventora”. Señala que los sistemas actuales de IA, por más sofisticados que sean, no tienen conciencia, experiencia subjetiva ni intencionalidad, lo que —según las teorías tradicionales de derechos de autor y patentes— impide que sean titulares de derechos.

La IA ya genera arte, diseña medicamentos e imita la imaginación humana. Esto plantea una pregunta fundamental. ¿Quién, si es que hay alguien, es el verdadero propietario de estas creaciones? ¿Se puede considerar a la IA como autora o inventora? ¿O los derechos pertenecen exclusivamente a los seres humanos?

Históricamente, los regímenes de propiedad intelectual (derechos de autor, patentes, marcas) se han fundamentado en la idea de creatividad humana: un autor humano ejerce un trabajo intelectual que refleja su personalidad, identidad o esfuerzo mental. Como una máquina no realiza ese tipo de “labor” en sentido humano —no tiene un “yo”, emociones o conciencia—, la ley hasta ahora considera que los resultados generados por IA pertenecen, en última instancia, a personas humanas, si es que hay un autor humano que haya intervenido.

El artículo destaca que muchas de las creaciones producidas por IA —arte, diseños, descubrimientos— pueden ser sorprendentes y funcionales, pero carecen del contexto emocional, intencional y experiencial que caracteriza la creatividad humana. Por tanto, aunque la IA pueda “producir” cosas, no puede reemplazar la acción creativa humana. En consecuencia, seguir otorgando la autoría a seres humanos protege la responsabilidad, la dignidad, la identidad y la justicia en el reconocimiento del trabajo intelectual.

Sin embargo, los autores del artículo advierten de que la creciente sofisticación de la IA y su uso masivo para generar contenido plantea un desafío real al marco legal tradicional. Podría ser necesario repensar la noción de propiedad intelectual: considerar modelos de propiedad compartida, nuevas categorías legales o marcos normativos que reconozcan la colaboración entre humanos y máquinas, sin perder de vista la protección de los derechos humanos y creativos. La decisión que tomemos hoy definirá el futuro de la autoría, la innovación y el valor de la creatividad en la era de la IA.

Código de Buenas Prácticas en el Uso Justo para Bibliotecas universitarias y de Investigación

Association of Research Libraries, Code of Best Practices in Fair Use for Academic and Research Libraries (Washington, DC: ARL, enero de 2012)

Texto completo

El documento presenta un conjunto de buenas prácticas desarrolladas por y para bibliotecas académicas e investigadoras en Estados Unidos para orientar la aplicación de la doctrina de “uso justo” (fair use) en el entorno bibliotecario.

Desde su introducción, el texto explica que el uso justo es un derecho flexible que permite el uso de materiales protegidos por derechos de autor sin permiso ni pago bajo ciertas circunstancias, cuando el beneficio social o cultural prevalece.

Reconoce que la ley de derechos de autor no ofrece fórmulas rígidas y que la evaluación de si un uso es justo depende del contexto, los hechos, las normas del campo y del juicio de buena fe.

El código organiza su orientación alrededor de ocho situaciones recurrentes en las que las bibliotecas académicas pueden aplicar el uso justo. Estas situaciones incluyen, entre otras: facilitar el acceso a materiales de la biblioteca mediante tecnologías digitales para la enseñanza y el aprendizaje; emplear fragmentos de la colección para exposiciones o difusión de actividades de la biblioteca; digitalizar materiales en riesgo; poner a disposición colecciones especiales archivísticas en formato digital; reproducir materiales para usuarios con discapacidades; preservar la integridad de los trabajos depositados en repositorios institucionales; crear bases de datos para investigación no consumptiva (por ejemplo, búsqueda, análisis de datos); y recolectar material publicado en la web para uso académico.

Para cada situación, el código ofrece un principio (que afirma que en esa circunstancia es “uso justo”), junto con limitaciones (factores que reducen la fuerza del argumento de uso justo) y mejoras (prácticas que fortalecen dicho argumento). Por ejemplo, en el contexto de la enseñanza digital, se sugiere que el acceso esté limitado a estudiantes matriculados, durante la duración del curso, con atribución completa, y que se ofrezca justificación pedagógica por parte del instructor.

Asimismo, el documento destaca que su objetivo no es restringir la aplicación del uso justo, sino habilitarla dentro del marco de riesgo razonable, ayudando a las bibliotecas a desarrollar una estrategia de gestión de riesgos basada en criterios comunitarios.
Association of Research Libraries

En definitiva, este código se presenta como una herramienta de apoyo para bibliotecas universitarias e investigadoras, aportando un consenso profesional sobre cómo pueden ejercer el uso justo con responsabilidad, transparencia y coherencia institucional.

Mensajes internos de OpenAI podrían costarle miles de millones en demandas por derechos de autor

OpenAI’s Internal Slack Messages Could Cost It Billions in Copyright Suit.” Sherwood News, [fecha de publicación]. https://sherwood.news/power/openais-internal-slack-messages-could-cost-them-billions-in-copyright-suit/

El artículo analiza cómo OpenAI se encuentra en una situación altamente comprometida debido a comunicaciones internas —especialmente mensajes de Slack y correos electrónicos— que han sido reveladas durante un litigio por infracción de derechos de autor.

Los demandantes, un grupo de autores y editoriales, han obtenido acceso a ciertas conversaciones internas en las que se discute el uso de un conjunto de datos formado por obras con copyright sin licencia, así como la eliminación posterior de dicho material. Dichas evidencias podrían indicar no solo infracción, sino también conducta intencionada, lo que eleva el riesgo de que OpenAI tenga que pagar compensaciones extraordinarias.

El texto señala que, si se demuestra que OpenAI actuó sabiendo que utilizaba obras protegidas sin permiso, la empresa podría enfrentarse a daños punitivos de hasta 150.000 dólares por obra individual —una cifra que, multiplicada por millones de obras, podría ascender a miles de millones de dólares en pasivos potenciales. Además, el hecho de que se hayan eliminado datos y de que ciertas comunicaciones sobre esa eliminación estén siendo investigadas, abre la posibilidad de sanciones graves, como instrucciones desfavorables al jurado o la imposición de que se asuma que la conducta fue deliberada.

Otro punto crítico es que la filtración y revelación de estas comunicaciones internas afecta directamente la credibilidad de la defensa de la empresa. OpenAI ha argumentado que ciertas decisiones se tomaron por inactividad o falta de uso del material, pero las conversaciones sugieren deliberación sobre el borrado de datos recogidos de plataformas no autorizadas. Esto pone en juego la llamada excepción del crimen‑fraude, una vía legal que permite que se revele información habitualmente protegida por la confidencialidad abogado‑cliente si se considera que se está cometiendo un delito o fraude. Si se aplica, podría abrir aún más la caja de pandora de las comunicaciones internas de la empresa.

El artículo concluye que el caso no solo es relevante para OpenAI, sino para toda la industria de la inteligencia artificial: la cuestión de cómo se recogen, utilizan y eliminan los datos de entrenamiento —especialmente cuando incluyen obras bajo copyright— se está convirtiendo en un desafío estructural. La exposición de OpenAI podría sentar precedentes que impacten a otras compañías que entrenan modelos con grandes volúmenes de contenido sin licencia explícita. En definitiva, no es únicamente una cuestión económica de cuantificación de daños, sino una prueba sobre la gobernanza, la ética y la diligencia profesional en el desarrollo de la inteligencia artificial.

Acuerdo histórico de 1.500 millones de dólares entre Anthropic y autores por uso no autorizado de libros por su inteligencia artificial

Ortutay, Barbara. “Judge Approves $1.5 Billion Copyright Settlement Between AI Company Anthropic and Authors.” AP News, 25 de septiembre de 2025. https://apnews.com/article/anthropic-authors-copyright-judge-artificial-intelligence-9643064e847a5e88ef6ee8b620b3a44c

Un juez aprobó un acuerdo de 1.500 millones de dólares entre Anthropic y autores cuyos libros fueron usados sin permiso para entrenar su IA. Cada obra recibirá aproximadamente 3.000 dólares, aunque no cubre libros futuros. El caso sienta un precedente clave en la protección de derechos de autor frente a tecnologías de inteligencia artificial.

El 25 de septiembre de 2025, un juez federal aprobó preliminarmente un acuerdo histórico de 1.500 millones de dólares entre la empresa de inteligencia artificial Anthropic y un grupo de autores y editores. La disputa surgió cuando los autores denunciaron que la compañía había utilizado sin autorización cerca de 465.000 libros protegidos por derechos de autor para entrenar su modelo de lenguaje Claude. Este acuerdo prevé una compensación de aproximadamente 3.000 dólares por cada libro afectado, aunque no contempla obras que se publiquen en el futuro. El juez destacó la complejidad de distribuir los fondos de manera justa, pero consideró que el acuerdo era razonable y proporcionado para las partes involucradas.

La demanda original fue presentada por varios escritores que alegaban que Anthropic había recopilado ilegalmente millones de libros, almacenándolos en una biblioteca central para alimentar su sistema de inteligencia artificial. A pesar de que en una decisión previa se había reconocido que el uso de ciertos libros para entrenamiento podía considerarse un uso justo, el juez determinó que la compañía sí había infringido los derechos de autor al almacenar y explotar un volumen tan grande de obras sin permiso. Este punto resultó clave para la aprobación del acuerdo, al establecer un reconocimiento de responsabilidad por parte de la empresa.

Este acuerdo marca un precedente importante en el ámbito de la inteligencia artificial y los derechos de autor. Por primera vez, una compañía tecnológica se compromete a una compensación multimillonaria por el uso no autorizado de obras literarias, lo que podría influir en futuras disputas legales y en la manera en que los desarrolladores de IA acceden a contenido protegido. Representa un avance significativo en la protección de los autores y en la reivindicación de sus derechos frente a grandes empresas tecnológicas.

Anthropic expresó su satisfacción por la resolución, afirmando que este acuerdo les permitirá centrarse en el desarrollo de herramientas de inteligencia artificial de manera responsable y segura. El juez, por su parte, subrayó la importancia de garantizar un proceso de reclamaciones transparente, de modo que todos los autores, incluidos aquellos menos conocidos, puedan recibir una compensación justa. En conjunto, este caso refleja un punto de inflexión en la relación entre la tecnología y la propiedad intelectual, estableciendo límites claros sobre el uso de obras protegidas en la creación de sistemas de IA.

Acceso inclusivo a la información: guía canadiense sobre copyright y formatos alternativos

Canadian Association of Research Libraries (CARL) y Canadian Federation of Library Associations (CFLA). “CARL and CFLA Release New Guide on the Canadian Copyright Act for Accessible Content.” CARL News, 15 de septiembre de 2025

Texto completo

El documento busca ofrecer una visión clara y práctica de la legislación canadiense en materia de derechos de autor, centrada en el acceso, la producción y la distribución de contenidos accesibles para personas con discapacidades perceptuales

La publicación explica cómo se aplican las disposiciones vigentes, incluye un listado de verificación de requisitos legales, recopila buenas prácticas, ofrece recomendaciones para situaciones cotidianas y propone medidas para reducir barreras de acceso. También incorpora un glosario de términos clave que facilita la comprensión del marco legal (carl-abrc.ca).

El material está dirigido principalmente a productores de formatos alternativos, bibliotecas, archivos, museos, galerías, instituciones educativas y organizaciones que trabajan con personas con discapacidades perceptuales. Sin embargo, resulta igualmente útil para titulares de derechos que deseen conocer en detalle la normativa aplicable (carl-abrc.ca).

La guía subraya la necesidad de lograr una mayor coordinación entre quienes crean contenidos accesibles y los propietarios de derechos, con el fin de garantizar que toda la ciudadanía canadiense pueda acceder en igualdad de condiciones a la información y la cultura. Además, constituye la primera publicación conjunta de CARL y CFLA disponible también en formato EPUB, lo que amplía su nivel de accesibilidad.

Hasta el 70 % de las escuchas de música en Deezer son realizadas por bots de IA para cobrar regalías

Deezer. “Up to 70% of Streams of AI-Generated Music on Deezer Are Fraudulent, Says Report.The Guardian, 18 junio 2025

Siete de cada diez reproducciones de música generada por inteligencia artificial en la plataforma Deezer son fraudulentas, según la plataforma francesa de streaming.

Un informe reciente de Deezer advierte que hasta el 70 % de las reproducciones de canciones generadas íntegramente por inteligencia artificial (IA) en la plataforma son fraudulentas. Estas escuchas corresponden a bots u otras formas de manipulación destinadas a inflar las cifras y obtener regalías de manera indebida. Aunque las pistas creadas con IA suponen apenas el 0,5 % del total de reproducciones, su presencia es mucho más significativa en el volumen de cargas diarias: alrededor de 20.000 temas al día, lo que representa el 18 % de todas las canciones subidas.

Para hacer frente a esta situación, Deezer asegura disponer de herramientas capaces de identificar con total precisión los contenidos producidos por modelos como Suno y Udio. Los temas detectados como totalmente artificiales se etiquetan de forma explícita, quedan fuera de las recomendaciones algorítmicas y de las listas editoriales, y además, las reproducciones fraudulentas que generan no se contabilizan para el pago de regalías.

Deezer afirmó que la música generada por IA que los estafadores transmitían iba desde pop y rap falsos hasta pistas musicales artificiales que estimulaban el estado de ánimo. La plataforma ha decidido bloquear el pago de regalías por las reproducciones que ha identificado como fraudulentas.

En su último informe global sobre música, la IFPI afirmó que el streaming fraudulento roba dinero que «debería destinarse a artistas legítimos». Añadió que la IA generativa había «exacerbado significativamente» el problema.

El año pasado, el músico estadounidense Michael Smith fue acusado en relación con un plan para crear cientos de miles de canciones generadas por IA y reproducirlas miles de millones de veces, obteniendo 10 millones de dólares en regalías.

Según Thibault Roucou, director de regalías de la compañía, muchas de estas canciones creadas de manera automática carecen de una verdadera motivación artística y responden únicamente al ánimo de lucro mediante la manipulación del sistema.

Una mirada jurídica poliédrica a la normativa europea sobre inteligencia artificial

Estupiñán Cáceres, Rosalía; Fonticiella Hernández, Beatriz; Ojeda Tacoronte, Carolina J. Una mirada jurídica poliédrica a la normativa europea sobre inteligencia artificial. Madrid: Dykinson, 2025.

Descargar

El libro examina de forma multidisciplinar la reciente normativa europea sobre inteligencia artificial, especialmente el Reglamento (UE) 2024/1689 sobre IA y la Directiva (UE) 2024/2853 relativa a la responsabilidad por daños causados por productos defectuosos.

La irrupción de la inteligencia artificial en nuestra sociedad ha generado un profundo impacto jurídico que exige respuestas normativas claras y adaptadas. Esta obra colectiva ofrece un análisis crítico y multidisciplinar del nuevo Reglamento (UE) 2024/1689 sobre inteligencia artificial, así como de la reciente Directiva (UE) 2024/2853 sobre responsabilidad por daños causados por productos defectuosos. Fruto del Congreso celebrado en la Universidad de Las Palmas de Gran Canaria en 2024, el libro reúne aportaciones de destacados expertos que abordan los retos que plantea la IA en distintos ámbitos del Derecho: administrativo, penal, laboral, mercantil, constitucional, entre otros.

Se abordan los retos legales que plantea la IA en distintos ámbitos del Derecho —administrativo, penal, laboral, mercantil, constitucional entre otros— analizando aspectos como:

  • la gobernanza de la IA, es decir las instituciones, mecanismos de control, obligaciones reguladoras;
  • la protección de los derechos fundamentales frente al uso de IA;
  • el impacto de la IA en mercados financieros;
  • su utilización en procesos judiciales;
  • y los desafíos en materia de responsabilidad civil y compliance

Una obra esencial para comprender el alcance e implicaciones de las nuevas normativas europeas sobre inteligencia artificial.