Archivo de la etiqueta: Inteligencia artificial

Datos listos para la IA: consideraciones clave para la ciencia abierta y responsable

McBride, Vanessa; Natalia Norori; Denisse Albornoz. Data and AI for Science: Key Considerations. Working Paper, International Science Council, septiembre de 2025. DOI: 10.24948/2025.11

Texto completo

El informe ofrece una visión amplia y crítica del cruce entre inteligencia artificial, datos y ciencia, destacando que solo mediante la combinación de apertura, responsabilidad y cooperación internacional se podrá aprovechar plenamente el potencial de la IA en beneficio del conocimiento y la sociedad.

El informe explora cómo la inteligencia artificial está transformando la práctica científica y qué condiciones deben cumplirse para que los datos puedan aprovecharse de manera efectiva, ética y sostenible. La noción central es la de datos “AI-ready”, es decir, conjuntos de datos preparados para ser procesados y reutilizados por sistemas de IA en beneficio de la investigación. Este concepto implica que los datos no solo deben estar disponibles, sino también estructurados, limpios, interoperables y documentados de manera adecuada.

Una parte importante del documento se centra en la calidad e interoperabilidad de los datos. La ciencia abierta ha impulsado normas como FAIR (Findable, Accessible, Interoperable, Reusable), pero el uso de IA añade nuevas exigencias. Por ejemplo, los algoritmos requieren datos con metadatos consistentes, esquemas comunes y estándares de anotación que permitan la reutilización automática. Además, se subraya que la preparación de datos para IA debe considerar la reducción de sesgos y garantizar la inclusión de voces y contextos diversos, para evitar reproducir inequidades existentes en los resultados científicos.

Otro eje del informe son las dimensiones éticas, sociales y ambientales. Los autores advierten que el entrenamiento y uso de grandes modelos de IA conlleva altos costes energéticos y huellas de carbono significativas, por lo que la sostenibilidad debe integrarse en la planificación de infraestructuras científicas. En paralelo, se examinan los riesgos para la privacidad, la seguridad y la soberanía de los datos, especialmente en campos sensibles como la biomedicina o las ciencias sociales. Estos retos requieren marcos sólidos de gobernanza que equilibren apertura y protección.

El informe también vincula la preparación de datos para IA con la agenda de la ciencia abierta. Se argumenta que los principios de transparencia, accesibilidad y colaboración resultan esenciales para garantizar que la IA potencie la ciencia de manera inclusiva y global. Se destacan casos prácticos en los que repositorios, proyectos colaborativos y consorcios internacionales han logrado implementar buenas prácticas de datos AI-ready, sirviendo como ejemplos para otras disciplinas.

Finalmente, se presentan recomendaciones estratégicas:

  • Consolidar marcos normativos y estándares internacionales, como FAIR-R y Croissant.
  • Invertir en infraestructuras digitales y capacidad de cómputo adecuadas para la investigación con IA.
  • Fortalecer la capacitación en gestión de datos e inteligencia artificial.
  • Reconocer institucionalmente la labor de quienes trabajan en la preparación y curación de datos.
  • Garantizar la equidad y la inclusividad en las políticas sobre datos e IA, evitando que el acceso desigual a recursos tecnológicos aumente las brechas entre regiones y comunidades científicas.

La huella de la Inteligencia Artificial en la escritura académica: un análisis del cambio lingüístico tras los LLMs

Kousha, Kayvan, and Mike Thelwall. “How Much Are LLMs Changing the Language of Academic Papers after ChatGPT? A Multi-Database and Full Text Analysis.” arXiv (September 2025). https://arxiv.org/abs/2509.09596

El artículo analiza cómo los modelos de lenguaje grande (LLMs), en particular tras la aparición pública de ChatGPT, están influyendo en el estilo lingüístico de los artículos académicos.

Para ello, los autores se centran en doce términos muy característicos de los textos generados o corregidos con LLMs —como delve, underscore, intricate o meticulous— y estudian su evolución en seis grandes bases de datos: Scopus, Web of Science, PubMed, PubMed Central (PMC), Dimensions y OpenAlex. Además, aplican un análisis exhaustivo a más de 2,4 millones de artículos de PMC publicados entre 2021 y mediados de 2025.

Los resultados muestran un crecimiento espectacular en la frecuencia de estos términos tras la popularización de ChatGPT. Por ejemplo, entre 2022 y 2024, delve aumentó cerca de un 1500 %, underscore un 1000 % e intricate un 700 %. En los textos completos de PMC, el uso de underscore seis o más veces en un artículo se disparó más de un 10.000 % entre 2022 y 2025. También destacan los aumentos de intricate (≈ 5400 %) y meticulous (≈ 2800 %).

El fenómeno no afecta de igual manera a todas las disciplinas. El crecimiento es mucho mayor en áreas STEM (Ciencia, Tecnología, Ingeniería y Matemáticas) que en Ciencias Sociales o en Artes y Humanidades. Asimismo, los autores detectan que la co-ocurrencia de estos términos es cada vez más fuerte: artículos que emplean underscore tienden también a incluir con mayor frecuencia pivotal o delve, mostrando correlaciones que en 2022 eran casi inexistentes.

Se evidencia que la influencia de ChatGPT y otros LLMs se percibe claramente en el lenguaje académico, no solo en la frecuencia de ciertos términos, sino también en un estilo más uniforme y “pulido”. Este fenómeno puede ayudar a investigadores no nativos en inglés a acercarse a los estándares de redacción científica, reduciendo barreras lingüísticas en la publicación internacional. Sin embargo, también plantean interrogantes sobre el riesgo de homogeneización, exceso de artificio o pérdida de diversidad estilística en la escritura académica.

Una mirada jurídica poliédrica a la normativa europea sobre inteligencia artificial

Estupiñán Cáceres, Rosalía; Fonticiella Hernández, Beatriz; Ojeda Tacoronte, Carolina J. Una mirada jurídica poliédrica a la normativa europea sobre inteligencia artificial. Madrid: Dykinson, 2025.

Descargar

El libro examina de forma multidisciplinar la reciente normativa europea sobre inteligencia artificial, especialmente el Reglamento (UE) 2024/1689 sobre IA y la Directiva (UE) 2024/2853 relativa a la responsabilidad por daños causados por productos defectuosos.

La irrupción de la inteligencia artificial en nuestra sociedad ha generado un profundo impacto jurídico que exige respuestas normativas claras y adaptadas. Esta obra colectiva ofrece un análisis crítico y multidisciplinar del nuevo Reglamento (UE) 2024/1689 sobre inteligencia artificial, así como de la reciente Directiva (UE) 2024/2853 sobre responsabilidad por daños causados por productos defectuosos. Fruto del Congreso celebrado en la Universidad de Las Palmas de Gran Canaria en 2024, el libro reúne aportaciones de destacados expertos que abordan los retos que plantea la IA en distintos ámbitos del Derecho: administrativo, penal, laboral, mercantil, constitucional, entre otros.

Se abordan los retos legales que plantea la IA en distintos ámbitos del Derecho —administrativo, penal, laboral, mercantil, constitucional entre otros— analizando aspectos como:

  • la gobernanza de la IA, es decir las instituciones, mecanismos de control, obligaciones reguladoras;
  • la protección de los derechos fundamentales frente al uso de IA;
  • el impacto de la IA en mercados financieros;
  • su utilización en procesos judiciales;
  • y los desafíos en materia de responsabilidad civil y compliance

Una obra esencial para comprender el alcance e implicaciones de las nuevas normativas europeas sobre inteligencia artificial.

Inteligencia Artificial y profesionales bibliotecarios

Cox, Andrew M. AI and the UK Library Profession: Survey Results — A Report for CILIP. London: CILIP, 2025

Texto completo

El informe analiza cómo los profesionales de bibliotecas e información en el Reino Unido están incorporando la Inteligencia Artificial (IA) en su trabajo, cuáles son sus percepciones y qué apoyos necesitan.

La encuesta, realizada entre noviembre y diciembre de 2024, recogió 162 respuestas válidas procedentes principalmente de bibliotecas universitarias, de salud y públicas. El objetivo del estudio fue conocer no solo el nivel de adopción de estas tecnologías, sino también las oportunidades, riesgos y necesidades que identifican los bibliotecarios.

El resultado más llamativo es que un 65 % de los participantes reconoció estar utilizando herramientas de IA en su trabajo cotidiano. Entre las más citadas se encuentran ChatGPT y Copilot, empleadas sobre todo para tareas de redacción, búsqueda de información y automatización de procesos rutinarios. El uso resulta más extendido en bibliotecas universitarias y de salud, mientras que en las públicas todavía es más moderado. Pese a esta presencia creciente, solo un tercio de las instituciones encuestadas contaba ya con una política específica sobre IA y otro cuarto estaba en proceso de desarrollarla, lo que indica que todavía existe un marco normativo y estratégico insuficiente.

En cuanto a los ámbitos de aplicación, el informe destaca el uso de la IA generativa para redactar borradores de documentos, apoyar la alfabetización digital de los usuarios e integrar la enseñanza crítica de estas tecnologías en programas formativos. También se la emplea en la síntesis de información y en la mejora de procesos internos, con el fin de ganar eficiencia administrativa y liberar tiempo para otras tareas de valor añadido. Todo ello revela que la profesión percibe la IA como una herramienta práctica y útil, aunque aún en fase exploratoria.

Los encuestados identificaron varias oportunidades relacionadas con la IA. Entre ellas figuran la posibilidad de mejorar la eficiencia de los servicios bibliotecarios, reforzar las competencias en análisis y gestión de datos, enriquecer la experiencia de los usuarios y desarrollar nuevas funciones profesionales ligadas a la enseñanza y mediación tecnológica. Sin embargo, junto a estos beneficios emergen preocupaciones importantes que frenan una adopción plena.

Las principales barreras son de naturaleza ética, económica y técnica. En el terreno ético, se señalaron riesgos como la falta de transparencia, los sesgos de los algoritmos, la generación de desinformación y los problemas de privacidad. Desde el punto de vista económico, muchas instituciones consideran que el coste de las soluciones comerciales de IA resulta excesivo. También se subraya el impacto ambiental que puede tener el uso intensivo de estas tecnologías, especialmente por el alto consumo energético de los sistemas. A todo ello se suma la percepción de un déficit de competencias técnicas dentro de la profesión, que limita el aprovechamiento de las herramientas disponibles, y las dudas legales vinculadas a los derechos de autor y la propiedad intelectual en relación con los contenidos generados por IA.

Frente a este panorama, los profesionales expresaron con claridad sus necesidades de apoyo. La mayoría reclama formación accesible en distintos formatos —cursos cortos, seminarios web o materiales escritos— que les permita adquirir un conocimiento práctico y actualizado. También demandan guías éticas y regulatorias que orienten el uso responsable de la IA, así como ejemplos concretos de buenas prácticas adaptadas a diferentes tipos de bibliotecas. Se espera además que CILIP desempeñe un papel de liderazgo institucional, actuando como referente en la elaboración de políticas, en la difusión de recursos y en la representación del sector en los debates públicos y regulatorios sobre la IA.

El estudio muestra que la IA se ha integrado de forma significativa en el trabajo bibliotecario del Reino Unido, aunque de manera desigual y todavía experimental. Los profesionales reconocen tanto sus beneficios como los riesgos que entraña, y existe una demanda clara de liderazgo, formación y marcos normativos que permitan gestionar esta integración de manera responsable. El informe refleja un sector en transformación, que avanza con cautela pero con la convicción de que la IA será una pieza clave en el futuro de las bibliotecas.

La nueva función de detección de Turnitin ayuda a identificar el uso de herramientas de humanización de IA

Kelly, Rhea. “New Turnitin Bypasser Detection Feature Helps Identify Use of AI Humanizer Tools.” THE Journal, 2 de septiembre de 2025. https://thejournal.com/articles/2025/09/02/new-turnitin-bypasser-detection-feature-helps-identify-use-of-ai-humanizer-tools.aspx

Turnitin lanzó una función para detectar textos modificados por herramientas “humanizadoras” de IA, evitando que los estudiantes oculten contenido generado artificialmente. Esto fortalece la integridad académica al identificar fácilmente el uso indebido de IA en los trabajos.

Turnitin ha ampliado sus capacidades de detección de escritura con inteligencia artificial (IA) mediante la incorporación de una nueva función denominada «detección de bypassers». Esta herramienta está diseñada para identificar textos que han sido modificados por programas conocidos como «humanizadores«, los cuales alteran contenido generado por IA para que parezca escrito por humanos.

La disponibilidad de estos humanizadores representa una amenaza creciente para la integridad académica, ya que permite a los estudiantes ocultar el uso de IA, dificultando la verificación de la originalidad de los trabajos entregados. La nueva función de detección de bypassers se integra dentro de la función general de detección de escritura de Turnitin, permitiendo a los usuarios verificar automáticamente si un texto contiene contenido generado por IA o modificado por humanizadores, todo desde la misma plataforma, sin necesidad de integraciones adicionales o herramientas externas. Actualmente, esta función está limitada a interacciones en inglés.

Annie Chechitelli, directora de productos de Turnitin, destacó que, aunque el plagio siempre ha sido una preocupación para los educadores, con el auge de la IA ha surgido una nueva categoría de proveedores de trampas que se benefician del mal uso de la IA por parte de los estudiantes, proporcionando acceso fácil y gratuito a humanizadores para ocultar contenido generado por IA. En respuesta a este desafío emergente, Turnitin ha actualizado su software para detectar las principales modificaciones realizadas por bypassers de IA, permitiendo a los educadores mantener la integridad académica.

El problema de la “endogamia” en la IA: modelos que se retroalimentan a sí mismos

Lavoué, Alix. “AI Inbreeding: The Phenomenon Threatening Artificial Intelligence.” Worldcrunch, 7 de septiembre de 2025. https://worldcrunch.com/tech-science/ai-inbreeding-the-phenomenon-threatening-artificial-intelligence/

La «endogamia» en la inteligencia artificial ocurre cuando los modelos se entrenan utilizando contenido generado por otros modelos de IA, en lugar de datos originales creados por humanos. Este ciclo de retroalimentación puede llevar a una degradación progresiva de la calidad y diversidad de los resultados producidos por los modelos.

La endogamia de la IA, o colapso del modelo, se produce cuando un modelo de IA generativa se entrena con datos que han sido generados por una IA, lo que provoca una degradación de la calidad, la precisión y la diversidad de los resultados futuros del modelo, lo que a menudo da lugar a contenidos sin sentido, repetitivos o sesgados.

Lo que conlleva a que los sesgos se amplifiquen, la diversidad de información se colapse y las respuestas se vuelvan cada vez más ruidosas e imprecisas. Un ejemplo de este fenómeno se observó en un estudio publicado en la revista Nature, donde investigadores británicos y canadienses entrenaron un modelo de IA para dibujar números manuscritos basándose en un conjunto de datos real. Al repetir el proceso utilizando los números generados por la IA en cada etapa, se observó que después de 20 generaciones, los números se volvían borrosos, y después de 30 generaciones, convergían en una forma indistinta. Este estudio demuestra que en solo cinco generaciones de entrenamiento con datos autogenerados, los sesgos y fallos del sistema ya se amplifican, disminuyendo la variación y la precisión de las respuestas.

Este proceso degenerativo se debe a la falta de diversidad en los datos de entrenamiento, lo que lleva a que el sistema se enfoque en respuestas promedio y elimine las excepciones. Esto se conoce como colapso temprano, seguido de un colapso tardío, donde las respuestas se vuelven agotadas y, a veces, muy alejadas de la realidad.

El problema es que los atajos sintéticos no solo amplían la cantidad de datos, sino que los distorsionan. Cuando un sistema se entrena principalmente con su propio output, termina siendo una versión “promedio potenciada” de sí mismo: segura, insípida y progresivamente incorrecta. Para las empresas que dependen de mejoras continuas de modelos, esto significa que cada nueva generación puede resultar menos confiable. Al mismo tiempo, las compañías con grandes reservas de datos originales podrían convertirse en los únicos guardianes reales de la ventaja competitiva.

Para mitigar este problema, es esencial diversificar las fuentes de datos utilizadas para entrenar los modelos de IA, asegurando que incluyan una variedad de perspectivas y contextos. Además, se deben implementar técnicas de validación y monitoreo para

El futuro de la IA en las bibliotecas públicas: oportunidades, desafíos y alfabetización digital

WebJunction. “What’s on the Horizon for AI and Public Libraries?WebJunction, 28 de agosto de 2025. https://www.webjunction.org/news/webjunction/public-libraries-ai-future.html

La inteligencia artificial (IA) está impulsando un cambio drástico en nuestro mundo. Es una herramienta transformadora que revoluciona las industrias e impacta la vida cotidiana. Al concluir nuestra serie sobre IA, queremos explorar qué se avecina en el panorama de la IA.

Al mantenerse al tanto de estos problemas en constante evolución, el personal bibliotecario puede desarrollar sus habilidades informativas para posicionarse como expertos en alfabetización en IA, educar al público y participar activamente en la definición del impacto social de la IA.

El enorme poder de la IA

El poder de la IA reside en su capacidad para analizar grandes cantidades de datos, aprender de la experiencia y realizar tareas que normalmente requieren inteligencia humana, a menudo con mayor precisión, velocidad y eficiencia. Recopilar, interpretar y generar informes de datos son funciones cruciales para las bibliotecas, por lo que no sorprende que el poder de la IA esté transformando las bibliotecas públicas.

A medida que las bibliotecas desempeñan funciones más complejas y adoptan sistemas más sofisticados, se dispone de más datos para facilitar la toma de decisiones y contar la historia de la biblioteca. Esta realidad puede presentar desafíos a la hora de saber qué datos utilizar y cómo extraer conclusiones precisas. La IA puede procesar y sintetizar conjuntos de datos grandes y mixtos para generar rápidamente información y crear narrativas. Los productos o soluciones de IA independientes, fácilmente disponibles e integrados en las herramientas bibliotecarias existentes, pueden utilizarse para automatizar procesos, informar y representar colecciones, impulsar programas y la participación de la comunidad, y ofrecer servicios completamente nuevos. Sin embargo, siempre se debe tener en cuenta la privacidad de los usuarios y se debe eliminar la información de identificación personal de los datos de la biblioteca enviados a las herramientas de IA.

La Biblioteca de Pottsboro participó en un taller intensivo de consultoría sobre preparación de IA para organizaciones sin fines de lucro y colaboró ​​con miembros del equipo de Dell de todo el mundo para identificar las necesidades que la IA podría abordar. El equipo de la Biblioteca de Pottsboro se centró en los datos recopilados en su ILS, así como en los datos de la comunidad, para comprender qué información les podría proporcionar sobre las tendencias de los usuarios y las mejoras en los servicios, la colección o la difusión que convenía implementar. Por ejemplo, para orientar las decisiones de compra, el personal utilizó la IA para encontrar libros que se prestaban con frecuencia en Libby (una suscripción de libros electrónicos), pero que no tenían ejemplares impresos en su colección. También realizaron un análisis por código postal, observando la distribución de los usuarios que utilizan la biblioteca para ver si la difusión o la promoción en un código postal en particular contribuían a un aumento de titulares de tarjetas en esa zona. Finalmente, pudieron utilizar un lenguaje sencillo para consultar con la IA los datos de circulación de libros infantiles en formato físico y digital para su informe anual, sin necesidad de conocimientos avanzados de Excel para presentar los datos de forma eficaz y eficiente.

Algunas limitaciones e inquietudes

Si bien el poder de la IA puede ser notable, las precauciones que conlleva esta tecnología son significativas. El volumen de resultados de IA que circula en la web es inmenso y está en crecimiento. Es importante evaluar siempre con cuidado el contenido generado por IA para evitar sesgos y desinformación.

Según el New York Times, a medida que las empresas de IA buscan en la web nuevos datos para entrenar sus próximos modelos, es probable que incorporen parte de su propio contenido generado por IA, «creando un ciclo de retroalimentación involuntario en el que lo que antes era el resultado de una IA se convierte en la entrada de otra». Este proceso resulta en un rango más reducido de resultados de IA con el tiempo, una etapa temprana de lo que los investigadores han denominado «colapso del modelo». Cuando estos modelos se entrenan con sus propias palabras, su resultado muestra una menor diversidad lingüística. Además, este proceso puede amplificar el sesgo en los datos. Esta es una información de referencia importante para el personal de bibliotecas que podría impartir talleres sobre IA con el público.

La capacidad de la IA para suplantar la voz de alguien ha mejorado drásticamente, por lo que incidentes como el de alguien que se hace pasar por el secretario de Estado estadounidense, Marco Rubio, y contacta con ministros de Asuntos Exteriores, un gobernador y un senador estadounidense serán cada vez más comunes. Esta sofisticación de la IA está provocando que incluso el director ejecutivo de The Atlantic, Nicholas Thompson, diga: «Es difícil distinguir la realidad; muy difícil». El trabajo del personal bibliotecario que participa activamente en la enseñanza de habilidades de alfabetización informacional se está volviendo cada vez más difícil.

Los problemas legales relacionados con los derechos de autor y la privacidad se están abriendo camino en el sistema judicial estadounidense. Un juez federal de San Francisco declaró que Anthropic hizo un uso legítimo de los libros de varios autores sin su consentimiento para entrenar su modelo de lenguaje Claude Large. En el fallo, el juez afirma: «Como cualquier lector que aspira a ser escritor, los LLM de Anthropic se entrenaron con obras para no adelantarse a los demás».

Detección del uso de inteligencia artificial en artículos científicos y revisiones por pares: el caso de la AACR

Naddaf, Miryam. “AI Tool Detects LLM-Generated Text in Research Papers and Peer Reviews.” Nature, 11 de septiembre de 2025. https://doi.org/10.1038/d41586-025-02936-6

Un análisis reciente realizado por la American Association for Cancer Research (AACR) ha revelado un fuerte aumento en el uso de texto generado mediante modelos de lenguaje grande (LLMs) en artículos de investigación y revisiones por pares, particularmente desde la aparición pública de ChatGPT en noviembre de 2022

Se examinó un conjunto de más de 46.500 resúmenes, 46.000 secciones de métodos y cerca de 30.000 comentarios de revisores, usando una herramienta de detección desarrollada por Pangram Labs. Esta herramienta identificó que en 2024 el 23 % de los resúmenes de manuscritos y el 5 % de los informes de revisión contenían texto que probablemente fue generado por LLMs.

Pese a que la política de la AACR obliga a los autores a declarar el uso de inteligencia artificial en sus manuscritos, menos de una cuarta parte de quienes usaron LLMs lo hicieron.

Además, los autores de instituciones en países no anglófonos fueron más propensos a usar LLMs para mejorar el lenguaje en secciones como los métodos, aunque esto conlleva riesgos de introducir errores si se modifican descripciones técnicas.

En cuanto a las revisiones por pares, se observó que tras la prohibición del uso de LLMs para revisores por parte de la AACR, a finales de 2023 disminuyó la detección de texto generado por IA en comentarios de revisión; sin embargo, a comienzos de 2024 la presencia de estos textos volvió a aumentar significativamente.

La IA y el futuro de la educación: perturbaciones, dilemas y orientaciones.

UNESCO. “AI and the Future of Education: Disruptions, Dilemmas and Directions.UNESCO, 2 de septiembre de 2025. https://unesdoc.unesco.org/ark:/48223/pf0000395236_eng

La UNESCO presenta una antología que explora cómo la inteligencia artificial (IA) está transformando la educación, sus disrupciones, los dilemas éticos y las posibles orientaciones futuras. Se reconoce que la IA ya está modificando la forma en que enseñamos, aprendemos y entendemos el mundo, pero estas transformaciones no se distribuyen por igual. Aproximadamente un tercio de la humanidad sigue sin acceso adecuado a la conectividad, y quienes tienen suscripciones, buena infraestructura o ventaja lingüística son los que más se benefician.

Este desequilibrio implica que no solo el acceso tecnológico sea desigual, sino también qué tipos de conocimientos, valores e idiomas predominan en los sistemas educativos impulsados por IA. Los sistemas tienden a reflejar las estructuras dominantes que ya existen, lo que plantea preguntas sobre equidad, diversidad cultural e inclusión

Además, la antología aborda dilemas filosóficos, éticos y pedagógicos: ¿cómo evaluar a los estudiantes en la era de la IA?, ¿cómo asegurarse de que estas tecnologías promuevan el cuidado, la justicia y los derechos humanos? ¿Cómo diseñar políticas, currículos y pedagogías que reconozcan la cooperación humano-máquina sin deshumanizar ni reforzar desigualdades?

Para enfrentar estos retos, la UNESCO propone fomentar un “commons global” para el diálogo: un espacio global compartido para pensar juntos, debatir diferencias y reimaginar una educación inclusiva en la era de la IA. Se apoya en sus recomendaciones sobre ética de la IA, orientaciones para IA generativa en educación e investigación, y marcos de competencias para docentes y estudiantes.

Anthropic acuerda pagar 1.500 millones de dólares a autores por uso no autorizado de libros en IA

Knibbs, Kate. «Anthropic Agrees to Pay Authors at Least $1.5 Billion in AI Copyright SettlementWIRED, 5 de septiembre de 2025. https://www.wired.com/story/anthropic-settlement-lawsuit-copyright/

Anthropic, la empresa estadounidense de inteligencia artificial creadora del chatbot Claude, ha acordado pagar 1.500 millones de dólares para resolver una demanda colectiva presentada por autores cuyos libros fueron utilizados sin autorización para entrenar su modelo de IA.

Este acuerdo, aún pendiente de aprobación judicial, constituye el mayor pago por infracción de derechos de autor en la historia de Estados Unidos.

Los demandantes, entre ellos Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, acusaron a Anthropic de descargar millones de libros desde sitios pirata como Library Genesis y Pirate Library Mirror, vulnerando los derechos de autor de los creadores. Aunque la justicia había establecido previamente que usar libros adquiridos legalmente para entrenar inteligencia artificial podía considerarse un uso legítimo, la demanda continuó debido al uso de material obtenido ilegalmente.

El acuerdo estipula que cada autor recibirá aproximadamente 3.000 dólares por obra, cubriendo unas 465.000 obras en total. Anthropic también se comprometió a destruir las copias pirata almacenadas, sin admitir responsabilidad legal. Sin embargo, el juez William Alsup expresó dudas sobre la falta de detalles del acuerdo y solicitó información adicional antes de la audiencia prevista para el 25 de septiembre de 2025.

Este caso es un precedente importante en la regulación del uso de contenido protegido por derechos de autor para entrenar modelos de inteligencia artificial, con implicaciones significativas para otras compañías tecnológicas que desarrollan herramientas de IA.