Archivo de la etiqueta: Inteligencia artificial

¿Son mejores las ideas de investigación generadas por Inteligencia Artificial o las creadas por humanos?

Si, Chenglei, Tatsunori Hashimoto y Diyi Yang. The Ideation-Execution Gap: Execution Outcomes of LLM-Generated versus Human Research Ideas. arXiv, 25 de junio de 2025. https://arxiv.org/abs/2506.20803

Los resultados mostraron que las ideas generadas por LLM recibieron puntuaciones significativamente más bajas que las ideas humanas en todos los criterios evaluados: novedad, entusiasmo, efectividad y puntuación general. Este fenómeno, denominado «brecha ideación-ejecución», sugiere que, aunque los LLM pueden generar ideas originales, su capacidad para traducir esas ideas en resultados de investigación efectivos es limitada.

El estudio investiga la diferencia entre la generación de ideas de investigación por modelos de lenguaje grande (LLM, Large Language Models) y la capacidad real de esas ideas para traducirse en resultados concretos y efectivos cuando se llevan a la práctica. Aunque investigaciones anteriores han señalado que los LLM pueden producir ideas originales e innovadoras, el presente estudio se enfoca en la llamada “brecha ideación-ejecución” para determinar si estas ideas realmente tienen éxito cuando se implementan en proyectos de investigación reales.

Para evaluar esta cuestión, los autores diseñaron un experimento riguroso en el que 43 investigadores expertos en procesamiento de lenguaje natural recibieron ideas de investigación generadas tanto por humanos como por LLM. Cada investigador trabajó durante más de 100 horas en la ejecución de una de estas ideas, desarrollando proyectos completos documentados en informes detallados de cuatro páginas. Estos informes fueron luego evaluados de manera anónima por otros expertos para medir la calidad y el impacto de los resultados obtenidos.

Los resultados revelaron que, en múltiples dimensiones evaluadas —incluyendo la novedad de la idea, el entusiasmo generado, la efectividad del proyecto y la valoración general—, los proyectos derivados de ideas humanas superaron claramente a los derivados de ideas generadas por LLM. En otras palabras, aunque los LLM son capaces de ofrecer propuestas creativas y novedosas, su capacidad para traducir esas ideas en investigaciones exitosas y aplicables es significativamente menor.

Este hallazgo tiene implicaciones importantes para el uso de la inteligencia artificial en la investigación científica. Sugiere que, aunque la IA puede ser una herramienta valiosa para inspirar ideas o asistir en la fase inicial de generación conceptual, la supervisión humana y la experiencia siguen siendo cruciales para asegurar que las ideas puedan concretarse en resultados tangibles y de calidad. El estudio enfatiza la necesidad de evaluar no solo la creatividad o novedad de las ideas producidas por IA, sino también su factibilidad y capacidad de ejecución.

Finalmente, los autores invitan a reflexionar sobre cómo integrar de manera efectiva las capacidades de los modelos de lenguaje en el proceso de investigación, proponiendo un enfoque colaborativo entre humanos e IA que maximice las fortalezas de cada uno, minimizando las limitaciones observadas.

ChatGPT en la escritura académica: un análisis cienciométrico de la literatura publicada entre 2022 y 2023

Lendvai GF. ChatGPT in Academic Writing: A Scientometric Analysis of Literature Published Between 2022 and 2023Journal of Empirical Research on Human Research Ethics. 2025;0(0). doi:10.1177/15562646251350203

El artículo analiza cómo la literatura académica ha percibido la herramienta de inteligencia artificial ChatGPT en el contexto de la escritura académica. Utilizando un enfoque cientométrico, los autores examinan la evolución de las publicaciones académicas que abordan el uso de ChatGPT en la redacción de textos científicos, identificando tendencias, patrones y áreas de interés en la investigación.

El estudio se centra en el análisis de 171 artículos académicos revisados por pares, extraídos de la base de datos Scopus, que abordan el uso de ChatGPT en la escritura académica. Utilizando el software CiteSpace, los autores realizaron un análisis de co-citación de documentos para mapear la estructura temática e intelectual del discurso sobre ChatGPT en la producción de conocimiento académico.

Se identificaron diez clusters temáticos principales, entre los que destacan:

  1. Riesgos éticos: Incluye preocupaciones sobre la autoría, el plagio y la integridad académica.
  2. Aplicaciones prácticas: Uso de ChatGPT para la redacción de textos, generación de resúmenes y asistencia en la escritura.
  3. Innovaciones pedagógicas: Integración de ChatGPT en entornos educativos para mejorar la enseñanza y el aprendizaje.

El análisis también destacó una creciente aceptación de ChatGPT como herramienta para mejorar la escritura y apoyar marcos educativos innovadores, especialmente entre hablantes no nativos de inglés. Sin embargo, persisten preocupaciones sobre referencias inventadas, plagio, ética de la autoría y la fiabilidad de las herramientas de detección de IA.

El estudio destaca el creciente interés en la aplicación de ChatGPT en diversos aspectos de la escritura académica, incluyendo la generación de contenido, la asistencia en la redacción y la mejora de la calidad del texto. Además, se analizan las implicaciones éticas y metodológicas de utilizar herramientas de IA en la producción académica, considerando aspectos como la autoría, la originalidad y la integridad de la investigación.

A través de este análisis, los autores proporcionan una visión detallada de cómo la comunidad académica está incorporando ChatGPT en sus prácticas de escritura y los desafíos que esto implica. El estudio también sugiere áreas para futuras investigaciones y el desarrollo de directrices para el uso ético y efectivo de la inteligencia artificial en la redacción académica.

El estudio enfatiza la necesidad de una supervisión proactiva y el desarrollo de políticas para garantizar una integración responsable de la IA generativa en la investigación y la educación. Se sugiere que las instituciones académicas implementen directrices claras sobre el uso de herramientas como ChatGPT, promoviendo prácticas éticas y transparentes en la producción académica.

Guía práctica para una investigación ética y responsable con inteligencia artificial

UK Research Integrity Office. (2025, 27 de junio). Embracing AI with integrity: A practical guide for researchers. UKRIO. https://ukrio.org/wp-content/uploads/Embracing-AI-with-integrity.pdf

El documento proporciona una guía clara, práctica y accesible para que los investigadores integren herramientas de inteligencia artificial (IA) en su trabajo de forma ética y responsable.

Reconociendo que la IA ya forma parte del ecosistema académico —desde la escritura de textos hasta el análisis de datos—, el objetivo principal de esta guía es proteger la integridad de la investigación, asegurando que el uso de la IA no comprometa la transparencia, la responsabilidad ni la originalidad del trabajo científico.

La guía se estructura en torno a cinco áreas clave de riesgo relacionadas con el uso de la IA en la investigación. La primera de ellas es el cumplimiento legal y regulatorio, que incluye aspectos como el respeto a los derechos de autor, la protección de datos personales y el cumplimiento de los requisitos de las agencias financiadoras. En segundo lugar, se abordan las consideraciones éticas, como la equidad, la eliminación de sesgos, el consentimiento informado y el respeto por los participantes en la investigación, especialmente en estudios con seres humanos.

El tercer aspecto señalado es la necesidad de proteger el registro de la investigación, lo que implica documentar de forma clara cuándo, cómo y con qué herramientas de IA se ha trabajado. Esto favorece la trazabilidad y permite que otros comprendan y repliquen el proceso investigativo. La cuarta área de atención es la divulgación y presentación de resultados, en la que se destaca la importancia de indicar si se han utilizado herramientas de IA en la redacción, el análisis o la elaboración de gráficos, asegurando que la autoría humana esté bien diferenciada y que la contribución de la IA esté correctamente citada o reconocida.

Finalmente, la guía subraya el riesgo de que el uso extensivo de la IA pueda debilitar habilidades humanas esenciales como el pensamiento crítico, la creatividad y el juicio profesional. Aunque la IA puede ser una gran aliada, el documento recomienda evitar la dependencia excesiva de estas tecnologías, especialmente en etapas formativas o en tareas que requieren discernimiento ético o análisis complejo.

Embracing AI with Integrity también incluye recomendaciones prácticas para investigadores, instituciones y responsables de políticas científicas. A los investigadores se les insta a reflexionar críticamente sobre el uso que hacen de estas herramientas, a reconocer sus limitaciones, y a documentar su uso en sus publicaciones y proyectos. A las instituciones, se les recomienda desarrollar políticas claras, ofrecer formación continua y fomentar una cultura de uso ético de la IA.

La guía responde a una necesidad detectada en una encuesta previa realizada por UKRIO en 2024, que reveló una gran preocupación en la comunidad científica por la falta de directrices claras respecto al uso de estas tecnologías. Como resultado, muchas universidades y centros de investigación no contaban aún con políticas definidas, lo que generaba incertidumbre entre académicos y estudiantes. Con esta publicación, UKRIO busca llenar ese vacío y fomentar un diálogo abierto sobre el uso responsable de la IA en la ciencia.

Los ataques de gobierno de EE.UU. a la ciencia y la investigación son «un gran regalo para China» en materia de inteligencia artificial

Hern, Alex. «US Attacks on Science and Research ‘a Great Gift to China’ on Artificial Intelligence, Former OpenAI Board Member Says.» The Guardian, June 9, 2025. https://www.theguardian.com/technology/2025/jun/09/us-attacks-on-science-and-research-a-great-gift-to-china-on-artificial-intelligence-former-openai-board-member-says.

Helen Toner, exmiembro del consejo de administración de OpenAI y actual directora de estrategia del Centro de Seguridad y Tecnología Emergente (CSET) de la Universidad de Georgetown, ha advertido que las actuales políticas de Estados Unidos en relación con la ciencia, la investigación y el talento extranjero están debilitando seriamente su liderazgo global en inteligencia artificial.

En una entrevista con The Guardian, Toner afirmó que los ataques políticos a la comunidad científica, junto con las restricciones a la entrada de estudiantes e investigadores internacionales, representan un “gran regalo para China”, que sigue avanzando en su propia carrera tecnológica.

Toner sostiene que gran parte del talento en investigación en Estados Unidos proviene del extranjero, especialmente de países como China. Las medidas restrictivas del gobierno estadounidense —como el endurecimiento de visados, los controles de exportación de chips avanzados y los recortes a la financiación pública— podrían provocar una fuga de cerebros y una desventaja competitiva en áreas estratégicas. Mientras tanto, China continúa desarrollando tecnologías punteras, como los modelos de lenguaje de gran escala, a pesar de los esfuerzos estadounidenses por frenarla mediante sanciones.

La exconsejera de OpenAI también se refirió a los efectos sociales de la inteligencia artificial, advirtiendo sobre un riesgo gradual de «desempoderamiento» colectivo. Según Toner, podríamos estar delegando funciones cada vez más críticas —en el gobierno, en las empresas y en la vida diaria— a sistemas algorítmicos, sin mecanismos adecuados de supervisión o responsabilidad. Aunque todavía hay incertidumbre sobre los plazos, los expertos coinciden en que muchas tareas profesionales, especialmente las realizadas por empleados jóvenes o en formación, ya están siendo desplazadas por herramientas de IA.

Sin embargo, Toner no niega el enorme potencial positivo de estas tecnologías. Mencionó, por ejemplo, los avances en medicina, donde la IA podría acelerar el descubrimiento de medicamentos, o en el transporte, con vehículos autónomos como los desarrollados por Waymo, que podrían reducir significativamente las muertes por accidentes de tráfico. El desafío, según ella, es garantizar un desarrollo ético y responsable, que combine innovación con regulaciones efectivas.

La figura de Helen Toner ha cobrado notoriedad en el ámbito tecnológico y mediático tras su papel clave en la crisis institucional de OpenAI en 2023, cuando el entonces CEO Sam Altman fue destituido y luego reincorporado. Su participación en este episodio ha despertado tanto el interés periodístico como cinematográfico: el director Luca Guadagnino está preparando una película sobre estos acontecimientos, en la que una actriz reconocida interpretará a Toner. En 2024, la revista Time la incluyó entre las 100 personas más influyentes del mundo en el campo de la inteligencia artificial.

CC Signals: licencia Creative Commons con la que los autores puedan determinar los uso de lA para sus contenidos

Creative Commons. 2025. “Introducing CC Signals: A New Social Contract for the Age of AI.Creative Commons, 25 de junio de 2025. https://creativecommons.org/ai-and-the-commons/cc-signals/

En un momento en el que la IA está transformando radicalmente la creación, el acceso y la difusión del conocimiento, CC Signals representa una apuesta ética y colaborativa por una inteligencia artificial al servicio de todos, basada en principios de apertura, respeto y responsabilidad compartida.

Creative Commons ha presentado CC Signals, una iniciativa pionera que propone un nuevo «contrato social» para la era de la inteligencia artificial. Este marco surge como respuesta a la creciente preocupación por el uso masivo e indiscriminado de datos por parte de los modelos de IA. En lugar de aceptar una dicotomía entre un entorno de extracción sin restricciones o uno cerrado por muros de pago, CC Signals apuesta por una tercera vía: un ecosistema abierto y basado en la reciprocidad, en el que los creadores y titulares de contenido puedan expresar claramente sus preferencias sobre cómo debe usarse su información por parte de sistemas automatizados.

El objetivo principal de CC Signals es permitir que los datos sean utilizados en procesos de entrenamiento de IA de manera ética y transparente, reconociendo los intereses de quienes aportan contenido. Para ello, introduce un sistema de «señales» legibles tanto por humanos como por máquinas, que indican el nivel de apertura o condiciones de reutilización que cada creador desea establecer. Estas señales no son legalmente vinculantes, pero sí actúan como una guía de buenas prácticas, similar a como las licencias Creative Commons revolucionaron el panorama del derecho de autor hace dos décadas.

Uno de los principios clave del proyecto es fomentar un ciclo de «dar, tomar y volver a dar»: quienes utilizan datos para entrenar modelos deben contribuir también al bien común, ya sea compartiendo sus resultados, reconociendo el origen de los datos o respetando las preferencias expresadas. Si bien una señal individual puede pasar desapercibida, el uso generalizado de CC Signals por parte de comunidades de práctica, instituciones culturales o desarrolladores de IA puede establecer una norma ética reconocida globalmente.

La iniciativa se encuentra actualmente en fase de desarrollo beta y se ha abierto a la participación pública a través de GitHub. Se prevé que una versión alpha esté disponible en noviembre de 2025. Durante los meses de julio y agosto, Creative Commons organizará una serie de encuentros virtuales para debatir el marco propuesto y recoger aportaciones. Estos espacios permitirán a creadores, tecnólogos, académicos y activistas colaborar en la construcción colectiva de esta nueva herramienta de gobernanza digital.

El uso de herramientas de inteligencia artificial generativa (IA Gen) en la redacción de textos académicos

Hosseini, Mohammad, Bert Gordijn, Gregory Kaebnick y Kristi Holmes. 2025. “Disclosing Generative AI Use for Writing Assistance Should Be Voluntary.Research Ethics, junio de 2025. https://doi.org/10.1177/17470161251345499

El artículo defiende una postura equilibrada que respeta el derecho de los autores a apoyarse en herramientas tecnológicas sin ser estigmatizados, al tiempo que reconoce la importancia de la transparencia en determinados casos. La IA generativa se ha convertido en una herramienta más dentro del ecosistema de la escritura científica, y su uso no debería ser tratado de forma excepcional si no aporta una contribución sustancial al contenido o al razonamiento del manuscrito. Este enfoque voluntario evita riesgos de discriminación y promueve un entorno editorial más justo y realista en la era de la inteligencia artificial.

Durante los últimos años, especialmente desde la irrupción de modelos como ChatGPT, ha aumentado considerablemente el número de investigadores que emplean estas herramientas para mejorar o redactar sus manuscritos. Frente a esta realidad, surgieron propuestas para exigir que los autores declarasen explícitamente el uso de IA en sus textos. Esta obligación pretendía evitar que los lectores atribuyeran erróneamente a los autores humanos contenidos generados por máquinas, facilitar el trabajo de los revisores y asegurar el cumplimiento de las políticas editoriales.

Sin embargo, los autores del artículo, tras una evaluación crítica de la evolución y el uso actual de estas tecnologías, han modificado su postura y ahora proponen que la declaración del uso de IA sea voluntaria. Este cambio de posición se basa en tres argumentos principales.

  • Primero, consideran que el aporte de las herramientas generativas a los textos académicos es, en la mayoría de los casos, superficial y poco distinguible, por lo que no alcanza el umbral que justifique su reconocimiento formal.
  • Segundo, destacan que actualmente es casi imposible determinar con precisión qué fragmentos fueron generados por IA, ya que muchas herramientas actúan como asistentes que sugieren frases o corrigen estilo, funciones similares a las de los correctores ortográficos avanzados.
  • Tercero, y no menos importante, señalan que exigir la declaración obligatoria podría perjudicar especialmente a autores cuya lengua materna no es el inglés, ya que estos investigadores suelen apoyarse en herramientas de IA para mejorar la calidad lingüística de sus manuscritos. Obligarles a declarar este uso podría introducir sesgos y discriminación en el proceso de revisión por pares.

A partir de estos argumentos, los autores sugieren una alternativa: permitir que la declaración del uso de IA sea voluntaria, mediante un sistema opcional —como un checkbox— dentro de la plataforma de envío del manuscrito. Este aviso no debería aparecer en el artículo publicado, sino solo ser visible para los editores, con el fin de garantizar transparencia sin afectar la percepción del texto por parte de los evaluadores o lectores. La declaración voluntaria sería especialmente útil en disciplinas donde el estilo literario y la autoría personal del texto son fundamentales, o cuando los propios autores consideren que su uso de IA merece ser conocido por razones éticas o contextuales.

Guía de buenas prácticas para el uso de la Inteligencia Artificial ética

OdiseIA, PwC, Google, Microsoft, IBM, & Telefónica. (2022, 17 de febrero). Guía de buenas prácticas para el uso de la Inteligencia Artificial ética [Guía práctica]. Observatorio del Impacto Social y Ético de la IA (OdiseIA) & PwC España.

Texto completo

La guía nace como una respuesta práctica y colaborativa a la necesidad de aplicar la inteligencia artificial (IA) de forma ética y responsable en el ámbito empresarial. El documento es fruto de la iniciativa GuIA, impulsada por OdiseIA y PwC junto con cinco grandes empresas tecnológicas.

Su objetivo principal es ofrecer pautas concretas y operativas para ayudar a las organizaciones a integrar principios éticos en el diseño, desarrollo y uso de sistemas de IA, en un contexto cada vez más regulado y exigente.

Uno de los ejes centrales del documento es que no basta con declarar intenciones éticas: es imprescindible traducir principios como la equidad, la transparencia, la privacidad o la rendición de cuentas en procesos organizativos y soluciones técnicas reales. Para ello, la guía se apoya en un análisis comparado de 27 marcos internacionales y más de 30 principios éticos, que han sido sintetizados y adaptados al contexto empresarial español mediante un enfoque multidisciplinar que combina la visión legal, tecnológica y de negocio.

La estructura de la guía gira en torno a tres grandes ámbitos de actuación. El primero es la gobernanza organizativa, que promueve la creación de comités de IA, la definición de roles y responsabilidades, la evaluación de riesgos y el seguimiento con indicadores claros. El segundo son los controles técnicos y metodológicos, centrados en el diseño de modelos explicables, justos y seguros, con revisiones periódicas que detecten posibles sesgos o fallos. El tercer ámbito se refiere a las garantías externas, que incluyen auditorías, certificaciones y mecanismos de verificación independientes para reforzar la confianza de terceros.

Además, la guía subraya que la implementación ética de la IA no solo es un imperativo moral, sino también una ventaja competitiva. Las organizaciones que adopten estos principios con antelación estarán mejor preparadas para cumplir con futuras regulaciones, como el Reglamento Europeo de Inteligencia Artificial (AI Act). Asimismo, generarán mayor confianza entre usuarios, empleados, inversores y la sociedad en general.

En definitiva, esta guía ofrece un marco útil para convertir los principios éticos en acciones concretas dentro de las empresas. Propone un camino realista y adaptado al contexto actual, en el que la inteligencia artificial debe ser una herramienta al servicio de las personas y no una fuente de riesgos sociales o legales.

El uso de la inteligencia artificial (IA) en el trabajo se ha casi duplicado en los dos últimos años

Pendell, Ryan. “AI Use at Work Has Nearly Doubled in Two Years.” Gallup, June 16, 2025. https://www.gallup.com/workplace/691643/work-nearly-doubled-two-years.aspx

El uso de IA en el entorno laboral se ha acelerado notablemente, especialmente entre empleados de oficina y mandos intermedios. No obstante, sigue habiendo un déficit significativo en estrategias organizacionales claras y en percepción del valor de estas herramientas —lo que indica oportunidades para mejorar la implementación y formación en el uso de IA.

En un artículo publicado el 16 de junio de 2025, Gallup revela que el uso de la inteligencia artificial (IA) en el trabajo en EE. UU. se ha casi duplicado en los dos últimos años.

Cifras clave:

  • El porcentaje de empleados que usa IA al menos unas veces al año aumentó del 21 % al 40 %.
  • El uso frecuente (varias veces por semana o más) también casi se duplicó, pasando del 11 % al 19 %.
  • El uso diario de IA se duplicó en el último año, de un 4 % a un 8 %.

El incremento se observa principalmente en trabajos de oficina. El 27 % de estos empleados utiliza IA con frecuencia, 12 puntos más que en 2024. Las industrias con mayor adopción son tecnología (50 %), servicios profesionales (34 %) y finanzas (32 %), mientras que en producción y atención al cliente el uso se mantiene entre 9 % y 11 %.

Los líderes (managers de managers) utilizan IA con más frecuencia: el 33 % lo hace varias veces por semana, comparado con el 16 % entre los empleados individuales.

Pese a este aumento, solo el 15 % de los empleados cree que su trabajo correrá peligro por la automatización o la IA en los próximos cinco años — cifra sin cambios desde 2023. Este temor es ligeramente mayor en tecnología, comercio minorista y finanzas.

Aunque muchas organizaciones están integrando IA —el 44 % de los empleados lo señala—, solo el 22 % cuenta con una estrategia clara y el 30 % dispone de políticas u orientaciones formales. Esto revela una brecha importante entre adopción e implementación regulada.

Por último, solo el 16 % de los usuarios piensa que las herramientas de IA que les brinda su empresa son útiles. Sin embargo, quienes las utilizan para interactuar con clientes reportan efectos positivos en un 68 % de los casos, frente a solo un 13 % entre los que no las usan.

La inteligencia artificial (IA) está influyendo en nuestro vocabulario

Cambridge University Press & Assessment. 2025. “Cambridge Dictionary Tracks New AI Words.” Cambridge University Press & Assessment Newsroom, 24 de junio de 2025. https://www.cambridge.org/news-and-insights/cambridge-dictionary-tracks-new-ai-words

El 24 de junio de 2025, Cambridge Dictionary publicó una nota destacando cómo la inteligencia artificial (IA) está influyendo en nuestro vocabulario. El equipo de lexicógrafos de Cambridge ha estado monitoreando de cerca los términos emergentes relacionados con la IA, seleccionando aquellos que reflejan tendencias lingüísticas recientes

Entre los nuevos términos rastreados se encuentran expresiones como “slop”, utilizado para referirse a contenido de baja calidad generado por IA; “AI washing”, que describe prácticas corporativas que pretenden parecer impulsadas por IA sin serlo realmente; y “decel”, una abreviatura que alude a la desaceleración en el desarrollo o adopción de tecnologías de IA. Estas inclusiones reflejan la rápida aparición de vocablos vinculados a debates sobre la calidad, autenticidad y progreso tecnológico en IA.

La entrada de “slop” es particularmente notable: Cambridge Dictionary ha actualizado su definición para incluir esta acepción asociada a la IA—contenido pobre o irrelevante producido por algoritmos—lo cual evidencia una creciente preocupación pública por el exceso y baja calidad de determinados resultados generados automáticamente .

Este seguimiento sistemático forma parte de una estrategia continua: Cambridge Dictionary registra y evalúa semanalmente nuevos términos relacionados con IA (“newly emerging words”), muchos de los cuales luego se incorporan a su base de datos principal. Así, lexicógrafos aseguran que el diccionario responda con agilidad a los cambios en el uso del inglés, especialmente en contextos tecnológicos de rápida evolución.

Con más de 170.000 definiciones y millones de visitas anuales, Cambridge Dictionary refuerza así su papel como referencia global para aprendizajes de idioma, incorporando sistemáticamente vocabulario contemporáneo de la era digital .

Entrenar modelos de lenguaje de Inteligencia Artificial utilizando libros adquiridos legalmente constituye un uso legítimo

Hansen, Dave. 2025. “Anthropic Wins on Fair Use for Training Its LLMs, Loses on Building a ‘Central Library’ of Pirated Books.” Authors Alliance, 24 de junio de 2025. https://www.authorsalliance.org/2025/06/24/anthropic-wins-on-fair-use-for-training-its-llms-loses-on-building-a-central-library-of-pirated-books/

El 24 de junio de 2025, el juez William Alsup del Tribunal del Distrito Norte de California emitió una resolución clave en el juicio colectivo contra Anthropic, empresa creadora de los modelos de lenguaje Claude. La demanda, presentada por los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson en representación de millones de escritores, cuestiona el uso de libros protegidos por derechos de autor para entrenar sistemas de inteligencia artificial.

El fallo representa una victoria parcial para Anthropic. Por un lado, el tribunal determinó que entrenar modelos de lenguaje utilizando libros adquiridos legalmente constituye un uso legítimo bajo la doctrina de fair use del derecho estadounidense. Según el juez Alsup, este tipo de uso es “transformador”, ya que no busca replicar ni sustituir las obras originales, sino generar contenido nuevo, lo que encaja dentro del espíritu de la ley de derechos de autor que pretende fomentar la creatividad y el avance científico.

Sin embargo, la empresa perdió en un punto crítico: el uso sistemático de libros pirateados para construir una “biblioteca central” con fines de entrenamiento de IA. La evidencia demuestra que en 2021 y 2022, miembros de Anthropic descargaron millones de obras de sitios como Books3, Library Genesis (LibGen) y Pirate Library Mirror (PiLiMi). Estas plataformas contienen copias no autorizadas de libros protegidos, y Anthropic era plenamente consciente de ello. El propio CEO, Dario Amodei, reconoció internamente que optar por este camino era una manera de evitar el “trabajo legal, comercial y de gestión” que implicaría adquirir licencias.

En particular, el cofundador Ben Mann descargó en 2021 el conjunto de datos Books3 (compuesto por cerca de 196.000 libros pirateados), seguido de cinco millones de títulos desde LibGen y otros dos millones desde PiLiMi. Estas acciones fueron calificadas por el juez como violaciones deliberadas del derecho de autor, y aunque todavía no se ha determinado la magnitud de los daños, el tribunal ha decidido celebrar un juicio separado para abordar esta cuestión y valorar posibles indemnizaciones.

Desde Anthropic, una portavoz declaró a The Verge que celebran que el tribunal haya validado el uso transformador de las obras con fines de entrenamiento. La empresa sostiene que su objetivo no era imitar o reemplazar los libros originales, sino crear algo nuevo con base en ellos. No obstante, este argumento no exime de responsabilidad cuando se utilizan materiales obtenidos de forma ilegal, incluso si el uso posterior pudiera ser considerado transformador.

Este caso se enmarca dentro de un creciente número de demandas contra empresas de inteligencia artificial por el uso indebido de contenido protegido. La resolución de Alsup podría sentar un precedente clave: valida el entrenamiento de IA sobre obras adquiridas legalmente como fair use, pero marca una línea roja cuando se trata de contenidos pirateados. Las próximas fases del proceso judicial determinarán las consecuencias económicas y legales para Anthropic, y el caso podría influir significativamente en las prácticas de entrenamiento de modelos de IA en la industria.