Archivo de la categoría: Legislación

Anthropic acuerda pagar 1.500 millones de dólares a autores por uso no autorizado de libros en IA

Knibbs, Kate. «Anthropic Agrees to Pay Authors at Least $1.5 Billion in AI Copyright SettlementWIRED, 5 de septiembre de 2025. https://www.wired.com/story/anthropic-settlement-lawsuit-copyright/

Anthropic, la empresa estadounidense de inteligencia artificial creadora del chatbot Claude, ha acordado pagar 1.500 millones de dólares para resolver una demanda colectiva presentada por autores cuyos libros fueron utilizados sin autorización para entrenar su modelo de IA.

Este acuerdo, aún pendiente de aprobación judicial, constituye el mayor pago por infracción de derechos de autor en la historia de Estados Unidos.

Los demandantes, entre ellos Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, acusaron a Anthropic de descargar millones de libros desde sitios pirata como Library Genesis y Pirate Library Mirror, vulnerando los derechos de autor de los creadores. Aunque la justicia había establecido previamente que usar libros adquiridos legalmente para entrenar inteligencia artificial podía considerarse un uso legítimo, la demanda continuó debido al uso de material obtenido ilegalmente.

El acuerdo estipula que cada autor recibirá aproximadamente 3.000 dólares por obra, cubriendo unas 465.000 obras en total. Anthropic también se comprometió a destruir las copias pirata almacenadas, sin admitir responsabilidad legal. Sin embargo, el juez William Alsup expresó dudas sobre la falta de detalles del acuerdo y solicitó información adicional antes de la audiencia prevista para el 25 de septiembre de 2025.

Este caso es un precedente importante en la regulación del uso de contenido protegido por derechos de autor para entrenar modelos de inteligencia artificial, con implicaciones significativas para otras compañías tecnológicas que desarrollan herramientas de IA.

La mayor demanda colectiva por derechos de autor contra la industria de la IA: el caso Anthropic

Novet, Jordan. “AI Industry Horrified to Face Largest Copyright Class Action Ever Certified.” Ars Technica, August 21, 2025. https://arstechnica.com/tech-policy/2025/08/ai-industry-horrified-to-face-largest-copyright-class-action-ever-certified/.

Investigadores se han convertido en protagonistas de un caso sin precedentes: un tribunal federal en California ha aprobado una demanda colectiva (class action) contra Anthropic, una startup especializada en inteligencia artificial. Tres autores (Andrea Bartz, Charles Graeber y Kirk Wallace Johnson) actúan como representantes de todos los escritores cuyos libros registrados hayan sido descargados y utilizados por Anthropic para entrenar su modelo de IA. La demanda alega que la empresa obtuvo millones de títulos de sitios pirata como LibGen y PiLiMi sin consentimiento, lo que podría derivar en daños millonarios para la compañía si se prueba la infracción.

Desde la perspectiva legal, aunque el juez William Alsup reconoció que el entrenamiento del modelo podría constituir un uso legítimo (fair use), también resolvió que la mera conservación de libros piratas en una biblioteca central viola los derechos de autor, lo que justifica llevar el caso a juicio. En paralelo, organizaciones del sector tecnológico, como la Consumer Technology Association y la Computer and Communications Industry Association, han expresado su alarma ante un veredicto adverso: advierten que esta certificación de clase podría representar una amenaza existencial para Anthropic y el ecosistema emergente de IA en EE. UU., al desalentar futuros inversores y minar la competitividad tecnológica del país.

La demanda se ha expandido de forma dramática: lo que comenzó con tres autores podría llegar a incluir hasta 7 millones de demandantes potenciales, cada uno con posibilidad de reclamar hasta 150.000 USD por obra infringida. Eso transforma el caso en el mayor litigio por derechos de autor jamás aprobado en EE. UU., con riesgos financieros que podrían ascender a cientos de miles de millones de dólares.

Anthropic acelera su defensa de “uso justo” en juicio por derechos de autor de entrenamiento con libros pirateados

Davis, W. (2025, 5 de agosto). Anthropic presses for fast appeal in copyright fight. MediaPost. Recuperado de MediaPost. https://www.mediapost.com/publications/article/407952/anthropic-presses-for-fast-appeal-in-copyright-fig.html

Anthropic, la empresa detrás del chatbot Claude, solicita que un tribunal de apelación federal se pronuncie de inmediato sobre su defensa basada en el “uso justo” (fair use) frente a las acusaciones de infracción de derechos de autor. Los demandantes—las autoras Andrea Bartz, Charles Graeber y Kirk Wallace Johnson—afirmaron que la compañía entrenó el modelo con libros descargados de sitios pirata sin autorización. Anthropic justificó su defensa argumentando que el uso de materiales con fines de entrenamiento de IA constituye «uso justo», independientemente del origen de dichos textos.

Anteriormente, el juez William Alsup determinó que el entrenamiento del modelo con libros adquiridos legalmente fue “altamente transformativo” y, por tanto, protegido bajo fair use. Sin embargo, negó la misma protección en los casos en que se emplearon textos descargados de fuentes ilícitas

Anthropic subraya que el fallo supone un riesgo potencial de responsabilidad económica masiva —cientos de miles de millones de dólares— si el caso continúa como juicio de clase, sin que se clarifiquen primero los lineamientos legales mediante una apelación. La empresa argumenta además que el hecho de que el material se haya adquirido de forma no autorizada no debería invalidar una defensa de fair use, ya que dicho principio existe precisamente para permitir usos sin permiso.

El juez Alsup programó una audiencia para abordar estas peticiones el 28 de agosto de 2025. Además, se ha autorizado que el caso continúe como demanda colectiva en representación de autores cuyos libros fueron descargados desde las bibliotecas pirata LibGen y PiLiMi, aunque con ciertas limitaciones sobre quiénes pueden reclamar

Conflicto entre el avance de la inteligencia artificial generativa (IA) y los marcos legales del copyright.

Michael D. Smith and Rahul Telang. 2025. “Can Gen AI and Copyright Coexist.” Harvard Business Review, July 2025. https://hbr.org/2025/07/can-gen-ai-and-copyright-coexist

Se analizan el creciente conflicto entre compañías desarrolladoras de IA generativa y los derechos de autor. Subrayan que en EE. UU., las industrias creativas aportaron 1,8 billones de USD al PIB en 2021 (~8%), y muchas de estas empresas sostienen que la IA puede reemplazar a creadores humanos si se entrena sin control sobre material protegido.

A medida que las plataformas de IA como ChatGPT, Midjourney o Sora entrenan sus modelos con enormes cantidades de contenido disponible en línea —mucho del cual está protegido por copyright— han surgido numerosos conflictos legales y éticos. Artistas, escritores y empresas mediáticas han denunciado que sus obras se están utilizando sin permiso ni compensación, mientras que las tecnológicas argumentan que se trata de un uso legítimo según el principio de “uso justo” (fair use).

El artículo señala que esta confrontación podría redefinir el concepto mismo de copyright. Mientras las compañías de IA buscan formas de entrenar modelos sin infringir derechos, emergen propuestas como licencias colectivas, remuneraciones obligatorias o acuerdos voluntarios con creadores. A la vez, se plantea si la salida podría estar en nuevos modelos de compensación o en marcos legales más claros que delimiten qué usos son admisibles y cuáles no.

Los tribunales están empezando a pronunciarse, pero aún no hay un consenso global. En Estados Unidos, las decisiones judiciales pueden cambiar el futuro de la IA generativa dependiendo de cómo interpreten la relación entre innovación tecnológica y protección creativa. El artículo concluye que una solución duradera requerirá colaboración entre tecnólogos, legisladores y artistas para garantizar un desarrollo responsable de la inteligencia artificial sin socavar los derechos de los creadores.

Los autores destacan dos fallos judiciales recientes en el Distrito Norte de California con posturas encontradas sobre el fair use:

  • En Bartz v. Anthropic, el juez Alsup determinó que el uso de obras protegidas para entrenar un modelo es justo siempre que sea transformativo—similar a cómo un lector aprende de textos para escribir nuevos
  • En Kadrey v. Meta, el juez Chhabria concluyó que el uso no autorizado no coincide con el uso formativo humano, pues permite generar obras competidoras en minutos con eficiencia mucho mayor

Estos fallos subrayan la ambigüedad legal actual. En paralelo, estudios externos—incluyendo un informe de la Oficina de Derechos de Autor de EE.UU.—advierten sobre riesgos económicos si se les exige a los titulares de derechos optar por excluir su contenido del conjunto de entrenamiento, un proceso costoso y complejo.

GAIIN: una plataforma global para navegar las políticas de Inteligencia Artificial

GAIIN (Global AI Initiatives Navigator)

https://oecd.ai/en/dashboards/overview

Se presenta GAIIN una nueva herramienta desarrollada por la Organización para la Cooperación y el Desarrollo Económicos (OCDE) dentro de la plataforma OECD.AI. GAIIN tiene como objetivo facilitar el seguimiento y la presentación de información sobre políticas de inteligencia artificial a nivel mundial, brindando mayor claridad, cobertura y utilidad para diferentes actores, desde gobiernos hasta investigadores y público general.

La plataforma ofrece una vista global de iniciativas, abarcando desde marcos regulatorios hasta proyectos enfocados en áreas específicas como riesgos y ética, privacidad, salud, impacto laboral y sostenibilidad. Así, GAIIN contribuye a identificar tendencias emergentes y lagunas en las políticas de inteligencia artificial. La herramienta no solo centraliza políticas existentes, sino que también permite la colaboración directa para enriquecer la base de datos, promoviendo una comunidad activa.

Uno de los principales aportes de GAIIN es que cada país cuenta con su propia página, en la que se presentan sus estrategias nacionales de inteligencia artificial, políticas específicas, programas regulatorios, marcos éticos y demás iniciativas relevantes. Esto permite comparar enfoques, detectar tendencias globales y reconocer buenas prácticas que pueden ser replicadas o adaptadas en otros contextos. Por países

Además, GAIIN incluye las iniciativas impulsadas por organizaciones internacionales, tales como la Unión Europea, la ONU, la OCDE misma o el GPAI (Global Partnership on AI). Estas páginas dedicadas permiten comprender cómo se articulan las políticas nacionales con los esfuerzos multilaterales y cuáles son los foros clave donde se están negociando marcos comunes.

Para facilitar la navegación, la plataforma también ofrece la posibilidad de explorar todas las iniciativas y políticas en conjunto, sin importar su origen geográfico o institucional. Esta visión panorámica es útil para investigadores, responsables de políticas públicas, organizaciones de la sociedad civil y empresas interesadas en mantenerse al día con la evolución normativa y estratégica de la IA a nivel global.

Además, GAIIN se enmarca en el ecosistema de OECD.AI, que abarca una gran variedad de recursos: políticas, datos, investigaciones, herramientas de riesgo, indicadores de IA responsable, casos de uso y capacidades técnicas. Esto posiciona a GAIIN no como un recurso aislado, sino como una pieza clave de un conjunto más amplio de herramientas e iniciativas orientadas a fomentar una IA centrada en el ser humano y segura.

También se destaca el compromiso de la OCDE con la gobernanza de la inteligencia artificial. MEDIANTE GAIIN, la organización fortalece sus estándares, alineados con los Principios de la OCDE sobre IA y los esfuerzos coordinados dentro del marco del GPAI (Asociación Global de IA).

Barreras y facilitadores para la Ciencia Abierta en la legislación sobre derechos de autor

Bogataj Jančič, Maja, Lucie Guibault, João Pedro Quintais, y Thomas Margoni. 2024. Barriers and Enablers for Open Science in Copyright Law. Knowledge Rights 21. https://www.knowledgerights21.org/news-story/odipi-kr21-openscience-report/

Se analiza cómo el marco actual del derecho de autor dificulta el desarrollo pleno de la Ciencia Abierta. A pesar de las estrategias y políticas impulsadas por la Unión Europea y sus Estados miembros para fomentar este modelo científico más colaborativo y accesible, persisten importantes barreras legales, especialmente derivadas del derecho de autor.

Uno de los principales obstáculos identificados es la necesidad de una gestión consensuada del derecho de autor. En obras colectivas o con múltiples autores, se requiere el consentimiento unánime de todos los titulares para su uso, lo que dificulta considerablemente la difusión abierta del conocimiento. Además, la irrenunciabilidad del derecho a la remuneración representa otra barrera importante: aunque los autores deseen compartir libremente sus trabajos, las entidades de gestión colectiva pueden seguir reclamando pagos en su nombre, imponiendo cargas económicas y administrativas a repositorios y plataformas de acceso abierto.

El estudio también señala que el derecho de autor obliga a realizar transferencias separadas de los distintos derechos económicos, lo que fragmenta aún más la gestión de los permisos y desincentiva a los investigadores a optar por la publicación en acceso abierto. Del mismo modo, los requisitos formales que exigen contratos por escrito para la cesión de derechos generan ambigüedades legales cuando no se cumplen, dificultando la implementación de acuerdos abiertos. A esto se suma la presunción de prioridad del editor, que otorga derechos preferentes sobre las publicaciones electrónicas, limitando el depósito inmediato de trabajos en repositorios abiertos.

Otro punto crítico es la transferencia automática de derechos económicos desde los empleados a sus empleadores en el ámbito laboral. Aunque esta norma puede facilitar la Ciencia Abierta si la institución apoya el acceso abierto, también puede actuar como freno si no existe tal compromiso institucional. Por otro lado, leyes externas al derecho de autor, como las de protección del patrimonio cultural, pueden imponer restricciones similares al copyright incluso sobre obras del dominio público, lo que afecta negativamente a disciplinas que dependen de materiales culturales digitalizados.

En cuanto a los facilitadores legales, el estudio destaca que son escasos y que su impacto depende en gran medida de cómo se apliquen en la práctica. Existen mecanismos que podrían habilitar la Ciencia Abierta, como el derecho de publicación secundaria o la obligación de retención de derechos en investigaciones financiadas con fondos públicos, pero su implementación es limitada y desigual. Algunas medidas legislativas fuera del ámbito del derecho de autor —como los requisitos de las agencias financiadoras— pueden actuar como incentivos si condicionan los fondos al cumplimiento de prácticas de acceso abierto.

En conclusión, el estudio revela una importante desconexión entre las estrategias políticas a favor de la Ciencia Abierta y la realidad jurídica que enfrentan los investigadores. Las diferencias en las leyes de derechos de autor entre países también dificultan la cooperación científica internacional, creando un entorno fragmentado e incierto. Para que la Ciencia Abierta pueda desarrollarse plenamente, es necesario reformar el derecho de autor, armonizar excepciones legales para la investigación y establecer un marco claro, equilibrado y favorable a la difusión abierta del conocimiento.

Este análisis sienta las bases para un debate urgente sobre cómo actualizar los marcos legales existentes y alinear el derecho de autor con los principios de la Ciencia Abierta. Mientras no se aborden estas barreras estructurales, incluso los esfuerzos más decididos por parte de investigadores e instituciones seguirán viéndose limitados por un sistema jurídico que no ha evolucionado al ritmo de la ciencia ni de las necesidades de la sociedad.

Conclusiones:

  • Existe un desajuste entre los compromisos estratégicos con la Ciencia Abierta y la realidad jurídica, lo que dificulta que estas políticas se materialicen.
  • Las diferencias nacionales en el derecho de autor complican la cooperación internacional, creando un panorama desigual para la difusión del conocimiento científico.
  • Es necesario reformar el derecho de autor para que esté alineado con los objetivos de la Ciencia Abierta, garantizando excepciones claras, armonizadas y amplias para la investigación.

En definitiva, el estudio propone abrir un debate urgente sobre cómo adaptar los marcos legales para que dejen de obstaculizar la Ciencia Abierta y comiencen a impulsarla de manera decidida.

Estudio de la EUIPO sobre Inteligencia Artificial Generativa y Derecho de Autor

«European Union Intellectual Property Office (EUIPO) Releases Study on Generative Artificial Intelligence and Copyright.» EUIPO News, May 13, 2025.

Texto completo

Este estudio proporciona un marco integral para comprender y gestionar los desafíos legales y técnicos que la inteligencia artificial generativa plantea en el ámbito del derecho de autor en la Unión Europea, buscando un equilibrio entre la innovación tecnológica y la protección de los creadores.

La Oficina de Propiedad Intelectual de la Unión Europea (EUIPO) publicó un estudio detallado sobre la Inteligencia Artificial Generativa (GenAI) y su relación con el derecho de autor. La IA generativa es una tecnología que crea nuevo contenido utilizando contenido preexistente, lo que representa un cambio fundamental en la creación de contenido, ya que no todo es generado exclusivamente por humanos.

Las instituciones como las autoridades nacionales de propiedad intelectual y la EUIPO pueden desempeñar un papel crucial, ofreciendo soporte técnico para que los titulares ejerzan sus derechos y los desarrolladores respeten esas reservas, y soporte no técnico, como campañas de sensibilización, foros de intercambio de información técnica y difusión de información sobre soluciones, tendencias y avances en la materia

Este nuevo paradigma plantea interrogantes urgentes sobre el uso legal de obras protegidas por derechos de autor como datos de entrenamiento para sistemas de IA, y sobre cómo distinguir entre contenido protegido y no protegido por copyright.

El estudio busca profundizar en la comprensión técnica de cómo funciona la IA generativa, además de analizar las soluciones existentes y en desarrollo para aplicar la legislación europea sobre derechos de autor y tecnologías de inteligencia artificial. El análisis abarca aspectos técnicos, legales y económicos, con el fin de apoyar la toma de decisiones informadas por parte de legisladores, desarrolladores y creadores.

La investigación se basó en revisión documental, entrevistas con expertos y análisis exhaustivo de soluciones técnicas y prácticas en el ámbito de la IA generativa, realizado en colaboración con servicios de la Comisión Europea.

Áreas centrales del estudio

  1. Uso de obras protegidas por derechos de autor como datos de entrenamiento para modelos de GenAI:
    La IA generativa necesita grandes cantidades de contenido para entrenarse, lo que implica utilizar obras protegidas por copyright.
  2. Generación de nuevo contenido por sistemas GenAI y las cuestiones legales que esto plantea:
    La creación automática de contenido genera dudas sobre la autoría, la propiedad intelectual y la protección legal.
  3. Implicaciones para creadores, desarrolladores de IA y el ecosistema del derecho de autor:
    El estudio aborda cómo proteger los derechos de los autores, cómo pueden operar los desarrolladores de IA dentro del marco legal, y cómo estas dinámicas afectan al mercado y la innovación.

Principales conclusiones

  • Acceso a contenido de alta calidad: Es fundamental para el desarrollo de servicios de IA generativa. Los modelos de IA necesitan contenido actualizado y especializado para funcionar adecuadamente, lo que ha impulsado la aparición de un mercado directo de licencias donde los desarrolladores de IA obtienen permisos para usar contenido protegido.
  • Desarrollo de soluciones diversas: No existe una solución única para que los titulares de derechos protejan sus obras frente a la IA generativa. Por eso, se están creando diferentes mecanismos:
    • Fase de entrada (INPUT): Mecanismos para que los titulares puedan reservar sus derechos y optar por no permitir el uso de sus obras en técnicas de “text and data mining” (minería de datos y textos).
    • Fase de salida (OUTPUT): Medidas de transparencia para identificar y reconocer el contenido generado por IA.

Informe de la Oficina de Copyright de EE. UU. sobre Inteligencia Artificial y Derechos de Autor

U.S. Copyright Office. 2025. Copyright and Artificial Intelligence. Washington, D.C.: U.S. Copyright Office. https://www.copyright.gov/ai/

Desde principios de 2023, la Oficina de Copyright de EE. UU. ha estado analizando los desafíos legales y políticos que plantea la inteligencia artificial (IA), especialmente en relación con los derechos de autor sobre obras generadas por IA y el uso de materiales protegidos en el entrenamiento de estos sistemas. Tras realizar sesiones públicas y seminarios, en agosto de 2023 publicó una convocatoria de comentarios en el Federal Register, que recibió más de 10.000 aportaciones hasta diciembre.

Como resultado, la Oficina está publicando un informe dividido en varias partes, bajo el título Copyright and Artificial Intelligence, que analiza estos temas:

  • Parte 1 (publicada el 31 de julio de 2024): aborda las réplicas digitales.
  • Parte 2 (publicada el 29 de enero de 2025): examina la posibilidad de otorgar derechos de autor a los productos generados mediante IA generativa.
  • Parte 3 (versión preliminar publicada el 9 de mayo de 2025): responde a preguntas del Congreso y al interés de distintos actores. Se espera una versión final próximamente, sin cambios sustanciales.

¿Qué es la propiedad digital?: en la era digital la propiedad debe significar algo

Carta

El 7 de mayo de 2025, la organización Public Knowledge, junto con otras 16 entidades defensoras del interés público, los derechos del consumidor y las bibliotecas, envió una carta al presidente de la Comisión Federal de Comercio (FTC), Andrew Ferguson, solicitando que se establezcan reglas claras sobre lo que significa ser propietario de bienes digitales.

Las organizaciones sostienen que “la propiedad debe significar algo en la era digital” y que si una transacción no incluye los derechos esenciales de uso, conservación y transferencia, no debería promocionarse como una venta. Denuncian que muchas plataformas digitales anuncian “ventas” cuando en realidad solo ofrecen licencias revocables, sin informar claramente al consumidor hasta después de la compra, lo que consideran una distorsión de las expectativas tradicionales sobre la propiedad.

La carta propone que la FTC defina legalmente qué constituye una “venta digital” e incluya tres derechos fundamentales:

  • Derecho de uso: acceso continuo al producto digital, incluso si la tienda cierra o el servicio finaliza.
  • Derecho de conservación: posibilidad de respaldar, reparar o archivar el producto adquirido, incluso sin soporte oficial.
  • Derecho de transferencia: libertad para regalar, prestar, revender o legar el bien digital, tal como se hace con objetos físicos.

Finalmente, las organizaciones aclaran que no buscan prohibir los modelos de licencia, pero sí exigen que no se etiquete como «venta» aquello que no garantiza estos derechos, en aras de la transparencia, honestidad y recuperación de la confianza del consumidor en los mercados digitales.

Declaración de posición de Wiley sobre el uso ilegal de contenidos con derechos de autor por parte de desarrolladores de IA

Wiley Position Statement on Illegal Scraping of Copyrighted Content by AI Developers. Última modificación en 2024. https://www.wiley.com/en-us/terms-of-use/ai-principles/wiley-statement-illegal-scraping-ai-copyright.

En Wiley, defendemos el valor de la propiedad intelectual y de quienes la crean. Como pioneros en la creación y difusión del conocimiento durante más de dos siglos, estamos comprometidos a garantizar que las obras de los autores sean respetadas y adecuadamente licenciadas en el cambiante entorno digital. La colaboración entre autores, sociedades científicas y académicas, y desarrolladores de IA garantiza un uso responsable de esta tecnología para avanzar en la investigación y el descubrimiento, al tiempo que se preserva la libertad académica, esencial para el progreso científico.

Reafirmamos esta postura. Creemos en el potencial transformador de la inteligencia artificial para impulsar la investigación y el descubrimiento. Este avance debe basarse en el respeto a los derechos de propiedad intelectual, incluida la compensación y atribución acordadas para los creadores de contenido. Nos posicionamos firmemente junto a nuestros autores y socios editoriales para exigir prácticas éticas y legales en la obtención de datos en la industria de la IA, y alentamos la adopción generalizada de prácticas de licenciamiento adecuadas, como ya hacen algunos desarrolladores de IA.

Para mayor claridad:

  • Los desarrolladores y empresas de IA deben obtener autorización antes de usar contenido de Wiley, o contenido que publicamos para nuestros socios, para el desarrollo, entrenamiento o implementación de IA.
  • Wiley ha reservado de forma constante y pública todos los derechos sobre sus materiales protegidos por derechos de autor; no existe permiso implícito sin una licencia adecuada.
  • La atribución transparente y la trazabilidad de los datos son componentes esenciales del desarrollo ético de la IA.
  • Para demostrar nuestro compromiso con la innovación responsable, hemos desarrollado marcos de licenciamiento que ofrecen condiciones flexibles y justas adaptadas a distintos usos y necesidades de desarrollo.

Se han alcanzado numerosos acuerdos reconocidos entre desarrolladores de IA y editoriales académicas y comerciales, incluidos nuestros propios acuerdos exitosos con desarrolladores de IA que comparten nuestro compromiso con el uso ético del contenido. Esto demuestra claramente que existe un mercado de licencias para IA que funciona eficazmente.

Este mercado de licencias también permite fundamentar la IA en contenido autorizado. La colaboración activa con la comunidad de IA incluye la incorporación de expectativas y estándares en los acuerdos sobre transparencia, citación, atribución y procedencia de datos, con el fin de fomentar la confianza de los usuarios en los sistemas de IA.

A través de alianzas con autores, socios editoriales, investigadores y desarrolladores de IA éticos, podemos crear un ecosistema sostenible que valore tanto el avance tecnológico como las contribuciones humanas únicas de autores e investigadores.