Archivo de la categoría: Noticias

Papel esencial de los editores como garantes de la confianza en el ecosistema de la comunicación científica

Ghildiyal, Ashutosh. «Gatekeepers of Trust: Reaffirming the Publisher’s Role in Service of the Reader.» The Scholarly Kitchen, 12 de mayo de 2025. https://scholarlykitchen.sspnet.org/2025/05/12/guest-post-gatekeepers-of-trust-reaffirming-the-publishers-role-in-service-of-the-reader/

Se propone una reflexión profunda sobre el papel esencial de los editores académicos como guardianes de confianza en el ecosistema de la comunicación científica. Frente a un entorno editorial marcado por la presión del acceso abierto, el avance de la inteligencia artificial y las crecientes demandas de productividad, el autor hace una llamada a recobrar la centralidad del lector y de la calidad editorial.

Ghildiyal afirma que los editores no son simples intermediarios entre autores y lectores, ni gestores técnicos del proceso de publicación. Son, más bien, custodios de la integridad intelectual y científica. Su función clave consiste en proteger a los lectores asegurando que la información publicada sea rigurosa, fiable y relevante. Esta tarea implica un compromiso con la verdad, con el progreso del conocimiento y con el fortalecimiento del bien público.

Uno de los principales desafíos identificados en el texto es la tensión entre cantidad y calidad. Las presiones comerciales —como el modelo de publicación por pago (APC), las métricas de impacto, o la necesidad de escalar la producción editorial— han llevado a priorizar el volumen de publicaciones por encima de su valor sustantivo. Esto amenaza la confianza de los lectores y debilita el rol crítico de los editores como filtros de calidad.

El artículo destaca que el lector debe volver a ocupar el centro del trabajo editorial. Más allá de las exigencias de autores o instituciones, el contenido publicado debe ser útil, claro y confiable para quienes lo consultan: investigadores, profesionales, docentes y ciudadanos informados. La confianza en la ciencia y en la comunicación académica se construye, principalmente, en esa relación entre editor y lector.

En este contexto, Ghildiyal propone una colaboración efectiva entre inteligencia artificial y juicio editorial humano. Las herramientas automatizadas pueden ser útiles para detectar errores formales, verificar datos o acelerar tareas repetitivas. Sin embargo, es imprescindible que los editores humanos mantengan el control sobre las decisiones críticas: evaluar la originalidad, la claridad conceptual y la relevancia social de los contenidos.

Finalmente, el autor advierte que la viabilidad futura de la edición académica depende de un equilibrio estratégico: aprovechar la tecnología sin sacrificar el rigor, y responder a las demandas del mercado sin diluir los principios de integridad. Para ello, propone prácticas editoriales transparentes, consistentes y centradas en ofrecer retroalimentación constructiva a los autores, siempre al servicio del lector.

Ghildiyal defiende que los editores deben reafirmar su compromiso con el lector como núcleo de su misión. Ser guardianes de confianza no es solo una metáfora: es una responsabilidad crítica para preservar la credibilidad de la ciencia y la utilidad social de la publicación académica en un mundo complejo y cambiante.

Ataques de bots maliciosos impulsados por IA a los catálogos de las bibliotecas

Panitch, Judy. 2025. “Library IT vs. the AI bots.” University Libraries News, 9 de junio de 2025. https://library.unc.edu/news/library-it-vs-the-ai-bots/.

A principios de diciembre de 2024, se produjo un incidente inusual en el catálogo en línea de las bibliotecas de la Universidad de Carolina del Norte: los usuarios informaron que les aparecían de mensajes de error como “este sitio web está bajo alta carga (cola llena)”. Esto no era normal, incluso durante épocas de alta demanda, como las finales de curso. Las investigaciones internas revelaron que el problema no era un aumento normal de tráfico, sino un ataque deliberado potenciado por inteligencia artificial.

Las investigaciones internas revelaron que el problema no era un aumento normal de tráfico, sino un ataque deliberado potenciado por inteligencia artificial. El sistema del catálogo estaba siendo bombardeado con peticiones automatizadas generadas por bots, cuyo volumen superaba cualquier uso legítimo, y saturaba la infraestructura técnica.

Este escenario puso a prueba la capacidad del equipo de TI de las bibliotecas. El personal tuvo que responder con rapidez e ingenio para implementar filtros y bloqueos contra las IP sospechosas, ajustar límites de conexión y optimizar la gestión de sesiones. El objetivo era mitigar el ataque sin interrumpir el acceso auténtico de estudiantes, docentes y personal, exponiendo así la necesidad de sistemas capaces de distinguir entre tráfico legítimo y malicioso automatizado.

El suceso sacó a la luz un lado oscuro de la inteligencia artificial: su capacidad para coordinar ataques automatizados y sofisticados, que pueden desestabilizar recursos digitales de alta demanda. A pesar de su carácter invisible, estas IA maliciosas pueden generar consecuencias reales y perjudiciales para servicios imprescindibles.

El artículo destaca el valor de contar con equipos de TI ágiles, bien entrenados y preparados para responder ante amenazas automatizadas. Asimismo, subraya la importancia de incorporar inteligencia artificial defensiva: sistemas capaces de identificar tráfico sospechoso, analizar patrones anómalos y responder en tiempo real.

En última instancia, “Library IT vs. the AI bots” no solo narra un incidente técnico, sino que actúa como llamada de atención sobre los riesgos emergentes en un mundo donde la inteligencia artificial —usada tanto para bien como para fines maliciosos— exige una seguridad más sofisticada y adaptativa.

¿Por que los modelos de IA nos conducen a reforzar lo que ya creemos?

Eugina Leung, The Scientific Reason Why ChatGPT Leads You Down Rabbit Holes,” CNET, 10 de junio de 2025, https://www.cnet.com/tech/services-and-software/the-scientific-reason-why-chatgpt-leads-you-down-rabbit-holes/

El artículo cuenta por qué herramientas como ChatGPT pueden llevar a los usuarios a profundizar en líneas de pensamiento cada vez más específicas, a veces hasta puntos extremos o sesgados, en lo que comúnmente se conoce como “caer en un sesgo o bucle de confirmación” digital.

El sesgo de confirmación (también llamado sesgo confirmatorio) es una tendencia psicológica que lleva a las personas a buscar, interpretar y recordar información de manera que confirme sus propias creencias y expectativas preexistentes, mientras ignoran o desestiman información que las contradiga.

Según Leung, este comportamiento no se debe únicamente al diseño del modelo de lenguaje, sino a un patrón compartido con los motores de búsqueda y otras herramientas digitales: las personas tienden a confirmar sus creencias iniciales. Esto se traduce en que, cuando un usuario realiza una consulta a ChatGPT, lo hace ya desde una postura determinada. Por ejemplo, si alguien sospecha que cierto alimento es dañino, probablemente formulará su pregunta de forma que ya presupone esa posibilidad. El sistema, a su vez, genera respuestas que encajan con esa narrativa, confirmando la suposición en lugar de cuestionarla.

Esta interacción desencadena un bucle de retroalimentación. Cuanto más pregunta el usuario en esa dirección, más contenido relacionado obtiene, lo que le lleva a profundizar aún más en esa perspectiva. Este proceso es lo que se conoce como “cascada de profundidad” y puede dar lugar a una especie de efecto túnel, donde se van perdiendo matices, dudas o puntos de vista alternativos. En el caso de temas sensibles como la política, la salud, las creencias personales o las teorías de la conspiración, este efecto puede ser especialmente problemático, ya que facilita la consolidación de ideas erróneas o distorsionadas.

Uno de los elementos clave de este fenómeno es la forma en que los modelos responden a las preguntas: su diseño se basa en ofrecer respuestas que parezcan relevantes, coherentes y satisfactorias según el contexto de la conversación. Sin embargo, esto no siempre equivale a una respuesta imparcial o equilibrada. En muchos casos, el sistema simplemente sigue la lógica del usuario y refuerza su hipótesis, en lugar de introducir elementos de contraste o una visión crítica.

Aunque el artículo no presenta una solución definitiva, sí deja entrever algunas estrategias útiles para contrarrestar este efecto. En primer lugar, es esencial que los usuarios sean conscientes de sus propios sesgos y del modo en que estos influyen en la formulación de preguntas. También se sugiere que se practique la variación intencional de las consultas, explorando diferentes formas de abordar un mismo tema. Finalmente, se menciona la posibilidad de diseñar modelos que incluyan mecanismos para ofrecer perspectivas alternativas o advertencias sobre posibles sesgos presentes en la conversación.

En conclusión, ChatGPT tiene una base científica y psicológica sólida. La tendencia humana a buscar confirmación de nuestras ideas, unida al diseño de las respuestas generadas por IA, puede llevarnos a reforzar creencias sin darnos cuenta. Este descubrimiento invita tanto a usuarios como a desarrolladores a promover un uso más consciente, crítico y equilibrado de estas herramientas.

Tomás García Merino presenta «Sentir el viento». Planeta Biblioteca 2025/06/09

Tomás García Merino presenta «Sentir el viento».

Planeta Biblioteca 2025/06/09

ESCUCHAR

Descargar

Sentir el viento marca la incursión de Tomás García Merino en el género negro, tras una trayectoria previa centrada en la novela realista e histórica. Ambientada en escenarios cercanos como Béjar, Salamanca, Mogarraz y Candelario, la historia arranca durante el Festival de Blues de Béjar y busca implicar emocionalmente al lector situando los crímenes en lugares cotidianos. La obra destaca por un estilo cinematográfico, un ritmo ágil y una construcción cuidada de personajes que evitan los clichés del género. García Merino apuesta por una trama contemporánea bien documentada, en la que el entorno juega un papel clave en la tensión narrativa.

Comprar la novela Sentir el viento

Reddit demanda a Anthropic por utilizar sus datos sin autorización para entrenar su modelo

Zeff, Maxwell. “Reddit Sues Anthropic for Allegedly Not Paying for Training Data.” TechCrunch, 4 de junio de 2025. https://techcrunch.com/2025/06/04/reddit-sues-anthropic-for-allegedly-not-paying-for-training-data/

El 4 de junio de 2025, Reddit interpuso una demanda contra Anthropic, una empresa dedicada a la inteligencia artificial, en un tribunal de California. La denuncia se basa en que Anthropic habría utilizado sin autorización los datos de Reddit para entrenar su modelo de lenguaje, conocido como Claude. Reddit acusa a Anthropic de incumplir sus normas de uso y de ignorar las restricciones técnicas impuestas para proteger su contenido.

Específicamente, la demanda señala que Anthropic empleó bots automatizados para acceder al sitio de Reddit más de 100.000 veces desde julio de 2024, a pesar de que Reddit había establecido en su archivo robots.txt la prohibición expresa de este tipo de acceso no autorizado. Este archivo es una herramienta estándar que permite a los sitios web controlar y limitar el acceso de bots a sus contenidos.

Reddit destaca que, a diferencia de otras grandes compañías de tecnología como OpenAI y Google, con quienes tiene acuerdos de licencia para el uso de sus datos, Anthropic no obtuvo ningún permiso para utilizar la información alojada en Reddit. Esta falta de autorización constituye, según Reddit, una violación de derechos y una explotación indebida de su patrimonio digital.

Como consecuencia, Reddit solicita que se le otorguen daños compensatorios por el uso no autorizado de su contenido y que el tribunal emita una orden que prohíba a Anthropic seguir utilizando los datos de la plataforma sin consentimiento. Este caso se suma a un creciente debate legal y ético sobre el uso de datos en la formación de modelos de inteligencia artificial y la protección de los derechos de los creadores y propietarios de contenido en internet.

Inteligencia Artificial y Formas de Trabajo Emergentes

Cuadros Garrido, María Elisa, y Alejandra Selma Penalva, eds. 2024. Inteligencia Artificial y Formas de Trabajo Emergentes. A Coruña: Editorial Colex. https://d2eb79appvasri.cloudfront.net/erp-colex/openaccess/libros/7821.pdf

El libro ofrece una mirada rigurosa y crítica sobre cómo la inteligencia artificial está transformando las formas de trabajar, exigiendo nuevas normas y enfoques que aseguren que los derechos laborales no se vean erosionados por la automatización. Representa una aportación valiosa para el diseño de políticas públicas que permitan una transición digital justa e inclusiva.

El libro Inteligencia Artificial y Formas de Trabajo Emergentes, coordinado por María Elisa Cuadros Garrido y Alejandra Selma Penalva, reúne una serie de estudios jurídicos que analizan los desafíos que plantea la integración de la inteligencia artificial (IA) en el mundo del trabajo. Publicado en 2024 por Editorial Colex, el texto forma parte de una colección especializada en derecho del trabajo y seguridad social, y está orientado a juristas, académicos y profesionales interesados en comprender los impactos legales, sociales y éticos de esta revolución tecnológica.

El primer capítulo, elaborado por María M. Pardo López, se centra en el marco normativo de la inteligencia artificial en Europa, destacando el Reglamento de IA aprobado en junio de 2024 por la Unión Europea. Este reglamento establece principios para el desarrollo de sistemas de IA confiables y respetuosos con los derechos fundamentales. También se analiza la creación de la Agencia Española de Supervisión de la Inteligencia Artificial y el Convenio Marco del Consejo de Europa sobre IA, que busca proteger los valores democráticos y los derechos humanos frente al uso de tecnologías automatizadas.

En los capítulos siguientes se examinan los efectos de la IA en las relaciones laborales, particularmente en relación con la gestión algorítmica del trabajo. Se aborda cómo las plataformas digitales y otros empleadores están utilizando algoritmos para tomar decisiones sobre contratación, evaluación y despido, lo que plantea serias dudas sobre transparencia, discriminación y tutela judicial efectiva. Se revisa además la jurisprudencia más relevante, como la sentencia del Tribunal Supremo de 2020 sobre los repartidores de plataformas digitales, que reconoció la existencia de una relación laboral pese a la intermediación tecnológica.

Otros capítulos profundizan en cuestiones clave como la protección de datos personales en entornos laborales digitalizados, la responsabilidad civil por daños derivados del uso de IA en el trabajo, la seguridad y salud laboral ante la automatización de tareas, y la necesidad de adaptar la formación de los trabajadores a las nuevas exigencias tecnológicas. El libro propone medidas legislativas para afrontar estos retos y sugiere un enfoque equilibrado entre innovación y protección social.

La propuesta «Big Beautiful Bill» busca pausar temporalmente el avance de la IA para evaluar sus implicaciones éticas y sociales.

Perlroth, Nicole, y Stuart A. Thompson. «Trump Taps Palantir to Centralize Data on Americans.» The New York Times, May 30, 2025. https://www.nytimes.com/2025/05/30/technology/trump-palantir-data-americans.html.

La «One Big Beautiful Bill Act» busca centralizar la regulación de la IA a nivel federal durante una década, pero enfrenta críticas por limitar la capacidad de los estados para proteger a sus ciudadanos frente a los desafíos emergentes de esta tecnología.

La propuesta, apodada «Big Beautiful Bill», busca pausar temporalmente el avance de la IA para evaluar sus implicaciones éticas y sociales. La encuesta revela que una parte significativa de la población apoya esta moratoria, reflejando preocupaciones sobre el impacto de la IA en el empleo, la privacidad y la seguridad. Sin embargo, también existen opiniones divididas, con algunos sectores que consideran que una pausa podría obstaculizar la innovación tecnológica y la competitividad.

La propuesta legislativa conocida como «One Big Beautiful Bill Act» es un ambicioso paquete de reformas impulsado por el expresidente Donald Trump y aprobado por la Cámara de Representantes de EE. UU. en mayo de 2025. Entre sus múltiples disposiciones, destaca una cláusula que impone una moratoria de diez años a las regulaciones estatales sobre inteligencia artificial (IA).

Esta disposición prohíbe a los estados promulgar o hacer cumplir leyes específicas relacionadas con la IA durante una década. Esto afectaría legislaciones estatales existentes en lugares como California, Nueva York e Illinois, y detendría más de mil proyectos de ley pendientes en diversas legislaturas estatales.

Los defensores de la moratoria argumentan que una regulación uniforme a nivel federal evitará un mosaico de leyes estatales que podrían obstaculizar la innovación y la competitividad de las empresas tecnológicas estadounidenses en el ámbito global.

La moratoria ha generado una oposición significativa tanto de demócratas como de algunos republicanos. Críticos sostienen que impide a los estados abordar problemas urgentes relacionados con la IA, como la proliferación de deepfakes, fraudes y herramientas de IA discriminatorias. Además, se argumenta que centralizar la regulación en el gobierno federal sin establecer protecciones claras deja a los ciudadanos vulnerables.

Aunque la Cámara de Representantes ha aprobado el proyecto, su futuro en el Senado es incierto. Existen dudas sobre si la disposición relacionada con la IA cumple con la «Regla Byrd», que limita el contenido de los proyectos de reconciliación presupuestaria. Si se determina que la cláusula sobre la IA es «ajena» al presupuesto, podría ser eliminada del proyecto final.

La venta de audiolibros se incremento un 13% en el año 2024

Audio Publishers Association. 2025. Audiobook Consumer and Sales Survey Reports. Última modificación en junio de 2025. https://www.audiopub.org/surveys

La Audio Publishers Association (APA) ha publicado los resultados de sus encuestas anuales de ventas y consumo de audiolibros correspondientes a 2024, revelando un crecimiento sostenido en la industria y cambios significativos en los hábitos de los oyentes

Según la encuesta de ventas realizada por Toluna, los ingresos por ventas de audiolibros en Estados Unidos alcanzaron los 2.220 millones de dólares en 2024, lo que representa un aumento del 13% respecto al año anterior. Este crecimiento continuo ha sido impulsado principalmente por los audiolibros digitales, que constituyeron el 99% de los ingresos y experimentaron un incremento interanual del 14%

La encuesta de consumidores de 2025, llevada a cabo por Edison Research, indica que el 51% de los adultos estadounidenses (aproximadamente 134 millones de personas) han escuchado un audiolibro. Además, el interés entre quienes aún no han probado los audiolibros ha aumentado: el 38% expresó interés en ellos, frente al 32% del año anterior, y el porcentaje de personas «muy interesadas» casi se duplicó, pasando del 10% al 18%

La piratería sigue siendo una preocupación para la industria. El 35% de los oyentes de audiolibros informaron haber escuchado audiolibros en YouTube, un aumento respecto al 27% en 2023. La principal razón citada (76%) fue el acceso gratuito a los contenidos, muchos de los cuales son pirateados

La accesibilidad es un factor clave para los oyentes: el 72% considera importante que los audiolibros estén disponibles en su plataforma de escucha preferida, y el 63% valora el acceso a través de aplicaciones de bibliotecas. En cuanto a géneros, la ficción general representa la mayor parte de los ingresos, con un crecimiento del 16% respecto a 2023. Otros géneros destacados incluyen ciencia ficción/fantasía, romance y no ficción general. Los mayores aumentos interanuales en ventas por género se observaron en romance (+30%), literatura infantil y juvenil (+26%) y ciencia ficción/fantasía (+21%)

Aunque ha aumentado la producción y consumo de audiolibros narrados por inteligencia artificial, la disposición de los oyentes a probar estos formatos ha disminuido, pasando del 77% en 2023 al 70% en 2025

Una encuesta realizada en septiembre y octubre de 2024, en colaboración con Library Journal y School Library Journal, recopiló respuestas de 486 profesionales de bibliotecas públicas en EE. UU. Los resultados muestran que los audiolibros digitales dominan la circulación: representan el 70% de la circulación de audiolibros para adultos y el 56% para jóvenes. Además, el gasto en materiales de audio digital para colecciones de adultos aumentó un 9,2% interanual. Las decisiones de compra se ven influenciadas principalmente por reseñas profesionales y solicitudes de los usuarios, y existe una fuerte preferencia por narradores humanos sobre voces generadas por IA

Un informe sobre Salud presentado por el Secretario de Salud Robert F. Kennedy Jr incluyó estudios inexistentes y referencias científicas erróneas.

Harmon, Stephie. 2025. “RFK Jr.’s ‘Make America Healthy Again’ Report Cites Fake Studies.” Gizmodo, May 30, 2025. https://gizmodo.com/rfk-jr-s-make-america-healthy-again-report-cites-fake-studies-2000608850

El informe «Make America Healthy Again» (MAHA), presentado por Robert F. Kennedy Jr. como Secretario de Salud y Servicios Humanos de EE. UU., ha generado una fuerte polémica debido a la inclusión de estudios inexistentes y referencias científicas erróneas. Aunque el documento afirma estar respaldado por más de 500 fuentes, investigaciones periodísticas han revelado que al menos siete de estas citas corresponden a estudios que no existen o han sido malinterpretados

Hace unos días, un estudio del Tow Center for Digital Journalism, publicado por la Columbia Journalism Review, reveló que los motores de búsqueda impulsados por inteligencia artificial citan incorrectamente las fuentes de noticias en más del 60 % de los casos. Esta alarmante tendencia adquiere aún más relevancia tras la reciente noticia sobre el informe «Make America Healthy Again» promovido por RFK Jr., el cual se apoya en estudios falsos y mal citados, reflejando los peligros reales de la desinformación amplificada por el uso irresponsable de la IA en la producción y difusión de contenidos.

Por ejemplo, se menciona un estudio atribuido a Robert L. Findling sobre la publicidad de medicamentos psicotrópicos en jóvenes, el cual no se encuentra en ninguna base de datos académica, y el propio Findling ha negado haberlo escrito. Otro caso es una supuesta investigación de 2017 sobre la prescripción excesiva de corticosteroides en niños con asma, que tampoco existe. Además, se han detectado errores en citas de estudios reales, como atribuir a una investigación sobre adultos conclusiones aplicables a niños, o afirmar que un estudio incluía psicoterapia cuando no era así

Estos hallazgos han suscitado preocupaciones sobre la integridad científica del informe y han llevado a especulaciones sobre el posible uso de inteligencia artificial generativa en su elaboración. Aunque la Casa Blanca ha calificado los errores como «problemas de formato» y ha prometido actualizaciones, expertos en salud pública y académicos han expresado su alarma por la falta de rigor y transparencia en un documento que podría influir en políticas de salud pública.

El informe también ha sido criticado por omitir causas principales de mortalidad infantil, como accidentes automovilísticos y violencia con armas de fuego, y por promover teorías desacreditadas sobre vacunas y fluoración del agua. Estas controversias ponen en entredicho la credibilidad del informe y resaltan la necesidad de una evaluación rigurosa y basada en evidencia científica en la formulación de políticas de salud.

Re:Create sostiene que el entrenamiento de modelos de IA constituye un uso transformador y un posible uso justo

Re:Create. 2025. «Breaking Down the USCO Report on Generative AI Training and Re:Create’s ‘Non-Takeaways‘.» Re:Create Coalition, 28 de mayo de 2025. https://www.recreatecoalition.org/breaking-down-the-usco-report-on-generative-ai-training-and-recreates-non-takeaways/

El 28 de mayo de 2025, la organización Re:Create publicó un análisis crítico del informe final de la Oficina de Derechos de Autor de EE. UU. (USCO) sobre la inteligencia artificial generativa y el uso justo (fair use). Aunque Re:Create valora que el informe no proponga cambios legislativos inmediatos, expresa preocupación por ciertas interpretaciones que podrían restringir el desarrollo y uso de herramientas de IA.

Re:Create es una coalición compuesta por una amplia membresía de centros de investigación, organizaciones de defensa, bibliotecas y empresas tecnológicas —grandes y pequeñas— que actúa como la coalición líder unida en la lucha por un sistema de derechos de autor equilibrado que promueva la innovación, los creadores y los consumidores.

Re:Create sostiene que el entrenamiento de modelos de IA, al utilizar obras protegidas para generar nuevas creaciones, constituye un uso transformador, elemento central del uso justo. Critica que el informe de la USCO minimice esta perspectiva, especialmente al desestimar el concepto de «uso no expresivo», que se refiere a la utilización de obras sin replicar su contenido expresivo. Además, Re:Create argumenta que comparar el aprendizaje de IA con el humano es válido, ya que ambos procesos implican la internalización de información sin reproducirla directamente

El informe de la USCO sugiere que el uso de obras obtenidas sin autorización podría pesar en contra del uso justo. Re:Create refuta esta idea, señalando que el uso justo se centra en cómo se utiliza una obra, no en cómo se obtuvo. Además, enfatiza que el derecho de autor no otorga control absoluto sobre el acceso a las obras, y que prácticas como la venta de libros usados o el préstamo bibliotecario son ejemplos legales de acceso sin autorización directa del titular de derechos.

El informe plantea que el entrenamiento de IA podría afectar negativamente al mercado de las obras originales. Re:Create argumenta que las pérdidas derivadas de la competencia con obras nuevas y no infractoras no deben considerarse en el análisis del uso justo. Además, advierte que priorizar las licencias sobre el uso justo podría crear barreras económicas significativas, especialmente para desarrolladores con recursos limitados, lo que obstaculizaría la innovación y el acceso equitativo a la tecnología.

Por ello, Re:Create insta a los tribunales a no adoptar ciertas interpretaciones del informe de la USCO que podrían restringir el uso justo en el contexto de la IA. Subraya la importancia de mantener un equilibrio en el sistema de derechos de autor que fomente la creatividad, la innovación y el acceso a la información, elementos esenciales para el progreso cultural y tecnológico.