Archivo de la etiqueta: Derechos de autor

The New York Times exige a Perplexity cesar el uso no autorizado de su contenido para IA

Davis, Wes. «The New York Times Warns AI Search Engine Perplexity to Stop Using Its Content». The Verge, 15 de octubre de 2024. https://www.theverge.com/2024/10/15/24270774/new-york-times-cease-and-desist-letter-perplexity-ai-search-engine.

New York Times ha enviado una carta de cesación y desista a la empresa emergente de motores de búsqueda Perplexity, exigiendo que dejen de utilizar su contenido, según informó The Wall Street Journal el 15 de octubre de 2024.

La demanda se produce en el contexto de una disputa legal más amplia, ya que el Times está demandando a OpenAI y Microsoft por presuntamente usar su contenido sin permiso para entrenar sus modelos de inteligencia artificial. En este caso, el periódico acusa a Perplexity de haber estado utilizando su contenido sin autorización, algo que también había sido señalado previamente por otras empresas como Forbes y Condé Nast.

La carta enviada por el Times, de acuerdo con The Wall Street Journal, incluye el siguiente pasaje:

«Perplexity y sus socios comerciales se han enriquecido injustamente al utilizar, sin autorización, el periodismo expresivo, cuidadosamente redactado, investigado y editado del Times sin licencia.»

El New York Times tiene una política clara que prohíbe el uso de su contenido para entrenar modelos de inteligencia artificial. En este sentido, han bloqueado explícitamente varios rastreadores de IA, incluido el de Perplexity, mediante el archivo robots.txt, que indica a los motores de búsqueda qué URLs pueden indexar.

Por su parte, Perplexity ha respondido a las acusaciones a través de un comunicado de su portavoz, Sara Platnick, en el que afirman no estar «robando» contenido para el entrenamiento de modelos de IA. En cambio, defiende que se dedica a «indexar páginas web y mostrar contenido factual» como citas para informar las respuestas a las preguntas de los usuarios. Además, Perplexity sostiene que «ninguna organización posee los derechos de autor sobre los hechos», argumentando que este principio permite un ecosistema de información abierto y libre, lo que también beneficia a los medios de comunicación al poder informar sobre temas previamente cubiertos por otros.

En respuesta a la carta de cesación, Perplexity tiene plazo hasta el 30 de octubre de 2024 para presentar su respuesta. La empresa, sin embargo, ha intentado suavizar la situación, enfatizando su interés en colaborar con los editores de contenido. Aravind Srinivas, CEO de Perplexity, expresó NYT que la compañía «no tiene interés en ser el antagonista de nadie» y que está dispuesta a trabajar con todos los editores, incluido el New York Times.

Este conflicto ocurre en medio de las crecientes tensiones sobre el uso de contenido protegido por derechos de autor por parte de modelos de IA. Durante el verano, Perplexity ya había sido acusada de plagio, lo que la llevó a cerrar acuerdos con varios editores, ofreciendo ingresos por publicidad y suscripciones gratuitas a socios como Fortune, Time, y The Texas Tribune. Sin embargo, la disputa con el New York Times pone de manifiesto el creciente choque entre las empresas tecnológicas emergentes y los medios de comunicación tradicionales en cuanto al uso y la compensación por su contenido digital.

Open Policy Finder de Sherpa/Romeo ayudará a autores e instituciones a tomar decisiones informadas y seguras sobre la publicación en acceso abierto y el cumplimiento de políticas

Open Policy Finder

https://openpolicyfinder.jisc.ac.uk/

La plataforma Sherpa ha unificado sus tres servicios previos (Sherpa Fact, Sherpa Romeo y Sherpa Juliet) en una nueva plataforma llamada Open Policy Finder, según un anuncio reciente de JISC. Esta plataforma ayudará a autores e instituciones a tomar decisiones informadas y seguras sobre la publicación en acceso abierto y el cumplimiento de políticas a través de una interfaz simplificada y fácil de usar.

Desde su fundación en 2006, Sherpa se ha dedicado a ofrecer información sobre políticas de acceso abierto y archivado de editoriales y financiadores, proporcionando datos estandarizados.. Ahora JISC presenta Open Policy Finder, una plataforma innovadora que unifica los tres servicios principales de Sherpa: Sherpa Fact, Sherpa Romeo y Sherpa Juliet. Esta integración busca simplificar y optimizar el proceso de toma de decisiones sobre el acceso abierto, tanto para los autores como para las instituciones académicas. Con una interfaz unificada y fácil de usar, Open Policy Finder facilita el acceso a datos críticos sobre políticas de acceso abierto, ayudando a los usuarios a comprender y cumplir con las normativas de sus financiadores y editoriales.

La nueva plataforma incluye una interfaz web intuitiva y una API abierta, permitiendo que los usuarios puedan:

  1. Verificar la conformidad con políticas de financiadores: Open Policy Finder permite a los autores comprobar si la publicación de sus investigaciones en revistas específicas cumple con los requisitos de acceso abierto exigidos por sus financiadores. Esto es especialmente útil para investigadores que deben asegurar el acceso abierto a sus trabajos para recibir financiación.
  2. Acceder a las políticas de archivado de los editores: La plataforma proporciona información detallada sobre las condiciones de archivo en acceso abierto que exigen distintas editoriales para libros y revistas. Esto significa que los usuarios pueden revisar, en un solo lugar, los requisitos específicos para cada publicación, facilitando el cumplimiento de las políticas sin tener que navegar en múltiples fuentes.
  3. Consultar las condiciones de acceso abierto de los financiadores: Los investigadores pueden conocer las condiciones que sus financiadores imponen para la publicación en acceso abierto, lo que permite que se adapten mejor a los términos y requisitos de cada financiador en términos de publicación y difusión de sus trabajos.

La Asociación de Editores Americanos (AAP) ha unido a 10.000 creadores para condenar el uso indebido de sus obras por parte de empresas tecnológicas para entrenar modelos de IA generativa

«Publishers Join with Worldwide Coalition to Condemn the Theft of Creative and Intellectual Authorship by Tech Companies for Generative AI Training – AAP». 2024. 22 de octubre de 2024.

Ver noticia

El artículo publicado por la Asociación de Editores Americanos (AAP) destaca la creciente preocupación entre los creadores de contenido y sus aliados sobre el uso indebido de sus obras por parte de grandes empresas tecnológicas, particularmente en el desarrollo y entrenamiento de modelos de inteligencia artificial generativa. Estos modelos, que generan textos, imágenes, música y otros contenidos a partir de datos preexistentes, han provocado un fuerte debate en torno a los derechos de autor, ya que muchas de las obras utilizadas para entrenar estas tecnologías son extraídas sin el consentimiento de los autores.

Denuncia del uso de obras creativas sin autorización

La AAP, en colaboración con más de 10.000 creadores de diversas disciplinas como escritores, músicos, actores, artistas visuales y fotógrafos, ha emitido una condena pública contra lo que describen como el «robo» de la autoría creativa e intelectual por parte de estas empresas tecnológicas. Según los creadores y la AAP, los modelos de IA generativa no podrían existir sin la ingesta masiva de contenidos como libros, canciones, artículos de prensa, actuaciones y otras expresiones artísticas producidas por seres humanos. Estas obras son copiadas, procesadas y reutilizadas por las IA sin cumplir con las leyes de derechos de autor, lo que plantea serios problemas legales y éticos.

Un momento crucial para la política sobre IA

El texto señala que este es un momento decisivo para el desarrollo de políticas globales relacionadas con la inteligencia artificial. Los creadores y sus editoriales están haciendo un llamado a los gobiernos y a los sistemas judiciales para que defiendan los principios fundamentales del derecho de autor. Entre estos principios, destaca la exigencia de que la reproducción de obras y la creación de trabajos derivados solo pueden llevarse a cabo con el consentimiento explícito de quienes crearon e invirtieron en esas obras. La defensa de este principio es crucial no solo para proteger los derechos de los creadores, sino también para garantizar que la propiedad intelectual y los recursos financieros invertidos en la creación de contenido sean respetados.

La posición de la AAP sobre la colaboración con la tecnología

Maria A. Pallante, presidenta y CEO de la AAP, expresó que si bien las colaboraciones tecnológicas son esenciales para la industria editorial, deben basarse en acuerdos legales y respetuosos, no en la explotación no autorizada de contenido. Pallante subraya que los creadores no trabajan para enriquecer a las grandes compañías tecnológicas, sino para inspirar y educar a un público global informado. Las colaboraciones entre la tecnología y la industria creativa han sido, históricamente, parte del ecosistema de la publicación, pero siempre sobre la base de licencias legales y respeto mutuo entre las partes. El problema actual radica en que las empresas tecnológicas están tomando obras sin sanción legal, un comportamiento que ella describe como una «apropiación masiva».

El papel crucial de los derechos de autor

El artículo también destaca la importancia de los derechos de autor como base del sistema de creación y distribución de contenido. Los derechos de autor no solo protegen la propiedad intelectual de los creadores, sino que también garantizan que los creadores sean adecuadamente recompensados por su trabajo. En ausencia de un marco claro y respetado de derechos de autor, la industria creativa podría enfrentar serias dificultades, ya que los autores podrían perder el control sobre cómo se utilizan sus obras y, en consecuencia, sufrir pérdidas económicas significativas.

Impacto global de la IA en la industria creativa

Este fenómeno no es exclusivo de los Estados Unidos, sino que tiene implicaciones globales. A medida que los modelos de IA generativa se expanden y se utilizan en todo el mundo, la discusión sobre el uso indebido de contenido protegido por derechos de autor se intensifica. Los creadores de todo el mundo están pidiendo que se tomen medidas para evitar que sus obras sean utilizadas sin su consentimiento en el desarrollo de IA, y para que se establezcan políticas claras que obliguen a las empresas tecnológicas a obtener licencias adecuadas antes de utilizar cualquier contenido protegido.

Declaración global y acciones futuras

La AAP y sus socios de coalición han lanzado una declaración global que denuncia estas prácticas y solicitan a los gobiernos y tribunales que actúen para proteger los derechos de los creadores. Esta declaración está respaldada por firmas de miles de creadores en todo el mundo, quienes exigen que las políticas sobre IA se desarrollen de manera justa y respeten los derechos de autor. Además, la AAP hace un llamado a la comunidad internacional para que tome medidas proactivas en la creación de un marco regulatorio que equilibre los avances tecnológicos con la protección de los derechos de los autores.

Penguin Random House prohíbe expresamente que sus libros sean usados para entrenar tecnologías de IA.



Battersby, Matilda. «Penguin Random House Underscores Copyright Protection in AI Rebuff.» The Bookseller, October 18, 2024. https://www.thebookseller.com/news/penguin-random-house-underscores-copyright-protection-in-ai-rebuff.

Penguin Random House (PRH), el mayor editor comercial del mundo, ha modificado el texto en sus páginas de derechos de autor para proteger la propiedad intelectual de sus autores frente al uso no autorizado de sus obras para entrenar modelos de inteligencia artificial (IA). El nuevo texto, que se aplicará globalmente en todas las nuevas publicaciones y reimpresiones, prohíbe expresamente que sus libros sean usados para entrenar tecnologías de IA. Esto responde a casos de infracción de derechos de autor en los EE.UU., donde se han utilizado libros pirateados para entrenar IA sin autorización.

El CEO de PRH UK, Tom Weldon, afirmó que la empresa «defenderá vigorosamente» los derechos de propiedad intelectual de sus autores, mientras que elogiaron la actualización de PRH desde la Sociedad de Autores y otras organizaciones. Sin embargo, pidieron que también se modifiquen los contratos de los autores para asegurar que su consentimiento sea requerido antes de utilizar IA en la creación o producción de sus obras.

Expertos legales indicaron que el verdadero riesgo está en el entrenamiento de los modelos de IA, y no tanto en los resultados que estos generan. La industria editorial busca establecer mejores prácticas en medio de un panorama de IA en rápida evolución, donde el uso no autorizado de contenido afecta los ingresos de autores y editores.

Posición del Comité Consultivo de Derecho de Autor y otros Asuntos Jurídicos de IFLA sobre la Inteligencia Artificial

Levine, Melissa, y Advisory Committee on Copyright and other Legal Matters (CLM). 2024. «Advisory Committee on Copyright and Other Legal Matters Position on Artificial Intelligence», octubre.

Texto completo

Este documento está diseñado para ayudar a las bibliotecas miembros de IFLA a navegar los problemas de derechos de autor relacionados con el uso de la IA y a apoyar el desarrollo de programas y servicios bibliotecarios relevantes. También respalda el trabajo del Grupo de Interés Especial de IFLA sobre Inteligencia Artificial, alineándose con el Manifiesto y el plan de Comunicación y Outreach de IFLA.

Consideraciones:

  • La aparición de tecnologías de IA plantea múltiples consideraciones para las bibliotecas, incluida la forma en que se utiliza el contenido y quién lo utiliza. Las bibliotecas están en una posición única para liderar en este ámbito, afirmando su papel como innovadoras, desde la inclusión de contenido generado por IA en sus colecciones hasta la mejora y eficiencia en la entrega de servicios de referencia y préstamo interbibliotecario.
  • En muchos países, las leyes de derechos de autor (tanto derechos económicos como morales) han evolucionado para adaptarse a tecnologías innovadoras y son adecuadas para abordar las preocupaciones legítimas de los creadores, incluidas las bibliotecas en su rol como creadoras de procesos y servicios basados en IA.
  • La legislación relacionada con la IA a menudo también existe fuera del ámbito del derecho de autor. Para temas no relacionados con los derechos de autor, como salud, seguridad, privacidad y cuestiones éticas, se debe acudir a la fuente de información política más adecuada. Las bibliotecas deben considerar las herramientas de IA desde un enfoque basado en valores, asegurándose de que no comprometan la libertad de expresión, la privacidad ni otras áreas de preocupación.

Recomendaciones:

  • Las bibliotecas deben ofrecer capacitación y desarrollo esenciales sobre tecnologías en evolución, incluida la IA, para apoyar a empleados, investigadores y otros usuarios de la biblioteca.
  • En jurisdicciones donde la ley de derechos de autor no respalda los usos típicos y en evolución de la IA por parte de las bibliotecas, se debe abogar para informar a los tomadores de decisiones sobre los beneficios de expandir las limitaciones y excepciones existentes para permitir usos como la minería de texto y datos (TDM).
  • Las convenciones de derechos humanos existentes deberían guiar el desarrollo de trabajos normativos relacionados con la IA. Se deben apoyar los esfuerzos de las bibliotecas para desarrollar prácticas éticas en respuesta a las preocupaciones relacionadas con las herramientas de IA.
  • Los contratos para recursos bibliotecarios licenciados no deben incluir cláusulas que obstaculicen o restrinjan indebidamente el uso de la IA por parte de los usuarios de la biblioteca ni que impidan el uso de excepciones aplicables en la ley de derechos de autor.
  • Las bibliotecas se comprometen a abordar los sesgos mientras navegan por los desafíos de derechos de autor. El acceso limitado a datos y recursos puede conducir a sesgos en los sistemas de IA, por lo que abogamos por el monitoreo continuo de los servicios de IA en las bibliotecas para garantizar la diversidad y el acceso equitativo a la información.

Principios de la Alianza de Derechos de Autor de Bibliotecas para el Copyright y la Inteligencia Artificial

Library Copyright Alliance Principles for Copyright and Artificial Intelligence. Library Copyright Alliance, ALA, ACRL, 2023

Texto completo

La Ley de Derechos de Autor de EE. UU. existente, tal como es aplicada e interpretada por la Oficina de Derechos de Autor y los tribunales, es plenamente capaz en este momento de abordar la intersección entre derechos de autor e IA sin necesidad de enmiendas.

  • Basado en precedentes bien establecidos, la incorporación de obras protegidas por derechos de autor para crear modelos de lenguaje grandes (LLM) u otras bases de datos de entrenamiento de IA generalmente se considera un uso justo.
  • Dado que decenas, si no cientos, de millones de obras son incorporadas para crear un LLM, la contribución de cualquier obra individual al funcionamiento del LLM es de minimis; por lo tanto, la remuneración por la incorporación no es ni apropiada ni factible.
  • Además, los propietarios de derechos de autor pueden emplear medios técnicos, como el Protocolo de Exclusión de Robots, para evitar que sus obras sean utilizadas para entrenar a las IA.
  • Si una IA produce una obra que es sustancialmente similar en expresión protegida a una obra que fue incorporada por la IA, esa nueva obra infringe el copyright de la obra original.
  • Si la obra original fue registrada antes de la infracción, el propietario de los derechos de autor de la obra original puede presentar una acción por infracción de derechos de autor para obtener daños estatutarios contra el proveedor de la IA y el usuario que solicitó a la IA producir la obra sustancialmente similar.
  • Aplicando principios tradicionales de autoría humana, una obra generada por una IA podría ser susceptible de derechos de autor si los prompts proporcionados por el usuario controlaban suficientemente a la IA de tal manera que la obra resultante en su conjunto constituyera una obra original de autoría humana.

La IA tiene el potencial de interrumpir muchas profesiones, no solo a los creadores individuales. La respuesta a esta interrupción (por ejemplo, el apoyo a la re-capacitación laboral a través de instituciones como colegios comunitarios y bibliotecas públicas) debería desarrollarse de manera integral en la economía, y la ley de derechos de autor no debería ser tratada como un medio para abordar estos desafíos sociales más amplios.

Además, la IA también tiene el potencial de servir como una herramienta poderosa en manos de los artistas, permitiéndoles expresar su creatividad de maneras nuevas y eficientes, promoviendo así los objetivos del sistema de derechos de autor.

10 de julio de 2023.

Problemas legales y de propiedad en torno a los productos generados por la inteligencia artificial (IA)

«Who Owns AI’s Output? – Communications of the ACM», 4 de octubre de 2024, https://cacm.acm.org/news/who-owns-ais-output/.

El artículo “Who Owns AI’s Output?” de Logan Kugler, explora los problemas legales y de propiedad en torno a los productos generados por la inteligencia artificial (IA). En un contexto en el que la IA generativa ha avanzado rápidamente en los últimos años, surgen preguntas sobre quién posee los derechos de autor o patentes de las creaciones de IA, como textos, imágenes, videos, audio y código.

Los diferentes países abordan de manera distinta la cuestión de la propiedad de las obras generadas por IA. En los Estados Unidos, la ley es estricta y no permite otorgar derechos de autor o patentes a obras creadas únicamente por IA. Se requiere la intervención significativa de un ser humano para que se otorgue protección a través de estos mecanismos legales. Sin embargo, otros países como el Reino Unido y Sudáfrica tienen leyes más flexibles que permiten, en algunos casos, la protección de obras generadas por IA.

Otro problema destacado en el artículo es el uso de datos protegidos por derechos de autor para entrenar a los modelos de IA. La mayoría de los sistemas de IA se entrenan utilizando grandes volúmenes de datos, a menudo sin el consentimiento del creador original. Esto ha generado múltiples demandas, como la presentada por el New York Times contra OpenAI, acusando a la compañía de usar su contenido sin permiso para entrenar ChatGPT.

En respuesta a estos desafíos, algunos países, como la Unión Europea, han implementado regulaciones más estrictas para controlar cómo se utilizan los datos protegidos en el entrenamiento de IA. Por otro lado, Japón ha adoptado un enfoque más permisivo, permitiendo el uso de materiales protegidos para el entrenamiento de IA bajo excepciones amplias a la ley de derechos de autor.

El artículo concluye que las regulaciones sobre IA están evolucionando rápidamente, pero presentan grandes retos para los legisladores debido a la velocidad con la que avanza la tecnología. A medida que los países tratan de equilibrar la protección de los derechos de autor y fomentar la innovación tecnológica, es probable que se vean más cambios en las leyes y normativas sobre la propiedad de los productos generados por IA.

Tres autores demandan a Anthropic por infracción de derechos de autor en el entrenamiento de IA

Roth, E. (2024, agosto 20). Authors sue Anthropic for training AI using pirated books. The Verge. https://www.theverge.com/2024/8/20/24224450/anthropic-copyright-lawsuit-pirated-books-ai

La compañía de inteligencia artificial Anthropic enfrenta una demanda colectiva en un tribunal federal de California, interpuesta por tres autores que afirman que la empresa utilizó sus libros y cientos de miles de obras más para entrenar su chatbot Claude, impulsado por IA.

Un grupo de autores ha demandado a la compañía de inteligencia artificial Anthropic, acusándola de entrenar sus modelos de IA con libros pirateados, según informó Reuters. La demanda colectiva, presentada en un tribunal de California, alega que Anthropic «construyó un negocio multimillonario robando cientos de miles de libros con derechos de autor.»

La demanda sostiene que Anthropic utilizó un conjunto de datos de código abierto conocido como «The Pile» para entrenar su familia de chatbots Claude. Dentro de este conjunto de datos se encuentra «Books3», una vasta biblioteca de ebooks pirateados que incluye obras de Stephen King, Michael Pollan y miles de otros autores. A principios de agosto, Anthropic confirmó a Vox que utilizó «The Pile» para entrenar a Claude.

La demanda afirma que Anthropic descargó y reprodujo copias de «The Pile» y «Books3», sabiendo que estos conjuntos de datos contenían contenido con derechos de autor extraído de sitios pirata como Bibiliotik. Los autores buscan que el tribunal certifique la demanda colectiva, exija a Anthropic el pago de daños y perjuicios propuestos, y prohíba a la compañía utilizar material protegido por derechos de autor en el futuro.

Los escritores que demandan a Anthropic incluyen a Andrea Bartz, autora de We Were Never Here; Charles Graeber, autor de The Good Nurse; y Kirk Wallace Johnson, autor de The Feather Thief. Aunque se reconoce que «Books3» ha sido eliminado de la versión «más oficial» de «The Pile», la versión original supuestamente sigue disponible en línea. Una investigación reciente también descubrió que compañías como Anthropic y Apple entrenaron sus modelos de IA con miles de subtítulos de videos de YouTube extraídos de «The Pile».

El año pasado, el exgobernador de Arkansas Mike Huckabee y otros autores presentaron una demanda similar contra Meta, Microsoft y EleutherAI, la organización sin fines de lucro detrás de «The Pile», por acusaciones de uso indebido de sus obras para entrenar modelos de IA. Otros autores, como George R.R. Martin, Jodi Picoult y Michael Chabon, también han demandado a OpenAI por el supuesto uso de su contenido protegido por derechos de autor.

Código de buenas prácticas en derechos de autor para bibliotecas

«Navigating Copyright for Crown-Published Works: A Code of Best Practices for Libraries» The Canadian Association of Research Libraries (CARL), 2024

Texto completo

CARL ha publicado el documento «Navigating Copyright for Crown-Published Works: A Code of Best Practices for Libraries» que está disponible en los sitios web de CARL y CFLA, junto con un resumen breve.

Este código de derechos de autor fue desarrollado para bibliotecas por un equipo de redacción comunitario, en colaboración con empleados del gobierno federal y revisores legales y académicos. Proporciona una exploración legal y práctica del uso justo en el contexto de las actividades de conservación de bibliotecas para publicaciones gubernamentales en Canadá.

Aunque el código no es un consejo legal, ofrece un modelo legalmente defendible para la aplicación de la excepción de uso justo al copiar, preservar y compartir publicaciones gubernamentales. Detalla las secciones relevantes de la Ley de Derechos de Autor de Canadá y jurisprudencia, y proporciona estudios de caso que describen proyectos relacionados realizados por bibliotecas académicas.

El Origen de la Información en ChatGPT con la Herramienta RAGE


«El Origen de la Información en ChatGPT con la Herramienta RAGE», 6 de junio de 2024. https://wwwhatsnew.com/2024/06/06/el-origen-de-la-informacion-en-chatgpt-con-la-herramienta-rage/.

La inteligencia artificial sigue avanzando a pasos agigantados, pero con estos avances surgen nuevos desafíos. Uno de los problemas más preocupantes es entender de dónde proviene la información que nos proporcionan los modelos de lenguaje como ChatGPT. Aquí entra en juego una innovadora herramienta desarrollada por un equipo de la Universidad de Waterloo: RAGE.

La Importancia de Saber de Dónde Proviene la Información

En la era digital, los modelos de lenguaje grande (LLMs), como ChatGPT, se han convertido en herramientas fundamentales en diversas áreas, desde la medicina hasta el derecho. Sin embargo, estos modelos no están exentos de problemas. Al funcionar mediante el «aprendizaje profundo no supervisado», recopilan información de toda la web de maneras que pueden ser complicadas de rastrear.

Problemas de Confiabilidad

Un problema común con los LLMs es la alucinación. Es decir, estos modelos pueden generar respuestas que parecen coherentes y precisas, pero que en realidad están basadas en información incorrecta o inexistente. Esto plantea un gran desafío, especialmente cuando las respuestas se utilizan en contextos críticos.

La Necesidad de Transparencia

Como bien señala Joel Rorseth, estudiante de doctorado en ciencias de la computación en la Universidad de Waterloo y autor principal del estudio, «no puedes necesariamente confiar en que un LLM se explique a sí mismo». Es vital que podamos verificar las fuentes de información que utilizan estos modelos para asegurarnos de su fiabilidad.

La Solución: La Herramienta RAGE

¿Qué es RAGE?

RAGE es una herramienta que utiliza una estrategia llamada «generación aumentada por recuperación» (RAG) para entender el contexto de las respuestas proporcionadas por los LLMs. En lugar de confiar ciegamente en las respuestas generadas, RAGE permite a los usuarios proporcionar sus propias fuentes de información para contextualizar las respuestas.

¿Cómo Funciona?

La herramienta ilustra cómo diferentes fuentes pueden llevar a distintas respuestas. Esto es crucial para evaluar la confiabilidad de la información. Al utilizar RAGE, los usuarios pueden ver de manera clara cómo la información de diferentes fuentes afecta las respuestas de los modelos.

Aplicaciones Prácticas

En la Medicina y el Derecho

El uso de LLMs en sectores sensibles como la medicina y el derecho está en aumento. Sin embargo, la falta de transparencia en la fuente de información puede ser peligrosa. RAGE permite asegurar que las respuestas de estos modelos estén basadas en información precisa y confiable, algo esencial en estos campos.

En la Educación

En el ámbito educativo, los estudiantes y profesores pueden beneficiarse enormemente. Pueden verificar y validar la información proporcionada por los modelos de lenguaje, asegurándose de que las fuentes sean fiables.

El Futuro de la Regulación y la Innovación

Estamos en una época donde la innovación tecnológica ha superado la regulación. Es vital que entendamos los riesgos potenciales de usar estas tecnologías sin un marco regulatorio adecuado. Herramientas como RAGE son esenciales para garantizar que los productos de inteligencia artificial sean seguros y confiables.

Referencias
Joel Rorseth et al, RAGE Against the Machine: Retrieval-Augmented LLM Explanations, arXiv (2024). DOI: 10.48550/arxiv.2405.13000