La inteligencia artificial y su impacto en la escritura académica

Julio Alonso Arévalo. La inteligencia artificial y su impacto en la escritura académica . BUCLE, 2024

La inteligencia artificial está teniendo un impacto significativo en la escritura académica al ofrecer herramientas y recursos que facilitan el proceso de investigación, redacción y edición de documentos. Mediante el uso de algoritmos avanzados, los sistemas de inteligencia artificial pueden analizar grandes cantidades de información, extraer patrones y generar ideas para el desarrollo de un texto académico. Estas herramientas pueden ayudar a los estudiantes y profesores a ahorrar tiempo y esfuerzo al proporcionar sugerencias de vocabulario, estructura de párrafos y citas bibliográficas adecuadas. Además, la inteligencia artificial también puede contribuir a mejorar la calidad de los escritos académicos, al detectar errores gramaticales y de estilo, así como proporcionar recomendaciones para una redacción más clara y coherente. Sin embargo, es importante tener en cuenta que la inteligencia artificial no debe reemplazar el pensamiento crítico y la creatividad inherentes a la escritura académica, sino que debe utilizarse como una herramienta complementaria para mejorar y enriquecer el proceso de escritura.

Los chatbots de IA podrían ser más efectivos que los humanos para cambiar las creencias de los teóricos de la conspiración

Ouellette, Jennifer. 2024. «AI Chatbots Might Be Better at Swaying Conspiracy Theorists than Humans». Ars Technica. 12 de septiembre de 2024. https://arstechnica.com/science/2024/09/study-conversations-with-ai-chatbots-can-reduce-belief-in-conspiracy-theories/.

Se presenta un estudio que sugiere que los chatbots de inteligencia artificial podrían ser más efectivos que los humanos para cambiar las creencias de las personas que sostienen teorías de conspiración. El estudio, liderado por el psicólogo Gordon Pennycook, desafía la idea tradicional de que estas creencias son imposibles de cambiar. Los resultados muestran que las personas sí son receptivas a la evidencia cuando esta se presenta de manera personalizada.

En el estudio, los participantes que creían en al menos una teoría de conspiración mantuvieron conversaciones con un chatbot de IA basado en el modelo GPT-4 Turbo. Durante estas interacciones, el chatbot proporcionó contraargumentos basados en hechos, adaptados específicamente a las creencias individuales de los participantes. Estas respuestas fueron verificadas profesionalmente y mostraron una precisión muy alta. Como resultado, las creencias equivocadas de los participantes se redujeron en un 20%, y esta disminución persistió incluso dos meses después.

Una de las claves del éxito del chatbot fue su capacidad para personalizar los argumentos en función de las versiones específicas de las teorías que cada individuo sostenía. A diferencia de los humanos, el chatbot podía responder de manera continua y eficiente sin verse abrumado por múltiples falsedades. Además, el estudio mostró que los participantes no solo redujeron su adhesión a teorías conspirativas específicas, sino que también disminuyó su inclinación hacia otras creencias conspirativas en general.

Sin embargo, el chatbot fue menos efectivo cuando había poca información disponible, como en el caso de eventos recientes que generan nuevas teorías de conspiración. A pesar de esto, los autores sugieren que el uso de chatbots de IA podría ser una herramienta poderosa para combatir la desinformación, especialmente en foros de conspiración y redes sociales.

Encontrar libros de texto gratuitos en línea en directorios de Recursos Educativos Abiertos

Walters, William H. 2024. «Finding Free OER Textbooks Online: Untangling the Web». Publications 12 (4): 32. https://doi.org/10.3390/publications12040032.

Aunque los OER ayudan a reducir costos y a mejorar el acceso a materiales educativos, encontrar buenos libros de texto sigue siendo un problema debido a la baja calidad de muchos directorios de OER. La investigación aborda los desafíos que enfrentan los académicos para identificar libros de texto de calidad dentro de los Recursos Educativos Abiertos (OER, por sus siglas en inglés).

El estudio evaluó más de 350 recursos relevantes, identificando 95 directorios multidisciplinarios y 23 directorios limitados a ciertas disciplinas que contienen una alta proporción de libros de texto gratuitos. Se proporcionó información comparativa de 118 directorios, destacando aquellos con altos niveles de precisión, criterios claros de selección y libros de texto de buena calidad. Entre los directorios más útiles se destacan tres: Open Textbook Library, B.C. Open Collection y LibreTexts Commons.

Los 95 directorios multidisciplinarios varían ampliamente en tamaño, desde 10 hasta más de 455,000 ítems, con una media de 9329 y una mediana de 280. La correlación entre el número total de ítems y el número de libros de texto es baja (r = 0.48), indicando que directorios más grandes no necesariamente contienen más libros de texto. Los productores principales de estos directorios son universidades y agencias gubernamentales canadienses.

El estudio concluye que, al concentrarse en estos directorios de alta calidad, se puede superar la principal barrera para la adopción de libros de texto OER: la dificultad para identificar títulos adecuados que reemplacen los textos convencionales.

Se recomienda a autores y editores asegurar que sus libros de texto OER estén incluidos en los directorios más útiles, promover estos directorios como mecanismos superiores de descubrimiento y mantener altos estándares de calidad. Además, es crucial enfocarse en directorios específicos de libros de texto para mejorar la accesibilidad y adopción de OER en la educación.

Inteligencia Artificial y alucinaciones: ¿Por qué alucinan los grandes modelos lingüísticos?

Waldo, Jim, y Soline Boussard. 2024. «GPTs and Hallucination: Why do large language models hallucinate?» Queue 22 (4): Pages 10:19-Pages 10:33. https://doi.org/10.1145/3688007.

Los modelos de lenguaje de gran escala (LLMs), como ChatGPT, han revolucionado la interacción entre humanos y la inteligencia artificial debido a su capacidad para generar texto coherente y comprensivo. Estos modelos se basan en aplicaciones transformadoras preentrenadas en grandes cantidades de datos sin procesar. Aunque tienen un rendimiento impresionante y pueden realizar tareas como responder preguntas y resumir textos, también tienen la tendencia a generar «alucinaciones». Estas ocurren cuando el modelo crea respuestas que parecen realistas pero que son incorrectas o no tienen sentido, lo que puede llevar a la diseminación de información falsa.

Las alucinaciones son preocupantes, especialmente en decisiones críticas o situaciones que requieren confianza en la IA. Un ejemplo destacado fue el de un abogado que utilizó ChatGPT para generar citas legales que resultaron ser ficticias. Estas alucinaciones, a menudo sutiles, pueden pasar desapercibidas, lo que plantea una pregunta importante: ¿Por qué los GPTs alucinan?

Los LLMs funcionan mediante aprendizaje automático entrenado en grandes cantidades de datos textuales. Este entrenamiento genera un conjunto de probabilidades que predice qué palabra es más probable que siga a otra en una secuencia. Sin embargo, esta predicción no se basa en la verdad o significado real del mundo, sino en las asociaciones estadísticas entre palabras. Esto explica por qué los modelos a veces generan respuestas erróneas: simplemente están siguiendo patrones previos de datos sin una verificación de los hechos.

La pregunta fundamental no es tanto por qué los GPTs alucinan, sino cómo logran acertar. Este dilema está vinculado a la «confianza epistémica», es decir, cómo confiamos en que algo expresado en lenguaje es verdadero. Históricamente, esta confianza ha sido establecida mediante la ciencia, que se basa en la experimentación, publicación y revisión por pares, pero los GPTs carecen de ese tipo de validación externa y generan respuestas basadas únicamente en probabilidades estadísticas.

Los GPTs basados en LLMs representan un paso más en este proceso, ya que generan respuestas basadas en el análisis de todas las preguntas y respuestas disponibles en Internet. Los modelos predicen la respuesta más probable basada en la co-ocurrencia de palabras, lo que en muchos casos refleja un consenso general.

Sin embargo, cuando hay consenso limitado o controversia sobre un tema, o cuando el tema es poco común, los GPTs son más propensos a generar respuestas incorrectas o «alucinaciones». Esto sugiere que la precisión de los GPTs depende de la disponibilidad de datos y del consenso sobre el tema en cuestión.

En este experimento se utilizaron cuatro modelos: Llama, accesible a través de la biblioteca de código abierto Llama-lib; ChatGPT-3.5 y ChatGPT-4, accesibles mediante el servicio de suscripción de OpenAI; y Google Gemini, disponible a través del servicio gratuito de Google.

Se realizaron pruebas con una variedad de temas sensibles y oscuros. Los prompts finales incluyeron: 1) solicitar artículos sobre polarización ferroelectric, 2) citas poco comunes de Barack Obama, 3) justificaciones políticas de Putin en relación con escritores rusos, 4) una descripción breve sobre el cambio climático, y 5) completar la frase «los israelíes son…». Estos prompts se presentaron semanalmente a cada modelo entre el 27 de marzo y el 29 de abril de 2024.

Los resultados mostraron variaciones en la consistencia de las respuestas, siendo ChatGPT-4 y Google Gemini los que presentaron cambios más significativos. A lo largo del experimento, se observó que, aunque los prompts eran independientes, algunos modelos utilizaban el contexto de preguntas anteriores para influir en sus respuestas. Llama a menudo repetía citas de Obama y fallaba en citar artículos científicos con precisión. ChatGPT-3.5 ofrecía citas precisas de Obama, pero también tenía dificultades para citar correctamente artículos científicos. ChatGPT-4 podía proporcionar citas precisas, aunque en ocasiones introducía términos no consensuados científicamente. Google Gemini tuvo dificultades para responder a las preguntas sobre las citas de Obama y las justificaciones de Putin, sugiriendo a menudo realizar búsquedas en Google para obtener respuestas. A pesar de todo, Gemini logró proporcionar artículos relevantes sobre polarización ferroelectric, aunque con citas incorrectas. En cuanto a la frase sobre los israelíes, Gemini ofreció diversas perspectivas y fomentó el diálogo.

En respuesta a las preguntas sobre artículos científicos, todas las aplicaciones pudieron proporcionar la sintaxis de citación correcta, pero las citas completas rara vez eran precisas. En particular, algunos autores citados por ChatGPT-4 habían publicado en el mismo campo, pero no en el artículo específico mencionado. Esto se puede entender como un reflejo de las respuestas como completaciones estadísticamente probables; el programa sabe cómo lucen las citas y qué grupos de autores tienden a aparecer juntos, aunque no necesariamente en el artículo citado. En general, la aplicación basada en Llama proporcionó las respuestas más consistentes, aunque de menor calidad que las otras, ya que no estaba en desarrollo activo y se basaba en un LLM temprano.

ChatGPT-3.5 y -4 ofrecieron consistentemente citas precisas de Obama, mientras que Llama repetía múltiples versiones de las mismas citas, muchas de las cuales eran incorrectas. En una ocasión, Google Gemini respondió correctamente a la pregunta sobre Obama, pero una de las citas era en realidad de Craig Ferguson, un comediante. La aplicación Llama tuvo dificultades para seguir restricciones gramaticales, como el requerimiento de dar una respuesta en tres palabras; a veces devolvía una sola palabra o una oración completa. Esto plantea preguntas sobre cómo la aplicación interpreta la gramática y la puntuación y cómo estas características no semánticas influyen en las respuestas.

Conclusiones

En general, las aplicaciones tuvieron dificultades con temas que contaban con datos limitados en línea, produciendo respuestas inexactas en un formato realista y sin reconocer las inexactitudes. Aunque manejaron temas polarizadores con mayor meticulosidad, algunas aún devolvieron errores y ocasionalmente advertencias sobre hacer afirmaciones en temas controvertidos.

Los GPTs basados en LLM pueden propagar conocimientos comunes con precisión, pero enfrentan dificultades en preguntas sin un consenso claro en sus datos de entrenamiento. Estos hallazgos respaldan la hipótesis de que los GPTs funcionan mejor con prompts populares y de consenso general, pero tienen problemas con temas controvertidos o con datos limitados. La variabilidad en las respuestas de las aplicaciones subraya que los modelos dependen de la cantidad y calidad de sus datos de entrenamiento, reflejando el sistema de crowdsourcing que se basa en contribuciones diversas y creíbles. Por lo tanto, aunque los GPTs pueden ser herramientas útiles para muchas tareas cotidianas, su interacción con temas oscuros y polarizados debe interpretarse con cautela. La precisión de los LLM está estrechamente vinculada a la amplitud y calidad de los datos que reciben.

Posición del Comité Consultivo de Derecho de Autor y otros Asuntos Jurídicos de IFLA sobre la Inteligencia Artificial

Levine, Melissa, y Advisory Committee on Copyright and other Legal Matters (CLM). 2024. «Advisory Committee on Copyright and Other Legal Matters Position on Artificial Intelligence», octubre.

Texto completo

Este documento está diseñado para ayudar a las bibliotecas miembros de IFLA a navegar los problemas de derechos de autor relacionados con el uso de la IA y a apoyar el desarrollo de programas y servicios bibliotecarios relevantes. También respalda el trabajo del Grupo de Interés Especial de IFLA sobre Inteligencia Artificial, alineándose con el Manifiesto y el plan de Comunicación y Outreach de IFLA.

Consideraciones:

  • La aparición de tecnologías de IA plantea múltiples consideraciones para las bibliotecas, incluida la forma en que se utiliza el contenido y quién lo utiliza. Las bibliotecas están en una posición única para liderar en este ámbito, afirmando su papel como innovadoras, desde la inclusión de contenido generado por IA en sus colecciones hasta la mejora y eficiencia en la entrega de servicios de referencia y préstamo interbibliotecario.
  • En muchos países, las leyes de derechos de autor (tanto derechos económicos como morales) han evolucionado para adaptarse a tecnologías innovadoras y son adecuadas para abordar las preocupaciones legítimas de los creadores, incluidas las bibliotecas en su rol como creadoras de procesos y servicios basados en IA.
  • La legislación relacionada con la IA a menudo también existe fuera del ámbito del derecho de autor. Para temas no relacionados con los derechos de autor, como salud, seguridad, privacidad y cuestiones éticas, se debe acudir a la fuente de información política más adecuada. Las bibliotecas deben considerar las herramientas de IA desde un enfoque basado en valores, asegurándose de que no comprometan la libertad de expresión, la privacidad ni otras áreas de preocupación.

Recomendaciones:

  • Las bibliotecas deben ofrecer capacitación y desarrollo esenciales sobre tecnologías en evolución, incluida la IA, para apoyar a empleados, investigadores y otros usuarios de la biblioteca.
  • En jurisdicciones donde la ley de derechos de autor no respalda los usos típicos y en evolución de la IA por parte de las bibliotecas, se debe abogar para informar a los tomadores de decisiones sobre los beneficios de expandir las limitaciones y excepciones existentes para permitir usos como la minería de texto y datos (TDM).
  • Las convenciones de derechos humanos existentes deberían guiar el desarrollo de trabajos normativos relacionados con la IA. Se deben apoyar los esfuerzos de las bibliotecas para desarrollar prácticas éticas en respuesta a las preocupaciones relacionadas con las herramientas de IA.
  • Los contratos para recursos bibliotecarios licenciados no deben incluir cláusulas que obstaculicen o restrinjan indebidamente el uso de la IA por parte de los usuarios de la biblioteca ni que impidan el uso de excepciones aplicables en la ley de derechos de autor.
  • Las bibliotecas se comprometen a abordar los sesgos mientras navegan por los desafíos de derechos de autor. El acceso limitado a datos y recursos puede conducir a sesgos en los sistemas de IA, por lo que abogamos por el monitoreo continuo de los servicios de IA en las bibliotecas para garantizar la diversidad y el acceso equitativo a la información.

Bibliotecario del futuro

Librarian Futures. Sage, 2024

Librarian Futures es una serie de libros blancos que exploran las relaciones entre bibliotecarios y usuarios en la era digital.

La serie «Futuros para Bibliotecarios» incluye:

Futuros para Bibliotecarios Parte I: Comportamientos y Relaciones entre Bibliotecarios y Usuarios en la Era Digital

Basado en una encuesta de 4.000 bibliotecarios y usuarios, este informe analiza las interacciones entre ellos en la era digital, destacando la importancia del bibliotecario.

Principales Hallazgos:

  • Existe una brecha de conocimiento entre lo que los usuarios necesitan y el apoyo que los bibliotecarios pueden ofrecer.
  • El 79% de los docentes y el 74% de los estudiantes inician su búsqueda fuera de la biblioteca, pero el uso de servicios bibliotecarios sigue siendo alto.
  • Los bibliotecarios son más apreciados por los usuarios de lo que anticipaban, con un 84% de los docentes valorando su labor.

Futuros para Bibliotecarios Parte II: La Brecha de Conocimiento entre Bibliotecarios y Estudiantes

Un proyecto liderado por estudiantes en 2022 reveló la brecha entre lo que los estudiantes necesitan y lo que la biblioteca ofrece en cuanto a recursos y listas de lecturas.

Principales Hallazgos:

  • Hay una brecha entre las necesidades de los estudiantes y lo que les ofrece la biblioteca.
  • Solo el 12% de los estudiantes ha recibido formación en alfabetización informacional, una habilidad crucial.
  • El 75% de los estudiantes no perciben a los bibliotecarios como facilitadores de acceso a recursos.

Futuros para Bibliotecarios Parte III: El Panorama de Habilidades de los Bibliotecarios

Este informe, en colaboración con Skilltype, explora las habilidades emergentes necesarias para que las bibliotecas académicas cumplan su misión en una década marcada por cambios sociales, políticos y tecnológicos, y satisfagan las necesidades de los usuarios actuales. Se recabaron opiniones de más de 2.000 profesionales de bibliotecas académicas, desde bibliotecarios hasta directores.

Principales Hallazgos:

  • Los bibliotecarios confían en su capacidad para atender a los usuarios, pero menos de la mitad se siente segura de avanzar en su carrera.
  • El 37% se siente poco preparado para responder a preguntas sobre IA generativa.
  • Menos del 20% siente que sus esfuerzos por aprender nuevas habilidades son valorados por los estudiantes.

Las gafas Ray-Ban Meta pueden usarse para reconocer a personas y acceder a información personal como dirección, número de teléfono y familiares a través del reconocimiento facial.

Matt Binder, «Ray-Ban Meta Glasses Can Be Used to Dox Strangers via Facial Recognition, According to Harvard Students. Here’s How to Protect Yourself.», Mashable, 3 de octubre de 2024, https://mashable.com/article/ray-ban-meta-smart-glasses-students-facial-recognition-dox-strangers.

Dos estudiantes de Harvard han transformado las Meta Ray-Ban Smart Glasses en una poderosa herramienta de reconocimiento facial que puede identificar a cualquier persona y revelar detalles personales como su dirección, número de teléfono y familiares. Lo lograron desarrollando una plataforma de inteligencia artificial llamada I-XRAY, que convierte las gafas inteligentes en un dispositivo de vigilancia personal. Aunque estas gafas están diseñadas para captar fotos y videos de manera más inmersiva, los estudiantes las han llevado un paso más allá al integrar un motor de búsqueda facial.

El proceso de I-XRAY tiene tres etapas clave. Primero, las gafas capturan el rostro de una persona a través de la cámara incorporada. Luego, el motor de búsqueda facial de I-XRAY identifica el rostro y le asigna un nombre. En segundo lugar, una vez que el sistema identifica el nombre, realiza búsquedas en varias bases de datos públicas y privadas para encontrar información adicional sobre la persona. Por último, I-XRAY organiza los datos recolectados —nombre, dirección, teléfono, familiares y más— en un solo documento.

En un video demostrativo, los estudiantes muestran cómo se acercan a personas en la calle y, con las gafas puestas, acceden instantáneamente a datos personales. Al hacer preguntas como «¿Asististe a tal escuela?», revelan que la información es exacta y de fácil acceso, lo que genera preocupación sobre las capacidades invasivas de esta tecnología. Este experimento no solo demuestra el potencial de la inteligencia artificial para la vigilancia, sino que pone en alerta sobre cómo este tipo de herramientas podría ser mal utilizada. Aunque los estudiantes aseguran que su intención no es violar la privacidad, sino iniciar un debate sobre los riesgos de los dispositivos inteligentes, el hecho de que cualquiera pueda acceder a información tan sensible plantea preguntas sobre la regulación de estas tecnologías.

Este dilema recuerda los primeros días del iPhone, cuando los usuarios intentaban «liberar» sus dispositivos, lo que generaba preocupaciones de seguridad. Los estudiantes de Harvard sostienen que, al igual que en aquellos días, estamos en un momento crítico donde debemos aprender a protegernos contra las amenazas antes de que sea demasiado tarde. Aunque no se puede prevenir completamente el uso de herramientas como I-XRAY, existen medidas que las personas pueden tomar para protegerse de la exposición a la vigilancia mediante tecnologías emergentes.

Entre estas medidas, se recomienda limitar la cantidad de información personal disponible públicamente en redes sociales y otras plataformas, utilizar configuraciones de privacidad más restrictivas y abogar por la regulación y supervisión del uso de tecnologías de reconocimiento facial y dispositivos inteligentes. Este caso demuestra lo rápido que la tecnología puede evolucionar y cambiar las dinámicas de privacidad en la vida cotidiana. La conversación sobre las gafas inteligentes de Meta y plataformas como I-XRAY está apenas comenzando, y es probable que continúe a medida que más tecnologías de este tipo lleguen al mercado.

¿Quién utiliza más las bibliotecas públicas? Hay una división por religión y política.

«Who uses public libraries the most? There’s a divide by religion, and politics. – The Washington Post», accedido 9 de octubre de 2024, https://www.washingtonpost.com/business/2024/10/04/who-uses-libraries/.

Encuesta



El uso de bibliotecas públicas en EE. UU. varía según factores como la religión, la política y la ubicación geográfica. Jóvenes, demócratas y personas con mayor nivel educativo son los principales usuarios, mientras que conservadores y habitantes rurales tienden a usarlas menos. El acceso y la participación social son claves para entender estas diferencias.

Se examina quiénes son los usuarios más frecuentes de las bibliotecas públicas en Estados Unidos, basándose en un análisis de encuestas. Uno de los hallazgos clave es que las personas más dadas a utilizar las bibliotecas tienden a ser jóvenes, adultos con educación superior, personas que asisten a servicios religiosos al menos una vez al mes, y votantes demócratas. Estos grupos destacan por utilizar las bibliotecas para acceder a libros, medios digitales, votar, o aprovechar recursos como ordenadores y espacios de trabajo.

Los grupos que menos utilizan las bibliotecas incluyen personas mayores de 45 años, conservadores, protestantes y habitantes de áreas rurales. Este último grupo tiende a tener menos acceso a bibliotecas debido a la lejanía geográfica o a presupuestos más limitados en sus bibliotecas locales. En general, se observa una tendencia en la que los republicanos, especialmente en áreas rurales, visitan menos las bibliotecas que los demócratas en zonas urbanas.

Un hallazgo interesante es que el uso de las bibliotecas no está directamente relacionado con las dificultades económicas. De hecho, cuanto mayor es el ingreso de una persona, más probable es que aproveche los servicios gratuitos de las bibliotecas. A su vez, aquellos que leen más libros, especialmente los que leen más de 100 libros al año, son los más inclinados a obtener la mayoría de ellos en las bibliotecas.

Además de las diferencias políticas y geográficas, hay otro grupo de personas que evita las bibliotecas: aquellos que no participan activamente en la vida social o política. Estos incluyen personas que no votan, no siguen las noticias, no están afiliadas a ningún partido político ni a ninguna religión. Aunque tienen una opinión favorable sobre las bibliotecas y consideran que son importantes, simplemente no las visitan ni leen mucho.

En resumen, el artículo destaca que el uso de las bibliotecas está relacionado con el nivel de participación en la sociedad y el entorno educativo y político, siendo los demócratas, los jóvenes y los educados los que más frecuentan estos espacios, mientras que los conservadores y las personas menos comprometidas políticamente o religiosamente tienden a usarlas menos.

Cómo las bibliotecas universitarias gestionan sus servicios de descubrimiento de la investigación a gran escala

Wong, S. «Organizational Structure around Web-Scale Discovery Services in Canadian Academic Libraries», 3 de agosto de 2023, https://doi.org/10.20383/103.0786.

Descargar artículo

El artículo «Organizational Structure Around Web-Scale Discovery Services in Canadian Academic Libraries» de Sandra Wong (Universidad Simon Fraser) analiza cómo las bibliotecas universitarias canadienses gestionan y administran sus servicios de descubrimiento a gran escala en la web y cómo la adopción de estos servicios ha transformado las fronteras tradicionales de las funciones bibliotecarias.

A través de encuestas e entrevistas semiestructuradas, Wong investigó cómo estas bibliotecas han estructurado sus operaciones en torno a estos servicios. Se encontró que la gestión de los servicios de descubrimiento puede estar bajo la responsabilidad de unidades como Servicios Técnicos, Sistemas Bibliotecarios, Servicios Web o incluso de un comité. No obstante, existe un consenso sobre la necesidad de colaboración entre múltiples áreas funcionales para su éxito. Los líderes de estos servicios suelen tener la capacidad de desmantelar los silos tradicionales de funciones bibliotecarias y colaborar con diferentes equipos, con un enfoque centrado en el usuario.

El estudio resalta la flexibilidad y la cooperación necesarias para manejar los servicios de descubrimiento en bibliotecas universitarias, enfatizando un enfoque integrador y orientado hacia el usuario.

Principios de la Alianza de Derechos de Autor de Bibliotecas para el Copyright y la Inteligencia Artificial

Library Copyright Alliance Principles for Copyright and Artificial Intelligence. Library Copyright Alliance, ALA, ACRL, 2023

Texto completo

La Ley de Derechos de Autor de EE. UU. existente, tal como es aplicada e interpretada por la Oficina de Derechos de Autor y los tribunales, es plenamente capaz en este momento de abordar la intersección entre derechos de autor e IA sin necesidad de enmiendas.

  • Basado en precedentes bien establecidos, la incorporación de obras protegidas por derechos de autor para crear modelos de lenguaje grandes (LLM) u otras bases de datos de entrenamiento de IA generalmente se considera un uso justo.
  • Dado que decenas, si no cientos, de millones de obras son incorporadas para crear un LLM, la contribución de cualquier obra individual al funcionamiento del LLM es de minimis; por lo tanto, la remuneración por la incorporación no es ni apropiada ni factible.
  • Además, los propietarios de derechos de autor pueden emplear medios técnicos, como el Protocolo de Exclusión de Robots, para evitar que sus obras sean utilizadas para entrenar a las IA.
  • Si una IA produce una obra que es sustancialmente similar en expresión protegida a una obra que fue incorporada por la IA, esa nueva obra infringe el copyright de la obra original.
  • Si la obra original fue registrada antes de la infracción, el propietario de los derechos de autor de la obra original puede presentar una acción por infracción de derechos de autor para obtener daños estatutarios contra el proveedor de la IA y el usuario que solicitó a la IA producir la obra sustancialmente similar.
  • Aplicando principios tradicionales de autoría humana, una obra generada por una IA podría ser susceptible de derechos de autor si los prompts proporcionados por el usuario controlaban suficientemente a la IA de tal manera que la obra resultante en su conjunto constituyera una obra original de autoría humana.

La IA tiene el potencial de interrumpir muchas profesiones, no solo a los creadores individuales. La respuesta a esta interrupción (por ejemplo, el apoyo a la re-capacitación laboral a través de instituciones como colegios comunitarios y bibliotecas públicas) debería desarrollarse de manera integral en la economía, y la ley de derechos de autor no debería ser tratada como un medio para abordar estos desafíos sociales más amplios.

Además, la IA también tiene el potencial de servir como una herramienta poderosa en manos de los artistas, permitiéndoles expresar su creatividad de maneras nuevas y eficientes, promoviendo así los objetivos del sistema de derechos de autor.

10 de julio de 2023.