Archivo del Autor: Julio Alonso Arévalo

Avatar de Desconocido

Acerca de Julio Alonso Arévalo

Bibliotecario de la Facultad de Traducción y Doc. de la USAL. Ex-Miembro del Grupo de Investigación E-LECTRA. Premio Nacional de Investigación por la UNE Premio mejor Profesional Social Media INFOAWARDS 2019. Creador y editor del repositorio E-LIS. Más de 80 artículos científicos publicados - Ver en E-LIS -en revistas científicas. El profesional de la información, Library Hi-Tech, Electronic Library. Investigación Bibliotecológica, Anales de Documentación... 12 libros publicados: Nueva fuentes de información en el contexto de la web 2.0 (Pirámide), Gutemberg 2.0 (TREA). Social Reading (Elsevier), eBooks en bibliotecas universitarias (TREA), El ecosistema del libro electrónico universitario (UNE), Un viaje a la cultura open (Amazon), GRATIS Zotero (Creative Spaces), Leyendo entre Pantallas (Trea), GRATIS Literaçia da infomrçao (ISPA) GRATIS Espistemologia y acceso abierto (UCE) GRATIS Makerspaces y bibliotecas. Barcelona: El Profesional de la Información EPI-UOC, 2018. Makerspaces. Espacios creativos en bibliotecas: creación, planificación y programación de actividades. Salamanca: Ediciones del Universo, 2019. Los libros, la lectura y los lectores a través de la literatura y las artes. Buenos Aires : Alfagrama Ediciones, 2019 Más de 2000 citas en Google Schoolar Creador y gestor del blog Universo abierto Director del programa de Radio Planeta Biblioteca Más de 250.000 seguidores en los grupos profesionales de Facebook.

Declaración de posición de Wiley sobre el uso ilegal de contenidos con derechos de autor por parte de desarrolladores de IA

Wiley Position Statement on Illegal Scraping of Copyrighted Content by AI Developers. Última modificación en 2024. https://www.wiley.com/en-us/terms-of-use/ai-principles/wiley-statement-illegal-scraping-ai-copyright.

En Wiley, defendemos el valor de la propiedad intelectual y de quienes la crean. Como pioneros en la creación y difusión del conocimiento durante más de dos siglos, estamos comprometidos a garantizar que las obras de los autores sean respetadas y adecuadamente licenciadas en el cambiante entorno digital. La colaboración entre autores, sociedades científicas y académicas, y desarrolladores de IA garantiza un uso responsable de esta tecnología para avanzar en la investigación y el descubrimiento, al tiempo que se preserva la libertad académica, esencial para el progreso científico.

Reafirmamos esta postura. Creemos en el potencial transformador de la inteligencia artificial para impulsar la investigación y el descubrimiento. Este avance debe basarse en el respeto a los derechos de propiedad intelectual, incluida la compensación y atribución acordadas para los creadores de contenido. Nos posicionamos firmemente junto a nuestros autores y socios editoriales para exigir prácticas éticas y legales en la obtención de datos en la industria de la IA, y alentamos la adopción generalizada de prácticas de licenciamiento adecuadas, como ya hacen algunos desarrolladores de IA.

Para mayor claridad:

  • Los desarrolladores y empresas de IA deben obtener autorización antes de usar contenido de Wiley, o contenido que publicamos para nuestros socios, para el desarrollo, entrenamiento o implementación de IA.
  • Wiley ha reservado de forma constante y pública todos los derechos sobre sus materiales protegidos por derechos de autor; no existe permiso implícito sin una licencia adecuada.
  • La atribución transparente y la trazabilidad de los datos son componentes esenciales del desarrollo ético de la IA.
  • Para demostrar nuestro compromiso con la innovación responsable, hemos desarrollado marcos de licenciamiento que ofrecen condiciones flexibles y justas adaptadas a distintos usos y necesidades de desarrollo.

Se han alcanzado numerosos acuerdos reconocidos entre desarrolladores de IA y editoriales académicas y comerciales, incluidos nuestros propios acuerdos exitosos con desarrolladores de IA que comparten nuestro compromiso con el uso ético del contenido. Esto demuestra claramente que existe un mercado de licencias para IA que funciona eficazmente.

Este mercado de licencias también permite fundamentar la IA en contenido autorizado. La colaboración activa con la comunidad de IA incluye la incorporación de expectativas y estándares en los acuerdos sobre transparencia, citación, atribución y procedencia de datos, con el fin de fomentar la confianza de los usuarios en los sistemas de IA.

A través de alianzas con autores, socios editoriales, investigadores y desarrolladores de IA éticos, podemos crear un ecosistema sostenible que valore tanto el avance tecnológico como las contribuciones humanas únicas de autores e investigadores.

¿Están preparados los profesores universitarios para la inteligencia artificial generativa? La ansiedad del profesorado en la era ChatGPT

Verano-Tacoronte, Domingo, Alicia Bolívar-Cruz, y Silvia Sosa-Cabrera. 2025. “Are university teachers ready for generative artificial intelligence? Unpacking faculty anxiety in the ChatGPT era.Education and Information Technologies. https://doi.org/10.1007/s10639-025-13585-7

Este estudio investiga cómo la ansiedad tecnológica influye en la intención de los docentes universitarios de adoptar ChatGPT. Se identifican tres tipos de ansiedad: sobre el futuro de la profesión académica, sobre el uso indebido de la herramienta y sobre el impacto negativo en el aprendizaje estudiantil. Los resultados muestran que la ansiedad relacionada con el aprendizaje estudiantil y el uso indebido de la herramienta afectan negativamente la intención de uso, mientras que la ansiedad sobre el futuro de la profesión no tiene un efecto significativo. Los hallazgos sugieren que para facilitar la integración de ChatGPT en la educación superior, es necesario combinar formación técnica con intervenciones específicas para gestionar la ansiedad tecnológica y mejorar las percepciones sobre la utilidad y facilidad de uso de la herramienta.​

Este estudio analiza cómo el profesorado universitario está adoptando el uso de ChatGPT en su trabajo diario. Para ello, se encuestó a un grupo amplio de docentes, que en su mayoría tienen entre 41 y 60 años, llevan más de 20 años trabajando en la universidad y tienen un contrato a tiempo completo. Se buscó representar tanto a hombres como a mujeres por igual.

En la primera parte del análisis, se confirmó que todos los datos recogidos eran fiables. Es decir, las preguntas estaban bien diseñadas y agrupaban correctamente las ideas que se querían estudiar: la ansiedad de los profesores ante ChatGPT, su intención de usarlo, cómo lo están usando en realidad y lo que esperan obtener de esa experiencia. También se comprobó que cada uno de estos aspectos era diferente de los demás y no se solapaban entre sí.

La segunda parte del análisis fue clave para entender cómo influyen las emociones y percepciones del profesorado en su decisión de usar o no ChatGPT. Se observó que dos tipos de miedos o ansiedades afectan negativamente a las ganas de usar la herramienta: uno relacionado con el mal uso que puedan hacer los estudiantes, por ejemplo copiando trabajos con ayuda de la IA, y otro con el uso inadecuado que el propio profesorado pueda hacer sin querer. Sin embargo, el miedo a que herramientas como ChatGPT cambien el papel de los docentes o su futuro profesional no tuvo un impacto importante. Una posible explicación es que, al tratarse de un profesorado con contratos estables, no temen tanto perder su trabajo o cambiar de rol por la llegada de nuevas tecnologías.

Por otro lado, se confirmó que cuanto más dispuesto está el profesorado a usar ChatGPT, más lo incorpora realmente en su trabajo. Es decir, la intención se traduce en acción. Y esa intención mejora si la persona percibe que la herramienta es fácil de usar y que le aporta beneficios reales. Estas dos percepciones —la facilidad y la utilidad— actúan como un «puente» entre las emociones negativas (como la ansiedad) y la decisión de usar o no la herramienta. Si el profesorado siente que ChatGPT le va a ayudar y que no le va a suponer demasiado esfuerzo, entonces el miedo pierde fuerza. De hecho, se vio que la utilidad esperada es incluso más importante que la facilidad de uso a la hora de tomar esta decisión.

En cuanto a otras variables como el género, la edad o los años de experiencia, se vio que las mujeres mostraban una intención algo menor de usar ChatGPT, al igual que lo usaban menos en la práctica. Sin embargo, ni la edad ni el tiempo que llevaban trabajando influyeron significativamente, lo que sugiere que el uso de estas herramientas no depende tanto de la experiencia profesional como de otras percepciones y emociones.

Este trabajo aporta dos ideas importantes. La primera es que la ansiedad que siente el profesorado ante el uso de inteligencia artificial, sobre todo en cuanto a un posible uso inapropiado por parte de estudiantes o incluso de ellos mismos, puede frenar su adopción. Y la segunda es que estas preocupaciones se pueden reducir si los docentes ven claramente que la herramienta les resulta útil y no les va a complicar la vida. Por eso, es fundamental ofrecerles formación, espacios de reflexión y recursos que les ayuden a entender mejor para qué sirve ChatGPT, cómo usarlo y qué riesgos reales conlleva.

En definitiva, el estudio nos recuerda que para que la inteligencia artificial se integre bien en la universidad no basta con introducir la tecnología: también hay que cuidar cómo se sienten los docentes frente a ella, aclarar dudas, reducir miedos y mostrarles el valor que puede tener en su práctica educativa diaria.

IA y derechos de autor: El entrenamiento de la IA de propósito general

European Parliamentary Research Service. 2025. AI and Copyright: The Training of General-Purpose AI. Brussels: European Parliament. https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/769585/EPRS_ATA(2025)769585_EN.pdf

El informe analiza los desafíos legales que plantea el uso de obras protegidas por derechos de autor en el entrenamiento de modelos de inteligencia artificial de propósito general (GPAI, por sus siglas en inglés), como los de OpenAI o DeepSeek. A pesar de que existen normas como la Directiva de Derechos de Autor de la UE (2019/790) y la Ley de Inteligencia Artificial (IA) europea, persisten importantes limitaciones y ambigüedades legales que preocupan tanto a los investigadores como a los titulares de derechos.

IA y derechos de autor: la formación de la inteligencia artificial de propósito general

Para entrenar sus modelos, los proveedores de inteligencia artificial de propósito general (IAPG) necesitan grandes conjuntos de datos, que pueden incluir materiales protegidos por derechos de autor. A pesar de la Directiva de la UE 2019/790 sobre derechos de autor y la Ley de Inteligencia Artificial (IA) de la UE, los investigadores han identificado limitaciones legales e incertidumbre en el uso de materiales con derechos de autor para el entrenamiento de IAPG.

Entrenamiento de IAPG

Los modelos de IA capaces de realizar una amplia gama de tareas distintas, como los modelos GPT de OpenAI, se conocen como inteligencia artificial de propósito general (IAPG) y se entrenan con una gran cantidad de datos. La Ley de IA europea define legalmente la IAPG utilizando factores como sus capacidades, características y número de usuarios finales. Esta definición abarca lo que también se conoce como modelos generativos o modelos fundacionales. Los modelos más recientes de IAPG son multimodales, lo que significa que pueden trabajar con diferentes tipos de contenido. Además, las IAPG más avanzadas se denominan «modelos de razonamiento», ya que son capaces de «razonar» paso a paso. Los modelos o3-mini de OpenAI y R1 de DeepSeek son ejemplos de modelos de razonamiento lanzados recientemente.

Los modelos IAPG se basan en técnicas de aprendizaje profundo, que implican el entrenamiento de los parámetros internos del modelo utilizando datos. La construcción de conjuntos de datos para el entrenamiento comienza con la fase de recopilación. En la práctica, esto suele depender de materiales disponibles gratuitamente en línea. El modelo GPT-4o de OpenAI se entrenó utilizando datos, incluidos los de acceso público. El modelo 7b de Mistral también se entrenó con datos extraídos de la web. Los proveedores, en general, han mantenido la confidencialidad sobre los datos exactos utilizados para entrenar sus modelos, considerándolos una parte clave de su ventaja competitiva. Por otro lado, los titulares de derechos temen perder el control sobre su contenido. Existen diversas demandas pendientes fuera de la UE, señaladas por los investigadores, que afirman que los datos utilizados en el entrenamiento de IAPG contienen materiales con derechos de autor.

La legislación de derechos de autor en la UE y la Ley de IA

Para encontrar datos públicos en la web con los que entrenar IAPG, los proveedores utilizan rastreadores web (web crawlers): programas que navegan automáticamente por la web para realizar un conjunto definido de acciones. Los rastreadores de OpenAI se conocen como GPTBot. Los rastreadores se han usado durante años por empresas como Google, cuyos Googlebots rastrean la web para indexar contenido en su buscador. Como señalan los investigadores, el surgimiento de la web «creó desafíos y oportunidades sin precedentes para los titulares de derechos de autor», aunque el derecho internacional de autor se ha modificado en cierta medida para adaptarse a la era digital.

La legislación de derechos de autor otorga derechos económicos y morales exclusivos a los autores, como el derecho a reproducir, distribuir, comunicar al público y poner a disposición del público sus obras. Con la Directiva sobre la Sociedad de la Información (Directiva 2001/29), la UE creó una excepción para los actos temporales de reproducción como parte de un proceso tecnológico (artículo 5.1). La Directiva sobre derechos de autor de la UE (Directiva 2019/790) añadió dos nuevas excepciones para fines de “minería de textos y datos” (TDM, por sus siglas en inglés) (artículos 3 y 4). TDM se define como “cualquier técnica analítica automatizada destinada a analizar textos y datos en formato digital para generar información que incluye, entre otras cosas, patrones, tendencias y correlaciones”. Las excepciones permiten, bajo condiciones específicas, la reproducción y extracción de obras protegidas con fines de TDM. Realizar tales actos, de otro modo, constituiría una infracción de ciertos derechos bajo la legislación sobre derechos de autor y bases de datos.

La Ley de IA europea contiene dos disposiciones relacionadas con los derechos de autor (artículo 53.1(c) y (d)). La primera exige a los proveedores de IAPG que cumplan con la legislación sobre derechos de autor y con la excepción de exclusión voluntaria de la Directiva de derechos de autor, que autoriza la TDM siempre que los titulares de derechos no hayan expresado su negativa. Afecta a cualquier proveedor que comercialice una IAPG en el mercado de la UE, “independientemente de la jurisdicción en la que tengan lugar los actos relevantes en materia de derechos de autor que sustentan el entrenamiento de esos modelos de IA de propósito general” (considerando 106). La segunda disposición exige que los proveedores de IAPG hagan público un resumen suficientemente detallado explicando el contenido utilizado para el entrenamiento. Estos requisitos se aplican a los proveedores de IAPG con o sin riesgos sistémicos. Para facilitar el cumplimiento de la normativa, la Comisión tiene previsto publicar un Código de Buenas Prácticas para la IAPG en mayo de 2025.

Problema del uso de materiales con derechos de autor en el entrenamiento de IAPG

Según los investigadores, la legislación de la UE aún no aborda completamente los problemas relacionados con los modelos de IA y el derecho de propiedad intelectual. El problema principal es la posible presencia de materiales protegidos por derechos de autor en los conjuntos de datos utilizados para entrenar IAPG. Por ello, los investigadores han intentado determinar en qué medida las excepciones al derecho de autor permiten la reproducción de obras con fines de entrenamiento de IAPG. Consideran que las excepciones para TDM de la Directiva actual sobre derechos de autor no son lo suficientemente claras, por lo que las limitaciones legales y la incertidumbre siguen siendo problemáticas.

Incertidumbre y limitaciones del marco legal

Las dos excepciones de TDM solo cubren ciertos derechos protegidos por la ley de propiedad intelectual. Sin embargo, podrían necesitarse excepciones adicionales para otros derechos, como el de comunicación al público. De hecho, los investigadores argumentan que el derecho de comunicación al público podría activarse al permitir el acceso público a modelos de IAPG que generen contenidos que incluyan partes sustanciales de obras protegidas.

En cuanto a las dos excepciones en sí, los investigadores han identificado incertidumbres legales en su aplicación al entrenamiento de IAPG con materiales protegidos. La primera excepción, que autoriza la reproducción y extracción de obras, permite a organizaciones de investigación e instituciones de patrimonio cultural realizar TDM con fines de investigación científica y bajo acceso legal (artículo 3 de la Directiva). Hay dos problemas para invocar esta excepción en el entrenamiento de IAPG. Primero, los investigadores han expresado dudas sobre su aplicabilidad técnica. De hecho, los titulares de derechos pueden aplicar medidas tecnológicas de protección (TPM), como interfaces de programación restrictivas, para controlar la TDM, lo que impediría a los investigadores ejercer plenamente su derecho. Segundo, la ambigüedad del requisito de “acceso legal” complica aún más la aplicación práctica de la excepción. En este contexto, los interesados podrían optar por acuerdos de licencia en lugar de confiar en la excepción. Como han señalado varios agentes, algunos Estados miembros han ampliado el marco legal para la investigación científica en su transposición de la Directiva, incluyendo también el derecho de comunicación al público, además de la reproducción y extracción.

La segunda excepción permite la TDM siempre que “no haya sido expresamente reservada por sus titulares de derechos de forma adecuada, como mediante medios legibles por máquina…” (artículo 4 de la Directiva). Esto se conoce como la excepción de exclusión voluntaria (“opt-out”). Los interesados han debatido la definición de “legible por máquina” y la duración durante la cual pueden conservarse las reproducciones de obras. En cuanto a “legible por máquina”, los proveedores de IAPG apoyan la adopción de un archivo estandarizado de fácil acceso, como robots.txt. Un tribunal alemán dictaminó recientemente que incluir el opt-out en lenguaje natural (por ejemplo, en los términos de uso) cuenta como exclusión legible por máquina. Los expertos señalaron que esta decisión podría ser apelada “dado los problemas jurídicos fundamentales involucrados y la ambigüedad de la ley…”. Los investigadores añadieron que el mecanismo de opt-out probablemente falle cuando los titulares de derechos no tengan derechos administrativos sobre la página web que muestra sus obras, ya que no pueden añadir ellos mismos la exclusión. En cuanto a la duración durante la que se pueden conservar las reproducciones, la excepción lo permite mientras sea necesario para la TDM. Sin embargo, los proveedores de IAPG pueden necesitarlas para procesos posteriores como la evaluación de modelos.

Posibles próximos pasos

Varios Estados miembros crearon un Grupo de Trabajo sobre Infraestructura de Derechos de Autor en 2023 para ayudar a la Comisión a encontrar soluciones. Mientras tanto, el Consejo de la UE publicó un resumen en diciembre de 2024 con las opiniones de los Estados miembros sobre el asunto. Varios de ellos afirman que “los usos de contenidos protegidos por derechos de autor para el entrenamiento de IA van más allá del alcance de la excepción de TDM”. La mayoría considera que no es necesario introducir un nuevo instrumento legislativo en esta etapa, y prioriza la implementación y el seguimiento del marco legal existente.

La comisaria Henna Virkkunen sugirió en octubre de 2024 que la Comisión debería investigar si mecanismos de licenciamiento específicos facilitarían la firma de licencias entre las industrias creativas y las empresas de IA. A diferencia de los requisitos de la Directiva de derechos de autor para ciertos usos de contenidos protegidos por servicios en línea, la Ley de IA no menciona los acuerdos de licencia en el contexto del entrenamiento de IAPG.

Si bien el Código de Buenas Prácticas para la IAPG no tendrá el mandato de cambiar el marco jurídico de los derechos de autor de la UE, esta guía podría ser un paso intermedio antes de la revisión de la Directiva de derechos de autor, prevista legalmente para junio de 2026. Una versión revisada de la Directiva podría abordar las limitaciones e incertidumbres identificadas en el entrenamiento de IAPG con obras protegidas por derechos de autor.

Declaración de la IFLA sobre derechos de autor e inteligencia artificial

International Federation of Library Associations and Institutions (IFLA). 2025. IFLA Statement on Copyright and Artificial Intelligence (AI). Publicado el 6 de abril de 2025. https://repository.ifla.org/handle/20.500.14598/3927

Texto completo

Este documento está diseñado para ayudar a las bibliotecas miembros de la IFLA a abordar las cuestiones de derechos de autor relacionadas con el uso de la inteligencia artificial (IA) y para apoyar el desarrollo de programas y servicios bibliotecarios pertinentes. Esta declaración también respalda el trabajo del Grupo de Interés Especial en Inteligencia Artificial de la IFLA.

Gracias a su capacidad para regular la forma en que se accede a la información, se utiliza, se comparte y se crea, las leyes de derechos de autor tienen potencialmente un papel importante a la hora de decidir no sólo cómo se entrenan los nuevos modelos de IA, sino también cómo se pueden utilizar. Teniendo en cuenta las ambiciones y reservas de las bibliotecas en relación con la IA, una nueva Declaración de la IFLA, elaborada por el Comité Asesor sobre Derechos de Autor y otros Asuntos Legales y aprobada por la Junta de Gobierno, establece recomendaciones tanto para los gobiernos como para las bibliotecas.

Para las bibliotecas, la IA ofrece posibilidades apasionantes de hacer más con la información y el conocimiento, pero también plantea interrogantes sobre cómo aplicar principios arraigados a esta nueva tecnología.

La IFLA, así como otros agentes bibliotecarios, están realizando una valiosa labor para elaborar orientaciones y sugerencias para los bibliotecarios sobre cómo pueden trabajar con la IA. Sin embargo, más allá de la aplicación de nuestros propios códigos de ética y práctica, las leyes también pueden tener un impacto significativo en el desarrollo de la IA, así como en su uso.

Los derechos de autor son uno de los tipos de leyes más destacados en este sentido, y han sido objeto de intensos debates en muchos países diferentes, así como en distintos ámbitos de las Naciones Unidas

El debate -como suele ocurrir en el ámbito de los derechos de autor- se centra en el conflicto entre la industria de los derechos de autor y las grandes empresas de IA. Sin embargo, con demasiada frecuencia este debate no deja espacio para centrarse en las prioridades de las bibliotecas: permitir el acceso a la información, la educación, la investigación y la participación cultural. También tiende a centrarse únicamente en las soluciones a los retos relacionadas con los derechos de autor, en lugar de reflexionar de forma holística sobre qué herramientas pueden ser las mejores para alcanzar los objetivos deseados.

La declaración de la IFLA sobre derechos de autor e inteligencia artificial ha sido preparada por el Comité Asesor sobre Derechos de Autor y otros Asuntos Legales de la IFLA, en colaboración con el Grupo de Interés Especial en Inteligencia Artificial de la IFLA y otros. En ella se exponen consideraciones y recomendaciones clave. Comienza subrayando el potencial de la IA para apoyar a las bibliotecas en el logro de sus misiones, así como los crecientes esfuerzos para restringir la formación en IA.

La Declaración también señala que algunos países ya cuentan con leyes de derechos de autor lo suficientemente flexibles como para permitir el desarrollo de nuevas tecnologías, y subraya la importancia de mirar más allá de las leyes de derechos de autor para encontrar soluciones a los retos que sin duda existen.

En cuanto a las recomendaciones, pide que se promuevan las limitaciones y excepciones que permitan la extracción de textos y datos de contenidos legítimamente adquiridos o a los que se haya accedido, así como el acceso a conjuntos de datos lo más amplios posible como defensa contra la parcialidad y el error.

Las bibliotecas también pueden contribuir a ello preparando las colecciones para la IA con las licencias adecuadas y respetando los principios FAIR y CARE. Y lo que es más importante, sugiere que los derechos de autor no se utilicen como una herramienta contundente para abordar cuestiones éticas, y respalda la declaración de ICOLC sobre inteligencia artificial y licencias.

La declaración subraya el abanico de medidas prácticas que pueden adoptar tanto los gobiernos como las bibliotecas, desde la creación de capacidad y concienciación, pasando por la toma de decisiones éticas en torno a las herramientas de IA, hasta el desarrollo de orientación y capacidad de supervisión.

TRADUCCIÓN

Consideraciones

  • La aparición de tecnologías de IA plantea muchas consideraciones para las bibliotecas, incluyendo cómo se utiliza el contenido y por quién. Las bibliotecas están en una posición única para liderar en este ámbito, reafirmando y avanzando su papel como innovadoras: desde apoyar el entrenamiento de la IA, incluir contenido generado por IA en las colecciones bibliotecarias, utilizarla para ayudar en la catalogación y en el descubrimiento de colecciones o ítems, hasta mejorar y prestar de manera más eficiente servicios bibliotecarios esenciales como los de referencia y préstamo interbibliotecario.
  • Al mismo tiempo, también estamos viendo cómo los titulares de derechos buscan restringir el uso del contenido para el entrenamiento, e incluso el uso de herramientas de IA en el desempeño del trabajo que apoya el cumplimiento de la misión de las bibliotecas.
  • En muchos países, la legislación vigente sobre derechos de autor (tanto los derechos económicos como los morales) ha evolucionado y se ha adaptado para dar cabida a tecnologías innovadoras y está bien equipada para abordar las preocupaciones legítimas de los creadores, incluyendo a las bibliotecas en su rol como creadoras de procesos y servicios basados en IA. Sin embargo, este no es el caso en todas partes.
  • En muchos países, también existen legislaciones y principios relacionados con la IA fuera del ámbito del derecho de autor. Para las cuestiones que no están relacionadas con los derechos de autor —como la salud, la seguridad, la privacidad y las preocupaciones éticas derivadas del desarrollo y uso de la IA en programas y servicios bibliotecarios—, las bibliotecas deben buscar la fuente de información política más apropiada como guía. Las bibliotecas deberían considerar la implementación o la recomendación a sus usuarios de herramientas de IA que adopten un enfoque basado en valores. Por ejemplo, las herramientas de IA no deberían comprometer la libertad de expresión, la privacidad u otras áreas de preocupación (como los impactos medioambientales y las limitaciones a la autonomía humana).

Recomendaciones

  • En las jurisdicciones donde la legislación sobre derechos de autor no respalda los usos bibliotecarios típicos y en evolución de la IA, las bibliotecas deberían abogar por una expansión de las limitaciones y excepciones existentes para la investigación, de manera que se permitan usos como la minería de texto y datos (TDM), incluyendo con fines de entrenamiento de IA, sobre contenido al que se haya accedido o adquirido legalmente.
  • Las bibliotecas están comprometidas a abordar los sesgos a medida que enfrentan desafíos en materia de derechos de autor. El acceso limitado a datos o recursos puede generar sesgos en los sistemas de IA; por tanto, las bibliotecas deben abogar por el acceso más amplio posible a los materiales, así como preparar las colecciones para la IA con licencias apropiadas, respetando al mismo tiempo los principios FAIR y CARE. Estos esfuerzos deben combinarse con una supervisión continua de los servicios de IA en bibliotecas para garantizar el respeto a la diversidad y el acceso equitativo a la información.
  • Las bibliotecas deben desarrollar capacidades, aumentar la concienciación y ofrecer formación esencial sobre tecnologías emergentes —incluida la IA— para apoyar a empleados, investigadores y otros usuarios bibliotecarios. Deben prestar especial atención a la transparencia e integridad de las herramientas de IA que desarrollen o a las que den acceso, aplicando herramientas de buenas prácticas disponibles. Además, las bibliotecas deben continuar apoyando a los autores en este contexto en evolución.
  • Los gobiernos deben guiarse por los convenios internacionales de derechos humanos en el desarrollo de leyes y regulaciones relacionadas con la IA. El derecho de autor no debería utilizarse como una herramienta contundente para abordar preocupaciones éticas u otras preocupaciones derivadas de la IA.
  • Los gobiernos deben apoyar los esfuerzos de las bibliotecas y otros actores para desarrollar prácticas éticas en respuesta a preocupaciones vinculadas al uso de herramientas de IA, como las desarrolladas por ARL. También deben respaldar iniciativas para aplicar herramientas apropiadas destinadas a proteger, por ejemplo, el conocimiento tradicional (como propone ALIA).
  • Los gobiernos y las empresas de IA deben poner a disposición recursos para apoyar repositorios en los que la copia de contenido con fines de entrenamiento de IA pueda reducir el rendimiento para otros usuarios.
  • Los titulares de derechos y los proveedores no deben incluir cláusulas contractuales que impidan o restrinjan indebidamente el uso de la IA por parte de los usuarios de bibliotecas, ni que impidan el uso de excepciones previstas en la legislación sobre derechos de autor, según la normativa nacional o la jurisprudencia relevante. En este sentido, la IFLA respalda la declaración del ICOLC sobre licencias de IA.

Aprobado por la Junta Directiva de la IFLA, 4 de abril de 2025.

Cómo las bibliotecas pueden apoyar la alfabetización mediática

El artículo subraya la importancia crítica de la alfabetización mediática en la sociedad actual. Partiendo de la premisa de que las habilidades para evaluar la información —como aplicar contexto, ser curioso y buscar pruebas de validez— son esenciales para una ciudadanía informada. La autora sostiene que, ante el flujo constante de datos que recibimos a diario, la diferencia entre una ciudadanía bien informada o manipulable dependerá de cómo eduquemos en el uso crítico de los medios.

En este contexto, las bibliotecas, tanto escolares como públicas, se presentan como espacios ideales para promover la alfabetización mediática. Swicker propone que los bibliotecarios incluyan este tipo de enseñanza en los programas educativos o bien ofrezcan talleres específicos para distintas edades. Además, sugiere que las webs de las bibliotecas reserven secciones visibles para recursos de verificación de hechos. Pero más allá de proporcionar herramientas, recalca que el ejemplo es clave: usar y mostrar cómo se emplean estas fuentes de verificación debe ser algo natural y habitual, una respuesta instintiva ante cualquier información dudosa. La alfabetización mediática, afirma, no funciona sin la chispa de la curiosidad, sin preguntarse continuamente “¿cómo sabes eso?”.

El artículo también recopila una serie de recursos útiles para fomentar estas habilidades. Para el uso cotidiano, destaca sitios como AllSides, que muestra noticias desde distintas posiciones ideológicas; Google Fact Check Tools; FactCheck.org, centrado en política estadounidense; Snopes, que desmonta rumores y leyendas urbanas; y Lead Stories, que se enfoca en contenidos virales. Además, ofrece un listado de planes de lección dirigidos a docentes o bibliotecarios que deseen impartir formación en alfabetización mediática, como los materiales de Common Sense Education, Checkology del News Literacy Project, y Be Media Wise de PBS, Civic Online Reasoning, que ofrece materiales gratuitos listos para usar en el aula, entre otros. Estos materiales están orientados a todas las edades, desde la primaria hasta la educación superior.

Por último, Swicker recomienda organizaciones y reportes que sirven para la formación continua o la defensa institucional de la alfabetización mediática, como Media Literacy Now, The National Association for Media Literacy Education, o el State of Media Literacy Education Report 2024. Concluye haciendo un llamado a la acción: aunque los recursos existen y son accesibles, es responsabilidad de los bibliotecarios distribuirlos y facilitar su uso. Solo así se podrá lograr que las nuevas generaciones no se conformen con lo que leen o ven, sino que lo cuestionen, contrasten y comprendan de forma crítica.

La Inteligencia Artificial revela sin dañarlo un manuscrito del Merlín Rey Arturo de 750 años oculto en una encuadernación.

Davis, Lauren. “Tales of Merlin and King Arthur Resurface After 750 Years, Hidden in a Bookbinding.Gizmodo, April 4, 2019. https://gizmodo.com/tales-of-merlin-and-king-arthur-resurface-after-750-years-inside-a-bookbinding-2000581309

Ver Video

Un equipo interdisciplinar de la Universidad de Cambridge descubrió un raro fragmento del ciclo artúrico reutilizado en la encuadernación de un documento del siglo XVI. Gracias a técnicas de imagen avanzadas y métodos de análisis digital —incluyendo herramientas de inteligencia artificial— lograron desenrollar virtualmente el manuscrito sin dañarlo

Un equipo interdisciplinar de académicos de la Universidad de Cambridge hizo un hallazgo extraordinario que reavivó el interés por las leyendas artúricas. Durante una revisión de documentos antiguos en la biblioteca universitaria, encontraron un fragmento casi ilegible de un manuscrito medieval de más de 750 años de antigüedad. Lo sorprendente es que este valioso texto no se hallaba archivado como tal, sino que había sido reutilizado en el siglo XVI como parte de la encuadernación de un registro de propiedades. Esta práctica era común en esa época: dado que muchos manuscritos antiguos se consideraban obsoletos o sin valor práctico, se desmembraban y se reciclaban como refuerzos estructurales para nuevas encuadernaciones. Sin embargo, este caso demostraba que, aunque olvidado y oculto, un fragmento de la historia literaria europea había sobrevivido a través de los siglos.

El texto resultó ser un pasaje de la Suite Vulgate du Merlin, parte del Ciclo Vulgata o Ciclo Lancelot-Graal, una de las versiones más influyentes de las leyendas del rey Arturo, escrita originalmente en francés antiguo durante la primera mitad del siglo XIII. El pasaje narra eventos posteriores a la coronación del rey Arturo, incluyendo un episodio bélico en el que el caballero Gauvin (o Gawain) lidera a las tropas cristianas hacia la victoria sobre los sajones, blandiendo la espada Excalibur. También aparece una escena más mística y simbólica: la irrupción de un Merlín disfrazado durante una celebración en la corte, vestido con una túnica de seda adornada con oro y piedras preciosas que iluminaban toda la sala. Estos relatos forman parte del núcleo simbólico y narrativo de la literatura medieval europea, donde confluyen la épica caballeresca, el misticismo cristiano y la fantasía heroica.

El valor del descubrimiento es doble: por un lado, se trata de un testimonio rarísimo, ya que existen menos de 40 copias conocidas de esta parte específica del ciclo artúrico, y cada una presenta diferencias notables debido a que los manuscritos medievales eran copiados a mano. Este fragmento concreto, decorado con iniciales rojas y azules, ha sido datado entre los años 1275 y 1315. Por otro lado, el hallazgo es un hito en las metodologías de preservación y acceso a textos antiguos. Tradicionalmente, estudiar un manuscrito encuadernado de esta forma implicaba forzosamente desmontar y dañar tanto el fragmento como el libro que lo contenía. Sin embargo, el equipo de Cambridge logró una solución innovadora.

Aplicando técnicas de imagen avanzadas —como fotografía multispectral, escaneo en 3D, uso de espejos, prismas y otros recursos ópticos— los investigadores crearon una réplica digital de la encuadernación. Esto les permitió “desplegar” virtualmente el manuscrito sin afectar su estado físico. Cada imagen fue cuidadosamente ensamblada como si se tratara de un rompecabezas, permitiendo reconstruir digitalmente el contenido del fragmento y estudiar su caligrafía, su estructura textual y su ornamentación. Gracias a este proceso, no solo se conservó el texto medieval, sino también la integridad del documento del siglo XVI, considerado a su vez un testimonio histórico importante de las prácticas archivísticas de la época.

La especialista francesa Irène Fabry-Tehranchi, participante en el proyecto, subrayó la relevancia de conservar el fragmento in situ, es decir, dentro del documento que lo contiene. A su juicio, hace treinta años se habría priorizado el texto antiguo, desmantelando sin contemplaciones el libro moderno para extraerlo. Pero hoy, el enfoque ha cambiado: se reconoce el valor cultural e histórico tanto del manuscrito medieval como del contexto material en que fue hallado.

Más allá del caso puntual, el equipo de Cambridge destacó que su objetivo era también establecer una metodología replicable. Muchos archivos y bibliotecas del mundo poseen documentos encuadernados con materiales de siglos anteriores, y enfrentan el mismo dilema entre preservación y acceso. La técnica desarrollada en este proyecto ofrece una vía no invasiva para rescatar textos ocultos sin comprometer el estado físico de los volúmenes.

Este descubrimiento confirma que los manuscritos medievales siguen guardando secretos. Lo que una vez fue considerado “material de desecho” para encuadernar otros libros, puede resultar ser un auténtico tesoro histórico y literario. Setecientos cincuenta años después de ser escrito, este fragmento de las leyendas de Merlín y el rey Arturo vuelve a ver la luz gracias a una combinación de erudición, tecnología avanzada y sensibilidad patrimonial. El proyecto es, sin duda, una inspiración para futuras investigaciones y una prueba de que los libros aún pueden sorprendernos.

Motores de búsqueda académicos con IA

Lim, Aaron Tay. “Testing AI Academic Search Engines (1).” Musings about Librarianship (blog), March 2025. https://musingsaboutlibrarianship.blogspot.com/2025/03/testing-ai-academic-search-engines-1.html

Este artículo es el primero de una serie dedicada a desarrollar un marco para evaluar motores de búsqueda académicos impulsados por inteligencia artificial (IA). El autor destaca que, antes de establecer métodos de evaluación, es esencial definir claramente qué se entiende por “motor de búsqueda académico con IA”. Sin una definición precisa, las comparaciones entre herramientas pueden resultar vagas o engañosas.

Los motores de búsqueda académicos con inteligencia artificial (IA) son herramientas diseñadas específicamente para facilitar el acceso, la comprensión y la organización del conocimiento científico. A diferencia de los buscadores tradicionales que se limitan a localizar documentos mediante coincidencias literales de palabras clave, estos motores aplican tecnologías avanzadas de IA para ofrecer resultados más pertinentes y comprensivos, adaptándose mejor a las necesidades de investigadores, estudiantes y profesionales académicos.

Estos motores integran IA de diversas formas, incluyendo:

  • Búsqueda semántica (más allá de los métodos tradicionales de palabras clave).
  • Generación de respuestas directas con citas mediante técnicas como RAG (Retrieval Augmented Generation).
  • Resúmenes automáticos de documentos.
  • Síntesis de estudios en matrices o tablas.
  • Identificación de autores clave, artículos fundamentales y tendencias emergentes.

Una de sus principales características es la búsqueda semántica, que permite interpretar la intención detrás de una consulta más allá de las palabras exactas empleadas. Esto significa que pueden entender sinónimos, relaciones conceptuales y contextos temáticos, lo que mejora significativamente la relevancia de los resultados. Además, muchos de estos sistemas utilizan técnicas como RAG (Retrieval Augmented Generation) para generar respuestas directas a preguntas específicas, acompañadas de citas de fuentes relevantes, lo cual agiliza el proceso de revisión de la literatura.

Otra capacidad destacada es la de elaborar resúmenes automáticos de artículos académicos, extrayendo la información clave de textos largos y complejos para facilitar su comprensión rápida. También pueden sintetizar hallazgos de múltiples estudios en tablas comparativas o matrices, lo cual es especialmente útil para revisiones sistemáticas o estudios de meta-análisis. Por último, estos motores son capaces de identificar autores influyentes, artículos fundamentales y tendencias emergentes en distintas áreas del conocimiento, contribuyendo así a una mejor navegación por el creciente universo de la literatura científica.

El autor propone clasificar las herramientas en cuatro grandes grupos.

  1. Motores de búsqueda académicos con IA como Elicit.comScite assistant*ConsensusScopus AIPrimo Research AssistantPerplexity.ai. Estas herramientas están diseñadas específicamente para la búsqueda académica y utilizan modelos de lenguaje de última generación para generar respuestas con citas, permitir consultas en lenguaje natural y combinar búsquedas semánticas con técnicas de recuperación de información.
  2. Modelos de lenguaje con capacidad de búsqueda, como ChatGPTMicrosoft CopilotGeinmi, ClaudeDeepSeekGrok. Aunque estos sistemas pueden responder a preguntas sobre temas académicos, su objetivo principal no es funcionar como buscadores científicos. A menudo generan respuestas que no provienen de una búsqueda real, lo que puede derivar en errores o invenciones, conocidas como “alucinaciones”.
  3. Sistemas de mapeo bibliográfico basados en citas, como Connected Papers, ResearchRabbitLitmaps*, Citation GeckoIncitefu. Estas herramientas no funcionan como buscadores tradicionales, sino como sistemas de recomendación que, a partir de uno o varios documentos “semilla”, generan mapas visuales de literatura relacionada utilizando relaciones de citación entre artículos.
  4. Herramientas de asistencia a la escritura académica, como KeeniusJenna,ai. Estas aplicaciones están orientadas a ayudar a redactar textos científicos, ofreciendo sugerencias de redacción con base en citas reales, y suelen incorporar interfaces de escritura más parecidas a un procesador de texto que a un motor de búsqueda.

Descripción de cada herramienta:

Elicit: Un asistente de investigación que ayuda a analizar y sintetizar información de artículos académicos, acelerando tareas como la extracción de datos y la creación de revisiones sistemáticas.

Scite Assistant: Una herramienta que contextualiza citas académicas, destacando si apoyan o contradicen un argumento, ideal para revisiones de literatura.

Consensus: Un asistente que utiliza IA para responder preguntas basadas en evidencia científica, extrayendo información de artículos académicos.

Scopus AI: Basado en la base de datos Scopus, esta herramienta genera resúmenes y revisiones de literatura académica.

Primo Research Assistant: Aunque no encontré información específica, parece ser un asistente enfocado en la investigación académica.

Perplexity.ai: Un motor de búsqueda que utiliza IA para responder preguntas con explicaciones claras y referencias.

ChatGPT: Un modelo de lenguaje desarrollado por OpenAI que puede generar texto, responder preguntas y realizar tareas creativas.

Microsoft Copilot: Tu compañero de IA creado por Microsoft, diseñado para ayudarte en tareas de productividad, creatividad y aprendizaje.

Geinmi: La propuesta de Meta para la IA

Claude: Un asistente de IA desarrollado por Anthropic, enfocado en conversaciones naturales y tareas complejas.

DeepSeek: La web de IA China

Grok: modelo de inteligencia artificial generativa (IA) creado por xAI, la empresa de Elon Musk, que se utiliza como un asistente de IA en X.

Connected Papers: Una herramienta para explorar conexiones entre artículos académicos y descubrir investigaciones relevantes.

ResearchRabbit: Ayuda a encontrar y organizar artículos académicos relacionados con un tema específico.

Litmaps: Una herramienta para visualizar y rastrear la evolución de la investigación académica a través de mapas de citas.

Citation Gecko: Permite explorar redes de citas para encontrar artículos relevantes.

Inciteful: Una herramienta para analizar redes de citas y descubrir investigaciones relacionadas.

Keenius: No encontré información específica sobre esta herramienta.

Jenna.ai: Jenni AI es una herramienta de inteligencia artificial que asiste en la redacción académica

Lens.org: Una plataforma para buscar y analizar patentes y literatura académica.

OpenAlex: Una base de datos abierta que proporciona información sobre artículos académicos, autores e instituciones.

Aprovechar las citas de datos para responder a las necesidades de evaluación de datos de las bibliotecas.

Dean, Clare. 2025. Leveraging Data Citations to Respond to Libraries’ Data Evaluation Needs. Zenodo. https://doi.org/10.60804/yxna-f837

Se presenta un estudio sobre cómo la automatización de citas de datos puede mejorar las métricas de datos abiertos y ayudar a las bibliotecas a evaluar el uso y el impacto de los conjuntos de datos generados por sus instituciones.

Las bibliotecas desempeñan un papel clave en la promoción de los datos abiertos y necesitan evaluar el uso e impacto de los conjuntos de datos para apoyar la gestión de datos de investigación y reconocer el trabajo de sus investigadores. Sin embargo, medir este impacto es complejo debido a la dispersión y falta de visibilidad de la información.

Una solución prometedora es el uso de citas de datos como indicadores de utilización. Para demostrar su valor, se analizó el uso de datos en la Universidad Northwestern y la Universidad de Colorado Boulder mediante el Data Citation Corpus y Europe PMC. Se observó un aumento significativo de citas entre 2020 y 2023, con un pico en 2021. Los repositorios más citados fueron dbSNP, Protein Data Bank y European Nucleotide Archive, reflejando un fuerte enfoque en biomedicina y biología estructural.

En cuanto a áreas intensivas en datos, Northwestern destaca en investigación médica y neurociencia, mientras que Colorado Boulder lo hace en ciencias ambientales y biología vegetal. Las citas provienen principalmente de revistas especializadas en dichas disciplinas.

1. Objetivo principal

Mejorar la capacidad de las bibliotecas para rastrear, analizar y reportar el impacto de los datos de investigación utilizando citas automatizadas a gran escala, especialmente a través del Data Citation Corpus.

2. Instituciones involucradas

  • University Libraries, University of Colorado Boulder
  • Helmholtz Open Science Office, Alemania
  • Northwestern University Feinberg School of Medicine

3. Hallazgos clave (Key Data Citation Insights)

  • Los datos de Northwestern se citan más en revistas de ciencias de la vida y biomédicas.
  • Los datos de CU Boulder se usan más en revistas específicas de campos como ciencias ambientales.

Áreas de investigación intensiva en datos:

  • CU Boulder: Ciencias ambientales, biología molecular y genética, ciencias de las plantas.
  • Northwestern: Investigación médica, bioquímica, biología molecular, neurociencia.

Se concluye que las citas de datos ofrecen información valiosa para las estrategias institucionales, y se está ampliando el Data Citation Corpus con nuevas fuentes y mejoras en los metadatos. También se están desarrollando recursos para que las bibliotecas integren estas métricas en procesos de evaluación institucional junto con iniciativas como HELIOS Open.

Análisis comparativo de chatbots de IA para la extracción de metadatos en bibliotecas universitarias

González-Espinoza, Alfredo, Dom Jebbia, y Haoyong Lan. «Metadata Augmentation Using NLP, Machine Learning and AI-Chatbots: A ComparisonarXiv, abril 25, 2025. https://arxiv.org/abs/2504.17189

El estudio ofrece un análisis exhaustivo sobre el uso de herramientas de inteligencia artificial (IA) y aprendizaje automático para la tarea de recogida de metadatos, especialmente en el contexto de bibliotecas universitarias. Los avances recientes en estas tecnologías han permitido que tareas repetitivas, como la clasificación de documentos y la curación de datos, sean más automatizadas, lo que puede optimizar significativamente los flujos de trabajo en instituciones como las bibliotecas. Sin embargo, el desarrollo y la integración efectiva de estas herramientas en entornos de trabajo reales aún enfrentan desafíos importantes.

Los autores, Alfredo González-Espinoza, Dom Jebbia y Haoyong Lan, quienes son parte del equipo de Bibliotecas Universitarias en la Universidad Carnegie Mellon, realizan un estudio comparativo entre diferentes enfoques para la extracción de metadatos. En particular, se enfocan en el uso de chatbots comerciales basados en IA y su capacidad para realizar tareas de clasificación de documentos con datos limitados. Además, comparan estos resultados con los obtenidos mediante métodos tradicionales de aprendizaje automático y procesamiento de lenguaje natural (PLN), como XGBoost y el ajuste fino de BERT.

El análisis revela que, aunque los chatbots de IA muestran un rendimiento similar entre ellos, superan a los métodos de aprendizaje automático que fueron probados, especialmente cuando los chatbots se entrenan utilizando datos locales. Este hallazgo es significativo, ya que sugiere que, en situaciones con datos limitados, las soluciones basadas en IA pueden ser más efectivas que los enfoques tradicionales. Sin embargo, los autores también subrayan que, a pesar de su facilidad de uso en comparación con los métodos de programación tradicionales, los chatbots aún presentan retos para los usuarios en términos de obtener resultados útiles. A pesar de que la interacción con los chatbots puede parecer más accesible, los resultados no siempre son confiables y pueden requerir ajustes adicionales.

Un hallazgo preocupante del estudio fue la identificación de errores conceptuales alarmantes en algunos chatbots, tales como la incapacidad de contar correctamente el número de líneas de los textos de entrada. Curiosamente, algunos chatbots justificaron estos errores como «errores humanos», lo que resalta la necesidad de mejorar la precisión y la comprensión de estos sistemas. Este tipo de error pone en duda la fiabilidad de los chatbots de IA para tareas que requieren una precisión absoluta, como la clasificación de metadatos en bibliotecas, donde los detalles son cruciales.

A pesar de estos problemas, los autores concluyen que la información proporcionada en su estudio es valiosa para bibliotecarios y curadores de datos que deseen explorar el uso de herramientas de IA en la curación de datos o en el aumento de metadatos. Aunque los resultados no son concluyentes sobre la eficacia total de los chatbots de IA para la clasificación de metadatos, el artículo ofrece una visión importante sobre las ventajas y limitaciones de estas herramientas emergentes. En este sentido, el estudio puede servir como base para futuras investigaciones y como guía para los profesionales que están considerando integrar estas tecnologías en sus prácticas diarias.