Archivo del Autor: Julio Alonso Arévalo

Avatar de Desconocido

Acerca de Julio Alonso Arévalo

Bibliotecario de la Facultad de Traducción y Doc. de la USAL. Ex-Miembro del Grupo de Investigación E-LECTRA. Premio Nacional de Investigación por la UNE Premio mejor Profesional Social Media INFOAWARDS 2019. Creador y editor del repositorio E-LIS. Más de 80 artículos científicos publicados - Ver en E-LIS -en revistas científicas. El profesional de la información, Library Hi-Tech, Electronic Library. Investigación Bibliotecológica, Anales de Documentación... 12 libros publicados: Nueva fuentes de información en el contexto de la web 2.0 (Pirámide), Gutemberg 2.0 (TREA). Social Reading (Elsevier), eBooks en bibliotecas universitarias (TREA), El ecosistema del libro electrónico universitario (UNE), Un viaje a la cultura open (Amazon), GRATIS Zotero (Creative Spaces), Leyendo entre Pantallas (Trea), GRATIS Literaçia da infomrçao (ISPA) GRATIS Espistemologia y acceso abierto (UCE) GRATIS Makerspaces y bibliotecas. Barcelona: El Profesional de la Información EPI-UOC, 2018. Makerspaces. Espacios creativos en bibliotecas: creación, planificación y programación de actividades. Salamanca: Ediciones del Universo, 2019. Los libros, la lectura y los lectores a través de la literatura y las artes. Buenos Aires : Alfagrama Ediciones, 2019 Más de 2000 citas en Google Schoolar Creador y gestor del blog Universo abierto Director del programa de Radio Planeta Biblioteca Más de 250.000 seguidores en los grupos profesionales de Facebook.

Libros creados por bots: los bibliotecarios se enfrentan al material generado por IA en sus colecciones

Saleh, Reema. “Books by Bots: Librarians Grapple with AI-Generated Material in Collections.” American Libraries Magazine, 2 de septiembre de 2025. https://americanlibrariesmagazine.org/2025/09/02/books-by-bots/

El artículo analiza cómo la proliferación de libros creados con inteligencia artificial (IA) está generando desafíos inéditos para las bibliotecas y quienes las gestionan.

No siempre resulta sencillo detectar qué títulos han sido elaborados por estas herramientas: la simple revisión de catálogos o fichas de proveedores no basta, de modo que muchas obras producidas por IA pasan inadvertidas, complicando su evaluación.

Se mencionan casos concretos, como un libro infantil —Rabbits: Children’s Animal Fact Book, de la editorial Bold Kids— que presenta señales de haber sido generado mediante IA. Ejemplos así impulsan a los bibliotecarios a examinar con mayor detenimiento metadatos, descripciones editoriales y otras huellas que puedan revelar una autoría no humana.

Sus páginas contenían frases extrañamente redactadas, algunas de las cuales incluían datos inventados sobre los conejos (como la afirmación de que se hacen su propia ropa). Cada página de texto mostraba la misma imagen prediseñada de un conejito comiendo una zanahoria. Fotos de archivo de conejos llenaban las páginas, con sus ojos y narices desapareciendo en la sangría del libro.

Además se sospecha que el título y otros de Bold Kids, que no tiene sitio web ni autores asociados con sus libros, fueron creados por inteligencia artificial (IA). Para colmo, el libro se imprimió bajo demanda, por lo que no se podía devolver. Peor aún, algunos libros generados por IA pueden contener desinformación potencialmente peligrosa. La Sociedad Micológica de Nueva York, por ejemplo, ha advertido contra la compra de guías escritas por IA para la recolección de setas silvestres. Al consultar los registros de derechos de autor de los libros, descubrió que contenían menciones a «texto generado por IA».

El texto subraya además la urgencia de contar con políticas y directrices claras para afrontar esta nueva realidad: desde definir en qué circunstancias se incorporarán a las colecciones libros creados con IA, hasta exigir transparencia sobre su origen y mantener estándares de calidad que resguarden la integridad de los fondos bibliográficos.

Finalmente, se recogen las distintas respuestas de la profesión. Algunos bibliotecarios están estableciendo criterios de adquisición específicos que distingan entre materiales de origen humano y automatizado; otros reclaman etiquetas o declaraciones de autoría explícitas. En todos los casos se pone en valor la vigilancia constante, necesaria para identificar contenidos dudosos y garantizar que las decisiones de selección mantengan el rigor, la relevancia y el servicio a la comunidad lectora.

Cómo identificar libros generados por IA:

  • Investiga quién es el autor y cuán “real” parece ser
  • Otra señal de alerta: un libro sin autor listado en absoluto.
  • Ten precaución con los libros autopublicados, de editoriales pequeñas o de plataformas como Amazon, que filtran menos contenido generado por IA que otros proveedores.
  • Considera si el libro está aprovechando la posibilidad de que un lector lo confunda con otro más popular
  • Si el libro se ha registrado en la Oficina de Derechos de Autor de EE. UU., es posible que su registro mencione la IA.

Consideraciones sobre el impacto ambiental de la IA en la ciencia

Albornoz, Denisse; Natalia Norori. Considerations on the environmental impact of AI in science. Working Paper, International Science Council, septiembre de 2025. DOI:10.24948/2025.10.

Texto completo

El informe analiza las consecuencias ambientales del uso de inteligencia artificial en la investigación científica. Propone marcos conceptuales, metodologías de evaluación aplicables y estrategias para reducir la huella ecológica de los proyectos científicos impulsados por IA. Está dirigido a investigadores, instituciones y responsables de políticas interesados en comprender tanto los costos ambientales como las formas de mitigarlos.

En primer lugar, el informe ofrece una visión integral del ciclo de vida de una aplicación de IA en ciencia, desde la recolección y preparación de datos, pasando por el entrenamiento de modelos, hasta su despliegue, mantenimiento y eventual reemplazo. Se enfatiza que los impactos ambientales no se limitan al consumo inmediato de energía (por ejemplo, la electricidad necesaria durante el entrenamiento de los modelos), sino que abarcan también efectos indirectos o de “rebound”, como la creación de nuevos datasets para satisfacer demandas crecientes, la necesidad de hardware de alto consumo energético y los costos asociados a refrigeración, infraestructura de servidores y transporte.

El informe subraya además que la evidencia empírica detallada sobre los impactos ambientales específicos sigue siendo limitada, lo que dificulta estimar con precisión métricas como emisiones de carbono o consumo de agua en muchos proyectos científicos con IA. Ante esta falta de datos, es necesario apoyarse en modelos, simulaciones o ejemplos aislados, lo que restringe la generalización. Sin embargo, los autores presentan herramientas conceptuales para que científicos e instituciones puedan evaluar sus propios proyectos: plantillas de estimación, criterios de transparencia, métricas de consumo energético, huella de carbono, uso de hardware, ubicación geográfica (que afecta la eficiencia energética), entre otras.

Una aportación destacada del documento es su énfasis en alternativas más “frugales” o ligeras para determinados usos de IA, especialmente en contextos con menos recursos. Se promueven modelos más pequeños, entrenamientos locales o descentralizados, reutilización de modelos previamente entrenados, optimización de hardware y técnicas que reduzcan el consumo energético, como el ajuste fino en lugar del entrenamiento completo o la eficiencia algorítmica. Estas estrategias no solo disminuyen el impacto ambiental directo, sino que también fomentan la inclusión, permitiendo que centros de investigación en países con recursos limitados puedan participar activamente sin generar costos ecológicos excesivos.

Finalmente, el informe ofrece recomendaciones estratégicas para investigadores, instituciones y responsables de políticas: incorporar evaluaciones ambientales desde la fase de diseño de los proyectos de IA, transparentar los costos ecológicos en los informes científicos, fomentar políticas institucionales que promuevan el uso eficiente de la IA, invertir en infraestructuras energéticamente sostenibles, impulsar estándares comunes de medición de impacto y considerar la justicia ambiental, evaluando cómo las decisiones tecnológicas pueden afectar de manera desigual a distintas regiones, especialmente aquellas con menor capacidad técnica o energética.

Datos listos para la IA: consideraciones clave para la ciencia abierta y responsable

McBride, Vanessa; Natalia Norori; Denisse Albornoz. Data and AI for Science: Key Considerations. Working Paper, International Science Council, septiembre de 2025. DOI: 10.24948/2025.11

Texto completo

El informe ofrece una visión amplia y crítica del cruce entre inteligencia artificial, datos y ciencia, destacando que solo mediante la combinación de apertura, responsabilidad y cooperación internacional se podrá aprovechar plenamente el potencial de la IA en beneficio del conocimiento y la sociedad.

El informe explora cómo la inteligencia artificial está transformando la práctica científica y qué condiciones deben cumplirse para que los datos puedan aprovecharse de manera efectiva, ética y sostenible. La noción central es la de datos “AI-ready”, es decir, conjuntos de datos preparados para ser procesados y reutilizados por sistemas de IA en beneficio de la investigación. Este concepto implica que los datos no solo deben estar disponibles, sino también estructurados, limpios, interoperables y documentados de manera adecuada.

Una parte importante del documento se centra en la calidad e interoperabilidad de los datos. La ciencia abierta ha impulsado normas como FAIR (Findable, Accessible, Interoperable, Reusable), pero el uso de IA añade nuevas exigencias. Por ejemplo, los algoritmos requieren datos con metadatos consistentes, esquemas comunes y estándares de anotación que permitan la reutilización automática. Además, se subraya que la preparación de datos para IA debe considerar la reducción de sesgos y garantizar la inclusión de voces y contextos diversos, para evitar reproducir inequidades existentes en los resultados científicos.

Otro eje del informe son las dimensiones éticas, sociales y ambientales. Los autores advierten que el entrenamiento y uso de grandes modelos de IA conlleva altos costes energéticos y huellas de carbono significativas, por lo que la sostenibilidad debe integrarse en la planificación de infraestructuras científicas. En paralelo, se examinan los riesgos para la privacidad, la seguridad y la soberanía de los datos, especialmente en campos sensibles como la biomedicina o las ciencias sociales. Estos retos requieren marcos sólidos de gobernanza que equilibren apertura y protección.

El informe también vincula la preparación de datos para IA con la agenda de la ciencia abierta. Se argumenta que los principios de transparencia, accesibilidad y colaboración resultan esenciales para garantizar que la IA potencie la ciencia de manera inclusiva y global. Se destacan casos prácticos en los que repositorios, proyectos colaborativos y consorcios internacionales han logrado implementar buenas prácticas de datos AI-ready, sirviendo como ejemplos para otras disciplinas.

Finalmente, se presentan recomendaciones estratégicas:

  • Consolidar marcos normativos y estándares internacionales, como FAIR-R y Croissant.
  • Invertir en infraestructuras digitales y capacidad de cómputo adecuadas para la investigación con IA.
  • Fortalecer la capacitación en gestión de datos e inteligencia artificial.
  • Reconocer institucionalmente la labor de quienes trabajan en la preparación y curación de datos.
  • Garantizar la equidad y la inclusividad en las políticas sobre datos e IA, evitando que el acceso desigual a recursos tecnológicos aumente las brechas entre regiones y comunidades científicas.

La huella de la Inteligencia Artificial en la escritura académica: un análisis del cambio lingüístico tras los LLMs

Kousha, Kayvan, and Mike Thelwall. “How Much Are LLMs Changing the Language of Academic Papers after ChatGPT? A Multi-Database and Full Text Analysis.” arXiv (September 2025). https://arxiv.org/abs/2509.09596

El artículo analiza cómo los modelos de lenguaje grande (LLMs), en particular tras la aparición pública de ChatGPT, están influyendo en el estilo lingüístico de los artículos académicos.

Para ello, los autores se centran en doce términos muy característicos de los textos generados o corregidos con LLMs —como delve, underscore, intricate o meticulous— y estudian su evolución en seis grandes bases de datos: Scopus, Web of Science, PubMed, PubMed Central (PMC), Dimensions y OpenAlex. Además, aplican un análisis exhaustivo a más de 2,4 millones de artículos de PMC publicados entre 2021 y mediados de 2025.

Los resultados muestran un crecimiento espectacular en la frecuencia de estos términos tras la popularización de ChatGPT. Por ejemplo, entre 2022 y 2024, delve aumentó cerca de un 1500 %, underscore un 1000 % e intricate un 700 %. En los textos completos de PMC, el uso de underscore seis o más veces en un artículo se disparó más de un 10.000 % entre 2022 y 2025. También destacan los aumentos de intricate (≈ 5400 %) y meticulous (≈ 2800 %).

El fenómeno no afecta de igual manera a todas las disciplinas. El crecimiento es mucho mayor en áreas STEM (Ciencia, Tecnología, Ingeniería y Matemáticas) que en Ciencias Sociales o en Artes y Humanidades. Asimismo, los autores detectan que la co-ocurrencia de estos términos es cada vez más fuerte: artículos que emplean underscore tienden también a incluir con mayor frecuencia pivotal o delve, mostrando correlaciones que en 2022 eran casi inexistentes.

Se evidencia que la influencia de ChatGPT y otros LLMs se percibe claramente en el lenguaje académico, no solo en la frecuencia de ciertos términos, sino también en un estilo más uniforme y “pulido”. Este fenómeno puede ayudar a investigadores no nativos en inglés a acercarse a los estándares de redacción científica, reduciendo barreras lingüísticas en la publicación internacional. Sin embargo, también plantean interrogantes sobre el riesgo de homogeneización, exceso de artificio o pérdida de diversidad estilística en la escritura académica.

Una mirada jurídica poliédrica a la normativa europea sobre inteligencia artificial

Estupiñán Cáceres, Rosalía; Fonticiella Hernández, Beatriz; Ojeda Tacoronte, Carolina J. Una mirada jurídica poliédrica a la normativa europea sobre inteligencia artificial. Madrid: Dykinson, 2025.

Descargar

El libro examina de forma multidisciplinar la reciente normativa europea sobre inteligencia artificial, especialmente el Reglamento (UE) 2024/1689 sobre IA y la Directiva (UE) 2024/2853 relativa a la responsabilidad por daños causados por productos defectuosos.

La irrupción de la inteligencia artificial en nuestra sociedad ha generado un profundo impacto jurídico que exige respuestas normativas claras y adaptadas. Esta obra colectiva ofrece un análisis crítico y multidisciplinar del nuevo Reglamento (UE) 2024/1689 sobre inteligencia artificial, así como de la reciente Directiva (UE) 2024/2853 sobre responsabilidad por daños causados por productos defectuosos. Fruto del Congreso celebrado en la Universidad de Las Palmas de Gran Canaria en 2024, el libro reúne aportaciones de destacados expertos que abordan los retos que plantea la IA en distintos ámbitos del Derecho: administrativo, penal, laboral, mercantil, constitucional, entre otros.

Se abordan los retos legales que plantea la IA en distintos ámbitos del Derecho —administrativo, penal, laboral, mercantil, constitucional entre otros— analizando aspectos como:

  • la gobernanza de la IA, es decir las instituciones, mecanismos de control, obligaciones reguladoras;
  • la protección de los derechos fundamentales frente al uso de IA;
  • el impacto de la IA en mercados financieros;
  • su utilización en procesos judiciales;
  • y los desafíos en materia de responsabilidad civil y compliance

Una obra esencial para comprender el alcance e implicaciones de las nuevas normativas europeas sobre inteligencia artificial.

Inteligencia Artificial y profesionales bibliotecarios

Cox, Andrew M. AI and the UK Library Profession: Survey Results — A Report for CILIP. London: CILIP, 2025

Texto completo

El informe analiza cómo los profesionales de bibliotecas e información en el Reino Unido están incorporando la Inteligencia Artificial (IA) en su trabajo, cuáles son sus percepciones y qué apoyos necesitan.

La encuesta, realizada entre noviembre y diciembre de 2024, recogió 162 respuestas válidas procedentes principalmente de bibliotecas universitarias, de salud y públicas. El objetivo del estudio fue conocer no solo el nivel de adopción de estas tecnologías, sino también las oportunidades, riesgos y necesidades que identifican los bibliotecarios.

El resultado más llamativo es que un 65 % de los participantes reconoció estar utilizando herramientas de IA en su trabajo cotidiano. Entre las más citadas se encuentran ChatGPT y Copilot, empleadas sobre todo para tareas de redacción, búsqueda de información y automatización de procesos rutinarios. El uso resulta más extendido en bibliotecas universitarias y de salud, mientras que en las públicas todavía es más moderado. Pese a esta presencia creciente, solo un tercio de las instituciones encuestadas contaba ya con una política específica sobre IA y otro cuarto estaba en proceso de desarrollarla, lo que indica que todavía existe un marco normativo y estratégico insuficiente.

En cuanto a los ámbitos de aplicación, el informe destaca el uso de la IA generativa para redactar borradores de documentos, apoyar la alfabetización digital de los usuarios e integrar la enseñanza crítica de estas tecnologías en programas formativos. También se la emplea en la síntesis de información y en la mejora de procesos internos, con el fin de ganar eficiencia administrativa y liberar tiempo para otras tareas de valor añadido. Todo ello revela que la profesión percibe la IA como una herramienta práctica y útil, aunque aún en fase exploratoria.

Los encuestados identificaron varias oportunidades relacionadas con la IA. Entre ellas figuran la posibilidad de mejorar la eficiencia de los servicios bibliotecarios, reforzar las competencias en análisis y gestión de datos, enriquecer la experiencia de los usuarios y desarrollar nuevas funciones profesionales ligadas a la enseñanza y mediación tecnológica. Sin embargo, junto a estos beneficios emergen preocupaciones importantes que frenan una adopción plena.

Las principales barreras son de naturaleza ética, económica y técnica. En el terreno ético, se señalaron riesgos como la falta de transparencia, los sesgos de los algoritmos, la generación de desinformación y los problemas de privacidad. Desde el punto de vista económico, muchas instituciones consideran que el coste de las soluciones comerciales de IA resulta excesivo. También se subraya el impacto ambiental que puede tener el uso intensivo de estas tecnologías, especialmente por el alto consumo energético de los sistemas. A todo ello se suma la percepción de un déficit de competencias técnicas dentro de la profesión, que limita el aprovechamiento de las herramientas disponibles, y las dudas legales vinculadas a los derechos de autor y la propiedad intelectual en relación con los contenidos generados por IA.

Frente a este panorama, los profesionales expresaron con claridad sus necesidades de apoyo. La mayoría reclama formación accesible en distintos formatos —cursos cortos, seminarios web o materiales escritos— que les permita adquirir un conocimiento práctico y actualizado. También demandan guías éticas y regulatorias que orienten el uso responsable de la IA, así como ejemplos concretos de buenas prácticas adaptadas a diferentes tipos de bibliotecas. Se espera además que CILIP desempeñe un papel de liderazgo institucional, actuando como referente en la elaboración de políticas, en la difusión de recursos y en la representación del sector en los debates públicos y regulatorios sobre la IA.

El estudio muestra que la IA se ha integrado de forma significativa en el trabajo bibliotecario del Reino Unido, aunque de manera desigual y todavía experimental. Los profesionales reconocen tanto sus beneficios como los riesgos que entraña, y existe una demanda clara de liderazgo, formación y marcos normativos que permitan gestionar esta integración de manera responsable. El informe refleja un sector en transformación, que avanza con cautela pero con la convicción de que la IA será una pieza clave en el futuro de las bibliotecas.

La nueva función de detección de Turnitin ayuda a identificar el uso de herramientas de humanización de IA

Kelly, Rhea. “New Turnitin Bypasser Detection Feature Helps Identify Use of AI Humanizer Tools.” THE Journal, 2 de septiembre de 2025. https://thejournal.com/articles/2025/09/02/new-turnitin-bypasser-detection-feature-helps-identify-use-of-ai-humanizer-tools.aspx

Turnitin lanzó una función para detectar textos modificados por herramientas “humanizadoras” de IA, evitando que los estudiantes oculten contenido generado artificialmente. Esto fortalece la integridad académica al identificar fácilmente el uso indebido de IA en los trabajos.

Turnitin ha ampliado sus capacidades de detección de escritura con inteligencia artificial (IA) mediante la incorporación de una nueva función denominada «detección de bypassers». Esta herramienta está diseñada para identificar textos que han sido modificados por programas conocidos como «humanizadores«, los cuales alteran contenido generado por IA para que parezca escrito por humanos.

La disponibilidad de estos humanizadores representa una amenaza creciente para la integridad académica, ya que permite a los estudiantes ocultar el uso de IA, dificultando la verificación de la originalidad de los trabajos entregados. La nueva función de detección de bypassers se integra dentro de la función general de detección de escritura de Turnitin, permitiendo a los usuarios verificar automáticamente si un texto contiene contenido generado por IA o modificado por humanizadores, todo desde la misma plataforma, sin necesidad de integraciones adicionales o herramientas externas. Actualmente, esta función está limitada a interacciones en inglés.

Annie Chechitelli, directora de productos de Turnitin, destacó que, aunque el plagio siempre ha sido una preocupación para los educadores, con el auge de la IA ha surgido una nueva categoría de proveedores de trampas que se benefician del mal uso de la IA por parte de los estudiantes, proporcionando acceso fácil y gratuito a humanizadores para ocultar contenido generado por IA. En respuesta a este desafío emergente, Turnitin ha actualizado su software para detectar las principales modificaciones realizadas por bypassers de IA, permitiendo a los educadores mantener la integridad académica.

Encuesta al personal de la biblioteca pública

Public Library Association. Public Library Staff Survey: Summary Report. Chicago: Public Library Association, 2025.

Texto completo

La encuesta de la PLA 2025 muestra que los salarios bajos y la retención de personal siguen siendo un desafío, mientras aumenta la atención a la equidad, diversidad e inclusión, aunque con menor participación en actividades prácticas. Además, la mayoría de las bibliotecas son accesibles físicamente, pero la accesibilidad tecnológica y sensorial sigue siendo limitada.

La Encuesta de Personal de Bibliotecas Públicas de 2024, realizada por la Public Library Association (PLA), recopiló datos representativos a nivel nacional sobre los roles y la representación del personal, las prácticas de contratación y retención, y las metas y actividades orientadas a crear un entorno inclusivo para el personal y los miembros de la comunidad de todas las edades y habilidades en las bibliotecas públicas de EE. UU.

Principales hallazgos:

  • Salarios y representación del personal: Los salarios de los directores de bibliotecas y los bibliotecarios principiantes no han mantenido el ritmo de la inflación. En términos reales, los salarios promedio reportados en 2024 representan una ligera disminución respecto a 2021. Los encuestados indican que los salarios bajos afectan negativamente su capacidad para contratar y retener personal.
  • Roles en la biblioteca: Aunque los roles tradicionales del personal de la biblioteca siguen siendo comunes, un mayor porcentaje de bibliotecas ahora cuenta con personal dedicado al compromiso comunitario y la divulgación.
  • Contratación y retención: En general, el 18% de todas las bibliotecas públicas reportaron la pérdida de puestos de personal en los 12 meses previos a la encuesta de 2024, una cifra inferior al 22.6% registrado en 2021.
  • Metas y actividades de EDIA: En comparación con 2021, más bibliotecas públicas tienen metas escritas formales relacionadas con la equidad, la diversidad, la inclusión y la accesibilidad (EDIA). Sin embargo, informan participar en menos actividades de EDIA en general.
  • Accesibilidad: Más del 90% de las bibliotecas públicas tienen entradas principales accesibles para personas con discapacidades, y más del 80% tienen pasillos y baños interiores que cumplen con los estándares de la ADA. Sin embargo, solo alrededor de un tercio (36%) tiene señalización en braille u otra asistencia para personas con baja visión, y la mitad (48.4%) tiene computadoras públicas con tecnologías y software accesibles.

El problema de la “endogamia” en la IA: modelos que se retroalimentan a sí mismos

Lavoué, Alix. “AI Inbreeding: The Phenomenon Threatening Artificial Intelligence.” Worldcrunch, 7 de septiembre de 2025. https://worldcrunch.com/tech-science/ai-inbreeding-the-phenomenon-threatening-artificial-intelligence/

La «endogamia» en la inteligencia artificial ocurre cuando los modelos se entrenan utilizando contenido generado por otros modelos de IA, en lugar de datos originales creados por humanos. Este ciclo de retroalimentación puede llevar a una degradación progresiva de la calidad y diversidad de los resultados producidos por los modelos.

La endogamia de la IA, o colapso del modelo, se produce cuando un modelo de IA generativa se entrena con datos que han sido generados por una IA, lo que provoca una degradación de la calidad, la precisión y la diversidad de los resultados futuros del modelo, lo que a menudo da lugar a contenidos sin sentido, repetitivos o sesgados.

Lo que conlleva a que los sesgos se amplifiquen, la diversidad de información se colapse y las respuestas se vuelvan cada vez más ruidosas e imprecisas. Un ejemplo de este fenómeno se observó en un estudio publicado en la revista Nature, donde investigadores británicos y canadienses entrenaron un modelo de IA para dibujar números manuscritos basándose en un conjunto de datos real. Al repetir el proceso utilizando los números generados por la IA en cada etapa, se observó que después de 20 generaciones, los números se volvían borrosos, y después de 30 generaciones, convergían en una forma indistinta. Este estudio demuestra que en solo cinco generaciones de entrenamiento con datos autogenerados, los sesgos y fallos del sistema ya se amplifican, disminuyendo la variación y la precisión de las respuestas.

Este proceso degenerativo se debe a la falta de diversidad en los datos de entrenamiento, lo que lleva a que el sistema se enfoque en respuestas promedio y elimine las excepciones. Esto se conoce como colapso temprano, seguido de un colapso tardío, donde las respuestas se vuelven agotadas y, a veces, muy alejadas de la realidad.

El problema es que los atajos sintéticos no solo amplían la cantidad de datos, sino que los distorsionan. Cuando un sistema se entrena principalmente con su propio output, termina siendo una versión “promedio potenciada” de sí mismo: segura, insípida y progresivamente incorrecta. Para las empresas que dependen de mejoras continuas de modelos, esto significa que cada nueva generación puede resultar menos confiable. Al mismo tiempo, las compañías con grandes reservas de datos originales podrían convertirse en los únicos guardianes reales de la ventaja competitiva.

Para mitigar este problema, es esencial diversificar las fuentes de datos utilizadas para entrenar los modelos de IA, asegurando que incluyan una variedad de perspectivas y contextos. Además, se deben implementar técnicas de validación y monitoreo para

El futuro de la IA en las bibliotecas públicas: oportunidades, desafíos y alfabetización digital

WebJunction. “What’s on the Horizon for AI and Public Libraries?WebJunction, 28 de agosto de 2025. https://www.webjunction.org/news/webjunction/public-libraries-ai-future.html

La inteligencia artificial (IA) está impulsando un cambio drástico en nuestro mundo. Es una herramienta transformadora que revoluciona las industrias e impacta la vida cotidiana. Al concluir nuestra serie sobre IA, queremos explorar qué se avecina en el panorama de la IA.

Al mantenerse al tanto de estos problemas en constante evolución, el personal bibliotecario puede desarrollar sus habilidades informativas para posicionarse como expertos en alfabetización en IA, educar al público y participar activamente en la definición del impacto social de la IA.

El enorme poder de la IA

El poder de la IA reside en su capacidad para analizar grandes cantidades de datos, aprender de la experiencia y realizar tareas que normalmente requieren inteligencia humana, a menudo con mayor precisión, velocidad y eficiencia. Recopilar, interpretar y generar informes de datos son funciones cruciales para las bibliotecas, por lo que no sorprende que el poder de la IA esté transformando las bibliotecas públicas.

A medida que las bibliotecas desempeñan funciones más complejas y adoptan sistemas más sofisticados, se dispone de más datos para facilitar la toma de decisiones y contar la historia de la biblioteca. Esta realidad puede presentar desafíos a la hora de saber qué datos utilizar y cómo extraer conclusiones precisas. La IA puede procesar y sintetizar conjuntos de datos grandes y mixtos para generar rápidamente información y crear narrativas. Los productos o soluciones de IA independientes, fácilmente disponibles e integrados en las herramientas bibliotecarias existentes, pueden utilizarse para automatizar procesos, informar y representar colecciones, impulsar programas y la participación de la comunidad, y ofrecer servicios completamente nuevos. Sin embargo, siempre se debe tener en cuenta la privacidad de los usuarios y se debe eliminar la información de identificación personal de los datos de la biblioteca enviados a las herramientas de IA.

La Biblioteca de Pottsboro participó en un taller intensivo de consultoría sobre preparación de IA para organizaciones sin fines de lucro y colaboró ​​con miembros del equipo de Dell de todo el mundo para identificar las necesidades que la IA podría abordar. El equipo de la Biblioteca de Pottsboro se centró en los datos recopilados en su ILS, así como en los datos de la comunidad, para comprender qué información les podría proporcionar sobre las tendencias de los usuarios y las mejoras en los servicios, la colección o la difusión que convenía implementar. Por ejemplo, para orientar las decisiones de compra, el personal utilizó la IA para encontrar libros que se prestaban con frecuencia en Libby (una suscripción de libros electrónicos), pero que no tenían ejemplares impresos en su colección. También realizaron un análisis por código postal, observando la distribución de los usuarios que utilizan la biblioteca para ver si la difusión o la promoción en un código postal en particular contribuían a un aumento de titulares de tarjetas en esa zona. Finalmente, pudieron utilizar un lenguaje sencillo para consultar con la IA los datos de circulación de libros infantiles en formato físico y digital para su informe anual, sin necesidad de conocimientos avanzados de Excel para presentar los datos de forma eficaz y eficiente.

Algunas limitaciones e inquietudes

Si bien el poder de la IA puede ser notable, las precauciones que conlleva esta tecnología son significativas. El volumen de resultados de IA que circula en la web es inmenso y está en crecimiento. Es importante evaluar siempre con cuidado el contenido generado por IA para evitar sesgos y desinformación.

Según el New York Times, a medida que las empresas de IA buscan en la web nuevos datos para entrenar sus próximos modelos, es probable que incorporen parte de su propio contenido generado por IA, «creando un ciclo de retroalimentación involuntario en el que lo que antes era el resultado de una IA se convierte en la entrada de otra». Este proceso resulta en un rango más reducido de resultados de IA con el tiempo, una etapa temprana de lo que los investigadores han denominado «colapso del modelo». Cuando estos modelos se entrenan con sus propias palabras, su resultado muestra una menor diversidad lingüística. Además, este proceso puede amplificar el sesgo en los datos. Esta es una información de referencia importante para el personal de bibliotecas que podría impartir talleres sobre IA con el público.

La capacidad de la IA para suplantar la voz de alguien ha mejorado drásticamente, por lo que incidentes como el de alguien que se hace pasar por el secretario de Estado estadounidense, Marco Rubio, y contacta con ministros de Asuntos Exteriores, un gobernador y un senador estadounidense serán cada vez más comunes. Esta sofisticación de la IA está provocando que incluso el director ejecutivo de The Atlantic, Nicholas Thompson, diga: «Es difícil distinguir la realidad; muy difícil». El trabajo del personal bibliotecario que participa activamente en la enseñanza de habilidades de alfabetización informacional se está volviendo cada vez más difícil.

Los problemas legales relacionados con los derechos de autor y la privacidad se están abriendo camino en el sistema judicial estadounidense. Un juez federal de San Francisco declaró que Anthropic hizo un uso legítimo de los libros de varios autores sin su consentimiento para entrenar su modelo de lenguaje Claude Large. En el fallo, el juez afirma: «Como cualquier lector que aspira a ser escritor, los LLM de Anthropic se entrenaron con obras para no adelantarse a los demás».