Archivo de la categoría: Noticias

Contenido generado por IA está contaminando los servidores de preprints

Watson, Traci. «AI content is tainting preprints: how moderators are fighting backNature, 12 de agosto de 2025. https://doi.org/10.1038/d41586-025-02469-y.

Diversos servidores de preprints —como PsyArXiv, arXiv, bioRxiv y medRxiv— están detectando un aumento en el número de manuscritos que parecen haber sido generados o asistidos por inteligencia artificial o incluso por fábricas de artículos («paper mills»). Este comportamiento plantea serias dudas sobre la integridad de la ciencia abierta y la velocidad de publicación sin control.

Un caso emblemático involucró un manuscrito titulado “Self-Experimental Report: Emergence of Generative AI Interfaces in Dream States” publicado en PsyArXiv. El estilo estrambótico del contenido, la falta de afiliación del autor y la ausencia de detalles claros sobre el uso de IA llevaron a una alerta lanzada por la psicóloga Olivia Kirtley, quien luego solicitó su eliminación. Aunque el autor afirmó que la IA solo tuvo un papel limitado (como cálculo simbólico y verificación de fórmulas), no lo declaró explícitamente, lo que violó las normas del servidor.

En el servidor arXiv, los moderadores estiman que aproximadamente un 2 % de las presentaciones son rechazadas por tener indicios de IA o ser elaboradas por paper mills.

En bioRxiv y medRxiv, se rechazan más de diez manuscritos al día que resultan sospechosos de ser generados de forma automatizada, dentro de un promedio de 7.000 envíos mensuales

Los servidores de preprints reconocen un incremento reciente en contenido generado por IA, especialmente tras el lanzamiento de herramientas como ChatGPT en 2022. Esto ha generado una crisis creciente en apenas los últimos meses. El Centro para la Ciencia Abierta (Center for Open Science), responsable de PsyArXiv, expresó públicamente su preocupación por esta tendencia.

Un estudio publicado la semana pasada en Nature Human Behavior estima que, en septiembre de 2024, casi dos años después del lanzamiento de ChatGPT, los LLM produjeron el 22 % del contenido de los resúmenes de informática publicados en arXiv y aproximadamente el 10 % del texto de los resúmenes de biología publicados en bioRxiv. En comparación, un análisis de los resúmenes biomédicos publicados en revistas en 2024 reveló que el 14 % contenía texto generado por LLM en sus resúmenes. (imagen de arriba)

Sin embargo, aplicar filtros más rigurosos para detectar contenido automatizado presenta desafíos: requiere recursos adicionales, puede ralentizar el proceso de publicación y genera dilemas sobre qué contenidos aceptar o rechazar sin convertirse en un sistema excesivamente burocrático

La proliferación de contenido no fiable amenaza con erosionar la credibilidad de la ciencia de los repositorios de preprints, que juegan un papel cada vez más relevante en la difusión rápida de descubrimientos. Se vuelve clave que los servicios de preprints implementen mecanismos de detección más sofisticados, promuevan la transparencia respecto al uso de IA en la redacción y mantengan un equilibrio entre agilidad de publicación y rigor científico.

Los riesgos de usar modelos de lenguaje (LLM) para la redacción académica, especialmente al generar referencias científicas

Li, Ning, Jingran Zhang, y Justin Cui. 2025. «ArXivBench: When You Should Avoid Using ChatGPT for Academic WritingarXiv, abril 22. https://arxiv.org/abs/2504.10496v2.

Los autores advierten que, aunque los LLM muestran gran capacidad de razonamiento y respuesta, presentan un problema crítico: con frecuencia producen enlaces de arXiv incorrectos o referencias a artículos inexistentes. Esto no solo afecta la precisión, sino que compromete la atribución correcta de los trabajos a sus verdaderos autores, lo que supone un riesgo importante en entornos académicos.

Para evaluar este fenómeno, desarrollan ArXivBench, un banco de pruebas que mide el rendimiento de modelos (tanto propietarios como de código abierto) en la generación de artículos relevantes con enlaces correctos a arXiv. La evaluación abarca ocho grandes áreas temáticas y cinco subcampos de informática, siendo la inteligencia artificial el más popular.

arXivBench, el primer banco de pruebas para evaluar la precisión de los modelos de lenguaje grande (LLM) en la generación de artículos de investigación relevantes con enlaces precisos a arXiv. La evaluación de 15 modelos revela una variabilidad significativa en el rendimiento según las materias, destacando Claude-3.5 Sonnet por sus sólidos resultados en diversos dominios. Identificamos limitaciones críticas para el uso académico: la generación de artículos inexistentes y enlaces incorrectos a arXiv que impiden la atribución adecuada de las contribuciones de investigación a los autores reales.

En conclusión, el estudio pone en evidencia que, pese a los avances significativos, los modelos de lenguaje como ChatGPT no son todavía totalmente confiables para la generación automática de contenidos académicos, especialmente cuando se requiere una alta precisión en citas y referencias. La implementación de arXivBench representa un paso importante para medir y mejorar esta precisión, y los autores animan a la comunidad científica a seguir desarrollando y utilizando estas herramientas de evaluación. De esta manera, se podrá asegurar que el uso de LLMs en el ámbito académico no comprometa la integridad y calidad de la investigación.

Google Académico podría desaparecer en menos de 5 años

Shelley, Hannah. 2025. “Google Scholar Is Doomed.” Hannah’s Web log (blog), 13 de agosto, 2025. https://hannahshelley.neocities.org/blog/2025_08_13_GoogleScholar

Google Scholar, una herramienta clave en el ámbito académico, podría estar en riesgo de desaparecer, al igual que otros productos de Google que desaparido, como Google Reader o Google+

¿Alguna vez has recorrido el cementerio de Google? Es un lugar sobrecogedor. Fila tras fila de lápidas digitales marcan productos de los que millones de personas dependieron a diario. Google Reader (2005–2013), adorado por internautas de todo el mundo como el mejor servicio de suscripción de feeds RSS/Atom. Google Notebook (2006–2011), la primera herramienta de organización para la investigación. Al momento de esta publicación, 297 productos descansan en este cementerio, cada uno representando un flujo de trabajo esencial que, simplemente… dejó de funcionar de un día para otro.

Google ha demostrado que no tiene reparos en eliminar productos con una base de usuarios fiel, si estos no encajan con su dirección estratégica. Google Reader tenía millones de usuarios activos cuando lo cerraron. Hubo incluso una petición en change.org con 100.000 firmas protestando contra su cancelación.

Google Play Music (2011–2020) fue un reproductor y almacén musical que yo misma usé hasta su último día. Poco después le siguió la aplicación Google Podcasts (2018–2024). Los usuarios de ambas fueron forzados a migrar a YouTube Music, una aplicación con una experiencia totalmente distinta. (Aunque encontré alternativas de código abierto, así que no te preocupes por mí).

Google también probó suerte con redes sociales y apps de mensajería como Google Talk (2005–2013), Google+ (2011–2019) y Google Hangouts (2013–2022). No lograron imponerse frente al gigante Facebook, pero sin duda interrumpieron valiosas conexiones sociales entre usuarios que las utilizaban.

La academia depende de Google Scholar para gran parte de sus actividades. Más allá de la búsqueda de documentos, son los perfiles de autor y las métricas bibliométricas lo que mantiene atados a los académicos. Hemos construido infraestructuras enteras alrededor de este servicio gratuito. Universidades usan sus métricas para evaluar a su profesorado, decidir tenencias y otorgar subvenciones. Los programas de formación bibliotecaria lo enseñan. Los comités de promoción lo consultan. Los repositorios internacionales se integran con él. Lo tratamos como si fuera eterno, pero una visita al cementerio de Google debería hacernos reflexionar.

Google Scholar genera exactamente cero ingresos. No cobra, no ofrece planes premium ni muestra publicidad. Atiende a un público pequeño y especializado que no alimenta el negocio central de Google. En términos corporativos, es un “centro de costes”.

Google obtiene la mayor parte de sus ingresos de la publicidad en su buscador principal. Pero ese buscador está en declive. La empresa que prometió “organizar la información del mundo y hacerla universalmente accesible y útil” hoy entrega lo que expertos en SEO llaman “los peores resultados en 14 años”.

Los AI Overviews de Google están inundados de spam: estafadores manipulan fácilmente el sistema con rankings falsos de “los mejores” y contenido autopromocional que termina citado en resúmenes generados por IA. La cuota de mercado global de Google en búsquedas cayó por debajo del 90 % durante tres meses consecutivos a fines de 2024 (89,34 % en octubre, 89,99 % en noviembre, 89,73 % en diciembre), la primera caída sostenida bajo ese umbral desde 2015, mientras tendencias anecdóticas sugieren que cada vez más usuarios recurren a Reddit, ChatGPT e incluso TikTok como buscadores.

Si Google no puede mantener la calidad en su producto estrella —el que genera 175.000 millones de dólares anuales—, eso sugiere que está:

  • perdiendo su ventaja en búsqueda,
  • priorizando la IA sobre la calidad del buscador tradicional,
  • o ambas.

En cualquier caso, son malas noticias para Scholar. El declive del buscador expone la vulnerabilidad de este servicio.

Mientras los usuarios de Google Scholar siguen elaborando consultas booleanas como en 1995, todos sabemos que los estudiantes hoy recurren a la IA para tareas de investigación. Y algunas de estas herramientas ofrecen funciones impresionantes: buscan, sintetizan hallazgos, sugieren artículos relacionados y explican conceptos complejos. Su precisión y calidad pueden discutirse, pero si eres estudiante con una mentalidad de “aprobar es suficiente” y una entrega a medianoche, ¿por qué lidiar con la interfaz anticuada de Scholar cuando una IA puede ofrecerte artículos y un resumen curado?

Google ve claramente esta tendencia y sabe que Scholar se está volviendo infraestructura redundante. Scholar fue estratégico cuando evitaba que competidores dominaran la búsqueda académica, pero esos días, probablemente, ya pasaron.

La transformación estratégica de Google en una compañía AI-first choca frontalmente con mantener servicios académicos de nicho como Scholar. La empresa ha unificado todos sus esfuerzos en torno a Gemini, con el CEO Sundar Pichai afirmando que están “repensando todos los productos para un futuro impulsado por la IA”.

Un buen ejemplo: Microsoft Academic fue un buscador académico que alguna vez se presentó como alternativa a Scholar. A diferencia de este, abrió su base de datos de autores, instituciones, palabras clave y revistas como datos abiertos. Eso lo convirtió en un recurso muy valioso que apoyaba herramientas como VOSviewer, Unsub, Litmaps y Semantic Scholar. Aun así, Microsoft lo cerró en 2021.

La reacción académica mostró una falta de preparación sistémica. Pese a ser el segundo motor de búsqueda académica más grande, no existían planes de respaldo adecuados. OpenAlex y The Lens surgieron como reemplazos, pero expertos advirtieron que tardarían años en igualar la calidad y cobertura del servicio discontinuado. La interrupción afectó a empresas y herramientas académicas en todo el mundo. La lección: incluso infraestructuras académicas exitosas y ampliamente usadas pueden desaparecer si dejan de ser estratégicas para las compañías.

Si Scholar está tan condenado, ¿por qué ha sobrevivido tanto tiempo? Porque hay razones reales para mantenerlo, al menos de momento.

Aunque no genera beneficios directos, Scholar aporta valor a Google. Las instituciones académicas obligan de facto a los investigadores a usarlo, al hacer visibles sus métricas de citas y perfiles para ascensos y financiación. Pero esa participación requiere que los académicos creen cuentas de Google y acepten sus políticas de recopilación y procesamiento de datos. Así, Scholar encaja en el modelo de negocio de Google basado en vigilancia, información y publicidad conductual.

Google disfruta de un enorme poder en la comunidad académica, y Scholar ejerce un papel de gatekeeper, habiendo “convertido su sistema de conteo de citas en una herramienta que coordina la economía académica”.

Scholar es un ejemplo exitoso de capitalismo de plataforma aplicado a la infraestructura académica: aporta valor a los investigadores mientras refuerza los intereses estratégicos de Google mediante datos, marca y control del ecosistema. Esta es la razón de su supervivencia.

En 2024, Google celebró el 20 aniversario de Scholar con simpáticas entradas de blog y algunas funciones menores de IA. Pero ¿qué no proporcionó? Compromisos concretos de financiación, prioridad estratégica o sostenibilidad a largo plazo.

Así que aquí estamos: Google tiene un historial probado de cerrar herramientas académicas, Scholar no genera ingresos en una empresa obsesionada con prioridades multimillonarias, la IA está revolucionando la búsqueda de información, y la academia ha construido infraestructura crítica alrededor de un servicio gratuito y comercial que no ofrece garantías.

Según opinión de la autora Scholar desaparecerá en menos de cinco años. Google lo anunciará con doce meses de preaviso, habrá un colapso colectivo en Bluesky, las universidades se apresurarán a buscar alternativas y los flujos de trabajo de investigación estarán en caos durante años.

No digas que no lo advertí. Cuando Scholar se una a Google Reader en el cementerio digital, recuerda este momento.

Un 65 % de los encuestados reconoce el nombre de ChatGPT, pero solo un 37 % afirma haberlo usado

Northeastern University. “Half of U.S. Adults Now Use AI — but Views on How to Regulate the Technology Vary Widely by State, New Research Shows.” Northeastern Global News, August 12, 2025. https://news.northeastern.edu/2025/08/12/generative-ai-chatgpt-northeastern-survey/.

Un estudio reciente de la Northeastern University revela que la mitad de los adultos en Estados Unidos ya utiliza herramientas de inteligencia artificial generativa, aunque con diferencias notables en términos de frecuencia, demografía y contexto geográfico.

Según los datos, un 65 % de los encuestados reconoce el nombre de ChatGPT, pero solo un 37 % afirma haberlo usado. Otras plataformas como Gemini (26 %) o Microsoft Copilot (18 %) también se mencionan, aunque con un alcance significativamente menor.

La investigación subraya que el uso de la IA está marcado por la edad, el nivel educativo y los ingresos: los adultos jóvenes, con estudios universitarios y rentas más altas, son quienes más la adoptan, mientras que los adultos mayores y habitantes de áreas rurales muestran un uso mucho más limitado. Esta brecha refleja una desigual incorporación de la tecnología en función de las oportunidades y el acceso digital.

Otro hallazgo relevante es que las percepciones sobre la regulación de la IA varían ampliamente según el estado y no responden a la tradicional división política entre “rojos” y “azules”. En Missouri y Washington predomina la preocupación por la ausencia de regulación, mientras que en Nueva York y Tennessee el temor principal es un exceso de intervención gubernamental. Estos contrastes sugieren que los estados pueden convertirse en laboratorios de políticas públicas en torno a la IA, con marcos regulatorios adaptados a realidades locales.

En cuanto al impacto laboral, la mayoría de los participantes prevé que la IA afectará a sus empleos en los próximos cinco años, especialmente en regiones con fuerte presencia tecnológica, como California, Massachusetts, Texas o Georgia. En cambio, en el Midwest industrial y en áreas rurales, la percepción de riesgo inmediato es menor, lo que indica diferencias en la expectativa de transformación económica según el territorio.

Este trabajo forma parte del proyecto Civic Health and Institutions Project (CHIP50), una colaboración entre varias universidades que busca comprender cómo la ciudadanía estadounidense interactúa con la IA y qué espera de sus instituciones en relación con esta tecnología. Los investigadores destacan que se trata del primer estudio que ofrece un panorama comparativo a nivel estatal sobre uso, regulación y percepciones hacia la inteligencia artificial.

La manipulación de chatbots puede multiplicar por 12 la exposición de información privada

Zhan, Xiao; Carrillo, Juan-Carlos; Seymour, William; y Such, José. 2025. “Malicious LLM-Based Conversational AI Makes Users Reveal Personal Information.” En Proceedings of the 34th USENIX Security Symposium, USENIX Association.

Texto completo

Un estudio reciente de King’s College London ha puesto de relieve la vulnerabilidad de los chatbots de inteligencia artificial (IA) con apariencia conversacional humana, utilizados por millones de personas en su vida diaria. La investigación demuestra que estos sistemas pueden ser manipulados con relativa facilidad para conseguir que los usuarios revelen mucha más información personal de la que compartirían en un contexto habitual.

Los resultados son especialmente llamativos: cuando los chatbots son diseñados o modificados con intenciones maliciosas, los usuarios llegan a proporcionar hasta 12,5 veces más datos privados que en interacciones normales. Este incremento se logra mediante la combinación de técnicas de ingeniería de prompts —instrucciones específicas que orientan el comportamiento del modelo— y estrategias psicológicas bien conocidas, como la creación de confianza, la apelación emocional o el uso de preguntas aparentemente inocentes que llevan a respuestas más profundas de lo esperado.

El estudio recalca además que no es necesario poseer una alta especialización técnica para lograr esta manipulación. Dado que muchas compañías permiten el acceso a los modelos base que sustentan a sus chatbots, cualquier persona con conocimientos mínimos puede ajustar parámetros y configuraciones para orientar la conversación hacia la obtención de datos sensibles, lo que multiplica el riesgo de un uso indebido.

Las implicaciones son serias. El trabajo de King’s College London alerta sobre la fragilidad de la privacidad en entornos digitales donde la interacción con chatbots se percibe como inofensiva y rutinaria. En contextos como la atención al cliente, el asesoramiento médico o financiero, o incluso el acompañamiento emocional, la posibilidad de que un chatbot manipulado extraiga información confidencial plantea amenazas directas a la seguridad de las personas y a la protección de sus datos.

Ante este escenario, los investigadores subrayan la urgente necesidad de reforzar las medidas de seguridad y protección de datos en los sistemas de IA conversacional. Proponen, entre otras acciones:

  • Desarrollar protocolos de verificación más estrictos sobre el acceso y modificación de modelos base.
  • Implementar mecanismos de detección de manipulación en los propios chatbots.
  • Fomentar la educación digital de los usuarios, para que reconozcan patrones de conversación sospechosos.
  • Establecer regulaciones claras y exigentes que limiten el mal uso de estos sistemas.

En definitiva, el estudio concluye que, aunque los chatbots de IA tienen un enorme potencial para mejorar la interacción humano-máquina, su diseño y despliegue deben ir acompañados de fuertes garantías éticas y técnicas, de lo contrario podrían convertirse en herramientas de explotación de la privacidad a gran escala.

La biblioteca de cabecera de Eduardo Halfon

No hace mucho murió un amigo de Brooklyn, un norteamericano radicado en Guatemala desde los años setenta, llamado Bruno Sanders. Era un viejo bestial, en todo sentido. Vivía al límite. Fumaba sin parar (Salem mentolados), bebía demasiado (Stolichnaya con hielo), tartamudeaba con elocuencia y solo cuando le convenía. Y, claro: devoraba libros.

Su casa de madera, tipo cabaña, estaba en Santa Cruz, un pueblo pintoresco a orillas del lago Atitlán. La primera vez que lo visité, me había invitado a desayunar. Salí muy temprano de la capital, dejé mi coche en Panajachel (la carretera no llega hasta Santa Cruz) y tomé una lancha pública que, tras cruzar medio lago y veinte minutos de viaje, me dejó en el viejo muelle frente a su cabaña.

Recuerdo que preparó café, pan tostado, huevos revueltos con cebolla caramelizada y queso gruyer. Fumamos. Sanders me habló de su infancia en Brooklyn, de su hija y de sus dos pintores favoritos. Degas, dijo, solía comprar sus propios cuadros para seguir trabajándolos. Bonnard, contó, una vez entró con un amigo al Museo de Luxemburgo y le pidió que distrajera al guardia unos minutos, mientras él sacaba crayones y retocaba un lienzo suyo que llevaba años colgado allí.

Luego, sonriendo, me preguntó si quería conocer su biblioteca. Salimos de la cocina.

Aunque inmensa, su biblioteca se parecía a cualquier otra. En un dormitorio, la literatura en lengua germana; en otro, más grande, la de lengua española; en las paredes alrededor del comedor, la francesa; en la sala, mezcladas, la norteamericana, inglesa e irlandesa; a lo largo de un pasillo, la eslava; en otro, más breve, la italiana; y en una estantería del baño de visitas, frente al inodoro, su colección de haikú y bunraku japonés. Todo más o menos normal —aunque, como decía Borges, el orden de una biblioteca es una manera silenciosa de ejercer el arte de la crítica—, hasta que llegamos a su dormitorio.

Detrás de la cama, sobre una especie de mesa larga que también hacía de cabecera, vi una fila de libros idénticos, encuadernados en cuero marrón con finas letras doradas. Pensé que eran tomos de una enciclopedia. Pero al acercarme leí que el primero era de un autor cuyo nombre me resultaba lejanamente familiar: Launcelot Canning. El título también me sonaba: El loco Tryst. Le pedí a Sanders que me dejara verlo (ya estaba casi encima de su cama) y él, con una mirada brillosa que debió advertirme, me dijo que adelante.

En las manos, el libro parecía nuevo, intacto, recién encuadernado. Pero al abrirlo descubrí que el primer centenar de páginas estaba escrito a mano, en una caligrafía negra, perfecta y simétrica. Avancé hasta que, hacia la mitad, la tinta se detenía. El resto de las hojas estaba en blanco, como si fuera un libro abandonado o en proceso. No entendí. Murmuré algo, pero Sanders solo sonrió, incitándome a seguir.

Dejé el libro y tomé el siguiente: El monitor de los bípedos, de Cósimo Piovasco de Rondò. Otra vez el nombre me resultaba familiar. Otra vez, todas las páginas estaban escritas a mano con la misma caligrafía negra. Al final, también a mano, un índice: «El canto del mirlo», «El picamadero que llama», «Los diálogos de los búhos», «La gaceta de las urracas».

Lo miré, buscando una explicación, pero él estaba distraído, mirando hacia el lago, tal vez siguiendo con la vista a un anciano que, a lo lejos, pescaba de pie en un cayuco de madera.

Tomé otro tomo: Caminatas matutinas de un sinólogo, de Peter Kien. Y entonces, como si alguien hubiera encendido un candil, empecé a comprender. Un cuarto libro confirmó mi sospecha: Abril marzo, de Herbert Quain, con sus trece capítulos, nuevamente escritos a mano y en la misma tinta negra.

Herbert Quain es un personaje de Borges, autor, según él, de la «novela regresiva, ramificada» Abril marzo. Peter Kien, protagonista de Auto de fe, de Canetti, escribía un libro que recogía su «colección de estupideces humanas» durante sus caminatas matutinas, y pensaba titularlo Caminatas matutinas de un sinólogo. Cósimo Piovasco de Rondò, más conocido como «el barón rampante» de Italo Calvino, escribió —siempre según Calvino— un libro compuesto en un «período de demencia» vivido entre ramas de árboles, titulado El monitor de los bípedos. Launcelot Canning es personaje de La caída de la casa Usher, de Poe, y, según ese cuento, autor de El loco Tryst.

Si la memoria no me falla, en esa misma fila había otros tomos —empezados, por empezar o tal vez ya concluidos— firmados por Ceferino Piriz, Kilgore Trout, Eusebius Chubb o Clare Quilty.

Bruno Sanders estaba escribiendo los libros inexistentes de autores ficticios. Estaba, en definitiva, construyendo él mismo su biblioteca de cabecera.

Halfon, Eduardo. Biblioteca bizarra. Editado por Andrea Naranjo. Ecuador: USFO especificada], 2021. ISBN 978-9978-68-193-0

Cambios en el uso de materiales de la Biblioteca Pública de San Francisco (2012–2021): una transformación cultural y tecnológica

Fracassa, Dominic. 2021. “How the Pandemic Transformed San Francisco’s Public Libraries.” San Francisco Chronicle, November 28, 2021. https://www.sfchronicle.com/sf/article/How-the-pandemic-transformed-San-Francisco-s-16667414.php

El gráfico que representa la circulación de materiales físicos y digitales en la Biblioteca Pública de San Francisco (SFPL) entre 2012 y 2021 no solo muestra una curva de préstamo, sino también una historia más amplia sobre cómo evolucionan las bibliotecas ante los cambios tecnológicos, sociales y sanitarios.

Caída sostenida de los materiales físicos

En 2012, la circulación de materiales físicos (libros impresos, revistas, DVDs, CDs, vinilos, etc.) era dominante, alcanzando casi 10 millones de préstamos anuales. Esta cifra es reflejo del modelo tradicional de biblioteca, donde el contacto físico con los documentos era el centro de la experiencia bibliotecaria.

Sin embargo, con el paso de los años se observa una tendencia descendente progresiva en este tipo de circulación. Aunque algunos factores pueden estar relacionados con la preferencia por medios digitales, también influyen los cambios en los hábitos culturales: menor consumo de soportes físicos como CDs o DVDs, y mayor acceso a contenidos desde dispositivos personales.

El punto más dramático se produce en el año fiscal 2020–2021, cuando el número de préstamos físicos cae casi a cero. Este descenso no se debe solo a una preferencia voluntaria del usuario, sino al cierre temporal de bibliotecas y restricciones sanitarias derivadas de la pandemia de COVID-19, que impidieron el acceso físico a las colecciones.

Ascenso sostenido de los materiales digitales

En contraste, en 2012 el préstamo de materiales digitales era aún marginal. Aun así, desde entonces la SFPL comenzó a invertir en plataformas digitales, ampliando su colección de ebooks, revistas electrónicas, periódicos digitales y contenidos en streaming (como películas, audiolibros y cursos).

Con el paso de los años, estos servicios fueron ganando adeptos, especialmente entre públicos jóvenes o tecnológicamente familiarizados. En 2021, los préstamos digitales alcanzaron los 4 millones, superando por primera vez a los materiales físicos.

Esta transición se aceleró durante la pandemia, cuando los servicios digitales se convirtieron en la única vía de acceso a la biblioteca para miles de usuarios. El crecimiento repentino sugiere que muchos usuarios adoptaron estos formatos no solo por necesidad, sino también por comodidad y eficiencia.

La pandemia como catalizador

El periodo 2020–2021 fue decisivo. Las restricciones sanitarias obligaron a cerrar sucursales, suspender eventos presenciales y repensar los servicios de la biblioteca. Esto forzó a instituciones como la SFPL a reconfigurar su oferta digital, expandiendo licencias, aumentando el presupuesto para contenidos electrónicos y formando a su personal y usuarios en el uso de nuevas plataformas.

Para muchos usuarios, esto significó su primer contacto serio con libros digitales o plataformas de streaming educativo o cultural.

Reflexión sobre tendencias

La evolución observada en San Francisco no es un caso aislado. Bibliotecas de todo el mundo han experimentado presiones similares. Sin embargo, la SFPL destaca por haber ofrecido una infraestructura digital robusta que permitió sostener el acceso al conocimiento durante la emergencia sanitaria.

Este cambio apunta a un modelo híbrido, en el que la presencia física seguirá siendo fundamental para la comunidad (especialmente para grupos sin acceso digital), pero donde los recursos digitales ocuparán un espacio cada vez más central en la estrategia bibliotecaria.

La transición no está exenta de desafíos: brechas digitales, derechos de autor en licencias digitales, costes de suscripción, y la necesidad de mantener colecciones físicas vivas y atractivas.

ChatGPT-5, presenta una reducción significativa en las llamadas “alucinaciones”

Baden, Matthew. «Tests Reveal That ChatGPT-5 Hallucinates Less Than GPT-4o Did — and Grok Is Still the King of Making Stuff UpTechRadar, August 8, 2025. https://www.techradar.com/ai-platforms-assistants/tests-reveal-that-chatgpt-5-hallucinates-less-than-gpt-4o-did-and-grok-is-still-the-king-of-making-stuff-up?utm_source=flipboard&utm_content=other

Recientes pruebas comparativas entre modelos avanzados de inteligencia artificial han revelado que ChatGPT-5, la versión más reciente del popular asistente de OpenAI, presenta una reducción significativa en las llamadas “alucinaciones” — es decir, respuestas erróneas, inventadas o sin fundamento — en comparación con su predecesor, GPT-4o.

Esta mejora en la precisión representa un paso importante hacia una IA más confiable y útil para aplicaciones que requieren datos exactos y consistencia en la información proporcionada.

A pesar de estos avances, otro competidor en el ámbito de los asistentes IA, Grok, desarrollado por Anthropic, continúa siendo la IA que más tiende a generar datos incorrectos o inventados, lo que se denomina coloquialmente como “hacer stuff up”. Aunque Grok es reconocido por su velocidad de respuesta y su habilidad para mantener conversaciones naturales y fluidas, sufre limitaciones en la exactitud de sus respuestas, lo que puede resultar problemático en contextos que demandan alta precisión.

El análisis destaca que la reducción de alucinaciones en ChatGPT-5 no implica que esté completamente libre de errores, por lo que la verificación y validación de la información siguen siendo cruciales cuando se emplea esta tecnología, especialmente en ámbitos profesionales, académicos o científicos. Además, el artículo subraya la importancia de que los desarrolladores sigan trabajando para equilibrar la velocidad, la fluidez y la precisión de las IA, para optimizar su desempeño sin sacrificar la confiabilidad.

Este tipo de evaluaciones es fundamental para usuarios, desarrolladores y empresas que dependen de modelos de lenguaje para tareas complejas, y también refleja cómo la competencia en el desarrollo de IA impulsa mejoras constantes y la necesidad de transparencia sobre las limitaciones actuales.

Biblioteca Pública de Boston y Harvard impulsan el acceso a archivos históricos mediante inteligencia artificial

NPR. “Boston Public Library Aims to Increase Access to a Vast Historic Archive Using AI. NPR, 11 de agosto de 2025. Consultado el 11 de agosto de 2025.

La Biblioteca Pública de Boston (BPL) ha lanzado este verano una innovadora colaboración con la Biblioteca de Derecho de Harvard y OpenAI. Su objetivo es digitalizar extensos archivos históricos y hacerlos plenamente accesibles y buscables mediante inteligencia artificial. De este modo, el patrimonio documental se vuelve más utilizable tanto para investigadores como para el público general

Esta iniciativa no solo impulsa la preservación, sino que también busca modernizar los metadatos y procesos digitales existentes con apoyo del Harvard Law School’s Library Innovation Lab (a través de su Institutional Data Initiative, o IDI). El propósito es equilibrar el poder de la IA con la experiencia curatoría, beneficiando tanto a académicos como a usuarios habituales, incluidos quienes buscan explorar historia local y patrimonio cultural.

Por su parte, Harvard ha liberado casi un millón de libros de dominio público (del proyecto Google Books), en múltiples idiomas y épocas, como parte del “Institutional Books 1.0”. Este conjunto, que abarca textos desde el siglo XV y contiene millones de páginas, está siendo puesto a disposición de desarrolladores de IA y plataformas como Hugging Face.

El uso de datos de dominio público minimiza las polémicas legales relacionadas con derechos de autor, mientras que estas colecciones históricas —religiosas, literarias, jurídicas y científicas— enriquecerán los modelos de IA con información fundamentada y diversa. Sin embargo, también existe el riesgo de reproducir contenido desfasado o dañino, como narrativas racistas o teorías científicas obsoletas. Por ello, se está fomentando un uso informado y responsable del material.

Este enfoque representa un cambio en la forma en que las bibliotecas públicas y universitarias participan en el desarrollo de la IA. Al democratizar el acceso a estas fuentes y al involucrar a las bibliotecas como custodios éticos de datos, se busca devolver parte del control a estas instituciones, con beneficios tanto para la comunidad como para el ecosistema tecnológico.

La inteligencia artificial en la publicación académica: un estudio sobre las directrices y políticas de las revistas de Biblioteconomía y Documentación


Gao, W., Liu, G., Huang, M. B., & Yao, H. (2025). AI in Scholarly Publishing: A Study on LIS Journals’ Guidelines and PoliciesInternational Journal of Librarianship10(2), 85–100. https://doi.org/10.23974/ijol.2025.vol10.2.419

Se investiga el panorama actual de las directrices y políticas relacionadas con el uso de inteligencia artificial generativa en revistas del ámbito de la Bibliotecología y Ciencias de la Información (LIS).

En un contexto en el que herramientas como ChatGPT se han popularizado para realizar tareas como corrección gramatical, análisis estadístico o redacción de manuscritos, los autores destacan preocupaciones éticas sobre autoría, derecho de autor, reproducibilidad y transparencia en la investigación

Mediante un enfoque metodológico descriptivo, se revisaron las normas editoriales de un conjunto de revistas LIS seleccionadas a partir de la lista de Nixon y se aplicaron estadísticas básicas para comparar revistas con y sin políticas explícitas sobre IA generativa.

Los resultados revelan que, de las 45 revistas estudiadas, 31 (69 %) incluyen algún tipo de declaración sobre el uso de IA en sus directrices. La mayoría exige a los autores declarar el uso de estas herramientas, y algunas (16) extienden regulaciones también a editores y revisores, incluyendo prohibiciones como el uso de manuscritos en sistemas de IA externos.

Además, se observa una carencia notable de tales políticas en revistas de acceso abierto, lo que plantea riesgos en cuanto a la calidad editorial y la proliferación de prácticas predatorias. Los autores concluyen subrayando la necesidad de estandarizar las declaraciones sobre el uso de IA generativa para fortalecer la integridad del proceso de publicación académica.