La biblioteca árida de Eduardo Halfon

Una madrugada, hace algunos años, me llamó mi madre para decirme que, durante la noche, había muerto una tía abuela; que el entierro sería esa misma tarde; que había dejado una biblioteca personal enorme y no sabían qué hacer con tanto libro.

Le ofrecí a mi madre ir a verlos de inmediato y luego darle mi opinión. Me vestí con el entusiasmo que solo conoce un bibliófilo.

Cuando llegué, me sorprendió descubrir que la casa de mi tía abuela estaba ya, a pocas horas de su muerte, completamente vacía. Solo quedaban unas cuantas plantas en macetas de barro; algunas manchas en las paredes donde, durante décadas, colgaron sus cuadros; las alfombras persas traídas desde Damasco, ya fétidas y con el desgaste de toda una vida; y, por supuesto, sus libros.

Mi tía abuela, que murió a los 99 años, había dejado una biblioteca sionista. Casi todos los libros eran sobre el Estado de Israel: su creación, sus logros y conflictos, sus guerras, sus gobiernos y líderes. Había obras de Theodor Herzl, Chaim Weizmann, Golda Meir y David Ben-Gurión. Estaba la poesía de Yehuda Halevi. Estaban las novelas de Leon Uris.

No sé por qué, sentado en una alfombra persa mientras ojeaba libro tras libro, me sentí triste. Pensé en toda una vida —casi un siglo— dedicada a la lectura de un solo tema, a la lectura de un ideal, a la lectura de un pueblo y su deseado pedacito de tierra árida en el Mediterráneo. Pensé en mi muerte. Pensé en alguien llegando a mi casa después de mi fallecimiento, husmeando entre las estanterías de caoba de mi biblioteca personal.

¿Cuál sería entonces, según ese alguien, mi tema o mi ideal, mi deseado y árido pedacito de tierra? ¿Será que hay allí, entre mis tantos libros, entre mis tantas lecturas y seducciones literarias —y acaso sin que yo siquiera lo sepa— el deseo secreto y profundo de algún pedacito de tierra?

“La biblioteca de un hombre”, decía Ralph Waldo Emerson, “es una especie de harén”.

En la biblioteca de mi tía abuela había un libro que no trataba del todo sobre sionismo… o tal vez sí. Un escueto volumen (116 páginas) del autor Ierajmiel Barylka, impreso rústicamente en 1987 por la editorial Maguen David A.C., en la Colonia Polanco de la Ciudad de México, dilatadamente titulado: Matrimonio mixto. Un enfoque básico acerca de un problema que atañe a la juventud, a los padres de familia y a la comunidad.

Y ya marchándome de la casa de mi tía abuela, con solo ese libro en las manos, recordé a mi padre tumbado boca arriba en su cama, viendo no sé qué programa en la televisión, y amenazando con desheredarme. Nunca subió la mirada. No elevó el tono de voz. Nada más me dijo, sin dejar de mirar la pantalla, que si yo llegaba a casarme fuera del judaísmo, si desafiaba ese mandato, él me desheredaría.

Yo me quedé callado. Estaba de pie junto a la cama. Tenía ya dieciséis años y no era la primera vez que escuchaba sus ideas sobre el matrimonio mixto y el judaísmo. Pero sí era la primera vez que él me amenazaba de forma tan directa, tan explícita. Y su amenaza, claro, era económica. Estaba comprando mi obediencia.

Y yo, ahí parado, aún mudo, supe inmediatamente que no obedecería. Y no obedecí.

Mi padre, hoy, cuando le menciono aquella escena, niega haberme amenazado. Para él, supongo, es más fácil borrar cualquier rastro de esa memoria que aceptar el hecho de que su hijo primogénito le desobedeció; que su poder, o su dinero, fue insuficiente.

Halfon, Eduardo. Biblioteca bizarra. Editado por Andrea Naranjo. Ecuador: USFO especificada], 2021. ISBN 978-9978-68-193-0

Uso de la Inteligencia Artificial en la preparación de artículos científicos más accesibles para personas con discapacidad

Los modelos de lenguaje grandes (LLMs), como ChatGPT 4o, pueden facilitar la conversión de documentos científicos, especialmente archivos en LaTeX, hacia formatos accesibles que cumplan con los estándares de accesibilidad para personas con discapacidad visual.

La necesidad de esta transformación radica en superar las limitaciones del formato visual (como negritas o centrados) que dificulta el uso de tecnologías asistivas como lectores de pantalla. A diferencia del formato visual, el formato lógico —como usar comandos específicos de LaTeX (\title{}, \section{}, \author{})— permite una estructura semántica reconocible tanto para humanos con discapacidad como para máquinas

Durante un hackatón de tres días organizado por la Chan Zuckerberg Initiative en septiembre de 2024, los autores probaron un método zero-shot: sin entrenamiento específico, ChatGPT intentaba convertir archivos con formato visual en otros más estructurados y accesibles. Los resultados fueron mixtos: aunque en algunos casos logró reemplazar adecuadamente elementos como título, autores o secciones mediante comandos LaTeX semánticos, muchas veces alternó estilos visuales por comandos incorrectos, alterando el contenido, generando errores de compilación o incluso sustituyendo autores entre documentos no relacionados.

Ante estos desafíos, los investigadores identificaron que los LLMs requerían supervisión humana constante y prompts más precisos. En particular, la generación de un diálogo iterativo permitió mejorar los resultados; sin embargo, la fiabilidad seguía siendo insuficiente para implementaciones a gran escala sin revisión adicional

Como alternativa más prometedora, se propone entrenar un modelo personalizado: partir de un corpus de documentos accesibles correctamente etiquetados, generar versiones con formato visual, y entrenar al modelo para revertir ese proceso de forma precisa. Este enfoque podría superar las limitaciones observadas en el enfoque zero-shot actual

La biblioteca ciega de Eduardo Halfon

“Sus contemporáneos le decían Beta, la segunda letra del abecedario griego, porque en todo lo que hacía era el segundo mejor. Su nombre era Eratóstenes. Fue matemático, poeta, astrónomo, geógrafo, atleta y bibliotecario. Fue el tercer bibliotecario de la Biblioteca de Alejandría. Al quedarse ciego, Eratóstenes dejó de comer, hasta suicidarse”.

Halfon, Eduardo. Biblioteca bizarra. Editado por Andrea Naranjo. Ecuador: USFO especificada], 2021. ISBN 978-9978-68-193-0

OpenAI lanza GPT-5, la última versión de su modelo de IA ChatGPT

AP News. 2025. “OpenAI Launches GPT-5.” August 7. https://apnews.com/article/gpt5-openai-chatgpt-artificial-intelligence-d12cd2d6310a2515042067b5d3965aa1

GPT-5 es la última versión del modelo de lenguaje que impulsa ChatGPT. Representa un salto significativo en capacidades de razonamiento, precisión, velocidad y adaptabilidad. Está diseñado para ofrecer respuestas más útiles, seguras y contextualmente relevantes.

Este modelo representa un avance notable en la capacidad de comprender y resolver tareas complejas, desde problemas matemáticos hasta redacción profesional, programación y análisis en áreas como salud y finanzas.

Entre sus principales novedades, GPT-5 puede ajustar su nivel de “esfuerzo cognitivo” según la tarea, lo que permite respuestas más rápidas o más profundas dependiendo del contexto. También ofrece explicaciones previas antes de utilizar herramientas externas, lo que mejora la transparencia en sus decisiones. Además, se ha optimizado para interactuar de forma más natural y eficiente, adaptándose al estilo y necesidades del usuario sin requerir configuraciones manuales.

El modelo está disponible en distintos planes: gratuito, Plus ($20/mes), Pro ($200/mes) y empresarial. Incluso en la versión gratuita se puede acceder a GPT-5, aunque con

Principales mejoras

  • Razonamiento avanzado: GPT-5 se comporta como un experto con doctorado en múltiples disciplinas. Puede resolver problemas complejos de matemáticas, ciencias, programación y salud.
  • Codificación instantánea: Capaz de generar software funcional completo a partir de simples instrucciones en texto, lo que OpenAI denomina “vibe-coding”.
  • Redacción profesional: Mejora la calidad, coherencia y estilo de textos técnicos, creativos y empresariales.
  • Salud y finanzas: Ofrece respuestas más precisas en temas médicos y financieros, aunque no sustituye a profesionales humanos.
  • Interacción adaptativa: El modelo decide en tiempo real qué priorizar (velocidad, profundidad, estilo) según la tarea, sin necesidad de seleccionar versiones específicas.

ciertas limitaciones.

Sam Altman, CEO de OpenAI, ha comparado su impacto con el del primer iPhone, destacando que aunque el salto respecto a GPT-4 no es radical, GPT-5 sobresale por su fiabilidad y competencia general.

La fiabilidad de ChatGPT en la detección de artículos retractados y la veracidad de la información académica

Thelwall, M., Lehtisaari, M., Katsirea, I., Holmberg, K., & Zheng, E.-T. (2025). Does ChatGPT ignore article retractions and other reliability concerns? Learned Publishing. Advance online publication. https://doi.org/10.1002/leap.2018

El trabajo destaca la necesidad de un uso crítico y cuidadoso de herramientas como ChatGPT en contextos académicos, donde la precisión y la confiabilidad de la información son esenciales.

El estudio examina cómo los modelos de lenguaje grande (LLMs), específicamente ChatGPT 4o-mini, manejan información sobre artículos académicos que han sido retractados o que presentan problemas de confiabilidad. Los autores recopilaron un conjunto de 217 estudios académicos que habían sido retractados o señalados por problemas, todos con alta repercusión en redes sociales (altmetrics). Se pidió a ChatGPT 4o-mini que evaluara la calidad de estos artículos en múltiples ocasiones (un total de 6510 evaluaciones). Sorprendentemente, en ninguna de las respuestas se mencionó que los artículos estaban retractados ni que tenían errores significativos, y en muchas ocasiones se les asignaron calificaciones altas, como «de clase mundial» o «excelente a nivel internacional».

Además, en un análisis complementario, se tomaron 61 afirmaciones extraídas de estos artículos problemáticos y se consultó a ChatGPT si cada una era verdadera. En dos tercios de los casos, el modelo respondió afirmativamente, incluyendo afirmaciones que ya habían sido desmentidas hacía más de diez años. Estos hallazgos ponen de relieve un riesgo importante: aunque los LLMs son cada vez más utilizados para apoyar revisiones académicas y búsquedas de información, no siempre detectan ni advierten sobre la retirada o la invalidez de la información que manejan. Por lo tanto, los usuarios deben ser cautelosos y verificar cuidadosamente cualquier contenido generado por estos modelos para evitar la propagación de información falsa o desactualizada.

Anthropic acelera su defensa de “uso justo” en juicio por derechos de autor de entrenamiento con libros pirateados

Davis, W. (2025, 5 de agosto). Anthropic presses for fast appeal in copyright fight. MediaPost. Recuperado de MediaPost. https://www.mediapost.com/publications/article/407952/anthropic-presses-for-fast-appeal-in-copyright-fig.html

Anthropic, la empresa detrás del chatbot Claude, solicita que un tribunal de apelación federal se pronuncie de inmediato sobre su defensa basada en el “uso justo” (fair use) frente a las acusaciones de infracción de derechos de autor. Los demandantes—las autoras Andrea Bartz, Charles Graeber y Kirk Wallace Johnson—afirmaron que la compañía entrenó el modelo con libros descargados de sitios pirata sin autorización. Anthropic justificó su defensa argumentando que el uso de materiales con fines de entrenamiento de IA constituye «uso justo», independientemente del origen de dichos textos.

Anteriormente, el juez William Alsup determinó que el entrenamiento del modelo con libros adquiridos legalmente fue “altamente transformativo” y, por tanto, protegido bajo fair use. Sin embargo, negó la misma protección en los casos en que se emplearon textos descargados de fuentes ilícitas

Anthropic subraya que el fallo supone un riesgo potencial de responsabilidad económica masiva —cientos de miles de millones de dólares— si el caso continúa como juicio de clase, sin que se clarifiquen primero los lineamientos legales mediante una apelación. La empresa argumenta además que el hecho de que el material se haya adquirido de forma no autorizada no debería invalidar una defensa de fair use, ya que dicho principio existe precisamente para permitir usos sin permiso.

El juez Alsup programó una audiencia para abordar estas peticiones el 28 de agosto de 2025. Además, se ha autorizado que el caso continúe como demanda colectiva en representación de autores cuyos libros fueron descargados desde las bibliotecas pirata LibGen y PiLiMi, aunque con ciertas limitaciones sobre quiénes pueden reclamar

Escribir es pensar: reflexión crítica sobre el papel de la IA en la redacción científica

Writing is thinking. Nat Rev Bioeng 3, 431 (2025). https://doi.org/10.1038/s44222-025-00323-4

El texto subraya que escribir no se reduce a comunicar resultados, sino que es una herramienta esencial para descubrir y ordenar ideas de manera estructurada. Al plasmar pensamientos en palabras, se logra transformar años de investigación en una narrativa coherente que permite definir claramente el mensaje central y el impacto del trabajo científico

Escribir artículos científicos es una parte integral del método científico y una práctica habitual para comunicar los resultados de la investigación. Sin embargo, escribir no consiste únicamente en informar de resultados; también es una herramienta para descubrir nuevos pensamientos e ideas. La escritura nos obliga a pensar —no de la forma caótica y no lineal en la que nuestra mente suele divagar, sino de manera estructurada e intencional—. Al ponerlo por escrito, podemos ordenar años de investigación, datos y análisis en una historia coherente, identificando así nuestro mensaje principal y la influencia de nuestro trabajo. Esto no es solo una observación filosófica; está respaldada por evidencias científicas. Por ejemplo, escribir a mano puede generar una amplia conectividad cerebral y tener efectos positivos sobre el aprendizaje y la memoria.

Aunque los modelos de lenguaje grandes (LLMs) pueden generar artículos y hasta revisiones de pares en pocos minutos, el editorial advierte que carecen de responsabilidad ética y académica. Además, su contenido puede contener errores, como referencias inventadas o hallazgos inexactos (fenómeno conocido como hallucination), lo que exige una verificación exhaustiva

Los LLMs actuales también pueden equivocarse, un fenómeno conocido como alucinación. Por ello, el texto generado por estos modelos debe ser revisado y verificado minuciosamente (incluyendo cada referencia, ya que podría ser inventada). Esto pone en duda cuánto tiempo ahorran realmente los LLMs en la actualidad. Puede resultar incluso más difícil y llevar más tiempo editar un texto generado por un LLM que redactar un artículo o un informe de revisión por pares desde cero, en parte porque para poder editarlo es necesario comprender el razonamiento que hay detrás. Algunos de estos problemas podrían abordarse con LLMs entrenados únicamente con bases de datos científicas, como se describe en un artículo de revisión de Fenglin Liu y su equipo incluido en este mismo número. El tiempo lo dirá.

No obstante, los LLMs pueden tener un papel útil: ayudan a mejorar la gramática y la claridad, especialmente para quienes no son hablantes nativos de inglés. También pueden servir para resumir literatura, estimular la creatividad o superar bloqueos de escritura, Sin embargo, el editorial concluye que delegar completamente la escritura a estos modelos puede impedirnos reflexionar profundamente y elaborar una narrativa memorable, una habilidad valiosa más allá del ámbito académico

Crecimiento y tendencias globales de la publicación en acceso abierto (2003–2022)

National Center for Science and Engineering Statistics. (2025). Open-Access Publishing in a Global Context (NSF 25-347). Alexandria, VA: U.S. National Science Foundation. Disponible en https://ncses.nsf.gov/pubs/nsf25347

Desde 2003, la proporción de artículos de acceso abierto (OA) ha experimentado un crecimiento notable a nivel mundial hasta 2022, llegando a representar casi la mitad de todas las publicaciones científicas revisadas por pares. El estudio, realizado por el National Center for Science and Engineering Statistics (NCSES) dentro de la NSF y basado en datos del índice Scopus, analiza estos patrones globales de publicación OA, resaltando la variabilidad entre países según sus niveles de ingreso.

Los países de ingresos bajos muestran una alta proporción relativa de publicaciones en revistas de acceso abierto tipo “Gold” (OA dorado), que son aquellas totalmente accesibles y usualmente requieren una tasa de procesamiento de artículos (APC). No obstante, a pesar de esta alta proporción, estos países producen una fracción pequeña del total mundial de artículos Gold OA. En los países de ingreso más alto, como Estados Unidos, la proporción de Gold OA también ha aumentado (del 6 % en 2012 al 22 % en 2022), aunque el acceso cerrado sigue siendo considerable. En la Unión Europea (UE-27) y el Reino Unido, el incremento ha sido aún más pronunciado: el porcentaje de artículos Gold OA subió del 8 % al 33 %, mientras que los artículos de acceso cerrado disminuyeron del 53 % al 29 %, haciendo que Gold OA superara al acceso cerrado desde 2021 .

El informe también examina el impacto científico medido por la proporción de artículos altamente citados (top 1 %). En 2020, los artículos Gold OA alcanzaron un índice HCA de 0,74, por debajo del valor base de 1, mientras que los artículos Green OA (repositorios) lograron un índice mucho más elevado, de 2,01. Este patrón revela que, aunque el OA está creciendo en volumen, su impacto científico relativo varía según el tipo de acceso.

El documento concluye enfatizando que el aumento en la cantidad de publicaciones OA puede reflejar un cambio en las prácticas editoriales a nivel global, con países como Estados Unidos y China mostrando una tendencia creciente hacia el acceso abierto. También señala limitaciones en los datos, como un posible sesgo hacia publicaciones en inglés debido a la cobertura de Scopus y la exclusión de revistas que no cumplen con las mejores prácticas de revisión por pares establecidas por DOAJ

Sueños posibles: experiencias bibliotecarias significativas

Parra Olivares, Andrés Mauricio; Jeimmy Arévalo Melo. G y otros. Sueños posibles: experiencias bibliotecarias significativas. Bogotá: Secretaría de Cultura, Recreación y Deporte; Dirección de Lectura y Bibliotecas; Sistema de Bibliotecas de Bogotá (SiBiBo), 2023.

Texto completo

En los espacios de socialización de experiencias bibliotecarias significativas, innovadoras o exitosas —adjetivos con los que suelen calificarse— no es extraño escuchar comentarios como estos: “yo hago algo muy parecido en mi biblioteca; la única diferencia es que no lo he escrito”, “los bibliotecarios deberíamos escribir, sistematizar e investigar más”. Aparte del reconocimiento de la importancia de escribir sobre la experiencia en el ámbito bibliotecario, el primero de estos enunciados supone una cierta comprensión de la escritura como una puesta en texto de una experiencia ya dada, que existe antes de ser escrita. Por una parte, tendríamos la experiencia en sí misma y, por otra, el texto que pretendidamente la refleja.

NISO publica los resultados de una encuesta sobre IA y sistemas de descubrimiento en bibliotecas

NISO Open Discovery Initiative. Generative Artificial Intelligence and Web‑Scale Discovery: Survey Report. Baltimore, MD: National Information Standards Organization, agosto 2025.

Texto completo

El 5 de agosto de 2025, la National Information Standards Organization (NISO) divulgó los resultados de una encuesta que indagó en las expectativas y desafíos vinculados a la integración de la inteligencia artificial generativa (GenAI) en los sistemas de descubrimiento bibliográfico a gran escala

.

El resultado clave destaca la complejidad de adaptar la IA generativa en las herramientas de descubrimiento de bibliotecas, tal como expresó Ken Varnum, copresidente del comité ODI, señalando la multiplicidad de variables técnicas, éticas y operativas que involucra dicha incorporación .

La encuesta —lanzada en otoño de 2024 y cerrada el 31 de octubre de ese año— fue diseñada para recopilar insights de proveedores de discovery, entidades de contenido y bibliotecas, con el fin de orientar el trabajo futuro del comité en términos de estándares y buenas prácticas

Resultados clave:

  • Preocupación generalizada por la precisión de GenAI: Muchos participantes expresaron inquietud sobre la posibilidad de que GenAI proporcione respuestas inexactas o engañosas en contextos académicos y de investigación.
  • Fuerte interés en el potencial de GenAI: A pesar de las preocupaciones, se reconoce que GenAI podría mejorar la experiencia de búsqueda, generar resúmenes automáticos, responder a preguntas complejas y ofrecer interfaces más intuitivas.
  • Dudas sobre la transparencia algorítmica: Bibliotecas y proveedores demandan mayor claridad sobre cómo GenAI genera sus respuestas y qué fuentes utiliza, para garantizar la confiabilidad y evitar sesgos.
  • Desigual nivel de preparación: Algunas bibliotecas ya están explorando activamente la integración de GenAI, mientras que otras aún no lo consideran una prioridad o carecen de recursos y conocimientos técnicos para hacerlo.
  • Preocupación por la autoría y propiedad intelectual: Se identifican vacíos en torno a quién es responsable del contenido generado por IA, especialmente en servicios que entregan resultados textuales o recomendaciones automáticas.
  • Necesidad urgente de normas y buenas prácticas: Los encuestados coinciden en que se requieren marcos normativos, principios éticos y pautas técnicas claras para integrar GenAI en entornos bibliotecarios sin comprometer la calidad ni la integridad académica.
  • Riesgo de opacidad en los sistemas de descubrimiento: Se teme que al incorporar GenAI sin transparencia, los sistemas de descubrimie

Actualmente, el comité ya está preparando un white paper con recomendaciones basadas en los resultados de la encuesta. Este informe se encuentra en las etapas finales de edición y será presentado próximamente al Comité Temático de Intercambio e Interoperación de Información (IDI)