El futuro del móvil: convergencia total entre teléfono, ordenador e identidad digital

Karr, Douglas. “The Future of Mobile: The Final Convergence of Personal and Business Computing.” Martech Zone, 29 de marzo de 2026. https://martech.zone/future-of-mobile/

En este ensayo prospectivo, se plantea una tesis contundente: el teléfono móvil está dejando de ser un dispositivo complementario para convertirse en el centro absoluto de la vida digital personal y profesional. Según el autor, nos encontramos al borde de una convergencia tecnológica en la que desaparecerá la separación entre smartphone, ordenador portátil, almacenamiento en la nube y estación de trabajo. El móvil no será ya una herramienta de comunicación, sino el único ordenador necesario para la mayoría de las personas.

Karr sostiene que el portátil tradicional representa una tecnología transitoria. Durante décadas simbolizó la movilidad profesional, pero pronto será sustituido por un ecosistema en el que el teléfono actúe como “cerebro” universal. El usuario llegará a una oficina, hotel, aeropuerto o espacio compartido y simplemente conectará inalámbricamente su móvil a pantallas, teclado y periféricos disponibles. No transportará archivos, no sincronizará dispositivos y no dependerá de estaciones de acoplamiento físicas. Su entorno de trabajo completo aparecerá de forma instantánea allí donde se siente.

Uno de los motores de esta transformación sería la mejora del hardware móvil. El artículo destaca avances en densidad energética de baterías, enormes capacidades de memoria y, sobre todo, nuevos diseños de chips centrados en inteligencia artificial. Frente al protagonismo histórico de la CPU, Karr subraya el ascenso de la NPU (Neural Processing Unit), especializada en ejecutar modelos de IA, tareas predictivas, procesamiento visual y optimización energética. Gracias a ello, un móvil podrá realizar trabajos que antes exigían ordenadores de sobremesa potentes.

El autor insiste en que la potencia futura no dependerá solo del dispositivo local, sino de la combinación entre procesamiento interno y computación al limite. En este modelo, el teléfono gestionará tareas inmediatas y sensibles a la latencia, mientras cargas pesadas se resolverán en nodos cercanos —servidores de edificio, redes urbanas o infraestructura 6G— devolviendo resultados casi en tiempo real. Así, el usuario percibirá una capacidad prácticamente ilimitada sin necesidad de equipos voluminosos.

Más allá del trabajo, el móvil se convertirá en interfaz universal con el mundo físico. Karr imagina experiencias de realidad aumentada en supermercados, concesionarios o comercios: el usuario enfocará un producto y recibirá datos nutricionales personalizados, alertas de alérgenos, comparativas de precios, historial de mantenimiento de un coche o proyecciones de coste futuro. El teléfono no solo mostrará información, sino que la interpretará según contexto, historial y preferencias personales.

Este escenario transformaría radicalmente el marketing. En lugar de publicidad intrusiva, emergería una lógica de marketing bajo demanda y basado en permiso. Si el usuario lo autoriza, su dispositivo negociará con tiendas y marcas ofertas relevantes en el momento preciso: herramientas para una reforma doméstica iniciada horas antes, descuentos sobre productos ya considerados o rutas personalizadas dentro de una tienda. La publicidad dejaría de interrumpir para convertirse en servicio contextual.

Otro punto relevante es la desaparición del problema clásico de la atribución multicanal. Hoy una persona puede descubrir un producto en el móvil, investigarlo en el portátil y comprarlo desde una tableta, fragmentando el seguimiento comercial. Si todo sucede en un solo dispositivo-identidad, el recorrido del cliente se vuelve lineal y trazable. Para Karr, ello permitiría presupuestos de marketing más eficientes y comprensión más exacta de qué acciones generan ventas reales.

El artículo también imagina un mundo crecientemente sin cables. Tecnologías como Wi-Fi 7, conexiones satelitales globales, transferencia inalámbrica avanzada y carga ambiental reducirían la necesidad de puertos físicos. Buscar enchufes o cobertura sería tan anacrónico como buscar cabinas telefónicas. La última barrera psicológica del móvil como ordenador —la ansiedad por batería— desaparecería progresivamente.

Desde el punto de vista económico, Karr prevé una reducción importante de costes empresariales. Las organizaciones dejarían de comprar portátiles caros para cada empleado y solo ofrecerían “cáscaras” de trabajo: pantallas, teclados y superficies inteligentes. El trabajador aportaría el “cerebro” en su bolsillo. Paralelamente, crecerían hubs de pantallas en cafeterías, aeropuertos, hoteles y espacios públicos, compatibles con cualquier entorno laboral.

En términos culturales, el texto sugiere que avanzamos desde una economía de posesión hacia una economía de acceso. Igual que hoy se accede a transporte o entretenimiento sin necesidad de poseer coche o DVD, también se accederá a potencia informática sin depender de un ordenador fijo. El móvil concentrará identidad, productividad, memoria y relaciones sociales en una única entidad portátil.

La escasez de discos duros para IA está haciendo que archivar Internet sea más caro y difícil.

Technician in data storage room with empty racks and out-of-stock signs showing hard drive shortage
A technician monitors critically low hard drive supplies affecting AI data storage and backup.

Culpepper, Sophie. “The AI Hard Drive Shortage Is Making It More Expensive and Harder to Archive the Internet.” Nieman Journalism Lab, 5 de mayo de 2026. https://www.niemanlab.org/reading/the-ai-hard-drive-shortage-is-making-it-more-expensive-and-harder-to-archive-the-internet/

Se recoge una investigación original de 404 Media, analiza una consecuencia poco visible del auge de la inteligencia artificial: la creciente escasez y encarecimiento de discos duros y sistemas de almacenamiento. La expansión de centros de datos dedicados a IA está absorbiendo enormes cantidades de hardware, lo que reduce la disponibilidad para otros sectores y eleva los precios. Esta situación afecta especialmente a instituciones cuya misión depende de almacenar grandes volúmenes de información, como archivos digitales, universidades, Wikipedia o coleccionistas de datos.

Uno de los principales perjudicados es Internet Archive, organización responsable de la Wayback Machine. Su fundador, Brewster Kahle, explicó que los discos de alta capacidad que suelen utilizar —de 28 a 30 TB— están agotados o se venden a precios muy elevados. La institución incorpora más de 100 terabytes diarios de nuevos materiales y mantiene más de 210 petabytes archivados, por lo que necesita renovar constantemente infraestructura. El incremento de costes supone una presión directa sobre su sostenibilidad financiera y operativa.

El problema también alcanza a la Wikimedia Foundation, que gestiona Wikipedia y otros proyectos abiertos. La fundación reconoce aumentos en memoria, discos y plazos de entrega de servidores, lo que obliga a replantear inversiones y extender la vida útil del equipamiento existente. Para organizaciones sin ánimo de lucro, estos cambios tienen un impacto especialmente grave, ya que cada decisión tecnológica compite con recursos destinados a contenidos, comunidad o desarrollo.

El reportaje señala además que varios fabricantes están priorizando a clientes corporativos vinculados a centros de datos. Western Digital habría comprometido gran parte de su inventario de 2026 con grandes compradores empresariales, mientras Micron decidió abandonar parte del mercado de consumo para concentrarse en segmentos más rentables relacionados con IA. Esto significa que usuarios comunes, pequeñas instituciones y archivistas independientes compiten en desventaja frente a gigantes tecnológicos con gran capacidad de compra.

Las comunidades de archivistas y usuarios especializados reflejan esta preocupación. En foros como Reddit, muchos participantes afirman haber detenido proyectos de respaldo o archivo debido a los precios disparados, mientras otros recurren a unidades usadas, discos antiguos o estrategias improvisadas de almacenamiento. Algunos incluso sugieren volver a tecnologías como cintas LTO, aunque estas presentan problemas de acceso rápido y latencia para servicios públicos en línea.

Más allá del coste económico, el artículo plantea una cuestión de fondo: la misma industria de IA que consume enormes cantidades de datos para entrenar modelos está dificultando materialmente la preservación de la memoria digital. Archivar internet requiere capacidad de almacenamiento constante, y si esa capacidad se vuelve inaccesible, parte del patrimonio digital contemporáneo corre riesgo de perderse. La paradoja es evidente: tecnologías que dependen del pasado digital pueden contribuir a borrar la posibilidad de conservarlo.

Library Technology Guides publica el Informe sobre sistemas bibliotecarios de 2026

Breeding, Marshall. “2026 Library Systems Briefing.” American Libraries Magazine, 5 de mayo de 2026. https://americanlibrariesmagazine.org/2026/05/05/2026-library-systems-briefing/

El Informe sobre sistemas bibliotecarios de 2026 muestra a unas bibliotecas inmersas en una transformación profunda. El desafío ya no consiste únicamente en informatizar procesos, sino en construir infraestructuras flexibles, seguras e inteligentes capaces de responder a nuevas formas de acceso al conocimiento. La tecnología se convierte así en una pieza estratégica para garantizar la relevancia futura de las bibliotecas en un entorno digital cada vez más exigente.

Library Technology Guides ha publicado el Informe sobre sistemas bibliotecarios de 2026, una de las referencias más relevantes para conocer la evolución tecnológica del sector bibliotecario internacional. El documento ofrece una panorámica detallada del mercado de software y plataformas utilizadas por bibliotecas públicas, universitarias, escolares y especializadas, analizando tendencias, movimientos empresariales, implantaciones y prioridades estratégicas. Más que un simple catálogo de productos, el informe actúa como termómetro del momento que atraviesan las bibliotecas en su proceso de transformación digital.

Uno de los aspectos centrales del informe es la constatación de que las bibliotecas continúan avanzando hacia entornos basados en la nube. Cada vez más instituciones sustituyen antiguos sistemas instalados en servidores locales por plataformas SaaS (Software as a Service), gestionadas por proveedores externos. Esta transición responde a varias razones: reducción de costes de mantenimiento, actualizaciones automáticas, mayor escalabilidad y mejora de la seguridad. Para muchas organizaciones, mantener infraestructuras propias resulta ya complejo y costoso, especialmente en un contexto de presupuestos ajustados y escasez de personal técnico especializado.

El informe también destaca la creciente influencia de la inteligencia artificial en el ecosistema bibliotecario. Los nuevos sistemas comienzan a incorporar herramientas de automatización para catalogación, generación de metadatos, análisis de colecciones, asistentes virtuales y mejora de los sistemas de descubrimiento. La IA se presenta como una oportunidad para aumentar la eficiencia operativa y mejorar la experiencia de usuario, aunque también surgen interrogantes relacionados con la transparencia algorítmica, la privacidad de los datos y la necesidad de supervisión profesional. Las bibliotecas valoran estas innovaciones, pero buscan aplicarlas con prudencia y criterios éticos.

Otro eje importante es la evolución de los sistemas integrados de gestión bibliotecaria (ILS) hacia plataformas de servicios bibliotecarios más amplias. Ya no basta con gestionar préstamos, catalogación o adquisiciones de manera aislada. Las bibliotecas necesitan soluciones capaces de integrar recursos impresos, colecciones electrónicas, repositorios institucionales, analíticas de uso, autenticación remota y servicios móviles. El informe muestra que la tendencia dominante es hacia ecosistemas unificados, donde diferentes módulos se comunican entre sí y permiten una administración más eficiente.

En el plano empresarial, el estudio refleja un mercado concentrado en grandes proveedores internacionales, pero con presencia significativa de proyectos de código abierto. Empresas consolidadas como Ex Libris, OCLC, EBSCO o Innovative mantienen posiciones fuertes, especialmente en grandes redes y universidades. Paralelamente, alternativas como Koha, Evergreen o FOLIO siguen creciendo entre instituciones que buscan flexibilidad, independencia tecnológica y control sobre sus desarrollos. Esto demuestra que el mercado no está cerrado y que existen modelos diversos según tamaño, presupuesto y estrategia institucional.

La experiencia del usuario aparece como una prioridad creciente. Los catálogos tradicionales resultan insuficientes frente a los estándares de usabilidad impuestos por buscadores y plataformas comerciales. Por ello, las bibliotecas demandan interfaces más intuitivas, búsquedas inteligentes, recomendaciones personalizadas, diseño adaptado a móviles y acceso simplificado a contenidos digitales. El informe subraya que el éxito de un sistema ya no depende solo de sus funciones internas, sino de la calidad de la interacción que ofrece al público.

Asimismo, el documento señala la importancia de la interoperabilidad y de los estándares abiertos. Las bibliotecas trabajan con múltiples herramientas simultáneamente —repositorios, plataformas de préstamo digital, gestores de aprendizaje, bases de datos académicas o sistemas de autenticación—, por lo que necesitan soluciones capaces de integrarse sin fricciones. Los proveedores que facilitan APIs robustas y compatibilidad con estándares internacionales parten con ventaja en las decisiones de contratación.

Los modelos de IA más inteligentes en 2026

Voronoi. “Ranked: The Smartest AI Models in 2026.” Voronoi, 25 de abril de 2026. https://www.voronoiapp.com/technology/Ranked-The-Smartest-AI-Models-in-2026-8123

La tabla revela una realidad clara: en 2026 ya no existe un líder indiscutible. La ventaja entre los mejores modelos es mínima, la competencia es global y la inteligencia artificial entra en una fase de madurez donde importarán tanto la integración, el precio y la confianza como la potencia bruta. La “guerra de benchmarks” continúa, pero el mercado probablemente se decidirá por ecosistemas completos más que por unos pocos puntos de diferencia.

El artículo de Voronoi presenta una clasificación de los modelos de inteligencia artificial considerados más avanzados de 2026, utilizando como base los resultados del benchmark de Mensa Norway elaborado por TrackingAI. Lo primero que destaca el informe es que la competencia entre los líderes del sector se ha estrechado enormemente. A diferencia de años anteriores, donde uno o dos modelos dominaban con claridad, en 2026 las puntuaciones se concentran en la parte alta de la tabla, con diferencias mínimas entre los primeros puestos. Esto indica que la industria ha alcanzado una fase de madurez en la que varias compañías han logrado niveles similares de rendimiento avanzado.

En la cima del ranking aparecen empatados Grok-4.20 Expert Mode y OpenAI GPT 5.4 Pro (Vision), ambos con una puntuación de 145. Este empate refleja no solo la capacidad técnica de ambos sistemas, sino también la diversificación de enfoques dentro del mercado de IA. Grok, desarrollado por xAI, ha apostado por una integración fuerte con información en tiempo real y un estilo de respuesta más directo, mientras que GPT 5.4 Pro incorpora una sólida capacidad multimodal, especialmente en visión artificial, razonamiento y productividad profesional. Que ambos compartan la primera posición simboliza que no existe ya un único camino hacia la excelencia algorítmica.

Otro aspecto relevante del informe es la comparación histórica con 2025. Según los datos citados, el modelo más destacado del año anterior fue OpenAI o3, con una puntuación de 135, mientras que GPT-4o Vision apenas alcanzó 63. El salto hasta 145 puntos en solo un año evidencia la velocidad vertiginosa del progreso en IA. En términos prácticos, significa mejoras drásticas en razonamiento complejo, comprensión multimodal, precisión y adaptabilidad a tareas especializadas. También confirma que los benchmarks existentes se quedan obsoletos cada vez más rápido, algo que ya señalan otros estudios como el AI Index de Stanford.

El ranking también sugiere una creciente pluralidad geopolítica en la innovación tecnológica. Ya no son únicamente OpenAI o Anthropic quienes marcan el paso. Empresas como xAI, Google, Moonshot AI o nuevos laboratorios emergentes participan activamente en la carrera por liderar la inteligencia artificial generalista. Esto apunta a una descentralización del poder tecnológico y a un ecosistema más competitivo, donde la innovación depende tanto del talento científico como del acceso a datos, chips y capital.

Desde una perspectiva económica y social, esta evolución tiene profundas implicaciones. La cercanía entre modelos significa que la ventaja competitiva puede desplazarse desde la inteligencia “bruta” hacia otros factores: precio, integración con herramientas empresariales, privacidad, velocidad de respuesta, consumo energético o facilidad de uso. En otras palabras, la próxima fase del mercado podría decidirse menos por quién tiene el modelo “más inteligente” y más por quién ofrece el ecosistema más útil y sostenible para usuarios y organizaciones.

El artículo retrata un momento decisivo: 2026 no es solo el año de los modelos más potentes, sino también el año en que la supremacía tecnológica deja de estar concentrada en un solo actor. La inteligencia artificial entra así en una etapa de competencia madura, multipolar y extremadamente dinámica, donde pequeñas mejoras técnicas pueden traducirse en enormes consecuencias económicas y estratégicas.

Políticas de Preservación Digital en Bibliotecas Universitarias

Two people digitizing archival documents with computers and scanners in a library preservation unit
Two staff members digitizing archival documents in a university library lab

McManus, Ramsey. Digital Preservation Policies in University Libraries: A Content Analysis. Honors Thesis, The University of Southern Mississippi, 2026. Difundido por Aquila Digital Community. Reseñado en InfoDocket, 3 de mayo de 2026 https://aquila.usm.edu/honors_theses/1095/

El documento aporta una contribución valiosa al demostrar que las políticas de preservación digital son un indicador concreto del grado de preparación de las bibliotecas universitarias ante los desafíos del futuro. El estudio evidencia avances significativos, pero también inconsistencias y zonas de mejora. Su mensaje implícito es claro: en la universidad contemporánea, preservar digitalmente no es opcional. Es una condición necesaria para garantizar memoria institucional, continuidad del acceso científico y responsabilidad con las generaciones futuras

Este trabajo aborda una cuestión central para el futuro de las bibliotecas universitarias: cómo garantizar que los recursos digitales permanezcan accesibles, íntegros y utilizables a largo plazo. En un entorno donde colecciones, tesis, artículos, archivos institucionales y materiales nacidos digitales crecen de forma constante, la preservación digital deja de ser una tarea técnica secundaria para convertirse en una responsabilidad estratégica. El estudio examina específicamente las políticas públicas de preservación digital disponibles en línea en bibliotecas universitarias, evaluando hasta qué punto estas instituciones explicitan sus compromisos, prioridades y procedimientos.

La investigación parte de una idea fundamental: disponer de políticas claras y accesibles fortalece la capacidad institucional para preservar el patrimonio digital. Una política no es solo un documento administrativo, sino una declaración formal que establece qué materiales se preservan, bajo qué criterios, con qué recursos y mediante qué métodos. Sin esta base, las decisiones pueden depender de actuaciones improvisadas, discontinuidad organizativa o respuestas parciales ante emergencias tecnológicas. Por ello, McManus considera que la transparencia documental es un indicador importante de madurez institucional en materia de preservación digital.

El análisis compara el contenido de diversas políticas utilizando criterios reconocidos profesionalmente dentro del campo de la preservación digital. Entre ellos destacan el alcance de la preservación (qué tipos de materiales cubre la institución), las prácticas de metadatos, los controles de integridad, la redundancia del almacenamiento y las estrategias de migración de formatos. Estos elementos son esenciales porque la preservación digital no consiste simplemente en guardar archivos, sino en asegurar autenticidad, recuperabilidad y legibilidad futura pese al paso del tiempo y a la obsolescencia tecnológica.

Uno de los resultados más relevantes del estudio es la existencia de niveles muy desiguales de exhaustividad entre unas bibliotecas y otras. Algunas políticas muestran un enfoque robusto y detallado, con responsabilidades definidas, revisión periódica y procedimientos técnicos claros. Otras, en cambio, presentan declaraciones genéricas, escasa concreción o ausencia de información sobre procesos críticos. Esta heterogeneidad sugiere que muchas universidades reconocen la importancia del problema, pero no todas han desarrollado todavía marcos plenamente maduros para afrontarlo.

El trabajo también revela diferencias en el grado de transparencia pública. No todas las instituciones publican sus políticas de manera visible o fácilmente accesible. Esto es significativo porque una política abierta no solo orienta internamente a la organización, sino que transmite confianza a investigadores, estudiantes, financiadores y usuarios externos. Cuando una universidad publica sus compromisos de preservación, comunica que considera los objetos digitales parte de su patrimonio académico duradero y no simples recursos temporales.

Especial atención merecen los metadatos y la verificación de integridad. Sin metadatos consistentes, incluso archivos conservados físicamente pueden perder valor informativo por falta de contexto, autoría, fecha o relaciones documentales. Del mismo modo, sin controles de integridad —como sumas de verificación y monitorización periódica— los archivos pueden corromperse silenciosamente. El hecho de que estas dimensiones aparezcan de forma desigual en las políticas estudiadas muestra que todavía existe una brecha entre el discurso institucional y la complejidad real de la preservación digital.

Otro aspecto clave es la migración de formatos. Los archivos digitales dependen de software y hardware específicos; un documento perfectamente almacenado puede volverse inutilizable si el formato queda obsoleto. Las políticas más avanzadas contemplan migraciones planificadas, monitorización tecnológica o estrategias de emulación. Las más débiles tienden a omitir estos riesgos, lo que podría comprometer el acceso futuro a tesis electrónicas, repositorios institucionales o colecciones audiovisuales.

En perspectiva más amplia, este estudio conecta con una preocupación creciente en el sector bibliotecario internacional: evitar una “edad oscura digital” en la que parte del conocimiento producido en las últimas décadas desaparezca por negligencia técnica u organizativa. Bibliotecas universitarias de referencia, como las de Minnesota, Cambridge o York, han desarrollado marcos específicos donde integran auditoría, selección documental, niveles de preservación y revisión continua, lo que muestra el camino hacia modelos más sólidos.

.

Tensiones y soluciones en la relación propiedad intelectual-investigación abierta

Román Pérez, Raquel de. Tensiones y soluciones en la relación
propiedad intelectual-investigación abierta
. Madrid: Federación Española de Sociedades de Archivística, Biblioteconomía, Documentación y Museística, 2026.

Texto completo

El informe de FESABID defiende que el acceso abierto en España debe consolidarse mediante una combinación de reforma normativa, alfabetización jurídica, apoyo institucional y cambio cultural en la evaluación científica. Su mensaje central es claro: el conocimiento financiado públicamente debe ser accesible públicamente, respetando siempre la autoría y construyendo un sistema más justo, eficiente y democrático de comunicación científica

Este informe de FESABID constituye un análisis jurídico y estratégico sobre la situación del acceso abierto en España, centrado especialmente en la relación entre propiedad intelectual, políticas científicas y difusión del conocimiento. El documento examina cómo el sistema normativo español ha ido incorporando progresivamente los principios de la ciencia abierta, al tiempo que identifica vacíos legales, contradicciones y oportunidades de mejora. Su enfoque resulta especialmente relevante para bibliotecas, universidades, centros de investigación y responsables de políticas públicas.

Uno de los ejes principales del estudio es la evolución legislativa del acceso abierto en España. El informe recuerda que un primer hito fue la Ley de la Ciencia, la Tecnología y la Innovación de 2011, que introdujo la obligación de depositar en repositorios abiertos los resultados de investigaciones financiadas mayoritariamente con fondos públicos. Sin embargo, esa obligación aparecía limitada por las cesiones previas de derechos a editoriales y por un marco poco preciso respecto a mecanismos de cumplimiento. En la práctica, ello significó que muchos investigadores seguían dependiendo de contratos editoriales restrictivos, lo que dificultaba el acceso universal a publicaciones sufragadas con dinero público.

El texto analiza después la reforma posterior de la Ley de la Ciencia, que fortaleció el mandato de acceso abierto y lo alineó con las estrategias europeas de Open Science. El informe subraya que la nueva orientación no se limita ya a artículos científicos, sino que apunta también hacia datos de investigación, metodologías, software y otros productos derivados de la actividad científica. Esto supone un cambio de paradigma: de entender la publicación científica como producto cerrado a concebirla como ecosistema compartido de conocimiento reutilizable.

En materia de propiedad intelectual, FESABID insiste en que el acceso abierto no implica renuncia a los derechos de autor. Al contrario, propone modelos de gestión más flexibles mediante licencias abiertas, especialmente Creative Commons, que permiten preservar la autoría al tiempo que facilitan copia, distribución y reutilización bajo ciertas condiciones. El informe combate así una confusión frecuente: abierto no significa ausencia de derechos, sino ejercicio estratégico de los mismos para favorecer circulación del conocimiento.

Otro aspecto relevante es el análisis del papel de las editoriales científicas comerciales. El documento advierte que, durante años, la cesión exclusiva de derechos por parte de los autores permitió modelos de negocio basados en suscripciones costosas, incluso sobre investigaciones financiadas con fondos públicos. Frente a ello, el acceso abierto busca restituir equilibrio entre inversión pública, derechos de los investigadores e interés general. Se plantea la necesidad de revisar contratos editoriales, promover derechos de retención para autores y fortalecer infraestructuras públicas de publicación académica.

El informe dedica también atención a los repositorios institucionales y temáticos como piezas clave del sistema. Estos espacios no solo almacenan artículos, sino que garantizan preservación digital, visibilidad internacional, interoperabilidad y métricas de impacto alternativas. Las bibliotecas universitarias aparecen aquí como agentes esenciales, ya que gestionan repositorios, asesoran en propiedad intelectual y acompañan a investigadores en procesos de depósito y publicación abierta.

Asimismo, se aborda la dimensión europea e internacional. España no actúa aislada, sino dentro de marcos como Horizon Europe, Plan S y las recomendaciones de UNESCO sobre ciencia abierta. El informe considera imprescindible armonizar la normativa española con estas tendencias para evitar rezagos competitivos y facilitar colaboración científica transnacional. La apertura del conocimiento se presenta no solo como principio ético, sino como condición de innovación y liderazgo científico.

Entre los desafíos pendientes, el texto señala la falta de cultura jurídica entre muchos investigadores, la persistencia de incentivos académicos centrados en revistas de alto impacto cerradas, la heterogeneidad institucional entre universidades y la insuficiente financiación de infraestructuras abiertas. También alerta del riesgo de sustituir el modelo de suscripción por otro basado exclusivamente en APCs (pagos por publicar), que puede generar nuevas desigualdades.

Un club de lectura que rompe estereotipos

1000 Libraries. “Meet the French Literary Club Breaking Stereotypes.” 1000 Libraries Magazine, consultado el 5 de mayo de 2026. https://magazine.1000libraries.com/meet-the-french-literary-club-breaking-stereotypes/

El artículo presenta la experiencia de un club literario francés que desafía la imagen tradicional de los círculos de lectura como espacios rígidos, elitistas o reservados a especialistas. Frente al estereotipo del club silencioso y excesivamente académico, esta iniciativa propone un entorno abierto, participativo y social, donde la literatura se convierte en una excusa para conversar, compartir perspectivas y crear vínculos entre personas de diferentes edades y trayectorias. La lectura aparece así como práctica comunitaria más que como actividad solitaria.

Uno de los aspectos más destacados es la voluntad de democratizar el acceso a los libros. El club rompe con la idea de que para participar es necesario poseer una gran formación literaria o haber leído únicamente clásicos canónicos. Se valoran por igual novelas contemporáneas, autores emergentes, géneros populares y textos de distintas procedencias culturales. Esa diversidad de lecturas favorece una relación más cercana con los libros y atrae a públicos que normalmente no se sienten representados en instituciones culturales más formales.

El texto también subraya el papel social del club como espacio de encuentro en una época marcada por la fragmentación digital y el aislamiento. Las reuniones presenciales o híbridas permiten escuchar opiniones distintas, debatir sin polarización y construir confianza entre desconocidos. La literatura funciona como mediadora: a través de personajes, conflictos y emociones narradas, los participantes encuentran formas de hablar también de sus propias experiencias vitales.

Otro elemento relevante es la renovación generacional y estética de este tipo de iniciativas. El club emplea redes sociales, formatos flexibles y actividades creativas para atraer nuevos lectores. Lejos de la solemnidad que a menudo se asocia a la cultura literaria francesa, muestra una actitud dinámica y contemporánea, conectada con hábitos actuales de consumo cultural. Esto demuestra que tradición e innovación no son incompatibles, sino complementarias cuando se trata de fomentar la lectura.

En conjunto, el artículo plantea que los clubes de lectura pueden desempeñar una función clave en la revitalización cultural de las ciudades y comunidades. Más que simples reuniones para comentar libros, se convierten en laboratorios de convivencia, aprendizaje informal y participación ciudadana. El caso francés ilustra cómo la literatura sigue siendo una herramienta poderosa para reunir personas, cuestionar prejuicios y construir comunidad en el siglo XXI

Bibliotecarios sénior como agentes de cambio en editoriales

Evans, Gwen. “Senior Librarians as Publisher Change Agents: What’s the Business Case? (Part 1).” The Scholarly Kitchen, 25 de marzo de 2026. https://scholarlykitchen.sspnet.org/2026/03/25/guest-post-senior-librarians-as-publisher-change-agents-whats-the-business-case-part-1/

El artículo examina una tendencia emergente en el ecosistema de la comunicación científica: la incorporación de bibliotecarios de alto nivel en puestos estratégicos dentro de grandes editoriales académicas. La autora plantea una pregunta central: ¿por qué las editoriales están contratando antiguos directores de bibliotecas, decanos o responsables institucionales para funciones de relaciones con bibliotecas y desarrollo estratégico? La respuesta se sitúa en un contexto de creciente tensión entre bibliotecas y editores, marcado por negociaciones complejas, transición hacia acceso abierto, presión presupuestaria y necesidad de reconstruir confianza entre ambos sectores.

Evans parte de su propia experiencia como ex vicepresidenta de relaciones globales con bibliotecas en Elsevier y entrevista a dos figuras representativas: Emily McElroy, vicepresidenta de Academic Relations en Taylor & Francis, y Robert Hilliker, director de Library Relations para Norteamérica en Springer Nature. Ambos proceden del liderazgo bibliotecario universitario, lo que les permite actuar como mediadores entre culturas organizativas distintas: la lógica comercial editorial y la lógica de servicio público de las bibliotecas académicas.

Uno de los argumentos más sólidos del texto es que existe un problema de traducción institucional entre editoriales y bibliotecas. Las empresas editoriales, según se desprende de las entrevistas, no siempre comprenden adecuadamente cómo funcionan las bibliotecas modernas: su estructura interna, la diversidad de perfiles profesionales, las restricciones presupuestarias o los procesos reales de toma de decisiones. Muchas negociaciones siguen basándose en visiones simplificadas donde la biblioteca aparece solo como compradora de contenidos, cuando en realidad hoy integra áreas de datos de investigación, alfabetización digital, impacto académico, preservación, apoyo a ciencia abierta y asesoramiento estratégico al campus.

El artículo muestra que estos nuevos perfiles híbridos cumplen una función interna decisiva: explicar a la editorial la realidad económica y política de las universidades. McElroy subraya que los recortes actuales no afectan solo a colecciones, sino también a personal, tecnología y servicios. En muchas instituciones todos los decanos compiten por fondos escasos, lo que hace inviable la idea de que la biblioteca simplemente “pida más dinero”. Esa perspectiva, frecuente en el discurso comercial, ignora la presión estructural que atraviesan hoy las universidades.

Hilliker añade que muchas bibliotecas norteamericanas atraviesan momentos especialmente difíciles y que la función de estos cargos consiste también en hacer llegar verdades incómodas dentro de la empresa. Resulta significativo que ambos entrevistados señalen que aceptaron sus puestos solo tras recibir garantías de que podrían discrepar internamente y cuestionar decisiones corporativas. El artículo presenta así estos roles no como relaciones públicas decorativas, sino como posiciones que deberían influir realmente en la estrategia empresarial.

Otro aspecto relevante es la idea de que la relación editorial-biblioteca ya no puede centrarse únicamente en adquisiciones o licencias. Las decisiones editoriales impactan en catalogación, sistemas, metadatos, repositorios, visibilidad de autores, identificadores persistentes como ORCID y datos KBART para descubrimiento y acceso. Hilliker menciona precisamente la mejora de metadatos como una prioridad interna, recordando que esta “infraestructura invisible” sostiene buena parte del valor percibido por usuarios e instituciones.

Desde una perspectiva estratégica, el texto sugiere que las editoriales buscan algo más que mejorar ventas: intentan reposicionarse como socios institucionales en un momento en que su legitimidad es cuestionada. Frente a críticas por precios elevados, contratos opacos o lentitud en la transición al acceso abierto, incorporar antiguos líderes bibliotecarios puede servir para comprender mejor al cliente, anticipar conflictos y construir narrativas de colaboración. Al mismo tiempo, las bibliotecas esperan que estas figuras introduzcan cambios reales en transparencia, sensibilidad presupuestaria y diseño de productos.

El artículo también deja entrever una tensión ética interesante: cuando un bibliotecario pasa al sector editorial, ¿se convierte en representante comercial o en defensor de los intereses bibliotecarios dentro de la empresa? Evans no resuelve de forma explícita esa cuestión, pero muestra que el valor de estos puestos dependerá de su credibilidad y capacidad efectiva de incidencia. Si se perciben como figuras simbólicas, perderán legitimidad ante la comunidad bibliotecaria. Si generan mejoras tangibles, pueden abrir una nueva etapa de diálogo.

La segunda parte del ensayo de Evans retrata a estos profesionales híbridos como mediadores necesarios en un momento de transición profunda. Si cuentan con autonomía y capacidad de influencia, pueden mejorar productos, políticas y relaciones institucionales. Si se reducen a funciones decorativas, reforzarán el escepticismo existente. El mensaje final es claro: en la comunicación científica del siglo XXI, escuchar de verdad a las bibliotecas ya no es opcional.

Deepfakes al asalto de tu cuenta bancaria: la nueva frontera del fraude con imágenes

The Atlantic. “Deepfakes Are Coming for Your Bank Account.The Atlantic, mayo de 2026. https://www.theatlantic.com/technology/2026/05/chatgpt-images-deepfakes-fraud/687023/

El artículo analiza cómo los nuevos modelos de generación de imágenes mediante inteligencia artificial están transformando el fraude digital. Según The Atlantic, la amenaza ya no se limita a los tradicionales deepfakes de celebridades o líderes políticos, sino que se desplaza hacia falsificaciones mucho más cotidianas y peligrosas: alertas bancarias falsas, transferencias simuladas, documentos médicos, recetas, identificaciones oficiales, facturas o capturas de pantalla aparentemente auténticas. Estas imágenes resultan especialmente convincentes porque las herramientas actuales han mejorado notablemente en la reproducción de texto legible y diseño visual realista.

El reportaje pone el foco en la facilidad con la que un usuario puede generar material fraudulento. El autor explica que logró producir más de cien imágenes engañosas con poco esfuerzo, demostrando que la barrera técnica para cometer este tipo de delitos se ha reducido drásticamente. Antes, elaborar falsificaciones sofisticadas requería conocimientos avanzados de edición gráfica; ahora basta con introducir instrucciones en lenguaje natural. Esto democratiza el fraude y multiplica los riesgos para particulares, empresas e instituciones.

Uno de los aspectos más preocupantes es el uso de estas imágenes en estafas personalizadas. Una persona podría recibir un supuesto recibo de Uber, una alerta de Chase Bank o una confirmación de transferencia inexistente acompañada de un enlace malicioso. Al tratarse de documentos visualmente creíbles, la víctima puede reaccionar con rapidez y caer en ataques de phishing. El problema no es solo la calidad técnica de la imagen, sino la capacidad de combinarla con ingeniería social para manipular emociones como la urgencia, el miedo o la confusión.

El texto también cuestiona la eficacia de las salvaguardas implantadas por las empresas tecnológicas. Aunque OpenAI y Google incorporan políticas de uso, marcas de agua o metadatos para identificar imágenes generadas por IA, estas medidas pueden eliminarse fácilmente mediante capturas de pantalla, recortes o nuevas conversiones de archivo. En la práctica, los mecanismos de seguridad van por detrás de la rapidez con la que evolucionan las herramientas de generación visual.

Para concluir, el artículo sostiene que el mayor peligro no reside en los grandes engaños mediáticos, sino en los “microdeepfakes”: falsificaciones dirigidas a personas concretas para vaciar cuentas, obtener datos personales o engañar a familiares. En lugar de alterar elecciones o provocar crisis geopolíticas, estos fraudes erosionan la confianza diaria en mensajes, imágenes y comunicaciones digitales. La conclusión es clara: el desafío ya no es futurista, sino inmediato, y exige respuestas coordinadas entre tecnológicas, bancos, reguladores y ciudadanía.

Xteink X3: el minúsculo lector de libros electrónicos

Silberling, Amanda. “Xteink X3 Review: Tiny Magnetic E-Reader.” TechCrunch, May 3, 2026. https://techcrunch.com/2026/05/03/xteink-x3-review-tiny-magnetic-ereader/

Xteink X3, es un dispositivo singular que lleva la idea del lector electrónico al extremo de la portabilidad. Se trata de un pequeño e-reader con pantalla de tinta electrónica de apenas 3,7 pulgadas, diseñado para adherirse magnéticamente a la parte trasera del teléfono móvil, de manera similar a un accesorio MagSafe o a un PopSocket. Su propuesta es clara: sustituir los momentos de navegación compulsiva por breves sesiones de lectura en cualquier lugar.

La reseña destaca que el principal atractivo del aparato es su tamaño diminuto y su comodidad cotidiana. El X3 cabe en bolsillos pequeños, bolsos o incluso junto al móvil sin apenas ocupar espacio. Esa ligereza hace que pueda acompañar al usuario constantemente, algo que no siempre ocurre con lectores tradicionales como Kindle o Kobo, más pensados para sesiones largas de lectura. Según la autora, esa presencia continua favorece un cambio de hábitos: mientras se espera en una cola, en el transporte público o en pausas breves, resulta más fácil abrir el e-reader que caer en Instagram o TikTok.

Uno de los aspectos más valorados es precisamente su capacidad para fomentar la lectura fragmentada. En lugar de competir con un libro de sobremesa o con un lector de gran formato, el X3 ocupa el espacio psicológico de las distracciones móviles. La reseña afirma que durante dos semanas de prueba el dispositivo ayudó efectivamente a leer más, especialmente en tiempos muertos que normalmente se consumen en redes sociales. Esto lo convierte en una herramienta interesante no solo tecnológica, sino también conductual.

Sin embargo, el artículo subraya varias limitaciones importantes. La principal es el software de fábrica, descrito como tosco, poco intuitivo y lejos del refinamiento de marcas consolidadas. Para muchos usuarios, la experiencia mejora instalando CrossPoint Reader, un firmware alternativo creado por la comunidad. Aunque la instalación no parece imposible, sí exige cierto nivel de iniciativa técnica, lo que reduce el atractivo del producto para usuarios generales que buscan sencillez inmediata.

Otro punto criticado es la ausencia de puerto USB-C. En vez de ello, el X3 utiliza un cargador magnético propietario. Aunque la batería parece muy eficiente —tras dos semanas de uso seguía cerca de carga completa—, depender de un cable específico resulta incómodo en una época marcada por la estandarización del USB-C. Esta decisión de diseño puede convertirse en un inconveniente práctico si se pierde el cargador o se viaja con frecuencia.

También existen límites inherentes al concepto. La pantalla pequeña funciona bien para lectores acostumbrados a texto compacto, pero puede no ser ideal para quienes prefieren letras grandes, lectura prolongada o navegación fluida. El X3 no pretende reemplazar a un Kindle tradicional, sino ofrecer una experiencia complementaria: un lector de bolsillo para momentos breves, impulsivos y móviles.

En conjunto, TechCrunch presenta el Xteink X3 como un dispositivo encantador, imperfecto y muy específico. No es el lector ideal para todo el mundo, pero sí una idea original en un mercado bastante conservador. Su valor no reside tanto en la potencia técnica como en replantear una pregunta contemporánea: si siempre llevamos el móvil encima, ¿por qué no convertirlo también en una puerta constante hacia los libros?