Gestión de documentos en la e-administración

García Morales, E. [Elisa]. (2013). Gestión de documentos en la e-administración. Editorial UOC. https://hdl.handle.net/10609/154636

Texto completo

Estamos en el siglo de la información y el avance hacia lo digital es imparable, tanto en las empresas como en las administraciones públicas. Acabar con el papel supone uno de los grandes retos de la administración electrónica. Para pasar de gestionar electrónicamente documentos a gestionar documentos electrónicos nacidos digitalmente es imprescindible una aplicación sistemática de la gestión documental, basada en metodologías reconocidas que aseguren la captura, el control y la preservación de los documentos como evidencia de las actuaciones administrativas y garantía de los derechos de los ciudadanos.

Gestión de la calidad en la biblioteca: diseña un sistema de gestión de la calidad basado en la norma ISO 9001

Balagué, N. [Núria] & Saarti, J. [Jarmo]. (2014). Gestión de la calidad en la biblioteca: diseña un sistema de gestión de la calidad basado en la norma ISO 9001. Editorial UOC. https://hdl.handle.net/10609/154909

Texto completo

En la era de los servicios, la calidad se ha convertido en un valor indiscutible para las organizaciones. La capacidad de responder a las diversas necesidades y expectativas de los clientes es un factor tan sumamente importante que determina la supervivencia de la organización. Las bibliotecas son organizaciones de servicios y existen en entornos dinámicos donde los usuarios son cada vez más exigentes. Esto plantea retos a la gestión de la biblioteca: se necesita un enfoque sistemático y una manera de responder a este desafío es adoptando un sistema de gestión de la calidad (SGC). Este libro ofrece orientación práctica que ayuda a las bibliotecas que deseen dotarse de un sistema de gestión de la calidad.

La Casa Blanca publica el Marco de Política Nacional para la IA

Campbell, Rhea Kelly. “White House Releases National Policy Framework for AI.” Campus Technology, 23 de marzo de 2026. https://campustechnology.com/articles/2026/03/23/white-house-releases-national-policy-framework-for-ai.aspx

La iniciativa surge en un contexto marcado por la proliferación de leyes estatales y la preocupación por la fragmentación normativa, que, según el gobierno federal, podría obstaculizar la innovación y debilitar la competitividad del país en el desarrollo de tecnologías emergentes.

El documento propone una serie de líneas estratégicas centradas en equilibrar el impulso tecnológico con la protección social. Entre sus ejes principales destacan la seguridad infantil en entornos digitales, la defensa de los derechos de propiedad intelectual, la protección de los consumidores frente a fraudes y riesgos derivados de la IA, así como la promoción de la libertad de expresión en sistemas automatizados. Asimismo, el marco apuesta por el desarrollo de la fuerza laboral en inteligencia artificial y por la eliminación de barreras regulatorias que puedan frenar la innovación.

Uno de los aspectos más relevantes —y también más controvertidos— es la intención de establecer la primacía de la regulación federal sobre las normativas estatales. El marco recomienda que el Congreso limite la capacidad de los estados para imponer sus propias reglas cuando estas se consideren una carga excesiva, con el objetivo de evitar un “mosaico regulatorio” y sustituirlo por un estándar nacional coherente. No obstante, se contempla que los estados mantengan competencias en ámbitos tradicionales como la protección del consumidor, la lucha contra el fraude o determinadas políticas públicas locales.

El artículo también subraya que este marco no tiene carácter vinculante, sino que constituye una propuesta política que requiere desarrollo legislativo para materializarse. En este sentido, refleja tanto la ambición del gobierno por liderar globalmente la inteligencia artificial como las dificultades políticas internas para alcanzar consensos, especialmente en cuestiones como la regulación de contenidos, los derechos de autor o el grado de intervención estatal.

En conjunto, el texto sitúa este marco como un paso clave hacia una gobernanza más estructurada de la inteligencia artificial en Estados Unidos, pero también como un punto de partida en un debate más amplio sobre cómo regular una tecnología en rápida evolución sin frenar su potencial económico y estratégico.

El plan describe seis principios rectores:

  • Los servicios y plataformas de inteligencia artificial deben adoptar medidas para proteger a los menores, al tiempo que capacitan a los padres para controlar el entorno digital y la educación de sus hijos.
  • El desarrollo de la inteligencia artificial, incluida la construcción de infraestructuras de datos, debe fortalecer a las comunidades estadounidenses y a las pequeñas empresas mediante el crecimiento económico y el liderazgo energético, garantizando al mismo tiempo que dichas comunidades estén protegidas frente a impactos perjudiciales.
  • Los creadores, editores e innovadores estadounidenses deben estar protegidos frente a contenidos generados por inteligencia artificial que infrinjan sus derechos, sin menoscabar la innovación legítima ni la libertad de expresión.
  • El gobierno federal debe defender la libertad de expresión y las protecciones de la Primera Enmienda, evitando al mismo tiempo que los sistemas de inteligencia artificial se utilicen para silenciar o censurar la expresión política o el disenso legítimos.
  • Estados Unidos debe liderar el mundo en inteligencia artificial eliminando barreras a la innovación, acelerando la adopción de aplicaciones de IA en distintos sectores y garantizando un acceso amplio a los entornos de prueba necesarios para desarrollar sistemas de IA de primer nivel.
  • Los trabajadores estadounidenses deben beneficiarse del crecimiento impulsado por la inteligencia artificial, y no solo de los resultados de su desarrollo, mediante la formación de los jóvenes, la capacitación en habilidades, la creación de nuevos empleos en una economía impulsada por la IA y la ampliación de oportunidades en distintos sectores.
  • El gobierno federal debe establecer un marco nacional de políticas de inteligencia artificial que proteja los derechos de los ciudadanos, fomente la innovación y evite una fragmentación regulatoria entre estados que perjudique la competitividad nacional, respetando al mismo tiempo el federalismo y los derechos de los estados.

Gustavo Moral Álvarez presenta REQUIEM 1229. Planeta Biblioteca 2026/03/26

Gustavo Moral Álvarez presenta REQUIEM 1229: el legado oculto de Bach

Planeta Biblioteca 2026/03/26

ESCUCHAR

Descargar el programa

ADQUIRIR LA OBRA EN AMAZON

La presentación de la novela Réquiem 1229 de Gustavo Moral Álvarez en Planeta Biblioteca a través de una conversación cercana y sugerente en la que el autor comparte el origen creativo de la novela y su profunda inspiración en la música clásica y en Johann Sebastian Bach como eje simbólico, dando forma a una obra que entrelaza intriga y reflexión sobre la memoria, la identidad y la redención, donde el hallazgo de una pieza inédita de Bach impulsa una trama que avanza como una partitura fragmentaria y evocadora, en la que la verdad se construye desde múltiples miradas y el lector participa activamente en su reconstrucción, mientras los personajes encarnan conflictos humanos intensos y búsquedas íntimas, todo ello en una entrevista que conecta literatura y música con naturalidad y cercanía, invitando a sumergirse en una experiencia de lectura tan emocional como profundamente reflexiva.



¿Se ha convertido Anthropic en el chatbot «liberal», mientras que OpenAI y Palantir se han volcado por completo al movimiento MAGA?

Payne, Russell. «Why AI chatbots are getting more political«. Salon, 23 de marzo de 2026. https://www.salon.com/2026/03/23/why-ai-chatbots-are-getting-more-political/.

Las empresas más grandes y prominentes del competitivo sector de la inteligencia artificial están adoptando posturas políticas cada vez más marcadas, especialmente en su relación con el gobierno de Estados Unidos y la industria militar.

Recientemente, Anthropic (creadora del chatbot Claude) protagonizó un gran conflicto con el Pentágono al negarse a que su tecnología fuera utilizada para la vigilancia masiva de ciudadanos y para enjambres de drones letales totalmente autónomos. Como consecuencia, el Departamento de Defensa catalogó a Anthropic como un riesgo para la cadena de suministro y prohibió el uso de sus herramientas. Paradójicamente, poco después de esta decisión, competidores como OpenAI firmaron nuevos acuerdos de defensa, mientras que Palantir y su director ejecutivo, Alex Karp, han mostrado un fuerte apoyo a la administración de Trump y a la reciente guerra con Irán, iniciada a finales de febrero de 2026.

Los analistas de la industria indican que estos movimientos no son una simple cuestión de relaciones públicas, sino el resultado de modelos de negocio en evolución. Ante una guerra moderna cada vez más tecnológica, los contratos militares representan una fuente de ingresos sumamente lucrativa. OpenAI y Palantir parecen haber concluido que a la mayoría de sus usuarios no les importa su vinculación con el ejército. Por su parte, Anthropic —que atiende a una base de usuarios profesionales con un perfil más liberal y demócrata— ha optado por una postura de oposición cautelosa. Algunos expertos, como el profesor Daniel Schiff, sugieren que Anthropic podría estar asumiendo pérdidas a corto plazo con la esperanza de posicionarse favorablemente de cara a una posible administración demócrata en 2029, a pesar de las presiones actuales.

Otro factor crucial en estas decisiones es la feroz competencia por el talento en Silicon Valley. Fundada en 2021 con un enfoque en la seguridad, Anthropic se ha posicionado como «los chicos buenos» de la industria, lo que le ha permitido atraer a investigadores de renombre desencantados con la falta de ética en otras firmas tecnológicas. Sin embargo, este discurso moral no está exento de contradicciones: Anthropic fue recientemente criticada por abandonar su compromiso de no lanzar modelos de IA que superen su propia capacidad de control. El propio chatbot Claude señaló en una interacción con el senador Bernie Sanders que existe un conflicto de intereses inherente al confiar en empresas cuyo modelo de negocio depende de la monetización de los datos de los usuarios.

En el fondo, la motivación principal de los líderes de la industria de la IA va más allá del dinero; se trata de poder absoluto. Según David Krueger, fundador de la organización sin fines de lucro Evitable, los desarrolladores líderes creen que estamos a solo un par de años de alcanzar una IA verdaderamente transformadora que rediseñará el mundo y dictará el curso de la historia. Empresas como Palantir están dispuestas a abrazar el «aceleracionismo» y no les importa ser vistas como corporaciones «malvadas», siempre y cuando puedan moldear la sociedad a su imagen junto a las agencias de seguridad nacional. No obstante, fuentes internas advierten que esta radicalización partidista —una ruptura total con la norma histórica de la industria tecnológica de donar a ambos partidos por igual— es producto de una «cámara de eco» cultural y resultará contraproducente y de visión a corto plazo cuando el panorama político inevitablemente vuelva a cambiar.

Las bibliotecas como líderes en la superación de las brechas

Free Guide and eCourse: Libraries as Leaders in Bridging Divides. Programming Librarian. ALA Public Programs Office, 2026

Texto completo

En la sociedad actual, cada vez más dividida y polarizada, las bibliotecas han asumido un papel fundamental como centros de conexión ciudadana, logrando reunir a personas con diversos orígenes y perspectivas. Al organizar y albergar conversaciones comunitarias, las bibliotecas crean espacios intencionales que fomentan la escucha activa, el aprendizaje continuo y un sentido más profundo de respeto entre los vecinos.

Reconociendo esta labor, la Asociación de Bibliotecas de Estados Unidos (ALA, por sus siglas en inglés), en colaboración con la Coalición Nacional para el Diálogo y la Deliberación (NCDD) y un equipo de asesores, ha desarrollado nuevos recursos gratuitos para capacitar al personal bibliotecario en la mediación de temas divisivos y la promoción de la empatía.

Esta iniciativa es una continuación del exitoso proyecto «Libraries Transforming Communities», lanzado en 2014 para financiar proyectos comunitarios. Uno de los nuevos recursos es la guía de facilitación «Leading Polarizing Conversations» (Liderando conversaciones polarizadoras). Este documento de 40 páginas proporciona herramientas prácticas e indispensables que ayudan a los trabajadores de las bibliotecas a planificar y diseñar conversaciones significativas. La guía aborda las mejores prácticas de facilitación, detalla estrategias específicas para navegar a través de diálogos difíciles y tensos, y ofrece pautas para implementar acciones de seguimiento en la comunidad, además de incluir recursos adicionales para continuar practicando estas habilidades.

Para complementar la guía escrita, la ALA ha lanzado el curso electrónico asincrónico «Las bibliotecas como líderes en la superación de divisiones» (Libraries as Leaders in Bridging Divides). Consta de cinco módulos diseñados para ayudar al personal a aprovechar todo el poder del diálogo en el entorno bibliotecario. Mediante el uso de sugerencias, plantillas y una herramienta de planificación de conversaciones, el curso busca infundir confianza tanto en facilitadores novatos como experimentados. Todo este proyecto ha sido financiado y respaldado por la Fundación Ford, una organización con más de 85 años de trayectoria dedicada a combatir la desigualdad, fortalecer los valores democráticos y promover la justicia y el cambio social a nivel global.

El trabajo creado íntegramente por IA no tiene derechos de autor

The AI School Librarian, «AI Work Has No Owner. Now What Do We Teach? A Supreme Court decision forces educators to rethink originality in the age of AI«, The AI School Librarians Newsletter (blog), 24 de marzo de 2026, https://aischoollibrarian.substack.com/p/the-supreme-court-drew-a-line-on.

La reciente negativa de la Corte Suprema de los Estados Unidos a escuchar el caso del científico informático Stephen Thaler, quien intentó registrar los derechos de autor de una obra de arte generada por un sistema de inteligencia artificial, ha establecido una realidad legal ineludible: el trabajo creado íntegramente por IA no tiene derechos de autor.

Los tribunales inferiores han dictaminado consistentemente que la ley de derechos de autor protege exclusivamente la autoría humana, y que una máquina no puede ser considerada autora sin un aporte creativo humano significativo. Esto significa que las obras generadas por IA carecen actualmente de un autor legal, una realidad que choca directamente con las prácticas educativas contemporáneas.

Existe una profunda desalineación entre este estándar legal y lo que ocurre en las escuelas. Actualmente, los educadores están calificando trabajos que, bajo la ley, no tienen un autor legítimo. Si un estudiante envía una tarea generada completamente por IA, no es el autor legal de la misma. Además, la habilidad de escribir indicaciones (hacer «promptis») no equivale a la autoría creativa. Muchas de las tareas escolares tradicionales están desactualizadas frente a esta realidad, ya que pueden ser completadas fácilmente por herramientas de IA, dando como resultado trabajos pulidos pero con una autoría humana nula o muy dudosa.

Este escenario no implica que la IA deba ser prohibida en las escuelas, sino que debe usarse como una herramienta donde la aportación del estudiante siga siendo el núcleo del trabajo. Para evaluar esto, los educadores deben implementar una «nueva prueba de autoría» haciendo preguntas clave: quién realizó el pensamiento crítico, quién tomó las decisiones principales y si el estudiante es capaz de explicar el proceso de creación. Sin embargo, la mayoría de las políticas de los distritos escolares se centran erróneamente en hacer frente a las trampas o en el uso de software de detección, ignorando el problema fundamental de la autoría. Las políticas que no abordan qué constituye el trabajo original de un estudiante están destinadas a volverse obsoletas.

Para adaptarse a esta nueva era, la educación debe redefinir lo que cuenta como aprendizaje. El artículo propone cuatro cambios fundamentales: primero, cambiar el enfoque del producto final al proceso, exigiendo a los estudiantes que demuestren cómo llegaron a sus resultados; segundo, definir claramente qué se espera de la contribución humana en cada tarea; tercero, normalizar y enseñar la divulgación ética del uso de la IA, donde los alumnos declaren qué herramientas usaron y qué pensamiento es propio; y cuarto, rediseñar intencionalmente las tareas para que requieran interpretación, razonamiento y revisión. En conclusión, aunque la inteligencia artificial llegó para quedarse y generar contenido de forma instantánea, no puede reemplazar la necesidad fundamental de la autoría y el pensamiento humano en el aprendizaje.

Cómo usan y perciben los adolescentes la inteligencia artificial

Pew Research Center. 2026. “How Teens Use and View AI.” 24 de febrero de 2026.

Texto completo

El estudio del Pew Research Center ofrece una radiografía detallada de cómo los adolescentes estadounidenses (entre 13 y 17 años) están incorporando la inteligencia artificial en su vida cotidiana, especialmente a través de chatbots como herramientas multifuncionales.

Uno de los hallazgos principales es la rápida adopción de estas tecnologías: una mayoría significativa de adolescentes ya utiliza chatbots, con cerca de tres de cada diez haciéndolo a diario. Su uso no se limita a la curiosidad tecnológica, sino que está profundamente integrado en actividades prácticas, destacando la búsqueda de información (57%) y el apoyo en tareas escolares (54%) como los usos más frecuentes, seguidos del entretenimiento (47%).

En el ámbito educativo, la IA se está convirtiendo en una herramienta habitual, aunque con diferentes niveles de dependencia. Una minoría de estudiantes (alrededor del 10%) reconoce realizar la mayor parte de sus tareas con ayuda de chatbots, mientras que otros los utilizan de manera más ocasional. Los usos concretos incluyen la investigación de temas, la resolución de problemas —especialmente en matemáticas—, la síntesis de textos complejos y la edición de escritos. A pesar de las preocupaciones sobre el posible impacto en la integridad académica, la mayoría de los adolescentes considera que estas herramientas son útiles: aproximadamente la mitad afirma que les ayudan de forma significativa o moderada en sus estudios, frente a una proporción mínima que las percibe como poco útiles.

Más allá del ámbito académico, el informe revela que la inteligencia artificial también está entrando en esferas más personales. Aunque la mayoría de los adolescentes no utiliza chatbots para interacción emocional, una proporción relevante sí lo hace: un 16% mantiene conversaciones informales y un 12% recurre a ellos en busca de apoyo emocional o consejo. Este dato ha generado preocupación entre padres, educadores y expertos, ya que sugiere una posible transformación en las formas de socialización y en la gestión del bienestar emocional de los jóvenes.

El estudio también analiza las percepciones y actitudes hacia la inteligencia artificial. En general, los adolescentes muestran una visión más optimista que pesimista respecto al impacto futuro de la IA en sus vidas, considerándola una herramienta con potencial positivo, aunque no exenta de riesgos. Esta percepción convive con una creciente conciencia sobre problemas como el uso indebido en contextos educativos (incluido el fraude académico), la fiabilidad de la información generada o los efectos en habilidades cognitivas y creativas. Además, se observan diferencias según variables demográficas como género, nivel socioeconómico o contexto familiar, lo que indica que la experiencia con la IA no es homogénea.

El informe también incorpora la perspectiva de los padres, evidenciando una brecha entre la percepción adulta y la experiencia real de los adolescentes. Mientras aproximadamente la mitad de los padres cree que sus hijos utilizan chatbots, los datos muestran que el uso es en realidad más extendido entre los jóvenes. Asimismo, los padres tienden a aceptar el uso de la IA para fines académicos o informativos, pero muestran mayor rechazo cuando se trata de usos emocionales o sociales. En conjunto, el estudio pone de manifiesto que la inteligencia artificial ya forma parte del ecosistema cotidiano de los adolescentes, configurando nuevas dinámicas de aprendizaje, interacción y construcción del conocimiento, al tiempo que plantea desafíos educativos, éticos y sociales de gran alcance.

Open AI cierra Sora frustrando la inversión de Disney

Koebler, Jason. 2026. “Disney’s Sora Disaster Shows AI Will Not Save Hollywood.404 Media, 25 de marzo de 2026

El cierre de Sora, la herramienta de generación de vídeo mediante inteligencia artificial desarrollada por OpenAI, marca un giro significativo en la estrategia de la compañía y evidencia las tensiones entre tecnología y la industria del entretenimiento.

Lanzada recientemente como una de las apuestas más ambiciosas en el campo del vídeo generativo, la plataforma será descontinuada de forma relativamente temprana, sin que se hayan ofrecido explicaciones detalladas sobre los motivos de la decisión. Sin embargo, este movimiento coincide con la ruptura de un acuerdo estratégico con The Walt Disney Company, que había anunciado una inversión potencial de 1.000 millones de dólares y la cesión de licencias de personajes para su uso en la plataforma, acuerdo que finalmente no llegó a formalizarse ni ejecutarse económicamente.

El cierre también se produce en un contexto de creciente competencia en el mercado de generación de vídeo con IA, así como de presiones legales, éticas y económicas relacionadas con los derechos de autor y el uso de contenido protegido. La industria audiovisual, incluida Disney, ha mostrado cautela ante estas tecnologías, buscando proteger la propiedad intelectual y el control creativo, lo que ha dificultado la consolidación de alianzas estables.

En este escenario, OpenAI parece optar por reorientar sus prioridades hacia otros desarrollos más estratégicos o sostenibles, abandonando al menos por ahora el modelo de aplicación independiente de vídeo generativo. El caso de Sora ilustra así tanto el potencial disruptivo de la inteligencia artificial en la creación audiovisual como los obstáculos reales —tecnológicos, legales y comerciales— que condicionan su integración en las industrias culturales.

Tendencias en los espacios y diseño en bibliotecas con Julio Alonso Arévalo. Planeta Biblioteca 2026/03/25

Tendencias en los espacios y diseño en bibliotecas con Julio Alonso Arévalo

Planeta Biblioteca 2026/03/25

ESCUCHAR

Descargar

En el programa se realiza un recorrido por la evolución histórica de las bibliotecas, desde sus orígenes como espacios cerrados dedicados a la custodia del conocimiento en la Antigüedad y la Edad Media hasta su transformación en instituciones abiertas y accesibles tras la invención de la imprenta; en la era digital, estas se reinventan como centros de aprendizaje, colaboración y acceso tecnológico, manteniendo su función social de conexión con la información y evidenciando un cambio de paradigma desde modelos centrados en el libro hacia otros enfocados en el usuario y el aprendizaje; así, los espacios actuales se caracterizan por su flexibilidad, diversidad y base tecnológica, incorporando zonas colaborativas, makerspaces, áreas de descanso, espacios infantiles y programación cultural, al tiempo que se conciben como infraestructuras sociales y “terceros espacios” que fomentan la inclusión, la participación ciudadana y el bienestar comunitario, apostando finalmente por un diseño sostenible, personalizado y orientado a la experiencia del usuario, plenamente integrado en el entorno urbano y social.