Bibliotecas sostenibles: liderazgo, resiliencia y compromiso con la comunidad

Sustainable Libraries Initiative. “Home.” Accessed April 5, 2026. https://www.sustainablelibrariesinitiative.org/

La Sustainable Libraries Initiative (SLI) es una iniciativa internacional orientada a capacitar a los profesionales de bibliotecas para integrar la sostenibilidad como eje central de su actividad. Su misión consiste en impulsar prácticas que sean ambientalmente responsables, socialmente equitativas y económicamente viables, contribuyendo así a comunidades más resilientes frente a desafíos como el cambio climático.

El proyecto surge del compromiso del sector bibliotecario por asumir un papel activo en la construcción de un futuro sostenible. Para ello, la SLI proporciona herramientas, recursos y metodologías que permiten a las bibliotecas incorporar la sostenibilidad en la toma de decisiones, en la gestión de recursos, en el diseño de servicios y en la creación de alianzas estratégicas. Este enfoque se basa en el denominado “triple balance” (triple bottom line), que articula las dimensiones ambiental, social y económica como pilares inseparables del desarrollo sostenible.

Uno de los principales instrumentos de la iniciativa es el Sustainable Library Certification Program (SLCP), que ofrece una hoja de ruta estructurada para que las bibliotecas implementen políticas y prácticas sostenibles en todos sus ámbitos: desde las instalaciones y operaciones hasta la programación cultural, la tecnología y la relación con la comunidad. Este programa no solo fomenta la mejora interna de las instituciones, sino que también refuerza su papel como agentes educativos y sociales capaces de promover la conciencia ambiental y la resiliencia comunitaria.

Además, la SLI promueve una comunidad de práctica en la que bibliotecarios de todo el mundo comparten experiencias, conocimientos y estrategias. En este contexto, la innovación no se entiende como una adopción tecnológica aislada, sino como un proceso colaborativo y progresivo que permite a las bibliotecas adaptarse a los cambios sociales y ambientales sin perder su identidad ni sus valores fundamentales.

En conjunto, la Sustainable Libraries Initiative redefine el papel de las bibliotecas en el siglo XXI, situándolas como actores clave en la transición hacia sociedades más sostenibles. Más allá de su función tradicional, las bibliotecas se consolidan como espacios de aprendizaje, acción y liderazgo en torno a los grandes retos globales.

Inteligencia artificial responsable en bibliotecas universitarias: innovación integrada y control profesional

Clarivate. Responsible AI for Academic Libraries: Igniting the Power within Existing Workflows, while Keeping Librarians in Control. 2026

Texto completo

El documento elaborado por Clarivate aborda el papel emergente de la inteligencia artificial (IA) en las bibliotecas académicas, destacando un enfoque basado en la integración progresiva y el control humano. Según el informe Pulse of the Library 2025, el 67 % de las bibliotecas ya está explorando o implementando soluciones de IA, aunque la mayoría reconoce encontrarse en fases iniciales. Este interés creciente no se traduce en una adopción impulsiva, sino en una aproximación reflexiva, alineada con los valores profesionales de la biblioteconomía y centrada en la sostenibilidad y la responsabilidad en su aplicación.

Uno de los aspectos clave del texto es la apuesta por integrar la inteligencia artificial en sistemas ya consolidados, como Alma y Primo, en lugar de introducir herramientas externas que incrementen la complejidad. Esta estrategia permite a las bibliotecas incorporar capacidades de IA sin alterar sus flujos de trabajo habituales, reduciendo riesgos y facilitando una adopción gradual. La IA se concibe así como un complemento que potencia la labor profesional, no como un sustituto, permitiendo avanzar de forma progresiva y adaptada a las capacidades de cada institución.

En el ámbito del apoyo a la investigación y al aprendizaje, la IA se presenta como una herramienta clave para mejorar el descubrimiento de contenidos y la experiencia del usuario. El informe señala que el 64 % de los bibliotecarios identifica como prioridad tanto el apoyo al aprendizaje del estudiante como la mejora en la recuperación de información. Herramientas como Primo Research Assistant permiten realizar búsquedas en lenguaje natural, generar resúmenes automáticos basados en fuentes académicas y ofrecer acceso directo a textos completos, todo ello manteniendo el rigor y la trazabilidad de las fuentes, lo que refuerza la integridad académica frente a soluciones genéricas.

Otro ámbito destacado es la mejora de la calidad de los metadatos mediante asistentes de IA que automatizan tareas rutinarias, como la generación de descriptores o resúmenes. No obstante, el control humano sigue siendo central: los bibliotecarios supervisan, validan o corrigen las sugerencias, garantizando la precisión y el cumplimiento de estándares como MARC 21. Este modelo híbrido equilibra eficiencia y criterio profesional, reduciendo la carga de trabajo sin renunciar a la calidad ni a la responsabilidad en la gestión de la información.

El documento también subraya el contexto de limitaciones presupuestarias que afecta a las bibliotecas, donde el 62 % identifica la financiación como su principal desafío. En este escenario, la integración de la IA en sistemas existentes permite maximizar el retorno de la inversión, optimizando recursos sin necesidad de nuevas infraestructuras. La automatización de tareas repetitivas libera tiempo para actividades de mayor valor estratégico, como el desarrollo de colecciones o la colaboración institucional.

Finalmente, se destaca la importancia de la innovación como competencia clave en el futuro de las bibliotecas, señalada por el 49 % de los profesionales. Sin embargo, esta innovación no debe entenderse como adopción acrítica de tecnologías, sino como un proceso deliberado, guiado por necesidades reales y por la experiencia bibliotecaria. La IA, en este sentido, se plantea como una herramienta para evolucionar de forma responsable, manteniendo a las bibliotecas como actores centrales en el ecosistema académico y en la gestión del conocimiento

La mayoría de los estudiantes universitarios utilizan IA a pesar de que sus instituciones desaconsejan su uso

Lumina Foundation y Gallup. State of Higher Education Study. 2025. https://www.gallup.com/file/analytics/704279/Lumina-Foundation-Gallup-SOHE_AI_Report.pdf

El avance de la inteligencia artificial en la educación superior se ha consolidado con una rapidez que contrasta con la lentitud institucional para regular su uso. Un estudio reciente de la Lumina Foundation y Gallup revela que la mayoría de los estudiantes universitarios emplea herramientas como ChatGPT, Microsoft Copilot y Google Gemini de forma habitual en sus tareas académicas.

En concreto, el 57 % afirma utilizarlas diaria o semanalmente, mientras que solo un 13 % declara no usarlas nunca. Sin embargo, más de la mitad de los estudiantes (53 %) indica que sus instituciones desaconsejan o prohíben su uso, y un 52 % señala la ausencia de directrices claras en al menos algunas de sus asignaturas. Este desajuste evidencia una brecha significativa entre la práctica estudiantil y la normativa académica.

En cuanto a los motivos de uso, los estudiantes recurren a la inteligencia artificial principalmente como herramienta de apoyo al aprendizaje. Entre quienes la utilizan al menos mensualmente, el 86 % destaca su utilidad para comprender materiales complejos, mientras que otros beneficios señalados incluyen el ahorro de tiempo (76 %), la mejora del rendimiento académico (70 %) y la preparación para el futuro profesional (65 %). Las aplicaciones más comunes consisten en resolver dudas sobre contenidos difíciles y verificar respuestas en tareas, actividades que al menos seis de cada diez usuarios realizan con frecuencia semanal o diaria. Por otro lado, quienes evitan estas herramientas lo hacen mayoritariamente por razones éticas: el 74 % considera su uso como una forma de hacer trampa, y el 68 % menciona las restricciones institucionales, frente a un reducido 14 % que alude a la falta de conocimientos técnicos.

A pesar de la expansión del uso de la IA, las políticas universitarias no han evolucionado al mismo ritmo. Solo un 7 % de los estudiantes afirma que su institución fomenta activamente el uso de estas herramientas, mientras que el 42 % señala que se desaconsejan en la mayoría de los casos y un 11 % indica que están prohibidas. No obstante, incluso en contextos restrictivos, el uso persiste: el 48 % de los estudiantes en instituciones que lo desaconsejan continúa utilizándolas semanalmente, al igual que el 27 % en aquellas donde están prohibidas. Además, la claridad normativa es desigual: únicamente el 51 % de los estudiantes de universidades de cuatro años y el 43 % de los de instituciones de dos años afirman que todas sus asignaturas cuentan con políticas claras sobre inteligencia artificial.

El impacto de la IA trasciende el ámbito académico y alcanza las expectativas laborales de los estudiantes. Casi la mitad (47 %) reconoce haber considerado cambiar de carrera debido a la influencia de la inteligencia artificial en el mercado laboral, y un 16 % afirma haberlo hecho ya. Asimismo, un 12 % señala que esta preocupación ha influido en su decisión de acceder a la educación superior. Aunque el 58 % considera adecuada la formación recibida en inteligencia artificial, cerca de tres de cada diez estudiantes creen que es insuficiente, cifra que aumenta en instituciones con políticas más restrictivas.

En conjunto, los resultados ponen de manifiesto un momento crítico para las instituciones educativas, que deben decidir si abordar la inteligencia artificial como un problema de control o como una oportunidad pedagógica. La evidencia sugiere que, con marcos normativos adecuados, la IA podría integrarse como una herramienta clave para el aprendizaje y la preparación profesional, en lugar de limitarse a ser objeto de prohibición.

El uso ilícito de la inteligencia artificial en la revisión por pares desata una crisis de integridad científica

Gibney, Elizabeth. “Major conference catches illicit AI use — and rejects hundreds of papers.” Nature, 2026. https://doi.org/10.1038/d41586-026-00893-2

Se aborda un caso reciente que pone de manifiesto los desafíos éticos y metodológicos derivados del uso de la inteligencia artificial en la comunicación científica, en particular en el proceso de revisión por pares. Una importante conferencia internacional en el ámbito de la inteligencia artificial detectó el uso indebido de herramientas de IA por parte de revisores que evaluaban artículos científicos. Como consecuencia, los organizadores decidieron rechazar cerca de 500 trabajos —aproximadamente un 2% del total de envíos— al considerar que se habían vulnerado las normas establecidas sobre el uso de estas tecnologías en el proceso de evaluación.

El núcleo del problema reside en que algunos revisores emplearon modelos de lenguaje para generar o asistir en la redacción de sus informes de evaluación sin declararlo, lo que contraviene las políticas de muchas conferencias y revistas científicas. Estas normas suelen prohibir o restringir el uso de IA en la revisión por pares debido a riesgos relacionados con la confidencialidad de los manuscritos, la posible filtración de datos inéditos y la falta de transparencia en los criterios de evaluación. En este caso concreto, los organizadores pudieron identificar el uso de IA gracias a la presencia de marcas de agua (watermarks) en los textos generados por estas herramientas, lo que evidencia tanto el avance tecnológico en la detección como la creciente sofisticación de estos sistemas.

El artículo subraya que este episodio no es aislado, sino representativo de una tendencia más amplia en la que la inteligencia artificial está transformando profundamente los procesos académicos tradicionales. La revisión por pares, considerada durante décadas como un pilar de la calidad científica, se enfrenta ahora a nuevas tensiones derivadas de la automatización parcial de tareas intelectuales. La utilización de IA puede, en principio, agilizar procesos y mejorar la eficiencia, pero también introduce interrogantes sobre la autoría, la responsabilidad y la fiabilidad de las evaluaciones. En este contexto, se hace evidente la necesidad de redefinir las normas éticas y los protocolos de actuación en la comunidad científica.

Asimismo, el caso pone de relieve la dificultad de equilibrar innovación tecnológica e integridad académica. Por un lado, la IA ofrece herramientas poderosas para la redacción, el análisis y la síntesis de información; por otro, su uso no regulado puede comprometer principios fundamentales como la originalidad, la confidencialidad y la imparcialidad. El artículo sugiere que las instituciones científicas deberán adaptarse rápidamente, estableciendo políticas claras y mecanismos de supervisión eficaces para evitar abusos sin frenar el potencial transformador de estas tecnologías.

El texto presenta este incidente como una señal de alerta para la comunidad científica global. La irrupción de la inteligencia artificial en los procesos de evaluación no solo obliga a replantear las normas existentes, sino que también invita a una reflexión más profunda sobre el futuro de la ciencia, la confianza en sus mecanismos de validación y el papel de los investigadores en un entorno cada vez más mediado por tecnologías inteligentes.

Potencialidades de la inteligencia artificial en la difusión de la ciencia a través de repositorios institucionales

Caldera Serrano, Jorge. “Potencialidades de la inteligencia artificial en la difusión de la ciencia a través de repositorios institucionales.” Métodos de Información 16, no. 31 (2025): 26–46. https://doi.org/10.5557/IIMEI16-N31-026046

El artículo analiza en profundidad el papel emergente de la inteligencia artificial (IA) en la transformación de los procesos de difusión del conocimiento científico, poniendo el foco en los repositorios institucionales como infraestructuras clave del acceso abierto.

El autor parte de la premisa de que, en el contexto actual de sobreabundancia informativa, los sistemas tradicionales de organización, recuperación y visibilidad de la producción científica resultan insuficientes, lo que abre la puerta a la incorporación de tecnologías inteligentes capaces de optimizar estos procesos. En este sentido, la IA se presenta como una herramienta estratégica que permite no solo gestionar grandes volúmenes de información, sino también mejorar la accesibilidad, la relevancia y la personalización de los contenidos científicos.

A lo largo del trabajo se describen diversas aplicaciones concretas de la inteligencia artificial en los repositorios institucionales. Entre ellas destacan los algoritmos de recomendación, que facilitan la localización de documentos relevantes para los usuarios; las técnicas de procesamiento del lenguaje natural, que permiten enriquecer los metadatos y mejorar la indexación; y los sistemas de análisis automatizado que contribuyen a identificar tendencias, patrones de uso y áreas emergentes de investigación. Estas funcionalidades no solo incrementan la visibilidad de la producción científica, sino que también favorecen una circulación más eficiente del conocimiento dentro de la comunidad académica y hacia la sociedad en general.

El autor también reflexiona sobre el impacto que estas tecnologías pueden tener en la democratización del acceso a la ciencia. La IA, aplicada de manera adecuada, puede reducir barreras de acceso, facilitar la reutilización de la información y contribuir a una mayor equidad en la difusión del conocimiento. Sin embargo, el artículo no adopta una postura exclusivamente optimista, sino que incorpora una mirada crítica sobre los desafíos que conlleva la implementación de estas herramientas. Entre los principales riesgos se mencionan la opacidad de los algoritmos, los posibles sesgos en la selección y recomendación de contenidos, así como las implicaciones éticas relacionadas con la privacidad de los datos y la gobernanza de la información.

Asimismo, se subraya la necesidad de que los profesionales de la información —bibliotecarios, documentalistas y gestores de repositorios— adquieran nuevas competencias tecnológicas que les permitan integrar y supervisar estos sistemas de inteligencia artificial. La formación continua y la colaboración interdisciplinar se presentan como elementos esenciales para garantizar una implementación responsable y eficaz de la IA en el ámbito de la comunicación científica. En este contexto, los repositorios institucionales no solo evolucionan como herramientas técnicas, sino como espacios estratégicos donde se redefine el papel de la mediación informativa.

En conclusión, el artículo plantea que la inteligencia artificial tiene un enorme potencial para revolucionar la difusión de la ciencia, siempre que su desarrollo e implementación se realicen desde una perspectiva ética, transparente y centrada en el usuario. Lejos de sustituir a los profesionales de la información, la IA se configura como un complemento que amplifica sus capacidades, permitiendo avanzar hacia un ecosistema científico más accesible, eficiente e inclusivo.

Gestión de documentos en la e-administración

García Morales, E. [Elisa]. (2013). Gestión de documentos en la e-administración. Editorial UOC. https://hdl.handle.net/10609/154636

Texto completo

Estamos en el siglo de la información y el avance hacia lo digital es imparable, tanto en las empresas como en las administraciones públicas. Acabar con el papel supone uno de los grandes retos de la administración electrónica. Para pasar de gestionar electrónicamente documentos a gestionar documentos electrónicos nacidos digitalmente es imprescindible una aplicación sistemática de la gestión documental, basada en metodologías reconocidas que aseguren la captura, el control y la preservación de los documentos como evidencia de las actuaciones administrativas y garantía de los derechos de los ciudadanos.

Gestión de la calidad en la biblioteca: diseña un sistema de gestión de la calidad basado en la norma ISO 9001

Balagué, N. [Núria] & Saarti, J. [Jarmo]. (2014). Gestión de la calidad en la biblioteca: diseña un sistema de gestión de la calidad basado en la norma ISO 9001. Editorial UOC. https://hdl.handle.net/10609/154909

Texto completo

En la era de los servicios, la calidad se ha convertido en un valor indiscutible para las organizaciones. La capacidad de responder a las diversas necesidades y expectativas de los clientes es un factor tan sumamente importante que determina la supervivencia de la organización. Las bibliotecas son organizaciones de servicios y existen en entornos dinámicos donde los usuarios son cada vez más exigentes. Esto plantea retos a la gestión de la biblioteca: se necesita un enfoque sistemático y una manera de responder a este desafío es adoptando un sistema de gestión de la calidad (SGC). Este libro ofrece orientación práctica que ayuda a las bibliotecas que deseen dotarse de un sistema de gestión de la calidad.

La Casa Blanca publica el Marco de Política Nacional para la IA

Campbell, Rhea Kelly. “White House Releases National Policy Framework for AI.” Campus Technology, 23 de marzo de 2026. https://campustechnology.com/articles/2026/03/23/white-house-releases-national-policy-framework-for-ai.aspx

La iniciativa surge en un contexto marcado por la proliferación de leyes estatales y la preocupación por la fragmentación normativa, que, según el gobierno federal, podría obstaculizar la innovación y debilitar la competitividad del país en el desarrollo de tecnologías emergentes.

El documento propone una serie de líneas estratégicas centradas en equilibrar el impulso tecnológico con la protección social. Entre sus ejes principales destacan la seguridad infantil en entornos digitales, la defensa de los derechos de propiedad intelectual, la protección de los consumidores frente a fraudes y riesgos derivados de la IA, así como la promoción de la libertad de expresión en sistemas automatizados. Asimismo, el marco apuesta por el desarrollo de la fuerza laboral en inteligencia artificial y por la eliminación de barreras regulatorias que puedan frenar la innovación.

Uno de los aspectos más relevantes —y también más controvertidos— es la intención de establecer la primacía de la regulación federal sobre las normativas estatales. El marco recomienda que el Congreso limite la capacidad de los estados para imponer sus propias reglas cuando estas se consideren una carga excesiva, con el objetivo de evitar un “mosaico regulatorio” y sustituirlo por un estándar nacional coherente. No obstante, se contempla que los estados mantengan competencias en ámbitos tradicionales como la protección del consumidor, la lucha contra el fraude o determinadas políticas públicas locales.

El artículo también subraya que este marco no tiene carácter vinculante, sino que constituye una propuesta política que requiere desarrollo legislativo para materializarse. En este sentido, refleja tanto la ambición del gobierno por liderar globalmente la inteligencia artificial como las dificultades políticas internas para alcanzar consensos, especialmente en cuestiones como la regulación de contenidos, los derechos de autor o el grado de intervención estatal.

En conjunto, el texto sitúa este marco como un paso clave hacia una gobernanza más estructurada de la inteligencia artificial en Estados Unidos, pero también como un punto de partida en un debate más amplio sobre cómo regular una tecnología en rápida evolución sin frenar su potencial económico y estratégico.

El plan describe seis principios rectores:

  • Los servicios y plataformas de inteligencia artificial deben adoptar medidas para proteger a los menores, al tiempo que capacitan a los padres para controlar el entorno digital y la educación de sus hijos.
  • El desarrollo de la inteligencia artificial, incluida la construcción de infraestructuras de datos, debe fortalecer a las comunidades estadounidenses y a las pequeñas empresas mediante el crecimiento económico y el liderazgo energético, garantizando al mismo tiempo que dichas comunidades estén protegidas frente a impactos perjudiciales.
  • Los creadores, editores e innovadores estadounidenses deben estar protegidos frente a contenidos generados por inteligencia artificial que infrinjan sus derechos, sin menoscabar la innovación legítima ni la libertad de expresión.
  • El gobierno federal debe defender la libertad de expresión y las protecciones de la Primera Enmienda, evitando al mismo tiempo que los sistemas de inteligencia artificial se utilicen para silenciar o censurar la expresión política o el disenso legítimos.
  • Estados Unidos debe liderar el mundo en inteligencia artificial eliminando barreras a la innovación, acelerando la adopción de aplicaciones de IA en distintos sectores y garantizando un acceso amplio a los entornos de prueba necesarios para desarrollar sistemas de IA de primer nivel.
  • Los trabajadores estadounidenses deben beneficiarse del crecimiento impulsado por la inteligencia artificial, y no solo de los resultados de su desarrollo, mediante la formación de los jóvenes, la capacitación en habilidades, la creación de nuevos empleos en una economía impulsada por la IA y la ampliación de oportunidades en distintos sectores.
  • El gobierno federal debe establecer un marco nacional de políticas de inteligencia artificial que proteja los derechos de los ciudadanos, fomente la innovación y evite una fragmentación regulatoria entre estados que perjudique la competitividad nacional, respetando al mismo tiempo el federalismo y los derechos de los estados.

Gustavo Moral Álvarez presenta REQUIEM 1229. Planeta Biblioteca 2026/03/26

Gustavo Moral Álvarez presenta REQUIEM 1229: el legado oculto de Bach

Planeta Biblioteca 2026/03/26

ESCUCHAR

Descargar el programa

ADQUIRIR LA OBRA EN AMAZON

La presentación de la novela Réquiem 1229 de Gustavo Moral Álvarez en Planeta Biblioteca a través de una conversación cercana y sugerente en la que el autor comparte el origen creativo de la novela y su profunda inspiración en la música clásica y en Johann Sebastian Bach como eje simbólico, dando forma a una obra que entrelaza intriga y reflexión sobre la memoria, la identidad y la redención, donde el hallazgo de una pieza inédita de Bach impulsa una trama que avanza como una partitura fragmentaria y evocadora, en la que la verdad se construye desde múltiples miradas y el lector participa activamente en su reconstrucción, mientras los personajes encarnan conflictos humanos intensos y búsquedas íntimas, todo ello en una entrevista que conecta literatura y música con naturalidad y cercanía, invitando a sumergirse en una experiencia de lectura tan emocional como profundamente reflexiva.



¿Se ha convertido Anthropic en el chatbot «liberal», mientras que OpenAI y Palantir se han volcado por completo al movimiento MAGA?

Payne, Russell. «Why AI chatbots are getting more political«. Salon, 23 de marzo de 2026. https://www.salon.com/2026/03/23/why-ai-chatbots-are-getting-more-political/.

Las empresas más grandes y prominentes del competitivo sector de la inteligencia artificial están adoptando posturas políticas cada vez más marcadas, especialmente en su relación con el gobierno de Estados Unidos y la industria militar.

Recientemente, Anthropic (creadora del chatbot Claude) protagonizó un gran conflicto con el Pentágono al negarse a que su tecnología fuera utilizada para la vigilancia masiva de ciudadanos y para enjambres de drones letales totalmente autónomos. Como consecuencia, el Departamento de Defensa catalogó a Anthropic como un riesgo para la cadena de suministro y prohibió el uso de sus herramientas. Paradójicamente, poco después de esta decisión, competidores como OpenAI firmaron nuevos acuerdos de defensa, mientras que Palantir y su director ejecutivo, Alex Karp, han mostrado un fuerte apoyo a la administración de Trump y a la reciente guerra con Irán, iniciada a finales de febrero de 2026.

Los analistas de la industria indican que estos movimientos no son una simple cuestión de relaciones públicas, sino el resultado de modelos de negocio en evolución. Ante una guerra moderna cada vez más tecnológica, los contratos militares representan una fuente de ingresos sumamente lucrativa. OpenAI y Palantir parecen haber concluido que a la mayoría de sus usuarios no les importa su vinculación con el ejército. Por su parte, Anthropic —que atiende a una base de usuarios profesionales con un perfil más liberal y demócrata— ha optado por una postura de oposición cautelosa. Algunos expertos, como el profesor Daniel Schiff, sugieren que Anthropic podría estar asumiendo pérdidas a corto plazo con la esperanza de posicionarse favorablemente de cara a una posible administración demócrata en 2029, a pesar de las presiones actuales.

Otro factor crucial en estas decisiones es la feroz competencia por el talento en Silicon Valley. Fundada en 2021 con un enfoque en la seguridad, Anthropic se ha posicionado como «los chicos buenos» de la industria, lo que le ha permitido atraer a investigadores de renombre desencantados con la falta de ética en otras firmas tecnológicas. Sin embargo, este discurso moral no está exento de contradicciones: Anthropic fue recientemente criticada por abandonar su compromiso de no lanzar modelos de IA que superen su propia capacidad de control. El propio chatbot Claude señaló en una interacción con el senador Bernie Sanders que existe un conflicto de intereses inherente al confiar en empresas cuyo modelo de negocio depende de la monetización de los datos de los usuarios.

En el fondo, la motivación principal de los líderes de la industria de la IA va más allá del dinero; se trata de poder absoluto. Según David Krueger, fundador de la organización sin fines de lucro Evitable, los desarrolladores líderes creen que estamos a solo un par de años de alcanzar una IA verdaderamente transformadora que rediseñará el mundo y dictará el curso de la historia. Empresas como Palantir están dispuestas a abrazar el «aceleracionismo» y no les importa ser vistas como corporaciones «malvadas», siempre y cuando puedan moldear la sociedad a su imagen junto a las agencias de seguridad nacional. No obstante, fuentes internas advierten que esta radicalización partidista —una ruptura total con la norma histórica de la industria tecnológica de donar a ambos partidos por igual— es producto de una «cámara de eco» cultural y resultará contraproducente y de visión a corto plazo cuando el panorama político inevitablemente vuelva a cambiar.