¿Se ha convertido Anthropic en el chatbot «liberal», mientras que OpenAI y Palantir se han volcado por completo al movimiento MAGA?

Payne, Russell. «Why AI chatbots are getting more political«. Salon, 23 de marzo de 2026. https://www.salon.com/2026/03/23/why-ai-chatbots-are-getting-more-political/.

Las empresas más grandes y prominentes del competitivo sector de la inteligencia artificial están adoptando posturas políticas cada vez más marcadas, especialmente en su relación con el gobierno de Estados Unidos y la industria militar.

Recientemente, Anthropic (creadora del chatbot Claude) protagonizó un gran conflicto con el Pentágono al negarse a que su tecnología fuera utilizada para la vigilancia masiva de ciudadanos y para enjambres de drones letales totalmente autónomos. Como consecuencia, el Departamento de Defensa catalogó a Anthropic como un riesgo para la cadena de suministro y prohibió el uso de sus herramientas. Paradójicamente, poco después de esta decisión, competidores como OpenAI firmaron nuevos acuerdos de defensa, mientras que Palantir y su director ejecutivo, Alex Karp, han mostrado un fuerte apoyo a la administración de Trump y a la reciente guerra con Irán, iniciada a finales de febrero de 2026.

Los analistas de la industria indican que estos movimientos no son una simple cuestión de relaciones públicas, sino el resultado de modelos de negocio en evolución. Ante una guerra moderna cada vez más tecnológica, los contratos militares representan una fuente de ingresos sumamente lucrativa. OpenAI y Palantir parecen haber concluido que a la mayoría de sus usuarios no les importa su vinculación con el ejército. Por su parte, Anthropic —que atiende a una base de usuarios profesionales con un perfil más liberal y demócrata— ha optado por una postura de oposición cautelosa. Algunos expertos, como el profesor Daniel Schiff, sugieren que Anthropic podría estar asumiendo pérdidas a corto plazo con la esperanza de posicionarse favorablemente de cara a una posible administración demócrata en 2029, a pesar de las presiones actuales.

Otro factor crucial en estas decisiones es la feroz competencia por el talento en Silicon Valley. Fundada en 2021 con un enfoque en la seguridad, Anthropic se ha posicionado como «los chicos buenos» de la industria, lo que le ha permitido atraer a investigadores de renombre desencantados con la falta de ética en otras firmas tecnológicas. Sin embargo, este discurso moral no está exento de contradicciones: Anthropic fue recientemente criticada por abandonar su compromiso de no lanzar modelos de IA que superen su propia capacidad de control. El propio chatbot Claude señaló en una interacción con el senador Bernie Sanders que existe un conflicto de intereses inherente al confiar en empresas cuyo modelo de negocio depende de la monetización de los datos de los usuarios.

En el fondo, la motivación principal de los líderes de la industria de la IA va más allá del dinero; se trata de poder absoluto. Según David Krueger, fundador de la organización sin fines de lucro Evitable, los desarrolladores líderes creen que estamos a solo un par de años de alcanzar una IA verdaderamente transformadora que rediseñará el mundo y dictará el curso de la historia. Empresas como Palantir están dispuestas a abrazar el «aceleracionismo» y no les importa ser vistas como corporaciones «malvadas», siempre y cuando puedan moldear la sociedad a su imagen junto a las agencias de seguridad nacional. No obstante, fuentes internas advierten que esta radicalización partidista —una ruptura total con la norma histórica de la industria tecnológica de donar a ambos partidos por igual— es producto de una «cámara de eco» cultural y resultará contraproducente y de visión a corto plazo cuando el panorama político inevitablemente vuelva a cambiar.