La inteligencia artificial bajo examen: el equipo de Anthropic que estudia su impacto en la sociedad

Field, Hayden. 2025. “Meet the Anthropic Team Reckoning with AI’s Effect on Humans and the World.The Verge, December 2, 2025

Texto completo

Un grupo reducido de investigadores dedicado a estudiar y anticipar las consecuencias sociales de la inteligencia artificial avanzada, particularmente del modelo Claude.

Este equipo fue fundado por Deep Ganguli, antiguo director de investigación en el Stanford Institute for Human-Centered AI, quien se unió a Anthropic para ayudar a orientar el desarrollo de la IA hacia impactos positivos y comprensibles para la sociedad. La misión central del grupo es identificar “verdades incómodas” sobre cómo se usan y malinterpretan los sistemas de IA, incluso cuando estos pueden causar daños sutiles o indirectos.

La cobertura destaca que, a pesar de estar compuesto por apenas nueve personas dentro de una empresa con miles de empleados, el equipo ha producido investigaciones sobre temas tan variados como el impacto económico de la IA, sus efectos en la persuasión y en la discriminación, así como los riesgos relacionados con procesos electorales. Parte de su trabajo consiste en estudiar datos reales de uso —por ejemplo, cómo personas y organizaciones interactúan con Claude en entornos cotidianos— y traducir estos hallazgos en conocimiento útil para formular políticas y prácticas más seguras.

El perfil también plantea tensiones inherentes a su labor: aunque Anthropic se promociona como una de las empresas de IA más centradas en la seguridad y el bienestar humanos, la presión del crecimiento del mercado y los incentivos comerciales podría reducir con el tiempo la libertad del equipo para publicar investigaciones críticas. Aun así, los investigadores insisten en que su compromiso con la transparencia es fundamental para construir confianza pública y ofrecer una perspectiva externa dentro de una industria dominada por intereses económicos muy fuertes.

Finalmente, se subraya cómo el trabajo del equipo se relaciona con la reputación de Anthropic como una empresa que no solo desarrolla modelos de IA potentes, sino que también intenta entender y mitigar sus posibles impactos sociales negativos. Esta postura incluye no solo escribir papers académicos, sino también comunicar hallazgos a responsables políticos, comunidades técnicas y al público en general para promover un enfoque más reflexivo en la innovación de la IA.