Índice de seguridad de IA 2025: evaluación de las prácticas de las principales empresas frente a riesgos existenciales y de gobernanza

Mashable — «AI safety report: Only 3 models make the grade: Gemini, Claude, and ChatGPT are top of the class — but even they are just C students»

Texto completo

El informe proviene del Future of Life Institute (FLI), que en su edición “Winter 2025 AI Safety Index” evaluó ocho proveedores importantes de IA: OpenAI, DeepSeek, Google, Anthropic, Meta, xAI, Alibaba, y Z.ai

Un panel de expertos analizó declaraciones públicas y respuestas a encuestas de las compañías, evaluando 35 indicadores de seguridad — desde protección de datos hasta mecanismos de denuncia interna.

Solo tres modelos quedaron como “los mejor posicionados”: ChatGPT (de OpenAI), Gemini (de Google) y Claude (de Anthropic). Pero todos aprobaron de forma limitada: en la escala de notas del informe obtuvieron calificaciones de tipo “C” — un aprobado con reservas.

Ninguna de las empresas evaluadas tiene un plan público —verificable y creíble— para garantizar un control humano fiable sobre sistemas de IA cada vez más potentes, lo que abre la puerta a potenciales riesgos «catastróficos». Aunque algunas —como Anthropic y OpenAI— obtuvieron mejores notas en ciertos rubros como gobernanza, evaluación de riesgos y transparencia, las deficiencias en seguridad existencial, rendición de cuentas y medidas preventivas estructurales siguen siendo graves

El informe advierte de que la industria de la IA “va muy por delante” de sus propios mecanismos de regulación y seguridad, lo que genera una tensión creciente entre la carrera por la innovación y la necesidad de salvaguardar la integridad —social, ética y técnica— de sus sistemas

Datos clave:

  • Ninguna de las empresas evaluadas alcanzó un nivel satisfactorio en todos los dominios críticos. Las debilidades estructurales —sobre todo en ámbitos de riesgo existencial, evaluación independiente y transparencia— persisten.
  • Las mayores carencias se concentran en los dominios de evaluación de riesgos (risk assessment), marcos de seguridad (safety framework), y compartición de información (information sharing).
  • No hay evidencia pública de que ninguna empresa haya establecido un plan creíble, exhaustivo y verificable para controlar posibles inteligencias artificiales superinteligentes (AGI / “superhuman AI”). Esa “seguridad existencial” —el control sobre sistemas que podrían ser más inteligentes que los humanos— es considerada la “debilidad estructural central del sector”.

Aunque algunas empresas cumplen parcialmente criterios de estándares emergentes (como los propuestos en la UE), la implementación es desigual: profundidad, especificidad y transparencia siguen siendo insuficiente