Módulos IA Funcionalidades Pasos Precios FAQ Blog Tutorial Vídeos Glosario Sobre nosotros Agencias
Regulación

Riesgo sistémico (IA)

En el AI Act europeo, el riesgo sistémico califica a los modelos GPAI cuya potencia de cálculo de entrenamiento supera los 10²⁵ FLOPs (floating point operations). GPT-5, Claude Opus 4.5, Gemini 3.0 y otros grandes modelos entran en esta categoría. Estos sistemas están sujetos a obligaciones reforzadas: evaluación de riesgos, pruebas de seguridad, notificación de incidentes y ciberseguridad.

¿Qué es el riesgo sistémico?

El concepto de riesgo sistémico en el AI Act reconoce que ciertos modelos son tan potentes que pueden tener impactos a gran escala en la sociedad, la economía o la seguridad.

Umbral de clasificación

Un modelo GPAI presenta un riesgo sistémico cuando:

  • La potencia de cálculo acumulada para su entrenamiento supera los 10²⁵ FLOPs
  • O si es designado como tal por la Comisión Europea sobre la base de criterios cualitativos

Modelos afectados (estimaciones)

Modelo Proveedor Riesgo sistémico
GPT-5 OpenAI Probable
Claude Opus 4.5 Anthropic Probable
Gemini 3.0 Pro Google Probable
GPT-4o OpenAI Posible
Llama 3.3 70B Meta Por debajo del umbral

Obligaciones específicas

Además de las obligaciones GPAI estándar, los modelos con riesgo sistémico deben:

  • Evaluación de riesgos: Identificar y mitigar los riesgos sistémicos
  • Pruebas adversariales: Red teaming y evaluaciones de seguridad
  • Notificación de incidentes: Informar a las autoridades de incidentes graves
  • Ciberseguridad: Protección adecuada del modelo y sus pesos

Para ir más lejos

Descubra nuestro artículo en profundidad sobre este tema

Leer artículo