En el AI Act europeo, el riesgo sistémico califica a los modelos GPAI cuya potencia de cálculo de entrenamiento supera los 10²⁵ FLOPs (floating point operations). GPT-5, Claude Opus 4.5, Gemini 3.0 y otros grandes modelos entran en esta categoría. Estos sistemas están sujetos a obligaciones reforzadas: evaluación de riesgos, pruebas de seguridad, notificación de incidentes y ciberseguridad.
¿Qué es el riesgo sistémico?
El concepto de riesgo sistémico en el AI Act reconoce que ciertos modelos son tan potentes que pueden tener impactos a gran escala en la sociedad, la economía o la seguridad.
Umbral de clasificación
Un modelo GPAI presenta un riesgo sistémico cuando:
- La potencia de cálculo acumulada para su entrenamiento supera los 10²⁵ FLOPs
- O si es designado como tal por la Comisión Europea sobre la base de criterios cualitativos
Modelos afectados (estimaciones)
| Modelo | Proveedor | Riesgo sistémico |
|---|---|---|
| GPT-5 | OpenAI | Probable |
| Claude Opus 4.5 | Anthropic | Probable |
| Gemini 3.0 Pro | Probable | |
| GPT-4o | OpenAI | Posible |
| Llama 3.3 70B | Meta | Por debajo del umbral |
Obligaciones específicas
Además de las obligaciones GPAI estándar, los modelos con riesgo sistémico deben:
- Evaluación de riesgos: Identificar y mitigar los riesgos sistémicos
- Pruebas adversariales: Red teaming y evaluaciones de seguridad
- Notificación de incidentes: Informar a las autoridades de incidentes graves
- Ciberseguridad: Protección adecuada del modelo y sus pesos