Bovenop reguliere GPAI-verplichtingen kent de AI Act een extra categorie: GPAI met systemic risk. Voor de allerzwaarste modellen waar maatschappelijke impact significant is. Wat de drempel is en welke verplichtingen erbij komen.

Drempel: training compute

Een model met cumulative training compute boven 10^25 FLOPs wordt vermoed systemic risk te hebben (art. 51). Bij design-tijd: GPT-4-class en hoger. Vermoeden weerleggbaar als provider aantoont dat impact beperkt is, maar in praktijk geldt het.

Risk evaluation en mitigatie

Per release: risk-assessment, adversarial testing, model-evaluation op specifieke risk-vectoren (chemische/biologische uplift, cyber-uplift, manipulatie). Niet eenmalig pre-launch, doorlopend.

Cybersecurity-eisen verzwaard

Bovenop reguliere cybersecurity: weight protection (model gewichten kunnen niet uitlekken), gecontroleerde toegang, monitoring van suspect access. Voor frontier labs een operationele realiteit; voor minder-frontier-providers minder relevant.

Incident reporting verzwaard

Bij serious incidents direct rapporteren aan AI Office. Geen 15-dagen-termijn maar zo snel als mogelijk. Voor frontier-modellen die in praktijk getroffen kunnen worden door safety-issues, een continuous obligation.

Verwant: Freelance AI consultant inhuren, GPAI verplichtingen.