Bovenop reguliere GPAI-verplichtingen kent de AI Act een extra categorie: GPAI met systemic risk. Voor de allerzwaarste modellen waar maatschappelijke impact significant is. Wat de drempel is en welke verplichtingen erbij komen.
Drempel: training compute
Een model met cumulative training compute boven 10^25 FLOPs wordt vermoed systemic risk te hebben (art. 51). Bij design-tijd: GPT-4-class en hoger. Vermoeden weerleggbaar als provider aantoont dat impact beperkt is, maar in praktijk geldt het.
Risk evaluation en mitigatie
Per release: risk-assessment, adversarial testing, model-evaluation op specifieke risk-vectoren (chemische/biologische uplift, cyber-uplift, manipulatie). Niet eenmalig pre-launch, doorlopend.
Cybersecurity-eisen verzwaard
Bovenop reguliere cybersecurity: weight protection (model gewichten kunnen niet uitlekken), gecontroleerde toegang, monitoring van suspect access. Voor frontier labs een operationele realiteit; voor minder-frontier-providers minder relevant.
Incident reporting verzwaard
Bij serious incidents direct rapporteren aan AI Office. Geen 15-dagen-termijn maar zo snel als mogelijk. Voor frontier-modellen die in praktijk getroffen kunnen worden door safety-issues, een continuous obligation.
Verwant: Freelance AI consultant inhuren, GPAI verplichtingen.