De risicoclassificatie bepaalt welke verplichtingen op een AI-systeem rusten. Verkeerd classificeren leidt tot ofwel onderhandhaving (en boete-risico) ofwel overhandhaving (en onnodige kosten). Wij doen het methodisch.
Niveau 1: prohibited (art. 5)
Sinds 2 februari 2025 verboden: subliminale technieken, exploitatie van kwetsbaarheid, social scoring door overheden, real-time biometrische identificatie publiek toegankelijk, emotion recognition op werkplek of school, predictive policing solely op profiling, untargeted scraping voor face databases. Per verbod een specifieke definitie.
Niveau 2: high-risk via bijlage I
AI als veiligheidscomponent in producten onder EU-harmonisatie-wetgeving (medical devices, machinerichtlijn, speelgoed, lifts). Voor producenten van gereguleerde producten direct relevant.
Niveau 2: high-risk via bijlage III
Acht domeinen: biometrie, kritieke infrastructuur, onderwijs, werknemers, essentiƫle diensten (kredietverstrekking, sociale zekerheid, levensverzekering), wetshandhaving, migratie/asiel, justitie/democratie. Per domein specifieke use-cases die als high-risk gelden.
Niveau 3 en 4
Beperkte transparantieplicht (art. 50): chatbots, deepfakes, AI-gegenereerde content, emotion-recognition-systemen die niet onder verbod vallen. Minimaal risico: alle overige AI-systemen, geen specifieke verplichtingen behalve algemene zorgplicht.
Verwant: Freelance AI consultant inhuren, AI Act verboden praktijken.