Art. 14 vraagt dat high-risk AI-systemen kunnen worden overzien door natuurlijke personen tijdens gebruik. Niet alleen "een mens kijkt mee", wel concrete bevoegdheden, capaciteiten en interventie-mogelijkheden.

Vier pijlers

Begrijpen van mogelijkheden en grenzen, risico op automation bias herkennen, de output correct interpreteren, en interveniëren of beslissing terugdraaien. Per pijler vraag het ontwerp en training-input van degenen die toezicht houden.

Capacity en training

Toezichthouders moeten getraind zijn voor hun rol (raakt ook aan art. 4 AI literacy). Voor een CV-screening: HR-recruiter weet wat het AI-systeem precies doet, wat de bekende biases zijn, wanneer hij overrulet. Geen ad-hoc training, gestructureerd programma.

Override-mechanisme

Het systeem moet een mens toestaan: niet gebruiken, beslissing afwijzen, output buiten beschouwing laten. Een AI-systeem dat geen menselijke override mogelijk maakt is per definitie non-compliant. Dat geldt voor zowel UI als systeem-architectuur.

Monitoring van toezicht

Hoe vaak overrulet de mens, op welke gronden, met welke uitkomst? Per kwartaal review op dat menselijk toezicht zelf werkt. Een mens die in 99 procent van de gevallen blind volgt is geen toezicht. Wij meten en sturen op kwaliteit.

Verwant: Freelance AI consultant inhuren, AI literacy training.