Bias-audits zijn voor high-risk AI verplicht onder AI Act. Voor reputational en legal risk-management raakt het ook elke AI met persoonlijke impact. Hoe wij het methodisch doen.

Beschermde groepen

Geslacht, leeftijd, etnische achtergrond, religie, seksuele oriƫntatie, nationaliteit, handicap. Per beschermde groep meten of het AI-systeem disproportioneel effect heeft. Niet alle groepen tegelijk relevant; per use-case selecteren.

Fairness metrics

Demographic parity (gelijke acceptatie-ratio per groep), equal opportunity (gelijke true positive rate), equalized odds (gelijke TPR en FPR). Welke metric geldt hangt af van use-case en juridische context. Wij maken expliciet welke wij meten en waarom.

Mitigatie-strategieen

Pre-processing (data herbalanceren), in-processing (fairness constraints in training), post-processing (output thresholds per groep). Trade-off met overall accuracy meestal aanwezig. Wij rekenen door welke trade-off acceptabel is per use-case.

Doorlopende monitoring

Bias kan ontstaan na go-live door drift in productie-data of veranderend gebruik. Doorlopende monitoring per relevante groep, alerts bij significant verschuiving. Voor high-risk een verplichting onder art. 15.

Verwant: Freelance AI consultant inhuren, AI explainability.