Explainability is geen tickbox-vereiste. Het is wat een AI-besluit verifieerbaar maakt voor de gebruiker, betrokkene en toezichthouder. Onder AI Act vereist voor high-risk en bij betrokkene-rechten op uitleg.
Local versus global explanations
Local explanation: waarom dit individuele besluit (SHAP, LIME, counterfactuals). Global explanation: hoe werkt het model in het algemeen (feature importance, partial dependence). Beide nodig voor different audiences.
SHAP voor numerical en tabular
SHAP (SHapley Additive exPlanations) is voor classification en regression op tabular data. Per feature een bijdrage in de uitkomst. Sterk wiskundig fundament, goede interpretatie. Voor lead-scoring, fraude-detectie, kredietbeoordeling de standaardkeuze.
LLM explainability
Voor LLMs zijn klassieke explainability-tools beperkt. Best practice: in-context examples die het model laat zien waarom het antwoord, plus citation-discipline (welke source supported welke claim). Geen feature-attribution mogelijk, wel reasoning-traceability.
Voor de gebruiker, niet de auditor
Een SHAP-plot is voor de data scientist. Een betrokkene wil plain-language explanation: "uw aanvraag is afgewezen primair vanwege X en Y". Wij vertalen technische output naar gebruiker-taal automatically waar mogelijk.
Verwant: Freelance AI consultant inhuren, AI bias audit.