Een AI in productie zonder audit trail is forensisch onbruikbaar bij incident, audit of klacht. Wij richten lineage in als deel van architectuur, niet als afterthought.
Model-versionering
Per release een unieke model-id: training-data-snapshot, hyperparameters, eval-results, deployment-datum. MLflow, Weights & Biases of eigen oplossing. Bij elke productie-call: welke model-versie deed deze inferentie.
Prompt-versionering
System-prompts en few-shot voorbeelden veranderen vaker dan modellen. Per change versioneren met git-equivalent voor prompts. Bij audit per produced output reproduceerbaar wat de prompt was.
Data lineage
Welke training-data ging in welke model. Welke retrieval-content was geselecteerd voor deze RAG-call. Welke gebruiker-context verrijkte deze prompt. Voor debugging plus AI Act-compliance.
Logging-volume management
Volledige logging per call op productie kan TB per dag zijn. Sampling-strategie plus selective full-logging op high-stakes (high-risk-systemen, regulated decisions). Storage tier (hot 30 dagen, cold 1 jaar, archive 10 jaar voor AI Act-eis).
Verwant: Freelance AI consultant inhuren, AI Act post-market.