Een AI in productie zonder audit trail is forensisch onbruikbaar bij incident, audit of klacht. Wij richten lineage in als deel van architectuur, niet als afterthought.

Model-versionering

Per release een unieke model-id: training-data-snapshot, hyperparameters, eval-results, deployment-datum. MLflow, Weights & Biases of eigen oplossing. Bij elke productie-call: welke model-versie deed deze inferentie.

Prompt-versionering

System-prompts en few-shot voorbeelden veranderen vaker dan modellen. Per change versioneren met git-equivalent voor prompts. Bij audit per produced output reproduceerbaar wat de prompt was.

Data lineage

Welke training-data ging in welke model. Welke retrieval-content was geselecteerd voor deze RAG-call. Welke gebruiker-context verrijkte deze prompt. Voor debugging plus AI Act-compliance.

Logging-volume management

Volledige logging per call op productie kan TB per dag zijn. Sampling-strategie plus selective full-logging op high-stakes (high-risk-systemen, regulated decisions). Storage tier (hot 30 dagen, cold 1 jaar, archive 10 jaar voor AI Act-eis).

Verwant: Freelance AI consultant inhuren, AI Act post-market.