Veel LLM-gebruik in organisaties stuurt onnodig persoonsgegevens mee in prompts. Een prompt-redaction-laag plus discipline reduceert AVG-risico zonder functionaliteit te beperken.

Prompt-redaction-laag

Voordat een prompt naar LLM gaat: NLP-classifier vervangt persoonsnamen door tags (PERSON_1, PERSON_2), e-mails door EMAIL_1, BSN's door BSN_1. Output bevat tags die client-side weer worden vertaald. Persoonsgegevens verlaten de eigen tenant niet.

Wanneer redaction wel en niet

Voor analyse-tasks (classificeren, samenvatten): redaction werkt prima, betekenis blijft. Voor personalisatie-tasks (cv-screening, customer-service met context): persoonscontext is functioneel nodig; dan ander privacy-pad (eigen tenant, geen training).

Pseudonimisering versus anonimisering

Pseudonimisering blijft re-identificeerbaar (AVG-relevant). Anonimisering is irreversibel (uit AVG). Voor de meeste AI-pipelines pseudo, niet anoniem. Documenteer welke je doet en wat de implicaties zijn.

Prompt-design met minder data

"Vat deze klantcorrespondentie samen" vereist niet de naam van de klant. Een goede prompt-design vraagt alleen wat functioneel nodig is. Train developers op data-minimalisatie als deel van AI literacy.

Verwant: Freelance AI consultant inhuren, AVG en generatieve AI.