Fine-tuning is in 2026 minder vaak nodig dan in 2023, omdat moderne base-models met long context en RAG veel use-cases dekken. Maar voor specifieke gevallen blijft fine-tuning de juiste keuze.
Wanneer fine-tuning
Voor specifieke domein-taal die het base-model slecht spreekt (legal-Dutch, oude medische terminologie, branche-jargon). Voor compactere modellen die op edge moeten draaien. Voor consistent brand-voice waar prompt-engineering niet stabiel is. Niet voor "ons werk is anders dan andere klanten".
LoRA versus full finetuning
LoRA (Low-Rank Adaptation) trains een kleine adapter, ordergrotere kostenreductie versus full fine-tuning. Voor de meeste enterprise use-cases LoRA voldoende. Full alleen voor major behavioral changes.
Trainingsdata-eisen
Per use-case minimaal 200 tot 1000 hoogwaardige voorbeelden. Kwaliteit boven kwantiteit: 200 zorgvuldig gecureerde voorbeelden geeft beter resultaat dan 5000 sloppy. Validation-set apart voor evaluatie.
RLHF voor instruction-following
Reinforcement Learning from Human Feedback voor wie eigen instruction-tuned model wil. Alleen relevant voor frontier-AI labs en enkele grote enterprises. Voor 95 procent van organisaties niet de juiste investering.
Verwant: Freelance AI consultant inhuren, LLMOps platform.