Skip to main content
BVDNETBVDNET
DienstenWerkBibliotheekOver MijPrijzenBlogContact
Contact
  1. Home
  2. AI Woordenboek
  3. Praktische Toepassingen
  4. Wat Is Few-Shot Prompting?
lightbulbPraktische Toepassingen
Beginner

Wat Is Few-Shot Prompting?

Het meegeven van enkele uitgewerkte voorbeelden in de prompt om het gedrag van een LLM te sturen — verbetert nauwkeurigheid typisch met 20-30% ten opzichte van zero-shot

Ook bekend als:
N-shot Learning
Exemplar-based Prompting
In-context Learning
What Is Few-Shot Prompting? Examples, Techniques & Best Practices

Few-shot prompting is een techniek waarbij je een klein aantal uitgewerkte voorbeelden (doorgaans 2-10) direct in de prompt opneemt om de gewenste taak, het formaat en het redeneerpatroon te demonstreren aan een Large Language Model. In plaats van het model te fine-tunen of alleen op instructies te vertrouwen, laat je het model zien wat je wilt door invoer-uitvoerparen te geven — het LLM leert van deze voorbeelden in context, zonder gewichtsupdates. Few-shot prompting verbetert de nauwkeurigheid doorgaans met 20-30% vergeleken met zero-shot prompting, waardoor het een van de prompt-engineeringtechnieken met de hoogste ROI is. Kwaliteit van voorbeelden telt meer dan hoeveelheid: drie zorgvuldig gekozen voorbeelden presteren consistent beter dan tien matige.

Waarom het belangrijk is

Few-shot prompting is de meest kosteneffectieve manier om de kwaliteit van LLM-output drastisch te verbeteren zonder modeltraining. Voor taken die gestructureerde output vereisen — entiteitextractie, classificatie, datatransformatie, codegeneratie in specifieke patronen — overbrugt few-shot prompting de kloof tussen een generieke instructie ("extraheer entiteiten uit deze tekst") en een gefinetuned model. Nauwkeurigheidsverbeteringen uit de praktijk zijn goed gedocumenteerd: entiteitextractie springt van 60% naar 85%, classificatie van 72% naar 88%, en wiskundig redeneren van 30% naar 60%. Voor bedrijven betekent dit dat 30 minuten besteden aan het maken van goede voorbeelden maanden aan fine-tuningwerk en duizenden euro's aan trainingscompute kan besparen — terwijl het direct bijgewerkt kan worden door voorbeelden te wisselen in plaats van een model te hertrainen.

Hoe het werkt

Wanneer een LLM een prompt ontvangt met voorbeelden, identificeert het patronen — invoerformaat, outputstructuur, redeneerbenadering, omgang met randgevallen — en past die toe op de nieuwe invoer. Dit werkt omdat LLM's patroonvoltooiingsmachines zijn: ze voorspellen wat volgt op basis van de voorgaande context. Door de context te structureren als opgeloste voorbeelden gevolgd door een onopgelost geval, zet het model het patroon voort. De effectiviteit hangt af van: diversiteit (verschillende gevallen dekken), kwaliteit (correct en duidelijk geformateerd), volgorde (sterkste voorbeelden eerst), en formaatconsistentie (identieke structuur). Few-shot prompting verbruikt meer tokens dan zero-shot — elk voorbeeld draagt bij aan de invoerkosten — waardoor een natuurlijke spanning ontstaat tussen nauwkeurigheid en kosten die teams moeten optimaliseren.

Voorbeeld

Een e-commercebedrijf moet productkenmerken extraheren uit ongestructureerde leveranciersbeschrijvingen. Hun zero-shot prompt ("Extraheer merk, kleur, materiaal en maat uit deze productbeschrijving") behaalt 65% nauwkeurigheid — en mist regelmatig kenmerken die indirect worden genoemd of ongebruikelijke opmaak hebben. Ze voegen drie few-shot voorbeelden toe die typische patronen dekken: een eenvoudige beschrijving met expliciete kenmerken, een waarbij kenmerken geïmpliceerd zijn ("Italiaans leer" → materiaal: leer, herkomst: Italië), en een met meerdere producten in een enkele beschrijving. De nauwkeurigheid springt naar 89%. Ze voegen twee randgeval-voorbeelden toe — beschrijvingen in gemengde talen en afgekorte specificaties — waardoor de nauwkeurigheid stijgt naar 93%. De totale prompt groeit van 80 tokens naar 450 tokens, waardoor de kosten per verzoek met 5× stijgen, maar de 93% nauwkeurigheid elimineert de handmatige reviewstap die voorheen €8.000 per maand aan menselijke arbeid kostte.

Bronnen

  1. Brown et al. — Language Models Are Few-Shot Learners (GPT-3)
    arXiv
  2. Touvron et al. — LLaMA: Open Foundation Models
    arXiv
  3. Wikipedia

Hulp nodig bij het implementeren van AI?

Ik help je dit concept toe te passen in je bedrijf.

Neem contact op

Gerelateerde Concepten

Prompt
De invoertekst of instructies die aan een LLM worden gegeven om een antwoord te genereren
Prompt Engineering
De systematische praktijk van het ontwerpen van effectieve prompts om optimale resultaten te krijgen van LLM's
Chain-of-Thought Prompting
Een prompttechniek die LLM's vraagt stap voor stap te redeneren voordat ze antwoorden, wat de nauwkeurigheid dramatisch verbetert
Generative Engine Optimization (GEO)
Content optimaliseren voor AI-ontdekking in plaats van alleen zoekmachines — antwoord-eerst structuur, gestructureerde data en vraaggeoriënteerde titels.

AI-advies

Hulp nodig bij het begrijpen of implementeren van dit concept?

Praat met een expert
Vorige

Embedding

Volgende

Fine-tuning

BVDNETBVDNET

Webontwikkeling en AI-automatisering. Goed gedaan.

Bedrijf

  • Over Mij
  • Contact
  • FAQ

Resources

  • Diensten
  • Werk
  • Bibliotheek
  • Blog
  • Prijzen

Connect

  • LinkedIn
  • GitHub
  • Twitter / X
  • Email

© 2026 BVDNET. Alle rechten voorbehouden.

Privacybeleid•Algemene Voorwaarden•Cookiebeleid