Skip to main content
BVDNETBVDNET
DienstenWerkBibliotheekOver MijPrijzenBlogContact
Contact
  1. Home
  2. AI Woordenboek
  3. Praktische Toepassingen
  4. Wat Is Zero-Shot Prompting?
lightbulbPraktische Toepassingen
Beginner

Wat Is Zero-Shot Prompting?

Een LLM een taak laten uitvoeren met alleen instructies en zonder voorbeelden — de snelste en goedkoopste promptbenadering

Ook bekend als:
Zero-shot Learning
Instruction-following
Prompt-only Interaction
What Is Zero-Shot Prompting? How LLMs Generalise Without Examples

Zero-shot prompting is de techniek waarbij een Large Language Model wordt gevraagd een taak uit te voeren met uitsluitend instructies in natuurlijke taal, zonder uitgewerkte voorbeelden. Het model vertrouwt volledig op kennis opgedaan tijdens pre-training om de taak te begrijpen en de juiste output te produceren. Zero-shot is de eenvoudigste en goedkoopste promptbenadering — het vereist geen voorbeeldvoorbereiding, gebruikt minimale tokens en werkt direct voor de overgrote meerderheid van gangbare taken. Moderne frontier-modellen (GPT-4, Claude, Gemini) zijn getraind op zodanig diverse data dat ze goed presteren bij zero-shot voor ongeveer 95% van de dagelijkse taaktypen, van samenvatten en classificeren tot vertalen en codegeneratie. Zero-shot dient als de natuurlijke baseline waartegen alle andere prompttechnieken worden afgemeten.

Waarom het belangrijk is

Zero-shot prompting is het standaard startpunt voor elke AI-applicatie omdat het het snelste pad biedt van idee naar werkend prototype. Wanneer een team moet evalueren of een LLM een specifieke taak aankan, is zero-shot het eerste experiment — als het goed genoeg werkt (doorgaans 70-85% nauwkeurigheid voor goed gedefinieerde taken), is geen verdere optimalisatie nodig. Dit is belangrijk omdat de inspanning voor prompt-engineering afnemende meeropbrengsten heeft: zero-shot brengt je 80% van de weg voor 0% van de moeite, terwijl few-shot en fine-tuning de resterende 20% najagen tegen oplopende kosten. Voor snelle prototyping, geautomatiseerde pipelines met menselijke review, en taken waar 80% nauwkeurigheid acceptabel is, is zero-shot vaak de juiste permanente oplossing — niet slechts een startpunt. Het vermogen van grote modellen om goed te presteren bij zero-shot was een van de meest verrassende ontdekkingen van het schaalbaarheidstijdperk, dat pas optrad bij modellen boven ongeveer 100 miljard parameters.

Hoe het werkt

Wanneer een LLM een zero-shot prompt ontvangt, verwerkt het de instructietokens en genereert een antwoord op basis van patronen geleerd tijdens pre-training. Het model heeft miljarden voorbeelden gezien van taken die worden beschreven en vervolgens uitgevoerd in zijn trainingsdata — handleidingen, Q&A-forums, academische papers, tutorials — en leerde instructiepatronen te koppelen aan passende antwoordpatronen. De kwaliteit van zero-shot prestaties hangt sterk af van de duidelijkheid van instructies: vage prompts ("Vat dit samen") produceren vage resultaten, terwijl specifieke prompts ("Vat deze klant-e-mail samen in 2-3 zinnen, benadruk het hoofdverzoek en eventuele urgentie, gebruik een professionele toon") precieze, bruikbare output produceren. Zero-shot prestaties schalen ook met modelgrootte: modellen onder 13 miljard parameters worstelen met de meeste zero-shot taken, terwijl modellen boven 100 miljard parameters de prestaties van few-shot benaderen bij veel gangbare taken zonder enige voorbeelden.

Voorbeeld

Een productteam moet inkomende klantfeedback classificeren in vijf categorieën: bugreport, functieverzoek, factuurprobleem, lof en algemene vraag. Ze beginnen met een zero-shot prompt die de categorieën en hun definities specificeert, en bereiken 81% nauwkeurigheid over 1.000 testberichten. Dit is voldoende voor hun triagedashboard, dat berichten naar de juiste teamwachtrij stuurt met menselijke review. Ondertussen moet hun juridische team specifieke clausuletypes uit contracten extraheren — een gespecialiseerde taak waarbij zero-shot slechts 62% nauwkeurigheid bereikt. Voor de juridische toepassing investeren ze in few-shot voorbeelden en duwen de nauwkeurigheid naar 91%. De klantfeedbackclassificator blijft maandenlang zero-shot in productie draaien en verwerkt 500 berichten per dag tegen minimale kosten, terwijl het juridische hulpmiddel zijn hogere tokenkosten per verzoek rechtvaardigt door de waarde van nauwkeurige extractie. Beide benaderingen bestaan naast elkaar in dezelfde organisatie, elk geoptimaliseerd voor de specifieke balans tussen nauwkeurigheid en kosten.

Bronnen

  1. Kojima et al. — Large Language Models Are Zero-Shot Reasoners
    arXiv
  2. Wei et al. — Finetuned Language Models Are Zero-Shot Learners (FLAN)
    arXiv
  3. Wikipedia

Hulp nodig bij het implementeren van AI?

Ik help je dit concept toe te passen in je bedrijf.

Neem contact op

Gerelateerde Concepten

Prompt
De invoertekst of instructies die aan een LLM worden gegeven om een antwoord te genereren
Prompt Engineering
De systematische praktijk van het ontwerpen van effectieve prompts om optimale resultaten te krijgen van LLM's
Large Language Model (LLM)
Een neuraal netwerk getraind op enorme hoeveelheden tekst om mensachtige taal te begrijpen en genereren
Generative Engine Optimization (GEO)
Content optimaliseren voor AI-ontdekking in plaats van alleen zoekmachines — antwoord-eerst structuur, gestructureerde data en vraaggeoriënteerde titels.

AI-advies

Hulp nodig bij het begrijpen of implementeren van dit concept?

Praat met een expert
Vorige

Vectordatabase

BVDNETBVDNET

Webontwikkeling en AI-automatisering. Goed gedaan.

Bedrijf

  • Over Mij
  • Contact
  • FAQ

Resources

  • Diensten
  • Werk
  • Bibliotheek
  • Blog
  • Prijzen

Connect

  • LinkedIn
  • GitHub
  • Twitter / X
  • Email

© 2026 BVDNET. Alle rechten voorbehouden.

Privacybeleid•Algemene Voorwaarden•Cookiebeleid