Skip to main content
BVDNETBVDNET
DienstenWerkBibliotheekOver MijPrijzenBlogContact
Contact
  1. Home
  2. AI Woordenboek
  3. Agentic AI
  4. Wat Is Prompt Chaining?
botAgentic AI
Intermediate

Wat Is Prompt Chaining?

Het opsplitsen van complexe taken in een reeks eenvoudigere LLM-aanroepen waarbij elke output de volgende invoer voedt — verbetert kwaliteit met 20-40% ten opzichte van verwerking in één stap

Ook bekend als:
LLM Chaining
Promptketens
Sequential Prompting
What Is Prompt Chaining? Breaking Complex Tasks Into Sequential LLM Steps

Prompt chaining is een techniek waarbij een complexe taak wordt opgesplitst in een reeks eenvoudigere, gerichte LLM-aanroepen, waarbij de output van elke aanroep dient als invoer (of gedeeltelijke invoer) voor de volgende. In plaats van een model te vragen een heel meerstapsproces in één generatie af te handelen — wat foutpercentages verhoogt en controleerbaarheid vermindert — splitst prompt chaining het werk in gespecialiseerde stappen: extraheren, dan analyseren, dan samenvatten; of plannen, dan uitvoeren, dan verifiëren. Elke stap gebruikt een prompt die is geoptimaliseerd voor één specifieke subtaak, wat de kwaliteit met 20-40% verbetert vergeleken met verwerking in één stap. Prompt chaining is een fundamenteel patroon in agentische AI-systemen, waar ketens kunnen vertakken, herhalen en toolaanroepen bevatten naast LLM-generaties.

Waarom het belangrijk is

Eenstaps LLM-verwerking faalt voorspelbaar bij complexe taken: het model probeert gelijktijdig te redeneren, formatteren, valideren en genereren, wat leidt tot fouten die zich opstapelen in de output. Prompt chaining adresseert dit door verantwoordelijkheden te isoleren — elke stap doet één ding goed, en tussenliggende outputs kunnen worden gevalideerd voordat de volgende stap verdergaat. Deze modulariteit maakt ook gemengde modelstrategieën mogelijk: gebruik een snel, goedkoop model voor extractie, routeer naar een krachtig model voor analyse, en gebruik een template-engine voor de uiteindelijke opmaak. Voor productiesystemen biedt prompt chaining cruciale debugbaarheid — wanneer outputkwaliteit afneemt, kunnen teams exact traceren welke stap in de keten faalde en die repareren zonder de hele pipeline te herbouwen. De kostenafweging is 2-5× hogere API-uitgaven per taak door meerdere aanroepen, maar dit is consequent gerechtvaardigd wanneer nauwkeurigheidsverbeteringen handmatige review verderop elimineren.

Hoe het werkt

Een promptketen wordt uitgevoerd als een georkestreerde pipeline waarbij elke stap een eigen systeemprompt, invoertemplate en outputparser bevat. De orchestrator beheert de datastroom tussen stappen, foutafhandeling en conditionele vertakking. Een typische keten volgt dit patroon: Stap 1 ontvangt ruwe invoer en extraheert gestructureerde data. Stap 2 ontvangt de gestructureerde data en voert analyse uit. Stap 3 ontvangt de analyse en genereert de finale output. Tussen elke stap kan de orchestrator outputs valideren (gehallusineerde data afwijzen), invoer verrijken (context toevoegen vanuit databases of API's), en routeringsbeslissingen nemen (verschillende cases naar verschillende ketens sturen). Frameworks als LangChain, LlamaIndex en maatwerk-orchestratielagen implementeren dit patroon. Geavanceerde ketens ondersteunen parallellisme (onafhankelijke stappen gelijktijdig uitvoeren), retries met aangepaste prompts bij falen, en menselijke checkpoints op kritieke beslismomenten.

Voorbeeld

Een adviesbureau automatiseert hun offerteproces met een vierstaps promptketen. Stap 1 (Extractie): gegeven een aanbestedingsdocument van de klant, extraheer eisen, budgetbeperkingen, tijdlijn en beoordelingscriteria naar gestructureerde JSON. Stap 2 (Strategie): gegeven de geëxtraheerde eisen en de capaciteitendatabase van het bureau, genereer een aanbevolen aanpak met personeelsplan en methodologieaansluiting. Stap 3 (Opstellen): gegeven de strategie en offertetemplate, genereer elke sectie met specifieke claims gekoppeld aan eisen. Stap 4 (Review): gegeven de conceptofferte en originele aanbesteding, identificeer hiaten waar eisen niet zijn geadresseerd en markeer ononderbouwde claims. De eenstapsbenadering (het hele document naar één prompt die een complete offerte vraagt) produceerde concepten die slechts 60% van de gestelde eisen adresseerden en regelmatig capaciteiten verzon. De vierstapsketen adresseert 94% van de eisen en markeert de overige 6% voor menselijke aandacht. Verwerkingskosten stijgen van €0,12 naar €0,45 per offerte, maar elimineren acht uur analystreviwtijd per offerte.

Bronnen

  1. Wu et al. — AI Chains: Chaining Large Language Model Steps
    arXiv
  2. Anthropic — Chaining Prompts Guide
  3. Wikipedia

Hulp nodig bij het implementeren van AI?

Ik help je dit concept toe te passen in je bedrijf.

Neem contact op

Gerelateerde Concepten

AI-agent
Een AI-systeem dat autonoom plant, redeneert en acties onderneemt om doelen te bereiken met tools
Chain-of-Thought Prompting
Een prompttechniek die LLM's vraagt stap voor stap te redeneren voordat ze antwoorden, wat de nauwkeurigheid dramatisch verbetert
Prompt Engineering
De systematische praktijk van het ontwerpen van effectieve prompts om optimale resultaten te krijgen van LLM's
Agentic Engineering
De discipline van het bouwen van autonome AI-agentsystemen — architectuur, orkestratie, toolintegratie, veiligheid en operaties.

AI-advies

Hulp nodig bij het begrijpen of implementeren van dit concept?

Praat met een expert
Vorige

Prompt Caching

Volgende

Prompt Engineering

BVDNETBVDNET

Webontwikkeling en AI-automatisering. Goed gedaan.

Bedrijf

  • Over Mij
  • Contact
  • FAQ

Resources

  • Diensten
  • Werk
  • Bibliotheek
  • Blog
  • Prijzen

Connect

  • LinkedIn
  • GitHub
  • Twitter / X
  • Email

© 2026 BVDNET. Alle rechten voorbehouden.

Privacybeleid•Algemene Voorwaarden•Cookiebeleid