Skip to main content
BVDNETBVDNET
DienstenWerkBibliotheekOver MijPrijzenBlogContact
Contact
  1. Home
  2. AI Woordenboek
  3. Kernconcepten
  4. Wat Is een Large Language Model (LLM)?
book-openKernconcepten
Beginner

Wat Is een Large Language Model (LLM)?

Een neuraal netwerk getraind op enorme hoeveelheden tekst om mensachtige taal te begrijpen en genereren

Ook bekend als:
LLM
Groot Taalmodel
Foundation Model
Large Language Model (LLM)

Een Large Language Model (LLM) is een neuraal netwerk met miljarden parameters dat getraind is op enorme hoeveelheden tekst om mensachtige taal te begrijpen en genereren. Moderne LLM's zoals GPT-4, Claude en Llama zijn gebouwd op de transformer-architectuur en leren statistische patronen over biljoenen tokens aan tekst, code en gestructureerde data. Het woord 'large' verwijst naar zowel de omvang van de trainingsdata als het aantal parameters — variërend van 7 miljard voor kleinere open-source modellen tot honderden miljarden voor frontier-modellen. LLM's vormen de basis van vrijwel alle moderne AI-toepassingen, van chatbots en code-assistenten tot autonome agents en kennissystemen voor bedrijven.

Waarom het belangrijk is

LLM's vertegenwoordigen de belangrijkste vooruitgang in kunstmatige intelligentie sinds de deep learning-revolutie. Ze zijn de motor achter elke AI-chatbot, code-assistent, zoekverbetering en autonome agent die vandaag in productie draait. Voor bedrijven is het begrijpen van LLM's essentieel voor het evalueren van AI-leveranciers, het inschatten van kosten (die schalen met modelgrootte en tokenverbruik), en het identificeren van welke problemen AI realistisch kan oplossen. De keuze tussen verschillende LLM's — open-source vs. proprietary, klein vs. groot, general-purpose vs. fine-tuned — heeft directe impact op kwaliteit, kosten en dataprivacy van applicaties.

Hoe het werkt

Een LLM leert door tijdens pre-training enorme hoeveelheden tekst te verwerken, waarbij het een interne representatie ontwikkelt van taalstructuur, feiten en redeneerpatronen. Tijdens inferentie genereert het tekst één token per keer: gegeven een invoersequentie voorspelt het model het meest waarschijnlijke volgende token, voegt het toe en herhaalt. Dit autoregressieve proces produceert coherente tekst die instructies kan opvolgen, vragen beantwoorden, code schrijven en redeneren over complexe problemen. De capaciteiten van het model komen voort uit schaal — grotere modellen getraind op meer data vertonen kwalitatief nieuwe vaardigheden zoals chain-of-thought redeneren en few-shot leren die bij kleinere modellen volledig ontbreken.

Voorbeeld

Een bedrijf wil een interne kennisassistent bouwen die medewerkervragen beantwoordt over HR-beleid, technische documentatie en projectstatus. Ze evalueren drie LLM's: een klein open-source model (7B parameters) dat op eigen servers draait voor dataprivacy, een middenklasse API-model voor eenvoudige queries met hoog volume tegen lage kosten, en een frontier-model voor complexe meerstaps-redeneertaken. Het kleine model handelt FAQ-achtige vragen af tegen vrijwel nul marginale kosten. Het middenklasse model verwerkt honderden documenten en genereert gestructureerde samenvattingen. Het frontier-model pakt ambigue vragen aan die synthese over meerdere bronnen vereisen — een taak waar kleinere modellen hallucineren of oppervlakkige antwoorden geven. Deze gelaagde aanpak balanceert kosten, kwaliteit en privacy over de hele organisatie.

Bronnen

  1. Wikipedia — Large Language Model
    Web
  2. OpenAI — GPT-4 Technical Report
    arXiv
  3. Jay Alammar — The Illustrated GPT-2
    Web

Hulp nodig bij het implementeren van AI?

Ik help je dit concept toe te passen in je bedrijf.

Neem contact op

Gerelateerde Concepten

Token in AI
De kleinste eenheid tekst die een LLM verwerkt — ongeveer 4 tekens of 0,75 woorden
AI-inferentie
Het proces van het draaien van een getraind LLM om output te genereren vanuit input
Prompt
De invoertekst of instructies die aan een LLM worden gegeven om een antwoord te genereren
AI-hallucinatie
Wanneer een LLM met vertrouwen onjuiste of verzonnen informatie genereert
Contextvenster
Het maximale aantal tokens dat een LLM in één verzoek kan verwerken
Transformer
De neurale-netwerkarchitectuur die aan alle moderne LLM's ten grondslag ligt, met aandachtsmechanismen om tekst te verwerken
Neuraal Netwerk
Een netwerk van onderling verbonden kunstmatige neuronen dat patronen leert uit data — de fundamentele architectuur achter alle moderne AI
Schalingswetten voor LLM's
Empirische patronen die aantonen dat LLM-capaciteiten voorspelbaar verbeteren naarmate modelgrootte, trainingsdata en compute toenemen — waardoor betrouwbare planning van AI-investeringen mogelijk wordt

AI-advies

Hulp nodig bij het begrijpen of implementeren van dit concept?

Praat met een expert
Vorige

Kwantisatie

Volgende

LoRA (Low-Rank Adaptation)

BVDNETBVDNET

Webontwikkeling en AI-automatisering. Goed gedaan.

Bedrijf

  • Over Mij
  • Contact
  • FAQ

Resources

  • Diensten
  • Werk
  • Bibliotheek
  • Blog
  • Prijzen

Connect

  • LinkedIn
  • GitHub
  • Twitter / X
  • Email

© 2026 BVDNET. Alle rechten voorbehouden.

Privacybeleid•Algemene Voorwaarden•Cookiebeleid