In gewone taal
Je kunt een context window zien als het werkgeheugen van een model. Hoe groter dat werkgeheugen, hoe meer tekst, eerdere berichten en documenten het model tegelijk kan meenemen om een antwoord te vormen.

Techniek - 5 min
Het context window is de maximale hoeveelheid informatie die een model in een enkele interactie kan meenemen. Dat bepaalt hoeveel tekst, chatgeschiedenis of documentfragmenten tegelijk bruikbaar zijn.
Je kunt een context window zien als het werkgeheugen van een model. Hoe groter dat werkgeheugen, hoe meer tekst, eerdere berichten en documenten het model tegelijk kan meenemen om een antwoord te vormen.
Bij lange documenten, uitgebreide chats en grotere kennisbanken loop je anders snel tegen grenzen aan. Dan past niet alle relevante informatie in een keer mee. Het systeem moet dus kiezen wat wordt meegestuurd en wat buiten beeld blijft.
Als je meer informatie probeert mee te geven dan binnen het context window past, moet het systeem onderdelen inkorten, samenvatten of weglaten. Daardoor kan belangrijke nuance verdwijnen. In sommige gevallen lijkt het model dan onzorgvuldig, terwijl het in feite te weinig bruikbare context heeft gekregen.
Een groter context window is handig, maar geen garantie op kwaliteit. Als je slechte of irrelevante informatie toevoegt, wordt het antwoord niet vanzelf beter. Relevante selectie, goede samenvatting en heldere instructies blijven belangrijker dan alleen meer tokens beschikbaar hebben.
In echte toepassingen bepaalt het context window hoe je documenten opdeelt, hoe lang een chatgeschiedenis bruikbaar blijft en hoe je RAG of samenvattingen inricht. Het is dus geen abstract modeldetail, maar een ontwerpkeuze met directe impact op gebruik en betrouwbaarheid.
Verder lezen
Een LLM is een groot taalmodel dat tekst kan begrijpen, voorspellen en genereren. Het voelt vaak slim aan, maar de kwaliteit van het resultaat hangt sterk af van context, modelkeuze en hoe je het inzet.
Open artikel
Edge AI betekent dat AI draait dicht bij de bron van de data, bijvoorbeeld op een device, server of lokaal netwerk. Daardoor kun je sneller werken en houd je vaak meer controle over privacy, continuiteit en kosten.
Open artikel
RAG is een manier om een taalmodel eerst relevante informatie uit documenten of een kennisbank op te laten halen voordat het antwoord geeft. Daardoor worden antwoorden vaak specifieker, beter onderbouwd en bruikbaarder voor je eigen organisatie.
Open artikel
> Voorbereid op de toekomst
Ontdek hoe jouw organisatie veilig en lokaal met AI kan werken. Met AITJE werk je lokaal, houd je jouw data in eigen beheer en heb je regie over je AI infrastructuur. We laten je graag zien wat dat in de praktijk oplevert.