Wat is een LLM?
Een LLM (Large Language Model) is een machine learning model dat patronen in taal herkent en voorspelt welke woorden logisch volgen. Het analyseert miljarden teksten zoals boeken en websites om deze patronen te leren. Je typt een vraag of opdracht, en het model genereert op basis van zijn training een passend antwoord.
Het model werkt met speciale rekeneenheden (parameters) die helpen bij het herkennen van patronen. Deze parameters worden tijdens de training steeds preciezer afgesteld om te bepalen welke woorden waarschijnlijk op elkaar volgen. Het resultaat is een model dat vloeiende teksten kan genereren die passen bij de gegeven context.
De meest gebruikte modellen zijn momenteel van OpenAI en Anthropic. Deze modellen zijn getraind op enorme hoeveelheden tekst, waardoor ze complexe patronen kunnen herkennen. Voor specifieke taken zoals juridische of medische teksten bestaan er gespecialiseerde versies die getraind zijn op vakinhoudelijke content.
Waar wordt een LLM voor gebruikt?
Teams zetten LLM’s in voor verschillende taken. Ze genereren chatbot antwoorden voor klantenservice, helpen bij het schrijven van teksten en kunnen grote hoeveelheden tekst analyseren. Door de training op diverse bronnen kunnen ze ook vertalingen maken en helpen bij het programmeren.
Het gebruik is eenvoudig: je voert tekst in als input, bijvoorbeeld een vraag of een verzoek om een tekst te schrijven. Het systeem gebruikt zijn training om een passende reeks woorden te genereren. Deze output kun je vervolgens aanpassen tot deze aansluit bij jullie behoeften.
Begin met één specifieke toepassing, zoals het genereren van antwoorden op veelgestelde vragen. Als je vertrouwd bent met hoe het systeem werkt en reageert, kun je uitbreiden naar complexere taken zoals het analyseren van klantfeedback of het maken van content voorstellen.
Wat zijn de beperkingen en risico’s?
LLM’s kunnen overtuigend ogende maar onjuiste informatie genereren. Dit noemen we ‘hallucineren’ – het model genereert tekst die statistisch waarschijnlijk lijkt maar feitelijk onjuist is. Het systeem controleert niet op waarheid, maar voorspelt alleen welke woorden waarschijnlijk zijn in de gegeven context.
De trainingsdata van deze systemen komt grotendeels van het internet. Hierdoor kunnen ze vooroordelen en onjuiste informatie uit die data overnemen in hun voorspellingen. Controleer daarom altijd of de gegenereerde teksten correct en gepast zijn voor jullie doeleinden.
Openbare LLM’s zijn niet geschikt voor vertrouwelijke informatie. De ingevoerde tekst kan worden opgeslagen en gebruikt voor verdere training van het systeem. Voor gevoelige data hebben jullie een beveiligde, specifiek ingerichte oplossing nodig.
Dit kennisartikel is geschreven door:

Michael Lek
Michael is een allround online expert en oprichter van GetOn. Na jarenlang voor grote merken te hebben gewerkt, wil hij met GetOn ervoor zorgen dat missiegedreven organisaties kunnen concurreren met grote merken en platforms. In zijn cursussen leert hij je daarom alles wat je nodig hebt om online succes te behalen.