Ga naar de hoofdinhoud

Wat is een LLM (large language model)?

· 14 minuten lezen
info

Serie artikelen over AI
Dit is het eerste artikel in een serie van vier:

  1. LLMs: begrijpen wat ze zijn en hoe ze werken (dit artikel).
  2. NLP: verkennen van Natural Language Processing.
  3. AI Agents: ontdekken van autonome kunstmatige intelligenties.
  4. Vergelijking en de positionering van AI Smarttalk: een algemene synthese en perspectief.

Wat is een LLM (large language model)?

Stel je een veld voor vol wilde bloemen dat zich uitstrekt zover het oog reikt, waar een enorme zwerm bijen druk aan het zoemen is. Ze fladderen, verzamelen pollen van elke bloei en veranderen dit in ongelooflijk complexe honing. Die honing is taal. En deze bijen zijn de LLMs (Large Language Models), die enorme taalmodellen die onvermoeibaar werken om enorme hoeveelheden tekstuele data om te zetten in iets gestructureerd, samenhangend en soms zelfs zeer creatief.

In dit artikel zullen we diep ingaan op de drukke bijenkorf van LLMs: begrijpen hoe deze enorme bijen hun honingraten bouwen en verfijnen (hun architectuur), welke soorten pollen ze verzamelen (de data), hoe ze coördineren om honing te produceren (tekstgeneratie), en tenslotte hoe we deze zwermen kunnen begeleiden en temmen zodat ze een zoete, goed gemaakte nectar leveren in plaats van een willekeurige substantie.

We zullen verschillende belangrijke punten behandelen:

  • De oorsprong en definitie van een LLM
  • Trainingsmethoden en de rol van attention
  • Concreet gebruik en beperkingen
  • Ethische, energie- en technische uitdagingen
  • Prompt engineering om het beste uit een LLM te halen
  • Implementatie- en onderhoudsopties

We zullen de bij-analogie behoorlijk ver doorvoeren. Je zou de afbeelding van een bij als vriendelijk en onschadelijk kunnen beschouwen, maar onthoud dat een slecht beheerd zwerm nog steeds behoorlijk wat steken kan toebrengen. Voordat we de rook aansteken om ze te kalmeren, laten we de structuur van een LLM verkennen, die geen geheimen meer zal hebben zodra je klaar bent met lezen.

Om te beginnen, hier is een vereenvoudigd diagram (zonder extra commentaar) van het pad dat een stuk tekst binnen een LLM volgt, van invoer tot uitvoer, langs alle belangrijke stappen:


1. Wat is een LLM? De zwerm die luider zoemde dan alle anderen

1.1. Oorsprong en concept

Al enkele jaren richt het onderzoek naar Artificial Intelligence zich op natuurlijke taal: hoe kunnen we een model laten begrijpen en relevante tekst genereren? Aanvankelijk gebruikten we NLP (Natural Language Processing) technieken gebaseerd op eenvoudige regels of basisstatistieken. Toen kwam er een cruciale stap: de opkomst van Deep Learning en neuraal netwerken.

Large Language Models zijn voortgekomen uit deze revolutie. Ze worden “groot” genoemd omdat ze tientallen of zelfs honderden miljarden parameters hebben. Een parameter is enigszins te vergelijken met de “positie van een klein onderdeel” in de complexe organisatie van de bijenkorf. Elke parameter “leert” om een signaal te wegen of aan te passen om beter het volgende token in een gegeven reeks te voorspellen.

1.2. Een bijenkorf gebouwd op enorme hoeveelheden gegevens

Om hun bijenkorf te bouwen, hebben LLM's een enorme hoeveelheid “stuifmeel” nodig: tekst. Ze nemen fenomenale volumes aan inhoud in zich op, van gedigitaliseerde boeken tot persartikelen, forums en sociale media. Door al die gegevens te absorberen, wordt de interne structuur van het model gevormd om vast te leggen en te weerspiegelen taalregulariteiten.

Daarom leren deze kunstmatige bijen uiteindelijk dat, in een bepaalde context, bepaalde woorden waarschijnlijker zijn om te verschijnen dan andere. Ze memoriseren tekst niet regel voor regel; in plaats daarvan leren ze hoe ze typische vormen, syntaxis en associaties van ideeën die in de taal worden aangetroffen, “statistisch kunnen reproduceren”.

2. Stap binnen in de bijenkorf: een overzicht van hoe het werkt

2.1. Tokenisatie: het verzamelen van pollen stuk voor stuk

De eerste stap is tokenisatie. We nemen de ruwe tekst en splitsen deze in tokens. Stel je een veld met bloemen voor: elke bloem is als een woord (of een deel van een woord), waaruit een bij pollen verzamelt. Een “token” kan een heel woord zijn (“huis”), een fragment (“hui-”, “-s”), of soms gewoon een leesteken.

Deze segmentatie hangt af van een woordenschat die specifiek is voor het model: hoe groter de woordenschat, hoe fijner de segmentatie kan zijn. Tokenisatie is cruciaal omdat het model vervolgens tokens manipuleert in plaats van ruwe tekst. Het is vergelijkbaar met de bij die precies de pollen verzamelt in plaats van de hele bloem mee te nemen.

2.2. Embeddings: pollen omzetten in vectoren

Zodra de pollen is verzameld, moet deze worden omgezet in een formaat dat het model kan gebruiken: deze stap wordt embedding genoemd. Elk token wordt omgevormd tot een vector (een lijst van getallen) die semantische en contextuele informatie encodeert.

Beschouw het als de “kleur” of “smaak” van de pollen: twee woorden met vergelijkbare betekenissen zullen vergelijkbare vectoren hebben, net zoals twee verwante bloemen vergelijkbare pollen produceren. Deze stap is essentieel, aangezien neurale netwerken alleen getallen begrijpen.

2.3. De “Transformers” lagen: de bijendans

In een bijenkorf communiceren bijen via een “bijendans,” een complexe choreografie die aangeeft waar de rijkste pollen te vinden zijn. In een LLM wordt coördinatie bereikt via het aandacht mechanisme (de beroemde “Attention is all you need” geïntroduceerd in 2017).

Elke Transformer laag past Zelf-Aandacht toe: voor elke token berekent het model de relevantie ten opzichte van alle andere tokens in de reeks. Het is een gelijktijdige uitwisseling van informatie, net zoals elke bij zegt: “Hier is het type pollen dat ik heb; wat heb jij nodig?”

Door meerdere Transformer lagen op te stapelen, kan het model complexe relaties vastleggen: het kan leren dat, in een bepaalde zin, het woord “koningin” verwijst naar een concept dat verbonden is met “bijen” of “bijenkorf,” in plaats van “monarchie,” afhankelijk van de context.

2.4. Honing productie: het voorspellen van de volgende token

Eindelijk produceert de bijenkorf honing, d.w.z. de gegenereerde tekst. Na het analyseren van de context, moet het model een eenvoudige vraag beantwoorden: “Wat is de meest waarschijnlijke volgende token?” Deze voorspelling is afhankelijk van de aangepaste gewichten van het netwerk.

Afhankelijk van de hyperparameters (temperatuur, top-k, top-p, enz.), kan het proces meer willekeurig of meer deterministisch zijn. Een lage temperatuur is als een zeer gedisciplineerde bij die voorspelbare honing produceert. Een hoge temperatuur is als een meer excentrieke bij die vrijer kan rondzwerven en creatievere honing kan bedenken, met het risico inconsistent te zijn.

3. Honing in op alle vormen: gebruikscases voor LLM's

3.1. Geassisteerd schrijven en contentgeneratie

Een van de populairste toepassingen is automatische tekstgeneratie. Heb je een blogpost nodig? Een videoscript? Een bedtijdverhaal? LLM's kunnen verrassend vloeiende teksten produceren. Je kunt zelfs de schrijfstijl sturen: humoristisch, formeel, poëtisch, enzovoort.

Toch moet je de kwaliteit van de geproduceerde honing controleren. Soms kan de zwerm de verkeerde informatie verzamelen, wat leidt tot “hallucinaties”—de bij verzint bloemen die niet bestaan!

3.2. Conversatietools en chatbots

Chatbots aangedreven door LLM's hebben de aandacht getrokken dankzij hun meer natuurlijk klinkende gesprekken. Stel je een zwerm voor die, bij het ontvangen van jouw verzoek, van bloem naar bloem (token naar token) vliegt om een passend antwoord te geven.

Deze chatbots kunnen worden gebruikt voor:

  • Klantenservice
  • Assistentie (tekst of stem)
  • Training en interactieve tutoring
  • Taal leren

3.3. Automatische vertaling

Nadat ze teksten in veel talen hebben geabsorbeerd, weten LLM's vaak hoe ze van de ene taal naar de andere kunnen schakelen. Veel talen delen grammaticale structuren, waardoor de kunstmatige bij ze kan herkennen en vertalingen kan aanbieden. De resultaten zijn niet altijd perfect, maar overtreffen vaak de kwaliteit van oudere op regels gebaseerde systemen.

3.4. Programmeerassistentie

Sommige LLM's, zoals die achter bepaalde “copilot” systemen voor codering, kunnen juiste code voorstellen, oplossingen aandragen en fouten corrigeren. Dit gebruik is steeds populairder, wat bewijst dat “programmeertalen” gewoon een andere vorm van tekstuele taal zijn in de grote bijenkorf van inhoud.

3.5. Documentanalyse en structurering

Naast het genereren van tekst kunnen LLM's ook samenvatten, analyseren, labelen (classificeren) of zelfs inzichten uit tekst extraheren. Dit is behoorlijk handig voor het sorteren van grote hoeveelheden documenten, het verzamelen van klantfeedback, het analyseren van beoordelingen, enzovoort.

4. Mogelijke beperkingen: beperkingen en risico's

4.1. Hallucinaties: wanneer de bij een bloem uitvindt

Zoals vermeld, kan de bij (de LLM) “hallucineren.” Het is niet verbonden met een waarheidsdatabase: het vertrouwt op kansen. Daarom kan het vol vertrouwen valse of niet-bestaande informatie geven.

Vergeet niet dat een LLM geen orakel is; het voorspelt tekst zonder het in menselijke zin te “begrijpen.” Dit kan ernstige gevolgen hebben als het wordt gebruikt voor kritieke taken (medisch, juridisch, enz.) zonder toezicht.

4.2. Vooroordelen en ongepaste inhoud

Bijen verzamelen pollen van allerlei soorten bloemen, inclusief twijfelachtige. Vooroordelen die aanwezig zijn in de gegevens (stereotypen, discriminerende uitspraken, enz.) sijpelen de bijenkorf binnen. We kunnen eindigen met honing die besmet is met deze vooroordelen.

Onderzoekers en ingenieurs streven ernaar om filters en moderatiemechanismen te implementeren. Maar de taak is complex: het vereist het identificeren van vooroordelen, het corrigeren ervan en het vermijden van een te strikte beperking van de creativiteit van het model.

4.3. Energiekosten en ecologische voetafdruk

Het trainen van een LLM is als het onderhouden van een gigantische zwerm in een kas die 24/7 verwarmd wordt. Het vereist enorme rekenkracht, en dus veel energie. Milieuoverwegingen zijn daarom centraal:

  • Kunnen we het trainen milieuvriendelijker maken?
  • Moeten we de modelgrootte beperken?

De discussie is gaande, en veel initiatieven zijn gericht op het verlagen van de ecologische voetafdruk door zowel hardware- als softwareoptimalisaties.

4.4. Gebrek aan context in de echte wereld

Hoewel het model indrukwekkend is, mist het vaak een begrip van de echte wereld buiten tekst. Deze kunstmatige bijen kennen alleen tekstuele “pollen.” Ze realiseren zich niet dat een fysiek object een bepaalde hoeveelheid weegt of dat een abstract concept juridische implicaties heeft, bijvoorbeeld.

Deze kloof is duidelijk bij taken die diep “gezond verstand” of ervaringen uit de echte wereld vereisen (waarneming, actie, sensorische feedback). LLM's kunnen falen op “eenvoudige” vragen voor een mens omdat ze de sensorische context missen.

5. De kunst van temmen: “prompt engineering”

5.1. Definitie

Een prompt is de tekst die je aan de LLM geeft om een reactie te verkrijgen. Hoe je deze prompt formuleert, kan het verschil maken. Prompt engineering houdt in dat je een optimale (of bijna optimale) prompt schrijft.

Het is als het blazen van rook in de bijenkorf om de bijen te kalmeren en ze precies te laten zien welke taak ze moeten uitvoeren: “Ga pollen verzamelen in dit specifieke gebied, in die richting, voor dit type bloem.”

5.2. Technieken voor prompt engineering

  1. Duidelijke context: definieer de rol van de LLM. Bijvoorbeeld: “Je bent een expert in de botanica. Leg uit…”
  2. Precieze instructies: specificeer wat je wilt, het formaat van het antwoord, de lengte, de stijl, enz.
  3. Voorbeelden: geef voorbeeld Q&A om het model te begeleiden.
  4. Beperkingen: als je de reikwijdte wilt verkleinen, zeg dat dan (“Noem dit onderwerp niet; reageer alleen in opsommingstekens,” enz.).

5.3. Temperatuur, top-k, top-p…

Bij het genereren van honing kan de bij zijn recept meer of minder strikt volgen. Temperatuur is een belangrijke parameter:

  • Lage temperatuur (~0): de bijenkorf is zeer gedisciplineerd. Antwoorden zijn meer “conservatief” en coherent, maar minder origineel.
  • Hoge temperatuur (>1): de bijenkorf is creatiever, maar kan van het pad afwijken.

Evenzo beperkt “top-k” het model tot de k meest waarschijnlijke tokens, en “top-p” legt een cumulatieve waarschijnlijkheidsdrempel op (nucleus sampling). Prompt engineering omvat ook het afstemmen van deze parameters voor het gewenste resultaat.

6. Een hive opzetten: implementatie en integratie

6.1. Implementatieopties

  1. Gehoste API: Gebruik een provider die het model host. Geen zware infrastructuur nodig, maar je betaalt per gebruik en vertrouwt op een derde partij.
  2. Open-source model: Installeer een open-source LLM op je eigen servers. Je behoudt totale controle, maar moet de logistiek en energiekosten zelf beheren.
  3. Hybride model: Gebruik een kleiner lokaal model voor eenvoudigere taken en roep een externe API aan voor complexere taken.

6.2. Beveiliging en moderatie

Het implementeren van een LLM betekent verantwoordelijkheid nemen voor de output. Je moet vaak toevoegen:

  • Filters om haatdragende, gewelddadige of discriminerende inhoud te blokkeren
  • Mechanismen om gevoelige gegevens (bijv. persoonlijke informatie) te blokkeren
  • Een logging en monitoring beleid om uitwisselingen te volgen en het systeem te verbeteren

6.3. Voortdurende monitoring en verbetering

Zelfs een goed opgezette hive heeft toezicht nodig:

  • Verzamel gebruikersfeedback
  • Pas prompts en generatieparameters aan
  • Werk een recentere model bij of train deze opnieuw indien nodig

Het is een continu proces, vergelijkbaar met het verzorgen van een echte zwerm: houd de gezondheid in de gaten, corrigeer fouten en benut de geleerde lessen.

7. Toekomstige vluchten: naar multimodale en adaptieve modellen

LLM's staan pas aan het begin van hun evolutie. Binnenkort zullen we het hebben over multimodale modellen, die in staat zijn om tekst, afbeeldingen, geluiden en video's te verwerken—een zwerm die niet alleen tekstuele bloemen verzamelt, maar ook visuele of auditieve.

Systemen die visie en taal combineren, komen al op, evenals die welke symbolisch redeneren koppelen aan tekstgeneratie. De bij zou bijvoorbeeld een afbeelding kunnen interpreteren en beschrijven, of een geluid kunnen oppikken en het in context analyseren.

Op maatschappelijk niveau roept deze snelle ontwikkeling veel vragen op:

  • Hoe kunnen we verantwoordelijkheid en transparantie waarborgen bij het gebruik van deze systemen?
  • Wat is de impact op banen gerelateerd aan schrijven, vertalen of tekstanalyse?
  • Hoe kunnen we concurrentie tussen grote AI-spelers (Big Tech, particuliere laboratoria, open-source projecten) in balans houden?

8. Onze volgende vluchtpad: een blik op traditionele NLP

In ons volgende artikel zullen we dieper ingaan op NLP (Natural Language Processing). We zullen onderzoeken hoe meer klassieke, soms lichtere, benaderingen nog steeds naast deze enorme LLMs bestaan.

Voor LLMs was er de traditionele NLP bijenkorf, die gebruik maakte van gesuperviseerde classificatie, semantische zoekalgoritmen, syntactische regels, enz. We zullen verkennen:

  • Basis methoden (bag-of-words, TF-IDF, n-grams)
  • Pre-Transformer neurale modellen (RNN, LSTM, enz.)
  • Typische NLP-pijplijnen (tokenisatie, POS-tagging, parsing, enz.)

Dit zal ons helpen begrijpen hoe de LLM-swarm heeft geput uit een breed ecosysteem van eerder onderzoek.

9. Conclusie: de kunst van het genieten van honing

We hebben een uitgebreide blik geworpen op LLMs, deze gigantische bijen die in staat zijn om ruwe tekst om te zetten in verfijnde antwoorden. Hier zijn de belangrijkste punten:

  1. Training: LLMs worden getraind op enorme datasets en leren de statistische patronen van taal.
  2. Architectuur: Transformerlagen vormen de kern van het model en vangen contextuele relaties door middel van aandacht.
  3. Toepassingsgevallen: Van schrijven tot vertalen, chatbots, codevoorstellen en meer—de reikwijdte is enorm.
  4. Beperkingen: Hallucinaties, vooroordelen, energiekosten… LLMs zijn niet feilloos. Ze hebben begeleiding, toezicht en verificatie nodig.
  5. Prompt engineering: De kunst van het formuleren van de juiste aanvraag (en het instellen van de juiste parameters) om het best mogelijke antwoord te krijgen.
  6. Implementatie: Er bestaan verschillende strategieën—vertrouwen op een gehoste API, het installeren van een open-source model, of een combinatie van beide.

Bijen zijn een symbool van organisatie, samenwerking en de productie van heerlijke honing. Op dezelfde manier kan een goed beheerd LLM een enorme aanwinst zijn voor het optimaliseren, creëren en assisteren bij tal van taalkundige taken. Maar, net als bij elke krachtige zwerm, vereist het voorzichtigheid en respect, anders loop je het risico op onverwachte steken.

In de komende artikelen zullen we onze reis voortzetten door de zoemende wereld van AI en NLP: we zullen zien hoe AI zich ontwikkelde rond meer specifieke modules (tekstverwerking, syntactische analyse, classificatie) voordat we AI Agents verkennen en eindigen met een globale vergelijking om te begrijpen waar AI Smarttalk in dit alles past.

Tot dan, onthoud: je hoeft geen expert te zijn om goede honing te herkennen, maar de tijd nemen om de bijenkorf en zijn bijen te begrijpen is de beste manier om ervan te genieten met vertrouwen.

Tot snel voor de volgende stap in onze reis door de zoemende wereld van AI!

Klaar om je
gebruikerservaring te verbeteren?

Zet AI-assistenten in die klanten verrassen en meegroeien met je bedrijf.

GDPR-conform