Nieuws overzicht

January 21, 2025

6

min leestijd

AI in de praktijk: Kelly verkent de mogelijkheden van LLM’s in customer support

Als softwareontwikkelaar is het nuttig om te blijven bijleren gedurende je carrière. Technologie verandert snel en de opkomst van AI heeft de techwereld op zijn kop gezet. Daarom schreef Kelly Hellinx van Teal Partners zich in voor de Master of Artificial Intelligence aan de KU Leuven. Zijn thesis gaat over het gebruik van Large Language Models in customer support.

Waarover gaat je thesis precies, Kelly?

Kelly Hellinx: “In een lijst met mogelijke onderwerpen van mijn promotor trok een vraag van DNS Belgium mijn aandacht. Dat bedrijf beheert de domeinnamen .be, .brussels en .vlaanderen. Het wilde onderzoeken hoe AI en Large Language Models, kortweg LLM's, toegepast kunnen worden in customer support. Dat sprak me aan, vooral omdat die kennis bij Teal Partners ook van pas kan komen, bijvoorbeeld in de payrollsoftware die we ontwikkelen.

Met mijn diploma in AI op zak en met de hulp van een stagiair gaan we nu bij Teal Partners concreet onderzoeken wat LLM’s voor onze klanten kunnen betekenen.

Wat heb je voor hen onderzocht?

Kelly Hellinx: “Bij DNS Belgium komen veel supportvragen binnen, vaak over dezelfde topics. Het bedrijf wilde weten of een taalmodel bepaalde vragen automatisch kan beantwoorden, of een voorstel tot een antwoord kan formuleren. Ik maakte voor hen een proof of concept, gebaseerd op hun geanonimiseerde data. Ze bezorgden me duizenden supportvragen en bijbehorende antwoorden van de voorbije twee jaar. Vanwege privacyredenen wilden ze niet met ChatGPT werken, maar met een opensourcetaalmodel dat de data vertrouwelijk behandelt.”

Als test formuleerde Kelly een realistische vraag van een fictieve afzender. Het is een typevoorbeeld van het soort vragen dat binnenkomt bij de klantendienst van DNS Belgium.

Hoe heb je het aangepakt?

Kelly Hellinx: “Een taalmodel rekent met woorden. Het kent een cijfer toe aan een woord. Via parameters worden verwante woorden aan elkaar gelinkt op basis van de kans dat ze samen voorkomen. Je kan een bestaand taalmodel verfijnen, m.a.w. aanpassen aan je eigen kennis. Aan de hand van duizenden reële supportvragen van DNS Belgium, en de bijbehorende antwoorden, ben ik een model gaan trainen. Zonder de juiste kennis gaat een model hallucineren. Het verzint een antwoord op je vraag, en dat klopt meestal niet. In customer support moet elk antwoord natuurlijk wel 100 procent juist zijn.”

Wat gebeurt er als je deze vraag voorlegt aan ChatGPT? Door een gebrek aan specifieke kennis verzint dit taalmodel een antwoord. Dat heet een hallucinatie.

“Maar het trainen van een model kost handenvol geld. Het vereist enorme computerpower en superkrachtige hardware. Bovendien: als de informatie wijzigt, of als er nieuwe vragen binnenkomen, of als er een nieuwe versie van het taalmodel is, dan moet je opnieuw trainen. Dat is in de praktijk niet haalbaar.”

Hoe heb je het opgelost?

Kelly Hellinx: “Met een techniek die RAG heet, Retrieval-Augmented Generation. Die combineert het genereren van teksten met het ophalen van informatie. Je laat het systeem eerst zoeken naar relevante informatie in specifieke bronnen, en die stuur je dan samen met de vraag naar het taalmodel. Het model gebruikt die informatie als context om een tekst te genereren. Het baseert zich dus niet alleen op de originele dataset waarmee het werd getraind, maar formuleert betere antwoorden dankzij die specifieke informatiebronnen.”

Het is mogelijk het taalmodel te verfijnen door het te trainen met reële, correcte antwoorden zoals in dit voorbeeld. Deze data worden eerst gestript van hun opmaak, want enkel de tekstinhoud is relevant voor het model.

“De uitdaging is om correct te zoeken. Typisch wordt dat gedaan met keyword based search, bijvoorbeeld op het woord ‘domeinnaam’. Komt dat woord vaak voor in de tekst, dan is het waarschijnlijk een interessante bron.Maar zelfs als een zin sterk op een andere zin lijkt, kunnen ze nog totaal andere betekenissen hebben. Dezelfde woorden hebben meerdere betekenissen, zoals ‘bank’. Of door het toevoegen van het woord ‘niet’ krijgt een zin een tegengestelde inhoud. Daarom is er nog een tweede zoektechniek, met name semantisch zoeken, gebaseerd op tekstfragmenten. Je zet de betekenis van een tekststukje om in getallen. Komt de betekenis overeen met de informatie in je kennisdomein, dan is die bron waarschijnlijk relevant. Die ga je voeden aan je taalmodel.”

Dit is een voorbeeld van semantisch zoeken. De zin die het meest overeenkomst met de oorspronkelijke inhoud krijgt de hoogste score. Deze score wordt bepaald aan de hand van de tabel, die de ‘embedding’ of numerieke voorstelling van de betekenis van die zin representeert. Die embeddings genereer je met een ander soort taalmodel, met name ‘embedding models’, zoals Huggingface.co/BAAI/bge-small-en-v1.5. Kelly vergeleek verschillende modellen.

Wat is de conclusie van je thesis?

Kelly Hellinx: “Mijn onderzoek bewijst dat LLM’s kunnen helpen bij customer support. Maar het model dat ik heb gebouwd is nog niet klaar om ingeplugd te worden. Het moet verder verfijnd worden. Zeshonderd antwoorden van het taalmodel zijn geëvalueerd door een customer support-verantwoordelijke bij DNS Belgium. Hij beoordeelde het formaat, de schrijfstijl, de relevantie, de volledigheid en de juistheid van het antwoord met een score tussen 1 en 5. Formaat en stijl bleken prima, maar de relevantie van de antwoorden moet nog verbeteren door het model verder te trainen.”

De door twee taalmodellen gegenereerde antwoorden zijn door een medewerker van DNS Belgium beoordeeld op vijf criteria. Kelly koos Llama van Meta en Mixtral van het Franse Mistral voor de uiteindelijke evaluatie.

Hoe kijk jij nu naar AI? Is het de beloofde revolutie in de techwereld?

Kelly Hellinx: “AI zit op de piek van zijn populariteit. Er gaan miljarden dollars in om. Veel bedrijven willen ‘iets met AI’ doen, maar wat? Ze tasten in het duister. Het is niet evident om een zinvolle toepassing te vinden. Wat maakt het werk efficiënter? Hoe help je klanten met AI? Hoe benut je het commercieel? Na de hype komt weldra de ontnuchtering. Je moet de juiste knowhow hebben en de investering is hoog. Hoe ga je de juistheid van je resultaten voor klanten controleren? Wat zijn de ethische implicaties? Er zijn nog veel vragen te beantwoorden. Gartner deed interessant onderzoek naar de hype rond AI.”

Hoe ga je nu zelf verder aan de slag met wat je hebt geleerd?

Kelly Hellinx: “Met mijn diploma op zak en met de hulp van een stagiair gaan we bij Teal Partners heel gericht onderzoeken wat AI en LLM’s kunnen betekenen voor onze klanten. We willen een proof of concept ontwikkelen om te ontdekken wat er bijvoorbeeld zinvol in onze payrollsoftware kan worden geïntegreerd. Kan AI ons helpen om veelvoorkomende vragen van gebruikers te beantwoorden? Dat is een eerste concrete toepassing die we verder willen onderzoeken.”

Meer weten? We vroegen AI om uitleg

LLM’s, RAG, parameters en modellen: niet-ingewijden horen het vaak in Keulen donderen als het over AI gaat. Wie kan ons beter inwijden dan ChatGPT itself? Vier eenvoudige vragen, verklaard door het populairste taalmodel van het moment.

Wat is een LLM?

Een LLM begrijpt en genereert teksten. Het baseert zijn antwoorden op de patronen van teksten die het heeft geleerd via machine learning. Het model wordt gevoed met miljarden woorden en zinnen uit diverse teksten, waardoor het de structuur van taal leert begrijpen. Een LLM voorspelt de tekst die hoogstwaarschijnlijk volgt, gebaseerd op wat het heeft geleerd.

Welke LLM’s zijn er?

De bekendste modellen zijn GPT van OpenAI, maar ook LLaMa van Meta, en Google’s modellen Bert, T5 of PaLM. Er zijn ook opensourcemodellen, zoals BLOOM. Veel bedrijven en onderzoeksinstituten bouwen nu hun eigen modellen, wat bijzonder duur is.

Hoe werkt een LLM?

Een LLM bevat miljoenen tot miljarden parameters. Een parameter is een gewicht dat bepaalt hoe sterk de relatie is tussen bepaalde woorden. Het model zet woorden om in getallen die door een neuraal computernetwerk worden verwerkt, en leert de verbanden tussen de numerieke representaties van die woorden. Een kleiner model heeft minder parameters en is daardoor minder nauwkeurig. Het trainen van een model kost tienduizenden euro’s voor een klein taalmodel en loopt op in de miljoenen voor de grotere modellen.

Hoe werkt RAG?

Het AI-systeem zoekt eerst in een specifieke database naar relevante informatie. Het gebruikt die informatie als context om een tekst te genereren. Hierdoor is het model niet beperkt tot wat het heeft geleerd tijdens zijn trainingsperiode, maar kan het ook actuele of domeinspecifieke informatie gebruiken.

Binnenkort verschijnt Kelly’s expertartikel waarin hij dieper ingaat op de technische aspecten van LLM’s in customer support. Wil je op de hoogte blijven?

Volg ons op LinkedIn