arrow up
Nieuws overzicht
AI in de praktijk: chatbot in hr-software werkt beter dankzij LLM tool calling

17 juni, 2025 • 4 min leestijd

AI in de praktijk: chatbot in hr-software werkt beter dankzij LLM tool calling

Met een master in Artificiële Intelligentie op zak ging softwareontwikkelaar Kelly Hellinx van Teal Partners op zoek naar de praktische toepassingen van taalmodellen voor onze klanten. Stagiair Mathijs Custers, student Toegepaste Informatica specialisatie AI, hielp hem daarbij. Voor zijn stageproject bouwde Mathijs een chatbot aangedreven door AI.

Wat hebben jullie precies onderzocht?

Mathijs: “Het doel van mijn stage was om een proof-of-concept te bouwen rond LLM tool calling. Is het technisch haalbaar om een taalmodel via API’s in een chatbotarchitectuur te integreren en te verrijken met externe functies, zodat het zelfstandig acties uitvoert?”

Kelly: “We wilden nagaan in welke mate een chatbot slimmer reageert dankzij artificiële intelligentie. Veel bedrijven hebben vandaag een chatbot, maar weinigen maken gebruik van AI. Daardoor verlopen gesprekken met die bots vaak nog stroef, laat staan dat ze de juiste taak voor je kunnen uitvoeren. Dit onderzoeksveld staat in de kinderschoenen.”

De gebruiker vraagt in natuurlijke taal aan de chatbot om vakantie in te boeken. Die vraagt bevestiging en volbrengt de opdracht foutloos.

Hoe komt dat? Chatbots bestaan toch al lang?

Kelly: “De chatbots die we tot nu toe kennen, zijn rulebased. Ze reageren op kernwoorden die de gebruiker ingeeft. Als ontwikkelaar moet je alle mogelijke variaties op die woorden uitprogrammeren of de chatbot begrijpt je niet. Denk aan synoniemen, taalfouten, spreektaal, enzovoort.

“LLM’s begrijpen de context en betekenis van een taal op een ongeëvenaarde manier. Dat is een grote troef in een chatbot. Wij wilden testen hoe dat in de praktijk werkt in combinatie met tool calling, waarbij het taalmodel automatisch ook de juiste functie oproept in de software.”

Hoe zijn jullie te werk gegaan?

Mathijs: “Voor dit onderzoek richten we ons op Buddy-software die Teal Partners voor SD Worx ontwikkelt. We hebben ons toegespitst op het core-hr-gedeelte van de software, meer bepaald op het gebruikersportaal voor werknemers. Een werknemer geeft er zelf zijn verlof of onkosten in, past zijn data aan of beheert zijn voordelen. Hij navigeert zelf doorheen de schermen, maar hij zou ook hulp kunnen vragen aan een chatbot. Daar start ons onderzoek.”

Welk taalmodel kozen jullie voor dit onderzoek?

Kelly: “We gingen in zee met het sterkste taalmodel van OpenAI voor ons experiment. GPT-4o is het meest geavanceerd en integreert het beste met Microsoft-technologie. Andere modellen lieten we buiten beschouwing.”

Als bij het aanvragen van een verlofdag de maand niet uitdrukkelijk wordt vermeld, dan is het systeem zo slim om de huidige maand te kiezen.

Wat zijn de bevindingen?

Mathijs: “Het werkt verrassend goed. Het taalmodel gaat zelf op zoek naar context, legt links en vraagt data op. Als ontwikkelaar moet je ervoor zorgen dat het model kan inschatten of het genoeg informatie heeft om actie te ondernemen, of beter eerst nog iets extra vraagt aan de gebruiker. We testten zelfs meerlagige functies, zoals het toevoegen van een kind ten laste of complexe onkosten met btw-splitsingen. Ook dat werkte prima. Ik heb een workflow opgesteld met numerische waarden om de accuraatheid van het model te meten. Dat gaf mooie resultaten.”

De gebruiker vraagt aan de chatbot om zijn dochter te registreren in het systeem. De bot vraagt zelf om extra informatie die hij nodig heeft. De opdracht is geslaagd.

Kelly: “We hebben de collega’s bij Teal Partners de chatbot laten testen. Ook zij waren onder de indruk van de kwaliteit van de antwoorden en de uitgevoerde taken. De chatbot was onder meer in staat om op verzoek verlof te boeken, onkosten in te geven, persoonsgegevens te wijzigen. Taalmodellen kunnen steeds beter redeneren en ze slagen erin de juiste functies uit te voeren. Maar het vergt wel enorm veel kracht.”

Mathijs: “Sommige acties, zoals het toevoegen van onkosten met meerdere elementen, vroegen veel context. Dan liet het antwoord langer op zich wachten. Ook de consistentie van dataformaten, zoals datumnotaties, bleek een aandachtspunt. En natuurlijk blijft er altijd een risico op ‘hallucinaties’ – situaties waarbij het model iets verzint. Daarom bouwden we een beveiligingslaag in: functies met een hoger risico vragen expliciete goedkeuring van de gebruiker.”

Opdracht geslaagd dus. Zullen we de AI-chatbot straks in Buddy terugvinden?

Kelly: “Zo snel gaat dat niet. Dit onderzoek leerde ons dat tool calling via een taalmodel voor onze specifieke toepassing goed lukt. Maar er komt nog zoveel meer bij kijken.”

Wat dan bijvoorbeeld?

Kelly: “Elke vraag aan een taalmodel kost geld. Als bedrijf moet je uitmaken of het sop de kool waard is. Hoe complexer de vraag, hoe duurder het wordt. We richten ons op de toepassing voor werknemers. Maar ook werkgevers maken ook gebruik van de Buddy-software. Zij voeren andere, complexere taken uit. Dat vergt meer data, en dus ook weer meer rekenkracht. De commerciële insteek lieten we volledig buiten beschouwing. Hetzelfde geldt voor privacy, ethiek of veiligheid.”

Er komt dus nog vervolgonderzoek?

Kelly: “Zeker weten. Wat de stage van Mathijs betreft: die opdracht is volbracht en de resultaten overtroffen onze verwachtingen. Nu gaan we zien hoe we binnen Teal Partners op deze resultaten kunnen verderbouwen.”