Verduidelijking van concepten rondom AI: LLM, RAG, AI-agenten of agentische AI  

Als je de afgelopen maanden nieuws over kunstmatige intelligentie hebt gelezen, ben je waarschijnlijk een wirwar van afkortingen tegengekomen die allemaal hetzelfde klinken: LLM, RAG, AI-agenten, agentische AI... Het lijkt wel een tongbreker, en het is normaal om je een beetje verloren te voelen. 

Het goede nieuws is dat je geen computerwetenschapper hoeft te zijn om dit te begrijpen. Deze termen zijn geen verschillende, concurrerende modi: ze zijn lagen die aan elkaar worden toegevoegdElke laag lost een ander probleem op. Als je begrijpt wat elke laag inhoudt, zul je ook beter begrijpen welke laag nuttig kan zijn voor je werk en, vooral, waar de risico's liggen. 

Deze publicatie is bedoeld als een basisgids voor iedereen in de publieke sector die zich snel wil bijscholen, zonder dat voorafgaande technische kennis vereist is.

Laag 1. LLM's: de basis van alles 

Els LLM (uit het Engels) Grote taalmodellenGrote taalmodellen vormen de motor achter tools zoals ChatGPT, Claude of Gemini. Het zijn systemen die getraind zijn op een enorme hoeveelheid tekst en die geleerd hebben om iets heel specifieks te doen: taal coherent genereren

Waar zijn ze goed in? Schrijven, samenvatten, vertalen, concepten uitleggen, ideeën aandragen, een tekst herschrijven om hem duidelijker te maken... In hun dagelijkse werk kunnen ze je helpen bij het opstellen van een circulaire, het samenvatten van de conclusies van een lang rapport of het aanpassen van een technische tekst naar begrijpelijke taal. 

Maar er is een belangrijke beperking waarmee rekening gehouden moet worden: Een LLM-student heeft geen toegang tot uw gegevens.Hij weet niet wat de interne regels van uw afdeling inhouden, noch wat de specifieke procedures van uw organisatie zijn, noch wat er in de laatste commissievergadering is besloten. Hij weet alleen wat hij tijdens zijn opleiding heeft geleerd, en dat kan verouderd of te algemeen zijn. 

LLM's zijn daarom nuttig voor algemene taken, maar op zichzelf lossen ze de specifieke problemen van de administratie niet op. 

Laag 2. RAG: kennis toevoegen 

Dit is waar de VOD (Retrieval-Augmented Generation(ofwel versterkte generatie door herstel). De naam is erg technisch, maar het idee is simpel: koppel de LLM aan uw documenten en gegevens. zodat ik kan reageren op basis van feitelijke informatie van uw organisatie. 

Stel je een medewerker voor die, voordat hij of zij een vraag over subsidies beantwoordt, eerst de wettelijke grondslagen opzoekt die in het DOGC (Department of General Codes) zijn gepubliceerd, de interne criteria van de afdeling raadpleegt en de veelgestelde vragen op de website bekijkt. Dat is in essentie wat een RAG-systeem (Responsible Application Guide) doet: het verzamelt de relevante informatie en gebruikt die om een ​​onderbouwd antwoord te formuleren. 

Dit is waar veel overheden de werkelijke waarde ervan beginnen in te zien. Enkele voorbeelden uit de publieke sector waar een RAG-aanpak zinvol is: 

  • Een interne assistent die vragen van medewerkers over administratieve procedures beantwoordt aan de hand van interne handleidingen. 
  • Een instrument voor burgerconsultatie dat inspeelt op gemeentelijke procedures aan de hand van de officiële documentatie op de website. 
  • Ondersteuning voor technici die zaken moeten oplossen door regelgeving en jurisprudentie te raadplegen. 

Er is echter een essentiële voorwaarde: De kwaliteit van de broninformatie is allesbepalend.Als de documenten rommelig zijn, dubbel voorkomen, tegenstrijdige versies bevatten of een chaotische structuur hebben, zullen de antwoorden eveneens verwarrend zijn. De stelregel in deze wereld is duidelijk: Weggooien, weggooien.Als er "waardeloze" gegevens worden ingevoerd, komen er "waardeloze" antwoorden uit. 

Voordat je investeert in een RAG-systeem, is het daarom de moeite waard om een ​​meer fundamentele vraag te stellen: Is onze informatie voldoende georganiseerd zodat een machine deze goed kan lezen? Als het antwoord nee is, is de eerste stap wellicht niet AI, maar het op orde brengen van de documentatie. 

Laag 3. AI-agenten: van denken naar doen 

Tot nu toe helpt AI ons bij het begrijpen en schrijven. Maar de agenten d'IA Ze gaan nog een stap verder: zij handelenZe gebruiken tools om taken uit te voeren: ze kunnen een document maken, een e-mail versturen, een record bijwerken, twee databases vergelijken of een reeks vooraf gedefinieerde stappen volgen. 

De verandering is aanzienlijk. Tot nu toe hielp AI je met denken; nu helpt het je met handelen. 

Laten we eens kijken hoe dit in de praktijk werkt. Een AI-agent zou bijvoorbeeld het volgende kunnen doen: 

  • Ontvang een verzoek, controleer of de bijgevoegde documentatie compleet is en genereer zo nodig een wijzigingsverzoek. 
  • Doorzoek een database om te zien of de aanvrager al geopende bestanden heeft en voeg deze toe aan het nieuwe bestand. 
  • Bereid de melding voor, vul deze in met de relevante gegevens en leg hem klaar zodat iemand hem kan controleren en ondertekenen. 

Deze sprong voorwaarts biedt enorme mogelijkheden voor efficiëntie, maar verandert ook de aard van het risico. Wanneer een tool alleen tekstsuggesties geeft, blijft de fout in een concept staan ​​dat door iemand anders wordt nagekeken. Wanneer een tool ActuaDe fout kan reële gevolgen hebben: een verzoek dat naar de verkeerde persoon wordt gestuurd, gegevens die onjuist worden bijgewerkt, een procedure die zonder grondslag wordt gestart. 

Daarom is de cruciale vraag in deze laag niet langer of het hulpmiddel goed reageert, maar of kan veilig handelenDat betekent dat er heel goed gedefinieerd moet worden wat de agent wel en niet mag doen, wanneer hij moet stoppen en om menselijke goedkeuring moet vragen, en hoe elke actie wordt bijgehouden. 

Laag 4. Agentische AI: meerdere agenten die samenwerken 

Als een agent al een sprong is, dan Agentische AI is de volgende: meerdere agenten die samenwerken binnen dezelfde workflow, elk met een specifieke rol. 

In zo'n scenario zouden we een agent kunnen hebben die een incident in een dienst detecteert, een andere die de bijbehorende gegevens controleert, een derde die het verantwoordelijke team op de hoogte stelt en een vierde die een eerste reactie voorbereidt voor de getroffen persoon. Dit alles op een gecoördineerde en grotendeels autonome manier. 

Het klinkt indrukwekkend, en dat is het ook. Maar het is ook aanzienlijk complexerElke overdracht tussen agenten is een moment waarop fouten kunnen optreden. Hoe meer autonomie, hoe moeilijker het is om precies te achterhalen wat er is gebeurd, wie welke beslissing heeft genomen en waarom. 

En hier komt een vraag naar voren die in de publieke sfeer niet minder belangrijk is: Wie is verantwoordelijk? Wat gebeurt er als een systeem, bestaande uit meerdere actoren, een beslissing neemt die een persoon raakt? Want in de overheid, in tegenstelling tot de private sector, is het niet voldoende dat het systeem meestal goed functioneert: elke beslissing die een burger raakt, moet kunnen worden uitgelegd, gerechtvaardigd en, indien nodig, herzien. 

Stel jezelf de juiste vraag voordat je verdergaat. 

Wanneer je een voorstel of demo van een AI-tool ontvangt, kijk dan niet zozeer of het in het algemeen werkt, maar let op welke vraag er per laag beantwoord moet worden: 

  • LLM - Kun je goed genoeg schrijven? Is de tekst die het genereert duidelijk, nuttig en goed opgebouwd? 
  • VOD - Heb je gevonden wat je zocht? Weet u hoe u de juiste informatie in onze documenten kunt vinden? 
  • Agenten - Werkt het naar behoren? Blijft de uitvoering van een taak binnen de verwachte grenzen? 
  • Agentische AI - Kunnen we hier als organisatie op reageren? Weten we wat elke agent doet, op welk tijdstip, en wie er verantwoordelijk is als er iets misgaat? 

Deze laatste vraag is de belangrijkste om in gedachten te houden bij de afweging of een initiatief wel of niet doorgezet moet worden. Want op de dag dat een burger klaagt over een beslissing die hem of haar heeft geraakt, moet iemand kunnen uitleggen wat er is gebeurd, wie de beslissing heeft genomen en op basis van welke criteria. Als het antwoord luidt: "het systeem", dan hebben we een probleem. 

Het praktische advies: begin bij het probleem, niet bij de technologie.

Als je maar één idee uit dit bericht meeneemt, laat het dan dit zijn: Begin niet met jezelf af te vragen welke AI je wilt gebruiken, maar begin met het probleem dat je wilt oplossen..

Te vaak gaat het gesprek de andere kant op: "we willen iets doen met agent-gebaseerde AI." De juiste vraag is echter: "hebben we een specifieke taak waarbij mensen tijd verspillen, er terugkerende fouten zijn of burgers te lang moeten wachten, en kan technologie ons helpen om dat te verbeteren?"

Kies hieruit het eenvoudigste patroon dat het probleem oplostSoms is een LLM (Legal Lawyers' Law) voldoende om communicatie op te stellen. Soms is een RAG (Regulatory Advisory Group) nodig om het systeem uw regelgeving te laten begrijpen. En soms, ja, is een agent de investering waard. Maar complexiteit is alleen gerechtvaardigd als het daadwerkelijk waarde toevoegt.

Opmerking: Dit artikel is gebaseerd op het artikel van Clare Kitching, expert op het gebied van AI, publiceerde in mei 2026 op LinkedIn onder de titel “AI wordt snel ingewikkeld. LLMs. RAG. AI-agenten. Agent AI."

Gepubliceerd in