Aclarint conceptes sobre la IA: LLM, RAG, agents d’IA o IA agèntica  

Facebook Facebook Facebook Facebook Share

Si els últims mesos has llegit notícies sobre intel·ligència artificial, segurament t’has trobat amb una sopa de sigles que sona tota igual: LLM, RAG, agents d’IA, IA agèntica… Sembla un travallengües, i és normal sentir-se una mica perdut. 

La bona notícia és que no cal ser informàtic per entendre-ho. Aquests termes no són modes diferents que competeixen entre si: són capes que es van afegint l’una a l’altra, i cada capa resol un problema diferent. Si entens què aporta cadascuna, també entendràs millor quina pot ser útil per a la teva feina i, sobretot, on hi ha els riscos. 

Aquesta publicació està pensada com una guia bàsica per a qualsevol persona de l’administració pública que vulgui posar-se al dia, sense necessitat de coneixements tècnics previs.

Capa 1. Els LLM: la base de tot 

Els LLM (de l’anglès Large Language Models, és a dir, grans models de llenguatge) són el motor que hi ha darrere d’eines com ChatGPT, Claude o Gemini. Són sistemes entrenats amb una quantitat enorme de textos i que han après a fer una cosa molt concreta: generar llenguatge de manera coherent

Què saben fer bé? Redactar, resumir, traduir, explicar conceptes, donar idees, reformular un text perquè soni més clar… En la feina del dia a dia poden ajudar-te a fer un esborrany d’una circular, sintetitzar les conclusions d’un informe llarg o adaptar un text tècnic a un llenguatge planer. 

Però hi ha un límit important que cal tenir molt present: un LLM no coneix les teves dades. No sap què diu la normativa interna del teu departament, ni quins són els tràmits específics del teu ens, ni què es va decidir a l’última comissió. Només sap el que va aprendre durant l’entrenament, i això pot estar desactualitzat o ser massa genèric. 

Per tant, els LLM són útils per a tasques generals, però per si sols no resolen els problemes específics de l’administració. 

Capa 2. RAG: afegir-hi el coneixement 

Aquí és on entra el RAG (Retrieval-Augmented Generation, o generació augmentada per recuperació). El nom és molt tècnic, però la idea és senzilla: connectar l’LLM amb els teus documents i les teves dades perquè pugui respondre basant-se en la informació real de la teva organització. 

Imagina un assistent que, abans de respondre a una consulta sobre subvencions, va a buscar les bases reguladores publicades al DOGC, els criteris interns del teu departament i les preguntes freqüents del web. Això és, en essència, el que fa un sistema RAG: recupera la informació rellevant i la utilitza per construir una resposta fonamentada. 

És aquí on moltes administracions comencen a veure valor real. Alguns exemples del sector públic on un enfocament RAG té sentit: 

  • Un assistent intern que respon dubtes del personal sobre procediments administratius, basant-se en els manuals interns. 
  • Una eina de consulta ciutadana que respon sobre tràmits municipals utilitzant la documentació oficial del web. 
  • Un suport per a tècnics que han de resoldre expedients consultant normativa i precedents. 

Ara bé, hi ha una condició imprescindible: la qualitat de la informació d’origen ho és tot. Si els documents són desordenats, estan duplicats, contenen versions contradictòries o tenen una estructura caòtica, les respostes seran igual de confuses. La màxima en aquest món és clara: garbage in, garbage out. Si hi entren dades “escombraria”, en surten respostes “escombraria”. 

Per això, abans d’invertir en un sistema RAG, val la pena fer una pregunta més bàsica: està la nostra informació prou ordenada com perquè una màquina la pugui llegir bé? Si la resposta és que no, potser el primer pas no és la IA, sinó posar ordre a la documentació. 

Capa 3. Els agents d’IA: passar de pensar a fer 

Fins aquí, l’IA ens ajuda a entendre i a redactar. Però els agents d’IA fan un pas més: actuen. Utilitzen eines per executar tasques: poden crear un document, enviar un correu, actualitzar un registre, comparar dues bases de dades o seguir una sèrie de passos predefinits. 

El canvi és substancial. Fins ara, l’IA t’ajudava a pensar; ara t’ajuda a fer. 

Pensem-ho aplicat a l’administració. Un agent d’IA podria: 

  • Rebre una sol·licitud, comprovar si la documentació adjunta està completa i, si no ho està, generar un requeriment d’esmena. 
  • Buscar en una base de dades si el sol·licitant ja té expedients oberts i adjuntar-los al nou expedient. 
  • Preparar la notificació, omplir-la amb les dades pertinents i deixar-la a punt perquè una persona la revisi i la signi. 

Aquest salt obre possibilitats enormes d’eficiència, però també canvia la naturalesa del risc. Quan una eina només suggereix un text, l’error es queda en un esborrany que algú revisa. Quan una eina actua, l’error pot tenir conseqüències reals: un requeriment enviat a qui no toca, una dada actualitzada incorrectament, un tràmit iniciat sense base. 

Per això, en aquesta capa la pregunta clau ja no és si l’eina respon bé, sinó si pot actuar amb seguretat. I això vol dir definir molt bé què pot fer l’agent, què no pot fer, quan ha d’aturar-se i demanar validació humana, i com es deixa traça de cada acció. 

Capa 4. La IA agèntica: diversos agents que es coordinen 

Si un agent ja és un salt, la IA agèntica és el següent: diversos agents treballant junts dins d’un mateix flux de treball, cadascun amb un paper específic. 

En un escenari així, podríem tenir un agent que detecta una incidència en un servei, un altre que comprova les dades relacionades, un tercer que avisa l’equip responsable i un quart que prepara una resposta inicial a la persona afectada. Tot això de manera coordinada i, en bona part, autònoma. 

Sona impressionant, i ho és. Però també és considerablement més complex. Cada traspàs entre agents és un punt on poden aparèixer errors. Com més autonomia, més difícil resulta fer el seguiment de què ha passat exactament, qui ha pres quina decisió i per què. 

I aquí apareix una pregunta que, en l’àmbit públic, no és menor: qui és responsable quan un sistema format per diversos agents pren una decisió que afecta una persona? Perquè en l’administració, a diferència del sector privat, no n’hi ha prou que el sistema funcioni la majoria de vegades: cal poder explicar, justificar i, si cal, revisar cada decisió que afecta un ciutadà o una ciutadana. 

Fes-te la pregunta justa abans de tirar endavant 

Quan t’arriba una proposta o una demo d’una eina d’IA, en lloc de mirar si funciona en general, fixa’t en quina pregunta cal respondre segons la capa: 

  • LLM — Escriu prou bé? El text que genera, és clar, útil i ben construït? 
  • RAG — Troba el que cal? Sap anar a buscar la informació correcta als nostres documents? 
  • Agents — Actua correctament? Quan executa una tasca, es manté dins de límits previstos? 
  • IA agèntica — Podem respondre’n com a organització? Sabem què fa cada agent, en quin moment, i de qui és la responsabilitat si alguna cosa falla? 

Aquesta última pregunta és la que hauries de tenir més present si has de decidir si tires endavant una iniciativa. Perquè el dia que un ciutadà reclami per una decisió que l’ha afectat, algú haurà de poder explicar què ha passat, qui ho ha decidit i amb quin criteri. Si la resposta és “el sistema”, tenim un problema. 

El consell pràctic: comença pel problema, no per la tecnologia

Si t’has de quedar amb una sola idea d’aquest post, que sigui aquesta: no comencis preguntant-te quina IA vols fer servir, comença pel problema que vols resoldre.

Massa sovint la conversa va al revés: «volem fer alguna cosa amb IA agèntica». I la pregunta correcta és: «tenim una feina concreta on hi ha gent perdent temps, errors recurrents o ciutadans que esperen massa, i pot la tecnologia ajudar-nos a millorar-ho?»

A partir d’aquí, tria el patró més senzill que resolgui el problema. De vegades n’hi haurà prou amb un LLM per ajudar a redactar comunicacions. De vegades caldrà un RAG perquè el sistema entengui la teva normativa. I de vegades, sí, valdrà la pena un agent. Però la complexitat només es justifica si aporta valor real.

Nota: Aquest article està basat en l’article de Clare Kitching, experta en temes d’IA, publicat a Linkedin al maig de 2026 sota el títol “AI gets confusing fast. LLMs. RAG. AI agents. Agentic AI

Publicat a