Chiarimenti sui concetti relativi all'IA: LLM, RAG, agenti IA o IA agentica  

Facebook Facebook Facebook Facebook Condividi

Se negli ultimi mesi avete letto notizie sull'intelligenza artificiale, probabilmente vi sarete imbattuti in una miriade di acronimi che suonano tutti uguali: LLM, RAG, agenti di IA, IA agentica... Sembra uno scioglilingua, ed è normale sentirsi un po' disorientati. 

La buona notizia è che non devi essere un informatico per capirlo. Questi termini non sono diverse modalità concorrenti: sono strati che vengono aggiunti uno all'altroOgni livello risolve un problema diverso. Se capisci cosa apporta ognuno di essi, comprenderai meglio anche quale può essere utile per il tuo lavoro e, soprattutto, dove si annidano i rischi. 

Questa pubblicazione è pensata come guida di base per chiunque lavori nella pubblica amministrazione e desideri aggiornarsi rapidamente, senza la necessità di conoscenze tecniche pregresse.

Livello 1. LLM: la base di tutto 

il LLM (dall'inglese) Modelli linguistici di grandi dimensioni(ovvero, i modelli linguistici di grandi dimensioni) sono il motore alla base di strumenti come ChatGPT, Claude o Gemini. Si tratta di sistemi addestrati su un'enorme quantità di testo e che hanno imparato a fare qualcosa di molto specifico: generare linguaggio coerente

In cosa sono bravi? A scrivere, riassumere, tradurre, spiegare concetti, proporre idee, riformulare un testo per renderlo più chiaro... Nel loro lavoro quotidiano, possono aiutarvi a redigere una circolare, riassumere le conclusioni di una lunga relazione o adattare un testo tecnico a un linguaggio più semplice. 

Ma c'è un limite importante da tenere presente: Un LLM non conosce i tuoi datiNon conosce i regolamenti interni del vostro dipartimento, né le procedure specifiche del vostro ente, né le decisioni prese nell'ultima riunione del comitato. Conosce solo ciò che ha appreso durante il corso di formazione, che potrebbe essere obsoleto o troppo generico. 

Pertanto, i LLM sono utili per compiti di carattere generale, ma da soli non risolvono i problemi specifici dell'amministrazione. 

Livello 2. RAG: aggiungi conoscenza 

È qui che si trova il RAG (Generazione aumentata dal recupero(o generazione aumentata tramite recupero). Il nome è molto tecnico, ma l'idea è semplice: collega il LLM ai tuoi documenti e dati in modo che io possa rispondere basandomi su informazioni concrete provenienti dalla vostra organizzazione. 

Immaginate un assistente che, prima di rispondere a una domanda sui sussidi, si mette alla ricerca delle basi regolamentari pubblicate nel DOGC, dei criteri interni del vostro dipartimento e delle domande frequenti sul sito web. Questo è, in sostanza, ciò che fa un sistema RAG: recupera le informazioni pertinenti e le utilizza per elaborare una risposta fondata. 

È qui che molte amministrazioni iniziano a intravedere un reale valore aggiunto. Ecco alcuni esempi dal settore pubblico in cui un approccio RAG (Rapid Aging, Aging, Grading, Allineamento) si rivela efficace: 

  • Un assistente interno che risponde alle domande del personale in merito alle procedure amministrative, sulla base dei manuali interni. 
  • Uno strumento di consultazione cittadina che risponde alle procedure comunali utilizzando la documentazione ufficiale presente sul sito web. 
  • Supporto ai tecnici che devono risolvere i casi consultando regolamenti e precedenti. 

Tuttavia, esiste una condizione essenziale: La qualità delle informazioni di origine è tuttoSe i documenti sono disordinati, duplicati, contengono versioni contraddittorie o hanno una struttura caotica, le risposte saranno altrettanto confuse. La massima in questo mondo è chiara: spazzatura in entrata, spazzatura in uscitaSe si inseriscono dati "spazzatura", si otterranno risultati "spazzatura". 

Pertanto, prima di investire in un sistema RAG, vale la pena porsi una domanda più fondamentale: Le nostre informazioni sono organizzate in modo sufficientemente preciso da poter essere lette correttamente da una macchina? Se la risposta è no, forse il primo passo non è l'intelligenza artificiale, ma mettere ordine nella documentazione. 

Livello 3. Agenti di intelligenza artificiale: dal pensare all'agire 

Finora, l'IA ci aiuta a capire e a scrivere. Ma l' agenti d'IA Fanno un ulteriore passo avanti: loro agisconoUtilizzano strumenti per svolgere compiti: possono creare un documento, inviare un'e-mail, aggiornare un record, confrontare due database o seguire una serie di passaggi predefiniti. 

Il cambiamento è sostanziale. Fino ad ora, l'intelligenza artificiale ti aiutava a pensare; ora ti aiuta ad agire. 

Pensiamo a come applicarlo all'amministrazione. Un agente di intelligenza artificiale potrebbe: 

  • Ricevere la richiesta, verificare la completezza della documentazione allegata e, in caso contrario, generare una richiesta di modifica. 
  • Cerca nel database se il richiedente ha già delle pratiche aperte e allegale alla nuova pratica. 
  • Preparate la notifica, compilatela con i dati pertinenti e lasciatela pronta affinché qualcuno la esamini e la firmi. 

Questo salto apre enormi possibilità di efficienza, ma cambia anche la natura del rischio. Quando uno strumento suggerisce solo il testo, l'errore rimane in una bozza che qualcun altro rivede. Quando uno strumento attuatoriL'errore può avere conseguenze reali: una richiesta inviata alla persona sbagliata, dati aggiornati in modo errato, una procedura avviata senza fondamento. 

Pertanto, in questo livello la questione chiave non è più se lo strumento risponde bene, ma se può agire in sicurezzaCiò significa definire con precisione cosa l'agente può fare, cosa non può fare, quando deve fermarsi e chiedere una convalida umana e come viene tracciata ogni singola azione. 

Livello 4. IA agentica: diversi agenti che si coordinano 

Se un agente è già un salto, il Intelligenza artificiale agente è il seguente: più agenti che lavorano insieme all'interno dello stesso flusso di lavoro, ciascuno con un ruolo specifico. 

In uno scenario del genere, potremmo avere un agente che rileva un problema in un servizio, un altro che verifica i dati correlati, un terzo che avvisa il team responsabile e un quarto che prepara una prima risposta alla persona interessata. Tutto ciò in modo coordinato e, in larga misura, autonomo. 

Sembra impressionante, e lo è. Ma è anche considerevolmente più complessoOgni passaggio di consegne tra agenti è un punto in cui possono verificarsi errori. Maggiore è l'autonomia, più difficile è tracciare con precisione cosa è successo, chi ha preso quale decisione e perché. 

E qui si pone una questione che, nella sfera pubblica, non è meno importante: chi è responsabile Quando un sistema composto da più agenti prende una decisione che riguarda una persona? Perché nella pubblica amministrazione, a differenza del settore privato, non basta che il sistema funzioni per la maggior parte del tempo: è necessario poter spiegare, giustificare e, se necessario, rivedere ogni decisione che incide su un cittadino. 

Poniti la domanda giusta prima di procedere. 

Quando ricevi una proposta o una demo di uno strumento di intelligenza artificiale, invece di valutare se funziona in generale, concentrati sulla domanda a cui è necessario rispondere in base al livello specifico: 

  • LLM - Scrivi abbastanza bene? Il testo generato è chiaro, utile e ben strutturato? 
  • RAG - Hai trovato quello che ti serve? Sai come trovare le informazioni corrette nei nostri documenti? 
  • Agenti - Sta funzionando correttamente? Durante l'esecuzione di un compito, i risultati rimangono entro i limiti previsti? 
  • Intelligenza artificiale agente - Come organizzazione, possiamo rispondere a questa esigenza? Sappiamo cosa fa ciascun agente, in quale momento e di chi è la responsabilità se qualcosa va storto? 

Quest'ultima domanda è quella che dovreste tenere maggiormente presente se dovete decidere se portare avanti un'iniziativa. Perché il giorno in cui un cittadino si lamenterà di una decisione che lo ha riguardato, qualcuno dovrà essere in grado di spiegare cosa è successo, chi l'ha deciso e con quali criteri. Se la risposta è "il sistema", abbiamo un problema. 

Il consiglio pratico: partite dal problema, non dalla tecnologia.

Se dovete trarre un solo spunto da questo post, che sia questo: Non iniziare chiedendoti quale IA vuoi usare, inizia dal problema che vuoi risolvere.

Troppo spesso la conversazione prende la direzione opposta: "vogliamo fare qualcosa con l'intelligenza artificiale basata su agenti". La domanda giusta, invece, è: "abbiamo un lavoro specifico in cui le persone perdono tempo, si verificano errori ricorrenti o i cittadini aspettano troppo a lungo, e la tecnologia può aiutarci a migliorare la situazione?".

Da qui, scegli lo schema più semplice che risolve il problemaA volte un LLM sarà sufficiente per redigere le comunicazioni. Altre volte sarà necessario un RAG affinché il sistema comprenda le vostre normative. E a volte, sì, un agente sarà utile. Ma la complessità è giustificata solo se apporta un valore reale.

Nota: questo articolo è basato sull'articolo di Clare Kitching, esperto in argomenti di IA, pubblicato su Linkedin nel maggio 2026 con il titolo “L'IA diventa rapidamente complicata. LLM. RAG. Agenti IA Agente IA"

Pubblicato in