Aclarando conceptos sobre la IA: LLM, RAG, agentes de IA o IA agéntica  

Facebook Facebook Facebook Facebook Compartir

Si en los últimos meses has leído noticias sobre inteligencia artificial, seguramente te has encontrado con una sopa de siglas que suena toda igual: LLM, RAG, agentes de IA, IA genética… Parece un trabalenguas, y es normal sentirse un poco perdido. 

La buena noticia es que no es necesario ser informático para entenderlo. Estos términos no son modos distintos que compiten entre sí: son capas que se van añadiendo una a otra, y cada capa resuelve un problema diferente. Si entiendes qué aporta cada una, también entenderás mejor cuál puede ser útil para tu trabajo y, sobre todo, dónde están los riesgos. 

Esta publicación está pensada como guía básica para cualquier persona de la administración pública que quiera ponerse al día, sin necesidad de conocimientos técnicos previos.

Capa 1. Los LLM: la base de todo 

Los LLM (del inglés Large Language Models, es decir, grandes modelos de lenguaje) son el motor que hay detrás de herramientas como ChatGPT, Claude o Gemini. Son sistemas entrenados con una enorme cantidad de textos y que han aprendido a hacer algo muy concreto: generar lenguaje de forma coherente

¿Qué saben hacer bien? Redactar, resumir, traducir, explicar conceptos, dar ideas, reformular un texto para que suene más claro… En el trabajo del día a día pueden ayudarte a realizar un borrador de una circular, sintetizar las conclusiones de un informe largo o adaptar un texto técnico a un lenguaje llano. 

Pero hay un límite importante a tener muy presente: un LLM no conoce tus datos. No sabe lo que dice la normativa interna de tu departamento, ni cuáles son los trámites específicos de tu ente, ni qué se decidió en la última comisión. Sólo sabe lo que aprendió durante el entrenamiento, y esto puede estar desactualizado o demasiado genérico. 

Por tanto, los LLM son útiles para tareas generales, pero por sí solos no resuelven los problemas específicos de la administración. 

Capa 2. RAG: añadir el conocimiento 

Aquí es donde entra el RAG (Retrieval-Augmented Generation, o generación aumentada por recuperación). El nombre es muy técnico, pero la idea es sencilla: conectar el LLM con tus documentos y tus datos para que pueda responder en base a la información real de tu organización. 

Imagina a un asistente que, antes de responder a una consulta sobre subvenciones, va a buscar las bases reguladoras publicadas en el DOGC, los criterios internos de tu departamento y las preguntas frecuentes de la web. Esto es, en esencia, lo que hace un sistema RAG: recupera la información relevante y la utiliza para construir una respuesta fundamentada. 

Aquí es donde muchas administraciones empiezan a ver valor real. Algunos ejemplos del sector público donde un enfoque RAG tiene sentido: 

  • Un asistente interno que responde a dudas del personal sobre procedimientos administrativos, basándose en los manuales internos. 
  • Una herramienta de consulta ciudadana que responde sobre trámites municipales utilizando la documentación oficial de la web. 
  • Un soporte para técnicos que deben resolver expedientes consultando normativa y precedentes. 

Ahora bien, existe una condición imprescindible: la calidad de la información de origen lo es todo. Si los documentos son desordenados, están duplicados, contienen versiones contradictorias o tienen una estructura caótica, las respuestas serán igual de confusas. La máxima en este mundo está clara: garbage in, garbage out. Si entran datos “basura”, salen respuestas “basura”. 

Por eso, antes de invertir en un sistema RAG, vale la pena hacer una pregunta más básica: ¿está nuestra información suficientemente ordenada como para que una máquina la pueda leer bien? Si la respuesta es que no, quizá el primer paso no sea la IA, sino poner orden en la documentación. 

Capa 3. Los agentes de IA: pasar de pensar en hacer 

Hasta aquí, el IA nos ayuda a entender y redactar. Pero los agentes de IA dan un paso más: actúan. Utilizan herramientas para ejecutar tareas: pueden crear un documento, enviar un correo, actualizar un registro, comparar dos bases de datos o seguir una serie de pasos predefinidos. 

El cambio es substancial. Hasta ahora, el IA te ayudaba a pensar; ahora te ayuda a hacer. 

Pensémoslo aplicado a la administración. Un agente de IA podría: 

  • Recibir una solicitud, comprobar si la documentación adjunta está completa y, si no lo está, generar un requerimiento de subsanación. 
  • Buscar en una base de datos si el solicitante ya tiene expedientes abiertos y adjuntarlos al nuevo expediente. 
  • Preparar la notificación, rellenarla con los datos pertinentes y dejarla lista para que una persona la revise y firme. 

Este salto abre enormes posibilidades de eficiencia, pero también cambia la naturaleza del riesgo. Cuando una herramienta sólo sugiere un texto, el error se queda en un borrador que alguien revisa. Cuando una herramienta actua, el error puede tener consecuencias reales: un requerimiento enviado a quien no toca, un dato actualizado incorrectamente, un trámite iniciado sin base. 

Por eso, en esta capa la pregunta clave ya no es si la herramienta responde bien, sino si puede actuar con seguridad. Y esto significa definir muy bien qué puede hacer el agente, qué no puede hacer, cuándo debe detenerse y pedir validación humana, y cómo se deja rastro de cada acción. 

Capa 4. La IA agéntica: varios agentes que se coordinan 

Si un agente ya es un salto, la IA agéntica es el siguiente: varios agentes trabajando juntos dentro de un mismo flujo de trabajo, cada uno con papel específico. 

En un escenario así, podríamos tener un agente que detecta una incidencia en un servicio, otro que comprueba los datos relacionados, un tercero que avisa al equipo responsable y un cuarto que prepara una respuesta inicial a la persona afectada. Todo esto de forma coordinada y, en buena parte, autónoma. 

Suena impresionante, y lo es. Pero también es considerablemente más complejo. Cada traspaso entre agentes es un punto en el que pueden aparecer errores. A mayor autonomía, más difícil resulta hacer el seguimiento de qué ha pasado exactamente, quién ha tomado qué decisión y por qué. 

Y aquí aparece una pregunta que, en el ámbito público, no es menor: quién es responsable ¿cuándo un sistema formado por varios agentes toma una decisión que afecta a una persona? Porque en la administración, a diferencia del sector privado, no es suficiente que el sistema funcione la mayoría de las veces: hay que poder explicar, justificar y, si es necesario, revisar cada decisión que afecta a un ciudadano oa una ciudadana. 

Hazte la pregunta justa antes de salir adelante 

Cuando te llega una propuesta o una demo de una herramienta de IA, en lugar de mirar si funciona en general, fíjate en qué pregunta hay que responder según la capa: 

  • LLM - ¿Escribe bastante bien? ¿El texto que genera, por supuesto, útil y bien construido? 
  • RAG - ¿Encuentra lo que hace falta? ¿Sabe ir a buscar la información correcta en nuestros documentos? 
  • Agentes - ¿Actúa correctamente? Cuando ejecuta una tarea, ¿se mantiene dentro de límites previstos? 
  • IA agéntica - ¿Podemos responder como organización? ¿Sabemos qué hace cada agente en qué momento y de quién es la responsabilidad si algo falla? 

Esta última pregunta es la que deberías tener más presente si debes decidir si llevas adelante una iniciativa. Porque el día en que un ciudadano reclame por una decisión que le ha afectado, alguien tendrá que poder explicar qué ha pasado, quién lo ha decidido y con qué criterio. Si la respuesta es "el sistema", tenemos un problema. 

El consejo práctico: comienza por el problema, no por la tecnología

Si tienes que quedarte con una sola idea de este post, que sea ésta: no empieces preguntándote qué IA quieres utilizar, empieza por el problema que quieres resolver.

Con demasiada frecuencia la conversación va al revés: «queremos hacer algo con IA agéntica». Y la pregunta correcta es: «¿tenemos un trabajo concreto donde hay gente perdiendo tiempo, errores recurrentes o ciudadanos que esperan demasiado, y puede la tecnología ayudarnos a mejorarlo?».

A partir de aquí, elige el patrón más sencillo que resuelva el problema. A veces será suficiente con un LLM para ayudar a redactar comunicaciones. A veces será necesario un RAG para que el sistema entienda tu normativa. Y a veces, sí, valdrá la pena un agente. Pero la complejidad sólo se justifica si aporta valor real.

Nota: Este artículo está basado en el artículo de Clare Kitching, experta en temas de IA, publicado en Linkedin en mayo de 2026 bajo el título “AI gets confusing fast. LLMs. RAG. AI agentes. Agentico AI"

Publicado un