Разъяснение понятий об ИИ: LLM, RAG, агенты ИИ или агентный ИИ.  

Facebook Facebook Facebook Facebook Поделиться

Если вы читали новости об искусственном интеллекте в последние месяцы, вы, вероятно, сталкивались с целым набором аббревиатур, которые звучат одинаково: LLM, RAG, агенты ИИ, агентный ИИ... Это кажется скороговоркой, и вполне нормально чувствовать себя немного растерянным. 

Хорошая новость в том, что вам не нужно быть специалистом по информатике, чтобы это понять. Эти термины не обозначают разные конкурирующие режимы: это слои, которые добавляются друг к другуКаждый слой решает свою проблему. Понимая, что каждый из них собой представляет, вы также лучше поймете, какой из них может быть полезен для вашей работы и, прежде всего, где кроются риски. 

Данная публикация предназначена в качестве базового руководства для всех, кто работает в сфере государственного управления и хочет быстро освоить необходимые навыки, без необходимости предварительных технических знаний.

Уровень 1. LLM: основа всего. 

Элс LLM (с английского) Большие языковые модели(то есть, большие языковые модели) — это движок таких инструментов, как ChatGPT, Claude или Gemini. Это системы, обученные на огромном объеме текста и освоившие очень специфическую функцию: генерировать язык связно

В чём они хороши? В написании текстов, составлении резюме, переводе, объяснении концепций, изложении идей, переформулировании текста для большей ясности... В своей повседневной работе они могут помочь вам составить циркуляр, обобщить выводы длинного отчёта или адаптировать технический текст к простому языку. 

Однако следует помнить об одном важном ограничении: Магистр права не знает ваших данных.Он не знает, что говорится во внутренних правилах вашего отдела, каковы конкретные процедуры вашей организации и что было решено на последнем заседании комитета. Он знает только то, чему его научили во время обучения, и это может быть устаревшим или слишком общим. 

Таким образом, модели LLM полезны для решения общих задач, но сами по себе не решают специфических проблем администрирования. 

Уровень 2. RAG: добавление знаний 

Здесь находится КГР (Генерация с расширенными возможностями поиска(или расширенное поколение путем восстановления). Название очень техническое, но идея проста: Подключите LLM к вашим документам и данным. чтобы я мог ответить, основываясь на достоверной информации от вашей организации. 

Представьте себе помощника, который, прежде чем ответить на вопрос о субсидиях, заходит на сайт, чтобы ознакомиться с опубликованными в DOGC нормативными документами, внутренними критериями вашего ведомства и часто задаваемыми вопросами. По сути, именно это и делает система RAG: она извлекает необходимую информацию и использует ее для составления обоснованного ответа. 

Именно здесь многие администрации начинают видеть реальную ценность. Вот несколько примеров из государственного сектора, где подход RAG имеет смысл: 

  • Внутренний ассистент, отвечающий на вопросы сотрудников об административных процедурах на основе внутренних инструкций. 
  • Инструмент для консультаций с гражданами, позволяющий отвечать на запросы муниципалитета, используя официальную документацию, размещенную на веб-сайте. 
  • Оказание поддержки техническим специалистам, которым необходимо решать проблемы, руководствуясь нормативными актами и прецедентами. 

Однако существует одно важное условие: Качество исходной информации имеет решающее значение.Если документы неаккуратны, дублируются, содержат противоречивые версии или имеют хаотичную структуру, ответы будут столь же запутанными. В этом мире действует принцип: мусор на входе, мусор на выходеЕсли ввести "мусорные" данные, то и получить "мусорные" ответы. 

Поэтому, прежде чем инвестировать в систему RAG, стоит задать себе более простой вопрос: Достаточно ли хорошо организована наша информация, чтобы машина могла её корректно прочитать? Если ответ отрицательный, возможно, первым шагом будет не внедрение ИИ, а упорядочивание документации. 

Уровень 3. ИИ-агенты: переход от мышления к действию. 

На данный момент ИИ помогает нам понимать и писать. Но... Агенты ИИ Они идут еще дальше: они действуютОни используют инструменты для выполнения задач: они могут создать документ, отправить электронное письмо, обновить запись, сравнить две базы данных или выполнить ряд предопределенных шагов. 

Изменения существенны. До сих пор ИИ помогал вам думать; теперь он помогает вам действовать. 

Давайте рассмотрим это в контексте управления. Агент с искусственным интеллектом мог бы: 

  • Получив запрос, проверьте полноту приложенной документации и, если она неполная, сформируйте запрос на внесение изменений. 
  • Проверьте базу данных, есть ли у заявителя уже открытые дела, и прикрепите их к новому делу. 
  • Подготовьте уведомление, заполните его соответствующими данными и оставьте его на видном месте для проверки и подписания. 

Этот скачок открывает огромные возможности для повышения эффективности, но также меняет характер риска. Когда инструмент только предлагает текст, ошибка остается в черновике, который проверяет кто-то другой. Когда инструмент ActuaВ этом случае ошибка может иметь реальные последствия: запрос может быть отправлен не тому человеку, данные могут быть обновлены некорректно, процедура может быть запущена без достаточных оснований. 

Таким образом, на этом уровне ключевой вопрос уже не в том, хорошо ли реагирует инструмент, а в том, отвечает ли он вообще. может действовать безопасноА это значит, что необходимо очень четко определить, что агент может делать, что он не может делать, когда ему нужно остановиться и запросить подтверждение от человека, и как отслеживается каждое действие. 

Уровень 4. Агентный ИИ: несколько агентов, которые координируют свои действия. 

Если агент уже совершил скачок, то Агентный ИИ следующее: несколько агентов, работающих вместе в рамках одного и того же рабочего процесса, каждый со своей специфической ролью. 

В таком сценарии у нас может быть агент, который обнаруживает инцидент в сервисе, другой, который проверяет соответствующие данные, третий, который уведомляет ответственную команду, и четвертый, который готовит первоначальный ответ пострадавшему. Все это происходит скоординированно и, в значительной степени, автономно. 

Звучит впечатляюще, и это действительно так. Но это также... значительно более сложныйКаждая передача информации между агентами — это точка, где могут произойти ошибки. Чем больше автономии, тем сложнее точно отследить, что произошло, кто какое решение принял и почему. 

И здесь возникает вопрос, который в общественной сфере не менее важен: кто несет ответственность Что происходит, когда система, состоящая из нескольких агентов, принимает решение, затрагивающее человека? Потому что в административной сфере, в отличие от частного сектора, недостаточно, чтобы система работала большую часть времени: необходимо уметь объяснять, обосновывать и, при необходимости, пересматривать каждое решение, затрагивающее гражданина. 

Прежде чем двигаться дальше, задайте себе правильный вопрос. 

Когда вы получаете предложение или демонстрацию инструмента искусственного интеллекта, вместо того чтобы оценивать его общую работоспособность, обратите внимание на то, на какие вопросы необходимо ответить в зависимости от уровня его применения: 

  • LLM - Вы пишете достаточно хорошо? Является ли сгенерированный текст ясным, полезным и хорошо структурированным? 
  • КГР - Вы нашли то, что вам нужно? Вы знаете, как найти нужную информацию в наших документах? 
  • Агент - Оно работает корректно? При выполнении задачи остаются ли результаты в пределах ожидаемых значений? 
  • Агентный ИИ - Можем ли мы как организация отреагировать на это? Известно ли нам, что делает каждый агент, в какое время и кто несет ответственность, если что-то пойдет не так? 

Последний вопрос – самый важный, который следует учитывать при принятии решения о целесообразности той или иной инициативы. Ведь в тот день, когда гражданин пожалуется на решение, затронувшее его, кто-то должен будет объяснить, что произошло, кто принял это решение и на каких основаниях. Если ответ – «система», значит, у нас проблема. 

Практический совет: начинайте с проблемы, а не с технологии.

Если вам нужно вынести из этого поста всего одну мысль, пусть это будет следующее: Не начинайте с вопроса о том, какой именно ИИ вы хотите использовать, начните с проблемы, которую вы хотите решить..

Слишком часто разговор сводится к обратному: «Мы хотим что-то сделать с помощью ИИ на основе агентов». А правильный вопрос звучит так: «Есть ли у нас конкретная задача, где люди тратят время впустую, повторяются ошибки или граждане слишком долго ждут, и может ли технология помочь нам это улучшить?»

Отсюда выберите простейший шаблон, решающий проблемуИногда для составления документов достаточно степени магистра права (LLM). Иногда для понимания системой ваших правил потребуется эксперт по нормативным актам (RAG). А иногда, да, агент будет полезен. Но сложность оправдана только в том случае, если она приносит реальную пользу.

Примечание: Данная статья основана на статье, опубликованной Клэр КитчингЭксперт по вопросам искусственного интеллекта опубликовал статью в LinkedIn в мае 2026 года под заголовком «Искусственный интеллект быстро становится запутанным. LLM. RAG. Агенты ИИ. Агент ИИ.

Опубликовано в