
Парадокс сегодняшнего дня заключается в том, что у всех компаний есть разные ИТ-системы и инструменты для подготовки отчётности и аналитики, но собственники и руководители компаний ими не пользуются.
Причины могут быть разными, но результат всегда один: чем разбираться со многими дашбордами, отчётами или выгрузками, всегда проще позвонить и спросить у финансового директора или руководителя подразделения, в названии которого есть слова «аналитический» или «планирование».
Хорошо, когда есть такой человек и он всегда на связи. Но бывает это редко. В конце концов, и идеальный финансовый директор может оказаться за рулём, или в отпуске в горах Алтая без мобильной связи на пару часов. А ответ нужен здесь и сейчас.
Поэтому, как только появился ChatGPT, наши клиенты, не сговариваясь, задали нам один и тот же вопрос: «Можно как-то подключить ChatGPT (или другую LLM) к нашим базам данных, чтобы задавать вопросы в формате разговорной речи?».
Ответ: Да! И сделать это можно без программирования, всего за несколько часов. В этой статье расскажем, как построить безопасный и точный AI-агент для доступа и анализа корпоративных данных и перейти от звонков и дашбордов к использованию искусственного интеллекта.
По шагам разберёмся с построением AI-агента для доступа к корпоративным данным без единой строки кода, буквально за несколько часов. Рассмотрим структуру и ключевые компоненты такого решения, примеры и старта, который можно адаптировать под свой бизнес.
Решения, которые я описываю в этой статье, отлично сработали у наших клиентов, и привели к получению результатов, приближающихся к 100% точности, и при этом не требовали использования дорогих или специализированных LLM. Я также расскажу о причинах, по которым эти методы работают лучше других и о проблемах, с которыми мы столкнулись.
Мы поговорили со многими руководителями и выяснили, что 90% вопросов по бизнесу можно решать моментально — без обращения к специалистам и изучения отчётов. Достаточно задать вопрос в свободной разговорной форме и сразу же получить ответ, пояснение и рекомендацию. Этот вывод единогласно подтверждают и уважаемые консалтинговые компании.
С AI-агентом такой диалог может выглядеть так: руководитель пишет в чат: «Покажи выручку по регионам за последнюю неделю» — и через секунду получает готовый отчёт или интерактивный график. И тут же уточняет: «А если исключить возвраты?», и снова получает ясный и точный ответ.
Для этого нужно «надстроить» над ИТ-системами решение, основанное на искусственном интеллекте. Оно способно «понимать» разговорную речь, автоматически находить ответы в соответствующих корпоративных базах данных и документах, выполнять необходимые вычисления и обработку, а затем готовить понятный ответ, отчёт, документ, таблицу, график или слайды.
Идея простая: на основе вопроса пользователя и знаний модели о корпоративных данных AI-агент пишет запрос к базам данных, выполняет этот запрос и формулирует ответ на основе полученных данных. Называются такие решения Text2SQL (то есть преобразование текста вопроса в формате разговорной речи в запрос, который можно выполнить в базах данных – SQL-запрос).
Казалось бы, всё просто: перевести вопрос в SQL и выполнить его. Так и есть, но есть и нюансы — модель не знает внутренних аббревиатур или названий проектов и может не «угадать», в какой таблице («orders», «order_archive» или другой) хранится «Заказ» и много других особенностей, связанных с данными, их структурой и достоверностью.
В основном искусственный интеллект здесь нужен, чтобы точно понять, о чём пользователь спрашивает и где именно искать ответ. Без точного разбора вопроса и релевантного контекста никакой инструмент для работы с данными не даст правильного ответа.
Давайте рассмотрим, как это работает по шагам. Более подробное описание AI-агентов для аналитики данных представлено в нашей статье «AI для BI: как AI-агенты сделали из обычного BI генеративный».
Когда пользователь задаёт вопрос, сервис не отправляет его сразу в большую языковую модель (LLM) «как есть». Сначала AI-агент ищет и собирает все необходимые данные, чтобы затем подготовить полную инструкцию для LLM, «привязанную» к реальным данным конкретной компании. Что это за данные:
Описание таблиц и колонок, связи между объектами и примеры записей.
Метрики, фильтры, правила расчёта, определения, сопоставление слов из вопросов и объектов БД и т. д. Например, как считать коэффициенты, какие фильтры применять, каких клиентов мы считаем действующими, а каких – потенциальными, как рассчитывается «прошлый месяц» (по дате операции? дате закрытия заказа? в какой таймзоне?) и так далее. Эти правила помогают AI-агенту не только найти нужное поле в таблице, но и понять, какую логику расчёта использовать.
AI-агент также использует предыдущие реплики из текущего диалога как часть входных данных для LLM. Если пользователь уточняет свой предыдущий вопрос или продолжает мысль, модель всё «помнит» и использует для генерации ответов. Например, если пользователь написал «Покажи это в разрезе регионов» — «это» отсылает нашего AI-агента к предыдущему ответу в чате. Или если ранее в диалоге пользователь написал «возьми только 2025 год», модель тоже учтёт это в ответах на последующие вопросы.
Чтобы AI-агент работал точно и безопасно, задаём ему чёткую внутреннюю инструкцию. Эта инструкция объясняет AI-агенту на каком «диалекте» писать и как оформлять SQL-код, задаёт правила безопасноcти (например, никаких изменений в данных – AI-агент не может сгенерировать команды на удаление или изменение данных; доступ только к разрешённым таблицам, защита конфиденциальных данных, доступ только к разрешенным таблицам, обработка попыток доступа к конфиденциальным или несанкционированным данным и ошибок. Без системного промпта LLM может сгенерировать не соответствующий стандартам компании или даже опасный SQL-запрос.
Чем качественнее такие примеры пар, тем точнее модель будет справляться с новыми похожими вопросами.
Вся собранная информация «приклеивается» к исходному вопросу пользователя и отправляются в LLM вместе, одним промптом. Так модель получает не просто одну фразу пользователя, а всё необходимое для подготовки корректного и осмысленного SQL-запроса в формате точной задачи. Этот шаг очень важен, так как без него LLM превращается в ненадёжную игрушку, работающую только на простейших примерах и даже опасную в корпоративной среде, так как будет ошибаться и сможет отредактировать или удалить данные в корпоративных базах данных, что должно быть исключено.
На этом этапе AI-агент использует всю собранную ранее информацию для пошагового решения задачи. Сначала AI-агент «продумывает» логику решения, например: «Сначала отберу данные по нужному периоду… затем сгруппирую заказы по категориям… потом просуммирую выручку». Эта технология называется «Chain-of-Thought» (или CoT).
Далее на основе плана AI-агент генерирует SQL-запрос и пояснения (например, «Отфильтровали записи за 2025 год, сгруппировал по категориям товаров и вывел общую сумму продаж»). В результате получается готовый SQL-запрос и краткое пояснение к сгенерированному коду.
Сгенерированный SQL-запрос отправляется в базу данных. Если возникает ошибка (например, опечатка в названии поля или неверная логика объединения таблиц):
Такая самокоррекция обрабатывает более 90% типовых ошибок. При неудаче после нескольких попыток система предложит уточнить вопрос.
Что здесь важно обязательно проверять и контролировать: запросы должны выполняться только в безопасном режиме read-only — данные в корпоративных источниках нельзя изменить или удалить.
AI-агент не просто возвращает «сырые» строки из базы данных. Он анализирует результаты и представляет их в удобном формате:

Рисунок 1. Ответ в телеграме и кнопками для выбора формата вывода результата
Нажав на одну из кнопок выбора формата (например, «График» или «Круговая диаграмма»), вы перейдёте к экрану, где результаты отображаются в виде интерактивного графика и подробной таблицы — например, такому:

Рисунок 2. Интерактивный график или BI прямо в переписке
При уточняющих вопросах (например, «А как сократить расходы?») AI-агент продолжает диалог, опираясь на предыдущие сообщения и загруженный ранее контекст.
Как мы рассмотрели в предыдущем разделе, создание AI-агентов требует применения многих технологий. Наша задача — соединить их в одном решении. Более того, успех проекта зависит от решения ряда невидимых для конечного пользователя, но критически важных задач: настройки политик безопасности, валидации SQL-запросов, автоматического исправления ошибок и обеспечения контроля над действиями AI-агента.
Для решения этих задач существуют программные библиотеки, такие как LangChain или LlamaIndex. Однако они требуют от команды навыков программирования и выполнения многих итераций для определения оптимальной комбинации решений. В этом разделе рассмотрим альтернативный, более быстрый путь — создание AI-агента в no-code конструкторе Epsilon Workspace. Этот подход превращает сложный процесс разработки в построение процессов с использованием визуальных компонентов. Вместо программирования вы выбираете готовые блоки из библиотеки визуальных компонентов, перетаскиваете их на рабочую область и соединяете, выстраивая логику будущего AI-агента.
В основе этого подхода лежит принцип визуального программирования. Такой метод не только демократизирует разработку, но и заметно её ускоряет. Буквально за несколько часов можно собрать готового к промышленной эксплуатации txt2sql AI-агента, который будет отвечать на запросы на естественном языке с полным соблюдением корпоративных политик безопасности и ИТ-стандартов.

Рисунок 3. Разработать AI-агента можно прямо сейчас в no-code конструкторе Epsilon Workspace
Важно определить то, когда и как AI-агент должен запускаться. Это включает настройку триггеров по различным каналам (чат, голос, системные оповещения) по расписанию или каким-то событиям (например, получение вопроса от пользователя в чате).
Фундамент поведения AI-агента задаётся в соответствующем визуальном компоненте для задания системного промпта: роль, границы доступа и стиль ответов, режим «только чтение», запрет на доступ к определенным данным и другие правила.
Качество ответа модели напрямую зависит от предоставленного контекста. Компоненты для задания контекста настраиваются для автоматического анализа схемы БД, импорта бизнес-правил, поиска и включения в промпт релевантных примеров запросов.
На основе этого промпта происходит генерация, валидация и исполнение SQL-запроса. Компоненты генерации SQL-запроса настраиваются так, чтобы проверять синтаксис, права доступа, корректировать SQL-запросы, если возникнут ошибки при выполнении, или формировать сообщения для пользователя.
Самое главное в корпоративном AI — это безопасность. Многоуровневая защита настраивается путём настройки ролевой модели доступа, автоматического маскирования конфиденциальных данных, механизмов одобрения определённых операций оператором (концепция «Human-in-the-Loop») и логирования действий для аудита.
Конечная цель AI-агента — выдать результат в удобном для пользователя формате: интерактивные графики, текстовые сводки или готовые отчёты. Эти требования тоже настраиваются в соответствующих компонентах конструктора.
Как понять, что AI-агент отвечает действительно точно? В специальных компонентах конструктора настраиваются правила сбора и анализа отзывов пользователей (оценки каждого ответа «Полезно/Не полезно» или по рейтинговой шкале) пользователей, а также мониторинг изменений в данных и вопросов пользователей позволяют своевременно дообучать модель и поддерживать её актуальность.
В итоге можно сказать, что корпоративный AI-агент – это не просто чат-бот на базе LLM, а настоящая платформа, где искусственный интеллект сочетается с бизнес-логикой и правилами, использованием корпоративных данных и строгостью корпоративных стандартов безопасности и конфиденциальности. Это решение устраняет традиционный компромисс между удобством использования, точностью ответов и отчётов и требованиями безопасности, предлагет предприятиям новый эффективный способ работы с данными.
5 реальных проблем при внедрении AI-агента и их решения
Одной из первых проблем, с которой мы столкнулись, стала так называемая «проблема перегруженного контекста». Парадокс заключался в следующем: чем больше информации мы давали нашей большой языковой модели (LLM), тем хуже был результат.
На начальном этапе мы, как и многие другие разработчики, рассуждали так: чтобы AI-агент точно понимал запросы и генерировал корректный SQL, нужно предоставить ему максимум доступной информации о базе данных и примеров «вопрос пользователя – SQL-запрос». На первый взгляд, это кажется логичным подходом.
Оказалось, что мы описали таблицы слишком подробно: привели список таблиц, несколько псевдонимов таблиц, десятки примеров SQL-запросов, список каждой из таблиц с названиями столбцов, их описаниями и возможными значениями, бизнес-глоссарий.
Все это мы загружали в промпт. В итоге промпты становились гигантскими. Нам казалось, что это неплохо, ведь современные LLM имеют огромные контекстные окна — до 200 тысяч токенов. Должно было сработать!
Однако вместо ожидаемого роста точности, модель «путалась» в этом длинном тексте. Мы зафиксировали резкое падение корректности ответов до 40-60% (только 18 из 30 тестовых примеров были корректными). Наши инженеры назвали это «эффектом библиотеки»: если дать человеку 100 книг вместо одной нужной — он в них «утонет».
Кроме того, если мы используем коммерческие LLM, то за каждый переданный токен приходится платить. С ростом размера промптов стоимость обработки запросов может заметно вырасти.
Главное правило при разработке промтов, которое мы для себя сформулировали, заключается в том, чтобы сделать их как можно более простыми. Мы добились этого с использованием следующих методов:
В результате размер промптов сократился в несколько раз, точность выросла до 92%, а стоимость запросов, наоборот, упала.
Когда AI-агент не мог собрать достаточно информации, он отвечал «Я не знаю» — и на этом общение завершалось. Нашим пользователям было непонятно, в чём была ошибка, почему система не справилась и как переформулировать запрос.
В итоге они просто прекращали диалог, бросали работу c AI-агентом и возвращались к привычным звонкам и экселям.
Ведь если эксперт отвечает на наш вопрос: «Не знаю» и замолкает — это может раздражать. Но если он говорит: «Я проверил данные за сентябрь — там пусто. Может быть, посмотреть август или уточнить источник?» — это, наоборот, здорово.
Мы перестроили логику: отказались от «не знаю» и ввели две простые практики:
Эти уточнения помогают пользователю понять, какие данные искались и почему именно они, где произошёл сбой в логике и как уточнить вопрос.
Удовлетворённость пользователей по метрике «пользователь доволен ответом» выросла на 40%, а среднее количество повторных уточняющих обращений сократилось вдвое.
Еще одной проблемой было получение стабильно правильных результатов. По своей природе LLM не детерминированы: даже при наличии идеального контекста, если вы зададите один и тот же вопрос модели 10 раз, вы вполне можете получить 8 правильных ответов и 2 неправильных. Эту проблему можно вполне назвать настоящей системной уязвимостью. Представьте, например, 20% ошибок в SQL-запросах для построения финансового отчёта.
Конечно, такая нестабильность подрывает доверие пользователей, ведь корпоративные системы в промышленной эксплуатации не могут работать по принципу «Вчера работало — сегодня сломалось».
Чтобы справиться с этой проблемой, мы разработали многоэтапный процесс, который не полагается на единственный результат генерации SQL-запроса. Мы внедрили механизмы повторных попыток и отбора лучших вариантов, а также этап предварительной валидации SQL-запросов.
Благодаря этим мерам, доля успешных запросов выросла до 95%, а среднее число дополнительных генераций ответов сократилось до 2. Это позволило нам добиться высокой стабильности и надёжности системы.
Представьте, что вы просите AI-агента: «Покажи лучших клиентов за квартал». Но что значит «лучших»? Самых лояльных? Самых прибыльных? Или тех, кто купил больше всех? Для человека этот смысл обычно понятен из контекста или уточняется парой вопросов. Но для SQL-запроса такая неоднозначность — проблема.
Усложняло ситуацию и динамика корпоративного языка:
В результате, даже если ваш AI-агент сегодня был блестяще обучен на миллионах вопросов, завтра он может столкнуться с формулировкой, которая его озадачит.
И это тоже серьёзная проблема, ведь неверно понятый запрос означает неверный SQL-запрос, а следовательно — ошибочный ответ.
Чтобы обеспечить актуальность понимания вопросов мы упростили и ускорили процесс обновления базы знаний. Теперь новые определения и примеры можно загружать за 15 минут. Для каждой новой загрузки используем автоматическое регрессионное тестирование. Это позволяет не нарушать работоспособность уже существующих запросов при внесении новых определений.
AI-агент теряет ценность, если не адаптируется к реальным запросам пользователей. Без быстрого цикла обратной связи и приоритизации доработок система постепенно теряет актуальность и становится невостребованной. Пользователь может десять раз обратиться к AI-агенту ради любопытства в первую неделю после внедрения, но если ответы будут неточными и бесполезными, то одиннадцатого раза может и не быть.
Что мы сделали для того, чтобы понимать, насколько точные ответы даёт AI-агент:
Удовлетворённость (соотношение «Полезно» и «Бесполезно») выросла с 65 % до 92 % за месяц. Частота использования увеличилась на 30 %, поскольку пользователи стали больше доверять системе и использовать её чаще.
Генеративный AI способен сделать запрос к базам данных таким же простым, как разговор с коллегой. AI-агенты Text-to-SQL представляют собой настоящий скачок в развитии BI-систем. Для руководителей это возможность эффективно использовать накопленные в компании данные. Как мы увидели, ключевые технологические тренды – интеграция бизнес-знаний, многошаговые алгоритмы и автоматизация визуализации – позволяют решать проблемы и ограничивать риски.
Платформа Epsilon Workspace превращает всю сложность разработки AI-агентов в наглядный no-code конструктор, где каждый шаг — от приёма вопроса до визуализации и выявления тенденций — уже запрограммирован и готов для настройки.
Конечно, успех зависит от правильного внедрения: важно встроить AI-агентов в существующие рабочие процессы (например, в мессенджеры, приложения или корпоративные порталы), обеспечить контроль доступа и качество результатов. При грамотной реализации выгоды очевидны: генеративный BI способен на порядок повысить эффективность работы с данными. Epsilon Workspace и другие платформы уже показывают, что такие решения готовы к реальному миру, снижают нагрузку на команды аналитиков и делают анализ данных быстрым, удобным и массовым.
В Эпсилон Метрикс мы не просто поставляем платформу — мы помогаем грамотно внедрить AI-решения, учитывая специфику ваших данных, процессов и требования к безопасности. Наш опыт в области искусственного интеллекта и аналитики данных позволяет автоматизировать самые сложные задачи.
Есть идея для автоматизации? Запишитесь к нам на демонстрацию, и мы покажем, как за несколько дней вы сможете получить полностью работающий AI-агент, который станет полезным инструментом для вашего бизнеса.
Получайте свежие статьи об AI, данных и аналитике прямо на почту