- «Нам нужен AI-агент, который автоматизирует половину операционки».
- «Какой процесс сейчас съедает больше всего времени?»
- «Ну... в целом у нас везде много ручной работы».
Так обычно и начинаются слабые AI-проекты. Проблема редко в модели. Чаще бизнес хочет получить «умный слой поверх всего», хотя деньги лежат в одном конкретном процессе, где уже есть очередь, ручные шаги и понятная цена ошибки.
Слабое место почти всегда одно - выбран не тот процесс
Первый сценарий для AI должен быть скучным: много повторений, понятный вход, предсказуемый результат, метрика до и после. Если менеджеры сами делают задачу каждый по-своему, модель просто ускорит путаницу.
В прошлом году у нас был B2B SaaS-проект с запросом на «внутренний AI для всей компании». После аудита мы убрали эту идею и оставили только первую линию поддержки: Laravel 11, PostgreSQL 16, база знаний из Confluence, внешний API модели. За 5 недель получили снижение времени обработки тикета на 38%. Без отдельной платформы и долгой разработки «на вырост».
Обычно мы фильтруем сценарий по четырем критериям:
- частота - сколько раз операция повторяется за неделю;
- цена ошибки - что будет, если ответ неверный;
- данные - есть ли история, шаблоны, база знаний;
- скорость пилота - можно ли увидеть KPI за 4-8 недель.
CTO логистической платформы хорошо сформулировал это на созвоне: «Автономность никого не спасает, если входные данные грязные».
Деньги приходят от точки внедрения, а не от самой модели
Быстрее всего окупаются процессы, которые редко считают инновацией: поддержка, разбор лидов, поиск по знаниям, документы, письма. Эффект там виден сразу, потому что исчезают ручные копирования, переключения между окнами и лишние минуты на каждую операцию.
Если сотруднику нужно открыть еще одно окно, вставить туда текст и потом вручную перепроверить ответ, проект быстро теряет поддержку команды. Мы это видели не раз. AI должен жить там, где человек уже работает: в CRM, helpdesk, почте, мессенджере.
Для sales ops мы часто собираем связку API модели + CRM API + n8n или Make. Приходит лид, система разбирает запрос, ставит тип, заполняет карточку и собирает черновик ответа. Экономия выходит 10-20 минут на лид. При потоке 300 лидов в месяц это уже десятки часов.
| Процесс | Нужен человек | Цена ошибки | Что ставим первым |
|---|---|---|---|
| Поддержка 1-й линии | Да | Средняя | AI-ассистент + helpdesk |
| Разбор лидов | Да | Средняя | workflow + LLM |
| Поиск по базе знаний | Да | Низкая | RAG |
| Счета и договоры | Обязательно | Высокая | правила + проверка человеком |
В большинстве случаев хватает workflow с LLM
Самый частый перегиб - строить автономного агента там, где задача решается жестким сценарием. Модель хорошо работает на языковых шагах: понять вопрос, собрать суть, предложить черновик, найти нужную статью. Действия в системах лучше держать под контролем.
Для внутренней документации мы обычно ставим RAG: поиск по знаниям, векторный индекс на pgvector, OpenSearch или Weaviate, потом ответ модели только по найденным фрагментам. Иначе начинаются убедительно неверные ответы. Они звучат уверенно, а потом ломают процесс.
У клиента из логистики мы вместо «умного агента» сделали Node.js 20 + NestJS, RAG по инструкциям и подтверждение оператором. Через 6 недель увидели, что 62% ответов уходят почти без правок. Этого уже хватило, чтобы пилот окупился.
получить тикет
-> найти релевантные инструкции
-> собрать черновик ответа
-> отправить оператору на подтверждение
-> записать итог в helpdesk
Пилот выглядит проще, чем думают
Нормальный запуск не требует полугода презентаций. Обычно хватает одной недели на аудит потока, еще одной - на права доступа, тестовые кейсы и подготовку источников. Потом идет 2 недели на прототип и 10-20% реального потока на пилоте.
Мы смотрим не на красоту демо. Считаем время обработки, первый ответ, стоимость операции, долю принятых подсказок, объем ручных правок. Если AI пишет гладко, а сотрудники берут два ответа из десяти, пользы в этом нет.
Хорошая тестовая выборка - это 50-100 реальных кейсов, а не придуманные примеры с презентации. На них быстро видно, где база знаний устарела, где права настроены криво, а где сам процесс еще не оформлен.
Что у нас не сработало и почему
Один раз мы сами пошли слишком широко. Делали «универсального помощника» для сервисной компании: ответы по внутренним материалам, помощь с письмами, поиск регламентов. Демо всем понравилось, но в реальной работе люди вернулись к Confluence и чатам.
Причина оказалась простой: документы индексировались нерегулярно, права доступа не были доведены, ответы не логировались. Через 3 недели стало видно, что больше 25% ответов требуют серьезной правки. Масштабировать такую схему было рано, и мы откатились к одному сценарию - поиску по актуальным инструкциям для поддержки.
Если вы хотите понять, нужен ли вам AI сейчас, откройте не каталог моделей, а таблицу потерь: сколько часов в месяц уходит на один повторяемый процесс, сколько стоит ошибка и кто готов дать ему 6 недель на честный пилот. Если на эти вопросы пока нет ответа, с агентом лучше не начинать.