Exabit Logo

Интеграция ChatGPT и других AI-инструментов в бизнес-процессы без дорогого эксперимента

02 октября 2025 · 4 мин чтения ·
Интеграция ChatGPT и других AI-инструментов в бизнес-процессы без дорогого эксперимента
  • «Нам нужен AI-агент, который автоматизирует половину операционки».
  • «Какой процесс сейчас съедает больше всего времени?»
  • «Ну... в целом у нас везде много ручной работы».

Так обычно и начинаются слабые AI-проекты. Проблема редко в модели. Чаще бизнес хочет получить «умный слой поверх всего», хотя деньги лежат в одном конкретном процессе, где уже есть очередь, ручные шаги и понятная цена ошибки.

Слабое место почти всегда одно - выбран не тот процесс

Первый сценарий для AI должен быть скучным: много повторений, понятный вход, предсказуемый результат, метрика до и после. Если менеджеры сами делают задачу каждый по-своему, модель просто ускорит путаницу.

В прошлом году у нас был B2B SaaS-проект с запросом на «внутренний AI для всей компании». После аудита мы убрали эту идею и оставили только первую линию поддержки: Laravel 11, PostgreSQL 16, база знаний из Confluence, внешний API модели. За 5 недель получили снижение времени обработки тикета на 38%. Без отдельной платформы и долгой разработки «на вырост».

Обычно мы фильтруем сценарий по четырем критериям:

  • частота - сколько раз операция повторяется за неделю;
  • цена ошибки - что будет, если ответ неверный;
  • данные - есть ли история, шаблоны, база знаний;
  • скорость пилота - можно ли увидеть KPI за 4-8 недель.

CTO логистической платформы хорошо сформулировал это на созвоне: «Автономность никого не спасает, если входные данные грязные».

Деньги приходят от точки внедрения, а не от самой модели

Быстрее всего окупаются процессы, которые редко считают инновацией: поддержка, разбор лидов, поиск по знаниям, документы, письма. Эффект там виден сразу, потому что исчезают ручные копирования, переключения между окнами и лишние минуты на каждую операцию.

Если сотруднику нужно открыть еще одно окно, вставить туда текст и потом вручную перепроверить ответ, проект быстро теряет поддержку команды. Мы это видели не раз. AI должен жить там, где человек уже работает: в CRM, helpdesk, почте, мессенджере.

Для sales ops мы часто собираем связку API модели + CRM API + n8n или Make. Приходит лид, система разбирает запрос, ставит тип, заполняет карточку и собирает черновик ответа. Экономия выходит 10-20 минут на лид. При потоке 300 лидов в месяц это уже десятки часов.

Процесс Нужен человек Цена ошибки Что ставим первым
Поддержка 1-й линии Да Средняя AI-ассистент + helpdesk
Разбор лидов Да Средняя workflow + LLM
Поиск по базе знаний Да Низкая RAG
Счета и договоры Обязательно Высокая правила + проверка человеком

В большинстве случаев хватает workflow с LLM

Самый частый перегиб - строить автономного агента там, где задача решается жестким сценарием. Модель хорошо работает на языковых шагах: понять вопрос, собрать суть, предложить черновик, найти нужную статью. Действия в системах лучше держать под контролем.

Для внутренней документации мы обычно ставим RAG: поиск по знаниям, векторный индекс на pgvector, OpenSearch или Weaviate, потом ответ модели только по найденным фрагментам. Иначе начинаются убедительно неверные ответы. Они звучат уверенно, а потом ломают процесс.

У клиента из логистики мы вместо «умного агента» сделали Node.js 20 + NestJS, RAG по инструкциям и подтверждение оператором. Через 6 недель увидели, что 62% ответов уходят почти без правок. Этого уже хватило, чтобы пилот окупился.

получить тикет
-> найти релевантные инструкции
-> собрать черновик ответа
-> отправить оператору на подтверждение
-> записать итог в helpdesk

Пилот выглядит проще, чем думают

Нормальный запуск не требует полугода презентаций. Обычно хватает одной недели на аудит потока, еще одной - на права доступа, тестовые кейсы и подготовку источников. Потом идет 2 недели на прототип и 10-20% реального потока на пилоте.

Мы смотрим не на красоту демо. Считаем время обработки, первый ответ, стоимость операции, долю принятых подсказок, объем ручных правок. Если AI пишет гладко, а сотрудники берут два ответа из десяти, пользы в этом нет.

Хорошая тестовая выборка - это 50-100 реальных кейсов, а не придуманные примеры с презентации. На них быстро видно, где база знаний устарела, где права настроены криво, а где сам процесс еще не оформлен.

Что у нас не сработало и почему

Один раз мы сами пошли слишком широко. Делали «универсального помощника» для сервисной компании: ответы по внутренним материалам, помощь с письмами, поиск регламентов. Демо всем понравилось, но в реальной работе люди вернулись к Confluence и чатам.

Причина оказалась простой: документы индексировались нерегулярно, права доступа не были доведены, ответы не логировались. Через 3 недели стало видно, что больше 25% ответов требуют серьезной правки. Масштабировать такую схему было рано, и мы откатились к одному сценарию - поиску по актуальным инструкциям для поддержки.

Если вы хотите понять, нужен ли вам AI сейчас, откройте не каталог моделей, а таблицу потерь: сколько часов в месяц уходит на один повторяемый процесс, сколько стоит ошибка и кто готов дать ему 6 недель на честный пилот. Если на эти вопросы пока нет ответа, с агентом лучше не начинать.

Нужна помощь с реализацией?

Расскажите о задаче - предложим решение и дадим оценку сроков.