Внедрение ИИ без боли: с чего начать и что мерить
Разберем прикладной подход к внедрению ИИ в бизнесе: выбор модели (API против open-source/on-prem), архитектуру развертывания (облако, локально, гибрид), требования к инфраструктуре и безопасности данных, инструменты быстрого старта и практические кейсы с измеримым ROI. Диалог с Андреем Киселёвым, генеральным директором ИТ-ГРАД, сфокусирован на решениях, которые можно запустить в короткие сроки и поддерживать в промышленной эксплуатации.
В первой части — быстрый старт ИИ в компании: с чего начинать, как мерить эффект, когда выбирать проприетарные LLM против open-source, и почему RAG сейчас даёт самый быстрый и понятный результат.

Фото Катерина Малама
С чего начинать внедрение ИИ в компании: аудит данных, быстрый пилот или сразу продукт?
Мой совет, выстраданный на практике: начинать нужно с быстрого пилота на узкой, но болезненной задаче, и только после аудита данных.
Многие ошибочно начинают с глобального аудита всех данных в компании. Это долгий, дорогой и от этого демотивирующий процесс. Гораздо эффективнее проводить аудит под задачу. То есть понять, какие данные и в каком состоянии нужны для решения конкретной гипотезы.
Например, для чат-бота вам нужны логи чатов, база знаний и история обращений. Не нужно смотреть на данные бухгалтерии или отдела кадров. Проверьте только эти данные на доступность, качество и структурированность.
Такой аудит займет несколько дней и сразу даст понять, реализуема ли ваша гипотеза в принципе.
Как измерять успех, на какие бизнес-метрики, помимо техпоказателей, опираться?
Вы правильно упоминаете бизнес-метрики вместе с техническими показателями. Фатальная ошибка — отслеживать только технометрики. Это, например, точность — доля правильных ответов модели от общего числа всех данных, задержка — время, которое проходит между отправкой запроса к модели и получением ответа. Ну и много других технических показателей существует — важных, но вторичных по отношению к бизнес-метрикам.
Вторичны они потому, что могут расходиться с финансовой эффективностью для бизнеса. Точность модели может быть 95%, но при этом она не приносит денег компании и не экономит их. Ну и такая модель, конечно, оказывается бесполезной с точки зрения бизнеса.
Изначально рекомендую отслеживать четыре показателя.
Первый, это эффективность против затрат. То, насколько ИИ улучшает ваши ключевые бизнес-показатели. Допустим, живой оператор тратил на типичный запрос 10 минут. ИИ-ассистент, предлагая готовые ответы или автоматизируя запрос полностью, снижает это время до 4 минут. Эффективность — 6 сэкономленных минут на запросе.
Второе, это влияние на выручку. Считать можно через конверсию в покупку из чата с ИИ-ассистентом против обычного чата. Или через средний чек у клиентов, которые пользовались персональными рекомендациями от ИИ.
Далее смотрите на удовлетворенность клиентов после внедрения ИИ-решения. Следите за отзывами и комментариями, а также проводите опросы, в том числе и среди сотрудников компании, а не только ваших клиентов. Потому что новые сервисы также могут влиять и на их удовлетворенность от своей работы.
Также отслеживайте скорость обработки пиковых нагрузок, например во время акций.
Когда выбирать проприетарные LLM (через API), а когда open-source (Llama/Mistral/Qwen) с дообучением?
Нет одного ответа на этот вопрос. Такое стратегическое решение принимается исходя из конкретных бизнес-требований. У каждого подхода своя зона ответственности.
Выбирать проприетарные LLM стоит, если ключевым критерием для вас является операционная простота и отсутствие скрытых эксплуатационных затрат.

Фото Катерина Малама
Например, для максимально быстрого запуска. Когда приоритет — доказать ценность гипотезы за несколько недель, API предоставляет готовое, работающее решение. Не нужно подбирать инфраструктуру или нанимать узкопрофильных специалистов для развертывания моделей.
Другой случай, когда нужен доступ к передовой функциональности. Часто проприетарные модели демонстрируют более высокие результаты в задачах, требующих глубокого понимания контекста или сложных рассуждений.
Еще проприетарные LLM стоит выбирать при работе с нерегулярной или плохо прогнозируемой нагрузкой. Модель оплаты по факту использования идеально подходит для пилотных проектов или сервисов с резкими колебаниями трафика. Так избегаются затраты на неиспользуемые мощности.
Open-Source модели с дообучением прежде всего становятся оптимальным выбором для решения узкоспециализированных задач. Например, необходимо адаптировать модель, когда бизнес-процессы требуют работы с уникальной терминологией — юридической, медицинской, технической. Дообучение на внутренних данных создает экспертную модель в предметной области, чего нельзя достичь с помощью API проприетарных моделей.
В регулируемых отраслях, таких как финансы или здравоохранение, данные часто не могут покидать периметр компании. Локальное развертывание — единственно возможный вариант, который обеспечивает полный контроль. Кроме этого, при стабильно высоких объемах запросов единовременные инвестиции в инфраструктуру и дообучение оказываются экономически выгоднее, чем постоянные платежи за использование API.
На практике наиболее эффективной часто оказывается гибридная стратегия. Начните с использования проприетарных моделей для тестирования гипотез и быстрого старта. Как только проект демонстрирует устойчивую ценность и рост объемов, постепенно интегрируйте собственные дообученные модели для рутинных операций. Этот подход позволит балансировать между скоростью, контролем и общей стоимостью владения.
Что быстрее/надёжнее для бизнеса сегодня: RAG на внутренних данных или тонкая настройка модели?
Для большинства бизнес-задач, где нужно быстро получить измеримый результат, RAG сегодня является бесспорным лидером по скорости и надежности. Этот подход позволяет не трогать саму архитектуру модели. Вы просто подключаете ее к своим данным. Это дает три ключевых преимущества.
Во-первых, скорость. Рабочий прототип, который уже приносит пользу, можно развернуть буквально за несколько недель. Это вопрос инженерии, а не машинного обучения — настроить векторную базу и поиск.
Во-вторых, прозрачность. RAG всегда показывает, откуда он взял информацию. Если в ответе есть неточность, можно мгновенно найти исходный документ и исправить его. С кастомизированной моделью это невозможно — она просто «знает» это, и мы не можем заглянуть в ее «мозг», чтобы понять источник ошибки.
В-третьих, актуальность. Чтобы обновить знания системы, не нужно ее переучивать. Просто добавляются новые документы в базу — и на следующий день модель уже работает с самой свежей информацией.
Но в некоторых задачах без тонкой настройки не обойтись. Например, когда нужно не просто найти факты, а изменить сам стиль мышления модели. Это уже глубокая кастомизация. Процесс требует времени, качественных данных для обучения и серьезных вычислительных мощностей. Но это инвестиция, которая создает по-настоящему уникальное конкурентное преимущество.
И все-таки я рекомендую всегда начинать с RAG. Это инструмент для быстрого доказательства ценности и закрытия большинства потребностей. А когда вы упретесь в его ограничения — тогда подключайте тонкую настройку.