Когда обсуждают стоимость внедрения генеративного ИИ, разговор часто сводится к цене за токен или цене за арендуемый GPU. Это удобно — одно число. Но в реальном продакшене такая оценка почти всегда обманчива.
Стоимость GenAI-системы — это не только сколько стоит вызвать модель. Это инфраструктура, эксплуатация, безопасность, наблюдаемость, разработка, интеграции, поддержка пользователей и постоянные изменения вокруг моделей. Именно поэтому «мы поднимем open-source модель сами, будет дешевле» часто оказывается правдой только на первом слайде презентации.
Из чего складывается стоимость GenAI в продакшене
Типовая GenAI-система состоит не из одной модели. Даже если бизнес-задача звучит просто, например, сделать Q&A чат-бота по документам, внутри быстро появляются:
-
backend-сервис (API)
-
модель или несколько моделей
-
RAG: индексация документов, эмбеддинги, векторный поиск
-
хранилище документов
-
авторизация и права доступа
-
модерация и guardrails
-
трассировка запросов
-
мониторинг качества
-
логирование ошибок
-
рейт-лимиты, очереди и ретраи
-
CI/CD
-
регламент обновления моделей
-
поддержка пользователей и команд, которые интегрируются с этим сервисом
Пока всё работает в демо-режиме, это кажется избыточным. Но как только сервис начинает использоваться внутри компании, особенно в задачах с персональными данными, документами, юридическими текстами, финансами или внутренними знаниями, нужна архитектура и практики.
Цена за токен — заметный, но не единственный расход
Если использовать Yandex Cloud AI Studio, стоимость зависит от режима работы модели и количества токенов: входных, исходящих, кешированных и токенов инструментов. Это уже важная деталь: один и тот же пользовательский сценарий может стоить по-разному в зависимости от длины промпта, длины ответа, истории диалога и использования tools.
Например, в синхронном режиме YandexGPT Pro 5.1 стоит 0,8 ₽ за 1000 входящих токенов и 0,8 ₽ за 1000 исходящих токенов с НДС. YandexGPT Lite стоит 0,2 ₽ за 1000 входящих и 0,2 ₽ за 1000 исходящих токенов. DeepSeek V3.2 в AI Studio стоит 0,5 ₽ за 1000 входящих токенов и 0,8 ₽ за 1000 исходящих токенов.
Допустим, у нас есть внутренний ассистент, который обрабатывает 1 млн запросов в месяц. Средний запрос:
-
1000 входящих токенов
-
500 исходящих токенов
Тогда примерная стоимость генерации:
|
Модель |
Расчёт на 1 запрос |
1 млн запросов в месяц |
|
YandexGPT Lite |
0,2 ₽ + 0,1 ₽ |
300 000 ₽ |
|
YandexGPT Pro 5.1 |
0,8 ₽ + 0,4 ₽ |
1 200 000 ₽ |
|
DeepSeek V3.2 |
0,5 ₽ + 0,4 ₽ |
900 000 ₽ |
На этом этапе возникает соблазм сказать, что Lite дешевле Pro в 4 раза и нужно брать эту модель. Но если Lite отвечает хуже, чаще требует повторных запросов, хуже следует инструкциям, хуже работает с длинным контекстом или создаёт больше ошибок для пользователей, реальная стоимость может быть выше. Дешёвый токен может привести к дорогому бизнес-процессу.
Покупка GPU vs оплата за токены
Другой популярный подход — поднять open-source модель самостоятельно на своей инфраструктуре. Например, через vLLM, TGI или другой serving-стек.
В Yandex DataSphere конфигурация g2.8 с 8 GPU A100 стоит 4 401,83808 ₽ в час. При расчёте 720 часов в месяц это примерно:
4 401,84 ₽ × 720 ≈ 3 169 323 ₽ / месяц
Конфигурация g2.1 с 1 GPU A100 стоит 550,22976 ₽ в час, а g1.1 с 1 GPU V100 — 341,52192 ₽ в час. Цены DataSphere для региона Россия указаны с НДС.
На первый взгляд, 8×A100 за ~3,17 млн ₽/месяц может выглядеть конкурентно, если у вас большой объём трафика. Но это только compute. Дальше нужно добавить:
-
Kubernetes или другой runtime
-
хранилище для моделей и образов (container registry)
-
observability стек (наблюдаемость)
-
сетевую инфраструктуру
-
инженерную команду
а также процессы вокруг:
-
обновления моделей
-
тестирования качества
-
безопасности
-
работу с деградациями и инцидентами
DataSphere отдельно тарифицирует хранение моделей, Docker-образов, дисков, датасетов и других артефактов; например, хранение модели внутри DataSphere сверх бесплатных лимитов стоит 13,08 ₽ за 1 ГБ в месяц.
То есть self-hosting может быть дешевле на большом масштабе. Но он редко бывает дешевле сам по себе. Он становится выгодным, когда у компании уже есть сильная инфраструктурная команда, понятный объём нагрузки и реальная потребность контролировать serving, latency, безопасность и модельный стек.
Главный скрытый расход — ФОТ
В России стоимость инженерной команды ниже, чем в США, но она всё равно быстро становится одной из основных категорий расходов. По данным Dream Job, средняя зарплата ML Engineer в России в 2026 году — 185 000 ₽ на руки, типичный диапазон — 140 000—230 000 ₽, а в Москве среднее значение указано как 260 000 ₽. Другой обзор по рынку ML-инженеров указывает ориентиры по грейдам: Middle — около 160 000—200 000 ₽, Senior — 280 000—350 000 ₽, Lead — 360 000—450 000 ₽ в зависимости от региона и формата работы.
Но для продакшен GenAI вам обычно нужен не один ML Engineer. Минимальный состав может выглядеть так:
|
Роль |
Зачем нужна |
|
Backend Engineer |
API, бизнес-логика, интеграции |
|
ML / LLM Engineer |
выбор моделей, промпты, evals, качество |
|
Platform / DevOps Engineer |
Kubernetes, GPU, CI/CD, observability |
|
Security / InfoSec |
доступы, данные, аудит, compliance |
|
Product / Analyst |
сценарии, метрики, приоритизация |
Даже маленькая команда из 2—3 сильных инженеров может стоить компании заметно больше, чем API-вызовы модели. Особенно если считать не только зарплату на руки, а полную стоимость сотрудника: налоги, оборудование, менеджмент, найм, отпуска, простои, коммуникации и стоимость ошибок.
Именно здесь часто ломается наивная математика: API стоит 1 млн ₽ в месяц, а self-hosting на GPU — 3 млн ₽. Значит API дешевле.
Или наоборот: GPU стоит 3 млн ₽ в месяц, а API при нашем объёме стоит 5 млн ₽. Значит self-hosting дешевле.
Обе оценки неполные. Нужно считать людей, эксплуатацию, риски и качество.
Доступ к LLM через API vs self-hosting
Упрощённо выбор выглядит так.
Доступ к LLM через API
Выгоднее если вы только запускаете продукт, нагрузка непредсказуема, команда маленькая, а главная задача — быстро проверить гипотезу. В этом случае YandexGPT, DeepSeek или другие модели через API позволяют не строить всю инфраструктуру с нуля.
Плюсы:
-
быстрый старт
-
не нужно управлять GPU
-
проще масштабироваться на раннем этапе
-
меньше эксплуатационной нагрузки
-
проще считать стоимость на уровне токенов
Минусы:
-
зависимость от провайдера
-
ограничения по моделям и настройкам
-
меньше контроля над latency (временем отклика)
-
сложнее оптимизировать serving под свой сценарии и тип нагрузки
-
возможные ограничения по данным и комплаенсу
Self-hosting моделей
Выгоднее если у вас большой и стабильный объём запросов, есть инфраструктурная команда, нужны строгие требования по данным, есть желание контролировать модели, serving-стек, batching, маршрутизацию и стоимость на большом масштабе.
Плюсы:
-
больше контроля
-
можно оптимизировать serving
-
можно выбирать open-source модели
-
можно строить собственный роутинг и механизмы кэширования
-
потенциально ниже стоимость за токен на большом объёме
Минусы:
-
высокая сложность
-
нужен опыт с GPU-инфраструктурой
-
нужны SRE-практики
-
нужно самим решать инциденты
-
нужно самим обновлять модели
-
нужно самим строить evals и release gates
Скрытые расходы, о которых забывают
Наблюдаемость
Для обычного backend-сервиса достаточно latency, error rate, throughput и логов. Для LLM-системы этого мало.
Нужно понимать:
-
сколько токенов потребляется
-
какие промпты дают плохие ответы
-
где растёт latency
-
где модель галлюцинирует
-
какие пользователи повторяют запросы
-
какие инструменты вызываются
-
какие документы попадают в контекст
-
как меняется качество после обновления модели
Без этого система становится чёрным ящиком: деньги тратятся, пользователи жалуются, а команда не понимает, где проблема.
Обновление моделей
Модель — это не статичная библиотека. Провайдеры обновляют версии, меняют поведение, добавляют новые режимы, снимают старые версии с поддержки.
Каждое обновление требует:
-
регрессионного тестования
-
сравнения качества
-
проверки промптов
-
проверки latency
-
проверки стоимости
-
коммуникации с пользователями
-
rollback-плана
Если этого нет, можно обновить модель и сломать upstream-команды.
Безопасность
В корпоративном контексте вопрос не только в том, где дешевле токен.
Нужно отвечать на вопросы:
-
какие данные уходят в модель
-
логируются ли запросы
-
где хранятся трейсы запросов
-
можно ли отправлять персональные данные
-
как работает маскирование PII и других данных
-
кто имеет доступ к истории запросов
-
можно ли использовать внешние tools
-
как аудитить действия агента
Это не бесплатная часть системы. Её кто-то должен проектировать, внедрять и поддерживать.
Качество
Стоимость плохого ответа может быть выше стоимости токенов.
Например, если модель помогает бухгалтерии, юристам, поддержке или инженерам, ошибка может привести к:
-
потере времени
-
неправильному решению
-
ручной перепроверке
-
недоверию пользователей
-
отказу от продукта
-
инциденту безопасности
Поэтому более дорогая модель иногда дешевле в реальности, если она снижает количество ошибок и повторных запросов.
Как посчитать полную стоимость GenAI-системы
Хорошая формула выглядит не так:
TCO = цена токенов
где TCO — это Total Cost of Ownership, т. е. полная стоимость владения.
А примерно так:
TCO = стоимость inference+ стоимость инфраструктуры+ стоимость хранения+ стоимость сети+ стоимость разработки+ стоимость эксплуатации+ стоимость observability+ стоимость безопасности+ стоимость обновления моделей+ стоимость ошибок
Для managed API основная переменная часть — токены. Для self-hosting — GPU, инфраструктура и команда.
Практический подход:
-
Посчитать ожидаемый объём запросов.
-
Разделить входные и исходящие токены.
-
Посчитать стоимость для 2—3 моделей.
-
Добавить RAG: embeddings, хранилища, поиск.
-
Добавить observability и логи.
-
Оценить стоимость команды.
-
Оценить стоимость поддержки и инцидентов.
-
Сравнить API и self-hosting не на демо, а на горизонте 6—12 месяцев.
Пример: внутренний AI-ассистент
Допустим, компания хочет сделать внутреннего ассистента для сотрудников.
Параметры:
-
1 000 активных пользователей
-
30 запросов на пользователя в месяц
-
30 000 запросов в месяц
-
1 500 входящих токенов
-
700 исходящих токенов
Для YandexGPT Pro 5.1:
Вход: 1500 / 1000 × 0,8 ₽ = 1,2 ₽Выход: 700 / 1000 × 0,8 ₽ = 0,56 ₽Итого: 1,76 ₽ за запрос30 000 × 1,76 ₽ = 52 800 ₽ / месяц
Для YandexGPT Lite:
Вход: 1500 / 1000 × 0,2 ₽ = 0,3 ₽Выход: 700 / 1000 × 0,2 ₽ = 0,14 ₽Итого: 0,44 ₽ за запрос30 000 × 0,44 ₽ = 13 200 ₽ / месяц
На таком масштабе стоимость токенов почти наверняка не будет главным расходом. Главным расходом будет разработка, интеграция, поддержка, безопасность и внедрение в бизнес-процессы.
Но если это уже не 30 000, а 3—10 млн запросов в месяц, математика меняется. Тогда имеет смысл отдельно смотреть на кэширование, роутинг запросов, batch-режимы, более дешёвые модели для простых задач и self-hosting.
Вывод
Главная ошибка при оценке GenAI систем — сравнивать только цену токена или часа за аренду GPU.
Для прототипа это нормально. Для продакшена — нет.
Managed API может быть дороже на единицу inference, но дешевле по TCO (полной стоимости владения), если экономит месяцы разработки и эксплуатации. Self-hosted open-source модель может быть дешевле на большом объёме, но только если у вас есть команда, инфраструктура и зрелые процессы.
Правильный вопрос звучит не так:
Какая модель дешевле?
А так:
Какая архитектура даёт нужное качество, время отклика, безопасность и управляемость при минимальной полной стоимости владения?
И почти всегда ответ зависит не от одной цены в прайсе, а от масштаба, команды и зрелости компании.
ссылка на оригинал статьи https://habr.com/ru/articles/1030524/