Контроль вместо экспериментов: собрали платформу для управления LLM в бизнесе

от автора

Мы запустили red_mad_router — платформу для компаний, у которых LLM уже работают в продуктах, внутренних ассистентах и клиентских сервисах. Она помогает подключать разные модели в одном контуре, управлять доступами, контролировать расходы и задавать правила безопасности для локальных и облачных LLM.

Зачем всё это?

Когда модели используются в нескольких сервисах, вокруг них быстро появляется инфраструктурная обвязка: ключи, лимиты, провайдеры, маршруты запросов, требования к данным, отчёты по потреблению. Если настраивать всё это по отдельности для каждого сценария, поддерживать единые правила становится сложнее.

В red_mad_router мы собираем всё это в одном контуре:

  • подключение новых моделей и провайдеров через совместимый со стандартом OpenAI API за 17 строк кода;

  • управление доступами для команд и сотрудников;

  • лимиты и квоты на уровне команд и отдельных ключей;

  • мониторинг потребления токенов и распределения нагрузки по моделям;

  • политики безопасности для локальных и облачных LLM.

Общий контур подключения

Платформа разворачивается в корпоративном контуре и подключается к существующей инфраструктуре, поэтому правила работы с моделями и чувствительными данными не выносятся в разрозненные внешние инструменты.

Единый API поддерживает работу с облачными LLM-провайдерами и open source-моделями, развёрнутыми локально. Для команд это выглядит как единая точка доступа: модели можно подключать, менять и комбинировать без отдельной логики под каждого провайдера.

Доступы и правила для команд

Ключи, роли и ограничения настраиваются централизованно. Можно задавать разные правила для команд и отдельных ключей:

  • кому какие модели доступны;

  • какие лимиты действуют;

  • какие требования применяются к данным.

Например, разработке можно открыть широкий набор моделей для тестирования, а продуктовому контуру оставить только согласованный стек и заданные бюджетные лимиты.

Контроль данных и безопасности

За безопасность в продукте отвечает наш собственный модуль Guardrails. Он фильтрует персональные данные до отправки запроса в модель, ограничивает нежелательные ответы и позволяет задавать разные политики для LLM.

Дополнительно предусмотрены логирование запросов и действий пользователей, а также разграничение прав доступа.

Устойчивая работа под нагрузкой

Для рабочих сценариев добавили механизм fallback. Если одна модель не отвечает, запрос автоматически уходит в резервную.

Механизм нужен для балансировки нагрузки: можно заранее задать несколько LLM и распределять между ними запросы с учётом доступности и ресурсов.

Прозрачное потребление

В red_mad_router видно, какие команды, ключи и модели создают основную нагрузку. Можно отслеживать потребление токенов, задавать лимиты и квоты, смотреть распределение расходов и настраивать алерты.

Мы собрали red_mad_router для команд, у которых LLM уже встроены в продукты и внутренние сервисы. Когда управление моделями остаётся разрозненным, растут затраты на администрирование, сложнее контролировать расходы и выше риск некорректной работы с корпоративными данными.


Это блог red_mad_robot. Мы запускаем цифровые бизнесы и помогаем компаниям внедрять ИИ. Здесь наша команда разработки на собственных кейсах рассказывает о том, что происходит с ИИ сегодня, а стратегические аналитики подсказывают, что будет завтра. Мы бы подписались.

Наш Telegram-канал: t.me/redmadnews

ссылка на оригинал статьи https://habr.com/ru/articles/1030198/