Запустили Inference-платформу для сокращения time-to-market AI-продуктов

от автора

Inference-платформа — это новое решение в линейке ML-продуктов Selectel. Оно позволяет превратить обученную ML-модель в готовый API для эксплуатации в продуктивной среде. Мы настроим платформу под вас, заниматься сложной настройкой и разработкой не придется.

Платформа дополняет решения Selectel для AI-задач: выделенные и облачные серверы, в том числе с GPU, преднастроенные виртуальные машины для Data Science и анализа данных, Managed Kubernetes с GPU и ML-платформу.

Что это меняет


Главная задача Inference-платформы — сократить time-to-market AI-продуктов. Кроме этого, решение упростит деплой, масштабирование и обновление версий ML-моделей. Для запуска не нужен опыт в настройке сложной инфраструктуры. С решением Selectel компании смогут не только улучшить свои текущие проекты в области машинного обучения, но и эффективнее реагировать на вызовы рынка, получая доступ к производительной и гибкой инфраструктуре.

«Selectel помог множеству компаний построить инфраструктуру для решения AI- и ML-задач. Накопленная за последние годы экспертиза способствует развитию существующих продуктов и запуску новых. В прошлом году линейка наших решений пополнилась кастомизируемой ML-платформой для обучения моделей. Клиентский опыт ее использования позволил лучше понять актуальные ожидания от платформенных ML-продуктов.

Зрелость российского ‎рынка AI увеличивается, появляется большое количество готовых ML-моделей. Они не требуют значительных ресурсов на доработку под специфику конкретной клиентской задачи. Следовательно, больше компаний включают ML-сервисы в свой IT-ландшафт. Мы стремимся обеспечить нашим клиентам широкий выбор эффективных решений, которые позволят применять ML-модели даже без опыта. Запуск Inference-платформы является логичным шагом в этом направлении», — Антон Чунаев, менеджер ML-продуктов Selectel.

Кому подойдет решение


Inference-платформа актуальна для компаний, которые используют в своей работе ML-модели. Например, применяют голосовых роботов для автоматизации работы колл-центров, чат-ботов для консультаций сотрудников и клиентов, нейросети — для распознавания изображений и так далее. Продукт подойдет в том числе при работе с ML-моделями собственной разработки.

Как работает Inference-платформа


Мы стремились создать продукт, который избавит пользователя от необходимости выполнять сложные или рутинные операции. Например, поддерживать множество однотипных реализаций инференс-сервисов, переписывать их для повышения производительности и так далее.

Достаточно загрузить файл обученной ML-модели в объектное хранилище Selectel и указать адрес S3-бакета в манифесте создаваемого инференс-сервиса. Далее платформа все сделает сама: задеплоит модель в виде эндпоинта и отправит ссылку на него для использования в ваших сервисах.

Благодаря сценарию Canary Deployment можно обновить версию ML-модели без остановки сервиса. Кроме того, Inference-платформа работает на GPU-кластерах Managed Kubernetes Selectel и поддерживает автоскейлинг: самостоятельно добавляет вычислительные ресурсы при необходимости. Это полезно, если нагрузка на вашу модель переменная — например, пользователей становится кратно больше в «черную пятницу».

Как подключить


Чтобы развернуть Inference-платформу, оставьте заявку на бесплатный двухнедельный тест. Мы поможем с настройкой платформы, обеспечим инфраструктуру и техподдержку.


ссылка на оригинал статьи https://habr.com/ru/articles/849478/


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *