Как сократить расходы на инференс LLM? Разберемся на вебинаре

от автора

Привет, Хабр! Присоединяйтесь к вебинару 22 августа в 16:00 мск. Особенно ждем ML- и MLOps-инженеров, Data Scientists и NLP-инженеров, CTO и менеджеров ML-проектов.

Поделимся опытом команды «Актион», которая сократила расходы на GPU на 60% и увеличила пропускную способность в 36 раз благодаря решению Compressa на инфраструктуре Selectel. 

Участникам дадим бесплатный двухнедельный тест LLM-платформы Compressa на инфраструктуре Selectel с GPU.

Зарегистрироваться →

Программа

  • Проблемы внешних API и open-source моделей «из коробки»

  • Способы оптимизации LLM-моделей на своем сервере

  • Сравнение производительности и стоимости токенов после оптимизации LLM

  • Инфраструктура Selectel для инференса LLM моделей

  • Кейс «Актион» и Compressa. Оценка окупаемости решения и использование LLM в продакшене

  • Ответы на вопросы

Спикеры

  • Владислав Кирпинский, директор по облачной интеграции, Selectel

  • Алексей Гончаров, CEO и founder, MIL Team

  • Валентин Шишков, ML Product Manager, MIL Team

  • Владимир Хаванских, Chief Data Scientist, Актион

Принять участие →


ссылка на оригинал статьи https://habr.com/ru/articles/836224/


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *