
DeepSeek резко удешевила один из самых чувствительных элементов API — кэш. Теперь повторные запросы (cache hits) стоят всего 10% от прежней цены по всей линейке моделей.
Что это значит на практике?
Любой повторно используемый контекст:
1) Системные промпты
2) Инструкции агентов
3) История диалога
4) Длинные документы в RAG
Теперь обходится почти бесплатно. Раньше именно это съедало бюджет при работе с LLM, особенно в сложных пайплайнах.
Почему это важно? Для агентных систем и RAG-подходов это фактически смена правил игры. Вы можете держать большой контекст без постоянного страха за стоимость.
DeepSeek делает ставку на то, что будущее за длинными контекстами и многошаговыми агентами, где повторное использование данных — норма, а не исключение.
Дополнительный бонус — скидка до 75% на V4-Pro всё ещё действует. В связке с дешёвым кэшем это даёт одну из самых агрессивных ценовых моделей на рынке!
Спасибо за прочтение! А что думаете по этому поводу вы?
ссылка на оригинал статьи https://habr.com/ru/articles/1028404/