Что не так с вакансиями LLM Engineer

от автора

В 2026 году вакансий, связанных с ИИ, большими языковыми моделями и агентами, стало заметно больше и в России, и за ее пределами. Технологические компании, банки и даже обычный enterprise поняли, куда движется индустрия, и начали срочно внедрять ИИ в продукты и внутренние процессы.

Если открыть hh.ru, LinkedIn или Telegram-каналы с вакансиями, легко увидеть набор ролей, которые постоянно пересекаются по описанию и требованиям:

  • LLM Engineer

  • ML Engineer

  • AI Engineer

  • AI Architect

  • иногда еще что-то вроде «AI Automation Engineer»

Особенно часто встречается вакансия LLM Engineer. И вот тут начинается путаница.

Например, в одной вакансии Senior LLM Engineer требуют:

  • 2+ года коммерческой разработки на Python

  • практический опыт с LangChain, LlamaIndex, prompt engineering, RAG

  • подтвержденный опыт разработки и внедрения AI-решений

Смотришь другую вакансию — уже Team Lead LLM Engineer. А там:

  • создание и развитие RAG-систем, включая Agentic RAG

  • observability для агентов

  • сервисы обработки документов

  • организация разметки данных

  • дообучение мультимодальных моделей

  • LLM-as-a-Judge и quality pipelines

  • вывод моделей и сервисов в production

Проблема в том, что под одним и тем же названием компании часто описывают совершенно разные роли.

Где-то под LLM Engineer реально подразумевается человек, который работает с моделями как с объектом исследования и улучшения: оценка (evals), промптинг, fine-tuning, data curation, quality loops, иногда даже инференс и serving.

А где-то под тем же названием ищут обычного сильного прикладного инженера, который должен собирать AI-функции в продукте: RAG, агенты, интеграции, пайплайны, наблюдаемость (observability), безопасность, продакшен-уровень.

А иногда компания просто ищет единорога, который одновременно умеет:

  • тренировать и дообучать модели

  • строить RAG и агентные системы

  • делать evals

  • поднимать production-инфраструктуру

  • выстраивать MLOps

  • а в идеале еще и оптимизировать инференс

Естественно, когда бэкенд- или фуллстэк-разработчик, который хочет перейти в прикладной ИИ (applied AI), читает такую вакансию, у него быстро появляется мысль: «я вообще не подхожу».

И это часто ложное ощущение.

Где проходит граница

Проблема рынка в том, что названия ролей пока не устоялись. Но на практике полезно различать хотя бы два типа задач.

LLM Engineer

Это роль ближе к работе с самими моделями и качеством их поведения.

Обычно сюда попадает:

  • выбор и сравнение моделей

  • построение evals (оценки)

  • prompt engineering как системная дисциплина, а не просто подбор промптов

  • эксперименты с quality loops

  • работа с fine-tuning или post-training

  • участие в проектировании AI-архитектуры на уровне поведения модели и ее качества

Для такой роли действительно полезны:

  • хороший кругозор в NLP и LLM

  • понимание того, как устроены современные модели

  • умение читать статьи, документацию и разбирать бенчмарки

  • привычка много экспериментировать и валидировать гипотезы

AI Engineer / Applied AI Engineer

Это прикладная разработка: создание ценности для продукта с помощью уже существующих моделей и инструментов.

Обычно сюда относится:

  • AI-функции внутри продукта

  • tool calling

  • RAG

  • агенты и их оркестрация

  • интеграции с внешними системами

  • оценка (eval) и наблюдаемость (observability) на уровне приложения

  • надежный продакшен-код вокруг моделей

Здесь важнее другое:

  • умение строить сервисы

  • понимать ограничения LLM и не ломать продукт об эти ограничения

  • уметь отлаживать качество: проблема в данных, retrieval, prompt, tool use или модели

  • уметь доводить систему до продакшена, а не просто собирать демо

И вот здесь важный тезис: во многих вакансиях под названием LLM Engineer на самом деле ищут именно AI Engineer. То есть разработчика с сильной бэкенд- или фуллстэк-базой, который умеет применять LLM в реальных системах.

Как могут выглядеть вменяемые требования к AI Engineer

Например, так:

  • уверенное владение Python или TypeScript

  • умение писать чистый код, тесты и поддерживаемые сервисы

  • базовое понимание LLM: токены, контекст, temperature, top-p, ограничения по длине контекста

  • опыт промптинга моделей: шаблоны, few-shot, structured output, tool/function calling

  • опыт разработки RAG-систем и работы с векторными хранилищами

  • опыт интеграции LLM в сервисы

  • понимание Docker и контейнеризации

  • навыки диагностики качества и производительности AI-сервисов

  • базовое понимание безопасности и ограничений при работе с LLM

Как видно, тут нет обязательного требования знать Transformer на уровне LLM-инженера/исследователя, заниматься fine-tuning, строить MLOps-платформу или разбираться в CUDA.

И это нормально.

Что с этим делать

У меня здесь два простых совета.

Рекрутерам и нанимающим менеджерам

Если вам нужен прикладной инженер, который будет встраивать ИИ в продукт, так и пишите.

Не называйте вакансию LLM Engineer только потому, что это звучит модно. Чем точнее вы обозначите границы роли, тем лучше будет воронка:

  • меньше нерелевантных откликов

  • меньше самоотсечения хороших кандидатов

  • выше шанс быстрее закрыть позицию

Не стоит искать единорога там, где на самом деле нужен сильный инженер-разработчик с хорошим продуктовым и системным мышлением.

Разработчикам, которые хотят перейти в Applied AI

Не отбрасывайте вакансию только потому, что в ней в одну кучу свалены RAG, агенты, evals, дообучение, observability и MLOps.

Очень часто это просто плохо написанное описание, а не реальный список того, чем вы будете заниматься каждый день.

Поэтому:

  • уточняйте на первом же созвоне, что реально входит в зону ответственности

  • показывайте пет-проекты и рабочие кейсы

  • рассказывайте не только про «я пробовал ChatGPT», а про реальные инженерные задачи

  • не думайте, что без опыта в ML/LLM вам закрыт путь в ИИ разработку

Для входа в прикладной ИИ (applied AI) не обязательно быть исследователем. Во многих случаях достаточно хорошей инженерной базы и нормального понимания того, как LLM ведут себя в реальных системах.

Рынок еще долго будет путаться в названиях. Но это не значит, что в него нельзя зайти.


P.S. Про разработку в эпоху ИИ, агентов и LLM 👉🏻 тут

ссылка на оригинал статьи https://habr.com/ru/articles/1030534/