Ещё три года назад ИИ в ITSM представлялся как просто чат-бот на входе, который пытается угадать категорию тикета. Сегодня уже другой разговор: ведущие платформы встраивают AI не как надстройку над тикет-системой, а как архитектурный слой, который участвует в маршрутизации, предсказывает инциденты до их возникновения, автономно закрывает типовые обращения и генерирует постмортемы. Рынок уже видит пользу — по данным Forrester, компании, внедрившие предиктивные ITSM-практики, восстанавливаются после инцидентов вдвое быстрее тех, кто полагается на ручную обработку.
Есть хороший индикатор того, что что-то пошло не так: объём корпоративных данных, которые сотрудники вводят в неконтролируемые ИИ-инструменты, вырос на 485% за год. ITIL 5 назвал бы это низкой AI Maturity — когда организация технически использует ИИ, но не управляет им. Gartner предупреждает: к 2030 году 40% компаний столкнутся с нарушениями безопасности из-за неуправляемого применения ИИ.
Рынок ITSM на это отреагировал по-разному — теперь при выборе инструментов фокус может быть не на том, какие ИИ-фичи есть у вендора, а насколько эта AI-инфраструктура управляема.

Платформа или коробка: в чём разница
Прежде чем смотреть на архитектуры, стоит зафиксировать два понятия, потому что разница между ними и определяет, почему рынок вообще разделился.
ITIL 5 трактует так: GenAI генерирует текст, код, ответы — на основе паттернов из данных. Agentic AI действует автономно, выполняет задачи от имени пользователя, но в заданных границах и под надзором человека.
Сдвиг от «сгенерируй ответ» к «сделай действие в рамках ролевой модели» сформировал два архитектурных подхода. Они не лучше и не хуже друг друга, но закрывают разные потребности.
Платформенная AI-архитектура — это открытый слой для разработки собственных AI-сценариев. Кастомные агенты, подключение любых LLM, интеграция через API, управление политиками и лимитами, детальный аудит каждого ИИ-действия. Это инфраструктура, на которой строят, а не только используют готовое.
Коробочная AI-функциональность — ИИ встроен в продукт и работает из коробки. Обычно это автоматическая классификация, предложения ответов, виртуальный агент, суммаризация тикетов. Быстрый старт, предсказуемый результат, но, тем не менее, ограниченное пространство для кастомизации.
|
|
Платформа |
Коробка |
|
Кастомные агенты |
✓ |
Ограниченно или нет |
|
Выбор LLM |
Любой |
Закрытый или ограниченный |
|
Локальный контур |
Возможен |
Как правило, нет |
|
Скорость запуска |
Недели — месяцы |
2–4 недели |
|
Потолок масштабирования |
Высокий |
Ограничен роадмапом вендора |
Когда выбирать коробку: нужен быстрый результат, команда небольшая, типовых возможностей вендора достаточно для задач подразделения.
Когда нужна платформа: если ИИ должен масштабироваться на несколько подразделений с разными сценариями, есть требования к безопасности и аудиту, чувствительные данные, необходимость работы в закрытом контуре.
Тем не менее, многие вендоры занимают промежуточное положение: сочетают готовые AI-функции с платформенными возможностями разной глубины.
Мировые решения: кто что делает
ServiceNow
Платформенная AI-архитектура
ServiceNow — самая зрелая платформенная AI-архитектура на корпоративном рынке. Now Platform объединяет под одной крышей ITSM, HR, финансы, CRM и другие домены, так что AI-слой работает поверх всего сразу, без склейки разрозненных систем.
Из чего состоит этот слой:
-
Now Assist — готовые GenAI-навыки: суммаризация тикетов и чатов, генерация статей в базу знаний, написание кода, семантический поиск.
-
Generative AI Controller — шлюз к языковым моделям: поддерживает собственную NowLLM (обучена на данных ServiceNow), Azure OpenAI, Google Gemini, IBM WatsonX и любую стороннюю модель через Generic LLM Connector.
-
Now Assist Skill Kit позволяет собирать кастомные GenAI-навыки под конкретные процессы.
-
AI Agent Studio — среда для разработки собственных агентов на базе сторонних LLM. В начале 2026 года ServiceNow совместно с NVIDIA представили Apriel Nemotron 15B — собственную агентскую модель с низкой латентностью.
Но есть нюансы, о которых стоит знать до подписания договора. Now Assist не входит в базовую лицензию, нужен Pro Plus или Enterprise Plus, и каждое AI-действие сжигает лицензированную ёмкость. На момент подготовки материала ключевые AI-возможности ServiceNow ориентированы на облачный сценарий; полноценный on-premise для них не заявлен. Внедрение базовых ITSM-модулей занимает 8–12 недель, сложные проекты растягиваются до года. По данным Gartner Peer Insights, на сложность внедрения клиенты жалуются чаще всего.
Atlassian Jira Service Management + Rovo
Платформенная AI-архитектура, открытая экосистема
Atlassian делает ставку не только на AI внутри JSM, но и на отдельный AI-слой Rovo поверх всей экосистемы: Jira, Confluence, JSM вместе. В основе Rovo лежит Teamwork Graph — граф данных, который отслеживает больше 100 миллиардов объектов и связей из 100+ подключённых приложений: тикеты, страницы, сообщения, пользователи, цели, зависимости между ними. Это даёт агентам Rovo потенциально более богатый контекст, чем у систем, которые опираются только на точечные API-интеграции.
Rovo Studio даёт инструменты для создания кастомных агентов: своя база знаний, кастомные действия, подключение MCP-серверов сторонних инструментов. В феврале 2026 года запустилась открытая бета агентов прямо в Jira — им можно назначать задачи, упоминать в комментариях через @, встраивать в workflows. При этом агенты работают внутри существующих структур Jira и соблюдают все настройки проектов, права доступа, audit trails и approval flows.
Одновременно открылась Rovo MCP Gallery — каталог готовых коннекторов к Amplitude, Box, Canva, Figma, GitHub, New Relic и другим инструментам. Агенты через них не просто читают данные — около 50% MCP-операций у enterprise-клиентов это операции записи, то есть агенты реально что-то делают в сторонних системах. 93% использования MCP приходится на платные тиры.
Rovo включён без доплаты в Standard, Premium и Enterprise cloud-планы. Главное ограничение: чем меньше организация живёт в экосистеме Atlassian, тем слабее эффект. Контекст, который никогда не был зафиксирован в системе, агентам просто недоступен.
BMC Helix
Платформенная AI-архитектура + богатая коробочная функциональность
BMC Helix интересен тем, что сочетает два подхода: серьёзная платформенная архитектура плюс один из самых зрелых наборов готовых AI-агентов на рынке.
В основе — HelixGPT, GenAI-движок, который разворачивается on-premise или в облаке и работает с LLM-провайдером по выбору заказчика: OpenAI, Microsoft, Google — в рамках уже существующих лицензионных соглашений. Не нужно заключать новые контракты, не нужно привязываться к модели вендора.
В мае 2025 года вышел HelixGPT Agent Builder — no-code конструктор агентов для IT и бизнес-команд. Агенты организованы по ролям: change manager, asset manager, governance manager, и новые роли выходят каждые 2–3 недели. Из готового и интересного: Post Mortem Analyzer разбирает инциденты после устранения, Insight Finder позволяет строить дашборды через обычный текстовый запрос, Ops Swarmer организует совместную работу команд прямо из карточки инцидента в Microsoft Teams. Интеграция с BMC Helix AIOps добавляет предсказание инцидентов, ситуационную аналитику и анализ корневых причин.
В апреле 2025 года Forrester поставил BMC Helix наивысшие оценки по критериям Agentic AI, advisor и assistant в своём Wave по AIOps-платформам. Одна техническая особенность, которую стоит держать в голове: при обновлении платформы стандартные компоненты — skills, agents, tools — могут перезаписываться. Кастомизации нужно резервировать.
Freshservice (Freshworks)
Коробочная AI-функциональность
Это эталонный представитель коробочного подхода: купил, настроил, запустил.
Freddy AI встроен нативно и работает с первого дня без сложной конфигурации. Freddy AI Agent автономно закрывает типовые обращения — сброс паролей, выдача доступов — через Slack, Microsoft Teams и сервисный портал на 40+ языках. Freddy AI Copilot суммаризирует тикеты, предлагает готовые ответы, классифицирует обращения и генерирует статьи в базу знаний.
Главный аргумент в пользу Freshservice — time-to-value. Запуск занимает 2–4 недели, это, как правило, быстрее, чем у крупных ITSM-платформ. Трёхлетняя совокупная стоимость владения для команды из 50 агентов — $90 000–175 000 в зависимости от тира и подключённых надстроек.
Ограничения вытекают из той же природы. AI работает только с тем, что есть внутри Freshservice — корпоративные знания из внешних систем в контекст не попадают. Для кастомных AI-сценариев корпоративного масштаба платформа не предназначена. Продвинутые возможности Freddy AI доступны с тарифа Pro (~$85 за агента в месяц), часть функций идёт отдельными надстройками. И отдельный момент при подписании контракта: в условиях есть автоматическое продление с узкими окнами выхода.
Ivanti
Коробочный AI + платформенные возможности в развитии
Ivanti занимает на рынке уникальную нишу. Их платформа нативно объединяет три домена, которые у других вендоров существуют отдельно: ITSM, Autonomous Endpoint Management (AEM, Автономное управление конечными точками) и безопасность. AI получает данные из всех трёх слоёв одновременно.
В январе 2026 года Ivanti анонсировала Agentic AI для ITSM на базе Conversational AI Framework: persona-based агенты, которые автономно закрывают инциденты и запросы через естественный язык от начала до конца. Developer Hub предоставляет централизованный реестр публичных API по всему портфелю — основу для кастомных интеграций.
Главное, что стоит понимать про Ivanti прямо сейчас: Agentic AI ещё не в GA. Платформенный потенциал для кастомной разработки пока значительно уже, чем у ServiceNow или Atlassian. Это решение, которое интересно наблюдать в динамике — но выбирать сегодня стоит с пониманием, что часть обещанного ещё в роадмапе.
А что у нас
Честно: смотреть на ServiceNow и BMC Helix с российской пропиской — упражнение со смешанными чувствами. Всё это настолько же впечатляет, насколько недоступно нам в том виде, в котором существует — облачная инфраструктура, западные LLM, глобальные соглашения с OpenAI и Microsoft.
Но задачи никуда не делись. Классификация обращений, автономное закрытие типовых тикетов, RAG поверх корпоративной базы знаний, агенты которые действуют а не только отвечают — это нужно здесь и сейчас, внутри периметра, с данными, которые нельзя отправлять во внешние API.
Для SimpleOne ITSM коробочный подход означал бы жёсткую привязку к одной модели и невозможность адаптироваться по мере того как рынок LLM меняется, а он меняется быстро. Поэтому мы изначально выбрали платформенный подход, руководствуясь принципами ITIL 5 AI Governance: не просто дать кнопку «Сгенерировать ответ», а обеспечить контролируемую среду Безопасность здесь заложена на уровне архитектуры.
Что это означает:
-
Локальный контур (on-premise). Данные не покидают периметр компании, ИИ работает только с внутренними источниками — это закрывает именно тот риск неконтролируемой передачи чувствительной информации во внешние LLM.
-
Полный аудит действий. Каждый вызов модели логируется: промпт, ответ, потреблённые токены. В любой момент можно объяснить, почему агент принял то или иное решение — это закрывает требование ITIL 5 об accountability.
-
Гибкость без потери контроля (Нексусы). Нексус — абстракция над LLM: описываешь модель, параметры подключения, политики, лимиты — и дальше процессы работают с нексусом, а не с конкретной моделью напрямую. Хочешь переключиться с ChatGPT на YandexGPT или на локально развёрнутую модель внутри контура — меняешь нексус, процессы не переписываешь.
-
Готовые ИИ-инструменты: классификаторы обращений, ИИ-помощник на портале самообслуживания.
Поверх этого — стандартный для платформенного подхода набор: RAG-движок с векторизацией корпоративных данных, визуальный конструктор AI-процессов без программирования, агенты, которые планируют шаги самостоятельно и вызывают друг друга. RBAC с четырьмя уровнями доступа к AI-функциям и детальным логированием каждого шага.
Выводы
Рынок AI‑ready ITSM движется в одном направлении — от инструментов к инфраструктуре. Компании хотят не просто фичи, а управлять этим ИИ: контролировать доступ, аудировать решения, менять модели без переписывания процессов, разворачивать сценарии в закрытом контуре. Методология ITIL 5 даёт для этого каркас: зрелость ИИ измеряется не количеством чат‑ботов, а интеграции governance в каждый шаг жизненного цикла.
Смогут ли мировые и российские решения прийти к зрелости?
ссылка на оригинал статьи https://habr.com/ru/articles/1024216/