Не тот мудр, кто знает всё, а тот, кто знает, кого спросить.
Немного введения
В настоящее время тема искусственного интеллекта (AI) перестала быть уделом исследователей и энтузиастов — она ворвалась в повседневную работу инженеров, аналитиков, менеджеров и, по сути, всех, кто хоть как‑то взаимодействует с текстом, кодом или данными.
Тем не менее я регулярно сталкиваюсь с ситуацией, когда коллеги либо вообще не используют AI‑ассистентов, либо используют их на уровне «задай вопрос — получи ответ», не понимая, за что они платят, какие модели бывают и как из всего этого извлечь реальную пользу. В рамках данной статьи я постараюсь дать понятный обзор текущего ландшафта AI‑ассистентов: что это такое, какие бывают, сколько стоят, как с ними работать и что такое загадочные «промты» и «MCP‑серверы». Статья рассчитана на тех, кто хочет разобраться в теме, но не знает, с чего начать. Я не буду углубляться в математику нейронных сетей и вместо этого сфокусируюсь на практической стороне вопроса.
Что такое AI‑ассистент и зачем он нужен
Когда я говорю «AI» в контексте этой статьи, я имею в виду большие языковые модели (Large Language Models, LLM) — это программы, которые обучены на огромных объёмах текстовых данных и способны генерировать осмысленный текст, код, анализировать документы и решать разнообразные задачи. Если совсем просто: представьте себе очень начитанного собеседника, который прочитал практически весь интернет, научные статьи, книги и документацию. Вы задаёте ему вопрос — он отвечает. Причём отвечает не просто копируя текст откуда‑то, а формулируя ответ «своими словами», основываясь на усвоённых закономерностях языка. На практике AI‑ассистенты помогают с такими задачами:
-
написание и редактирование текстов (от писем до технической документации)
-
генерация и отладка кода на любом языке программирования
-
анализ документов, таблиц, логов
-
перевод текстов с учётом контекста
-
генерация изображений по текстовому описанию
-
исследование и поиск информации
-
мозговой штурм и генерация идей
Стоит отметить, что AI не является заменой специалиста — это инструмент, который значительно ускоряет работу. Я бы сравнил это с появлением IDE после блокнота: писать код можно и в блокноте, но зачем, если есть инструменты, которые делают это эффективнее?
Я не буду вдаваться в частные случаи использования AI, ведь таких вариантов большое множество, начиная с помощью твоей личной бухгалтерией, заканчивания сложными исследовательскими задачами в различных сферах деятельности: медицина, военное дело и другое.
Немного техники взаиомодействия с AI
А как вообще происходит?
Давайте я попробую объяснить, максимально просто. Представьте себе очень умного попугая, который прочитал всю библиотеку в мире. Вы ему говорите фразу, а он, основываясь на всём, что прочитал, подбирает наиболее подходящее следующее слово. Потом ещё одно. И ещё. Слово за словом — так и складывается ответ. Технически это работает так: вы пишете текст, программа разбивает его на кусочки (токены — это примерно слоги или короткие слова), превращает их в числа и прогоняет через огромную математическую модель — нейронную сеть. Эта сеть по сути является гигантской таблицей вероятностей: для каждого набора входных токенов она предсказывает, какой токен должен идти следующим. Модель не «думает» в привычном нам смысле и не «понимает» текст так, как понимаем его мы — она очень хорошо предсказывает, какой текст был бы уместен в ответ на ваш запрос, потому что видела миллиарды похожих текстов при обучении. Но результат настолько хорош, что разница на практике часто незаметна. Когда вы общаетесь с ChatGPT или Claude, вы по сути кидаете числа в огромный калькулятор, а обратно получаете другие числа, которые программа превращает обратно в текст. Вот и вся магия.
Существуют различные способы взаимодействия с LLM.
Локальная LLM
Когда я запускаю модель локально, например через Ollama, происходит следующее: я скачиваю файл с весами модели (это, по сути, «мозг» — набор числовых параметров, на которых модель обучена) себе на диск. При запуске Ollama загружает эти веса в видеопамять моей видеокарты (или в оперативную память, если GPU нет, но тогда всё будет работать значительно медленнее). Когда я пишу промт, мой текст превращается в токены — числовые коды, которые модель понимает — и прогоняется через нейронную сеть прямо на моём железе. Ответ генерируется токен за токеном, и весь этот процесс не выходит за пределы моего компьютера. Никакого интернета, никаких серверов, никакой оплаты. Но есть нюанс: качество ответа напрямую зависит от размера модели, а размер модели — от количества видеопамяти. Модель на 7 миллиардов параметров влезет в карту с 8 ГБ VRAM, но она будет заметно слабее, чем облачный Claude или GPT, у которых параметров на порядки больше.
Графически это будет выглядеть как схема ниже:

В чем плюсы использования локальной LLM?
-
Ваши данные никогда не покинут сервер, где происходит их обработка.
-
Полностью бесплатно — платите только за электричество.
-
Работает без интернета — хоть в бункере, хоть в самолёте (при наличии хорошего источника электричества:) ).
-
Полный контроль: можно дообучить модель на своих данных, выбрать любую модель из открытых, настроить параметры генерации.
Минусы тоже есть:
-
Нужно мощное железо. Для комфортной работы с серьёзными моделями — видеокарта от 8 ГБ VRAM, а лучше 16+. Это недёшево.
-
Качество ответов заметно слабее, чем у облачных флагманов. Локальная модель на 7–13 миллиардов параметров не сравнится с облачным GPT-5 или Claude Opus.
-
Придётся разбираться с установкой, настройкой и обновлениями самостоятельно.
-
Нет встроенных инструментов из коробки — только голый текст «вопрос‑ответ».
Как я использовал локальные LLM на основе своего опыта:
-
Обработка данных клиента (документы, базы данных) с использованием вектороной базы данных. LLM хорошо ориентируется и неплохо ищет и строит отчеты.
-
Анонимизация данных перед отправкой облачную LLM. Она хорошо справляется с анонимизацией данных на основе заданных критериев, например, на основе плана, описываемого в YAML формате.
-
Использование локальной LLM в роли агента. С правильным подходом, инжектированием промтов и собственными tools/skills довольно хорошо ориентируется в рамках своего контекстного окна.
Облачная LLM
Здесь всё наоборот — модель работает не у меня, а на серверах провайдера. Когда я открываю, скажем, claude.ai или chatgpt.com и пишу сообщение, мой текст уходит по зашифрованному протоколу (HTTPS) на серверы Anthropic/OpenAI, где стоят кластеры из дорогих GPU (A100, H100 и подобные), на которых и работает модель. Там мой промт так же превращается в токены, прогоняется через нейронную сеть, и сгенерированный ответ прилетает мне обратно — обычно в режиме стриминга, то есть я вижу, как текст появляется по словам. Преимущество в том, что мне не нужно думать о железе вообще — провайдер держит модели с сотнями миллиардов параметров на оборудовании, которое стоит миллионы долларов. За это я плачу подпиской или за токены через API.
Какие AI‑ассистенты существуют
На сегодняшний день рынок AI‑ассистентов сформировался вокруг нескольких основных игроков. Давайте рассмотрим ключевых.
ChatGPT (OpenAI)
Пожалуй, самый известный AI‑ассистент. Разработан компанией OpenAI. Актуальные модели — GPT-5.x. ChatGPT хорош в качестве универсального помощника: он одинаково уверенно работает с текстом, кодом, генерацией изображений (через DALL‑E) и анализом данных.
Claude (Anthropic)
Разработан компанией Anthropic. Актуальные модели — Claude Opus 4.6, Claude Sonnet 4.6, Claude Haiku 4.5. Claude известен тем, что выдаёт ответы, которые «звучат» наименее «роботизированно». Он особенно силён в работе с длинными документами, написании качественного кода и задачах, требующих глубокого анализа. Claude умеет работать с файлами, создавать документы (Word, PowerPoint, Excel), создавать интерактивные React‑компоненты прямо в чате.
Gemini (Google)
Разработан Google. Актуальные модели — Gemini 3.x. Главное преимущество — глубокая интеграция с экосистемой Google (Gmail, Docs, Drive). Если вы живёте в Google Workspace, Gemini будет работать прямо там, где вы работаете. Также Gemini отличается большими контекстными окнами и мультимодальностью (работа с текстом, изображениями, видео).
Grok (xAI)
Разработан компанией xAI (Илон Маск). Доступен через платформу X (бывший Twitter). Grok позиционируется как наиболее бюджетный вариант по стоимости API и предлагает модели, конкурентные по качеству. Отличается, скажем так, более «разговорным» стилем общения.
Copilot (Microsoft)
Интегрирован в экосистему Microsoft (Office 365, Windows, VS Code). Если ваша компания работает на стеке Microsoft — Copilot встроен прямо в привычные инструменты.
Личной выбор каждого, но:
На рынке два серьезных игрока, которые по качеству моделей и используемых инструментов борятся за пользователей: Anthropic и ChatGPT.
Если вы программист и работаете со сложными проектами, то я бы рекомендовал Anthropic (Claude) с текущей моделью Opus 4.6 (1m или 200k), а также если вы хотите получить качественный документ MS Office. Модель немного отличается своей реактивностью, но это решается правильными промтами и окружением agents.md/memory и прочее. Картинки не генерит, зато рисует прекрасные схемы (графические блок схемы, HTML схемы).
ChatGPT также неплоха в программировании и исследовательских задачах, но она более «задушена», работает немного медленнее, но часто может разобраться в сложных задачах, например, анализа больших данных: кода, API. Я часто использую ее в роли арбитра, для вынесения вердикта после этапов программирования или анализа PRD. Можно генерировать качественные изображения.
За что мы платим и какие типы аккаунтов бывают
Это, пожалуй, один из самых частых вопросов: «Зачем платить, если есть бесплатная версия?». Давайте разберёмся. Бесплатный доступ Все основные AI‑ассистенты предоставляют бесплатный доступ.
Однако он ограничен:
-
доступ к менее мощным моделям (или ограниченный доступ к мощным)
-
лимит на количество сообщений в день или в час; отсутствие (или ограничение) продвинутых функций:
-
генерация изображений, работа с файлами, Deep Research и так далее
Я бы сказал, чтобы понять какая AI лучше, начните с бесплатной, но это не так. При покупке подписки или API вы получаете доступ в мощным моделям, которая по разному обучены, имеют разную глубину, количество слоев и др. и по настоящему AI раскрывается именно при наличии подписки.
Еще раз, выбор модели влияет на результат. Если вы спрашиваете «сколько будет 2+2» — нет смысла использовать флагманскую модель. А вот для анализа контракта на 50 страниц или написания сложного алгоритма лучше использовать самую мощную доступную модель.
Подписка или API?
Тут есть важный момент, который стоит пояснить — разница между подпиской и API, потому что это два принципиально разных способа оплаты.
Когда вы покупаете подписку (например, Claude Pro или ChatGPT Plus за $20/мес), вы получаете не безлимитный доступ, как может показаться, а определённый пул использования на временной промежуток. У каждого провайдера это устроено по‑своему: где‑то это ограничение на количество сообщений за 3–5 часов, где‑то — на объём обработанных токенов. Когда вы упираетесь в лимит, AI вежливо просит подождать. Через некоторое время счётчик сбрасывается и можно работать дальше. На практике для обычного использования — написать письмо, разобраться в коде, проанализировать документ — стандартной подписки хватает с большим запасом. Упираются в лимиты, как правило, те, кто работает с AI плотно и непрерывно на протяжении всего дня.
API — это совсем другая история. Здесь нет фиксированной абонентской платы. Вы платите ровно за то, что использовали: отправили промт — заплатили за входящие токены, получили ответ — заплатили за исходящие. Это как оплата за электричество по счётчику вместо фиксированного тарифа. API нужен в первую очередь разработчикам, которые встраивают AI в свои продукты: чат‑боты, системы анализа, автоматизация — всё, что работает без участия человека в каждом запросе. Для обычного пользователя API избыточен, а вот для бизнеса это основной способ работы с AI.
Если вы один или небольшая команда разработчиков, то, конечно, лучше смотреть в сторону подписки Max (или Pro Max) для от Anthropic (Claude) или Pro (5x) (или Pro 10x) от OpenAI (Codex). В своей практике я использую Claude Pro и OpenAI Pro.
Если вы обычный пользователь, но хотите получить много больше от AI, то рекомендую купить подписку Claude Pro или ChatGPT, обе около $20 в месяц.
Платные планы
Стоимость платных подписок на середину 2026 года выглядит примерно так:
|
Сервис |
Стандартный план |
Продвинутый план |
Команды |
|---|---|---|---|
|
ChatGPT |
Plus — $20/мес |
Pro — $200/мес |
Team — $25-30/мес за пользователя |
|
Claude |
Pro — $20/мес |
Max — $100-200/мес |
Team — $25-30/мес за пользователя |
|
Gemini |
AI Pro — $19.99/мес |
AI Ultra — $249.99/мес |
Через Google Workspace |
|
Grok |
SuperGrok — $30/мес |
Heavy — $300/мес |
Через X Premium+ |
Возвращаемся к работе с облачной AI
Схематично работа с облачной AI выглядит как показано на рисунке ниже:

Плюсы:
-
Доступ к самым мощным моделям в мире — с сотнями миллиардов параметров на железе за миллионы долларов. Вам ничего покупать не нужно. Начать можно за 30 секунд — открыл браузер, зарегистрировался, пишешь.
-
Модели постоянно обновляются и улучшаются без вашего участия.
-
Есть бесплатные тарифы, которых достаточно для знакомства.
Минусы:
-
Ваши данные уходят на серверы провайдера. Для чувствительных корпоративных данных это может быть неприемлемо.
-
Нужен стабильный интернет.
-
Платная подписка для полноценного использования ($20/мес и выше).
-
Вы зависите от провайдера: если он решит изменить модель, поднять цены или упадёт — вы ничего не контролируете.
Различные мои случаи, в которых я использую публичные AI смысла описывать нет, поскольку каждый находит применение AI в соответствии со своими рабочими обязанностями, бизнесом и уровнем собственного развития.
Агенты AI
Представьте, что LLM — это очень умный мозг в банке. Он может думать, но не может ничего делать: у него нет рук, нет глаз, нет доступа к интернету. Вы кидаете ему текст — он кидает текст обратно. Всё.
AI‑агент — это тот же мозг, но уже с руками, ногами и инструментами. Он может сходить в интернет, открыть файл, написать и запустить код, отправить письмо, создать задачу в Jira. Разница ровно такая же, как между человеком, который сидит в пустой комнате и отвечает на записки через щель в двери, и человеком, у которого есть компьютер, телефон и доступ ко всем вашим системам. Мозг один и тот же — отличается то, что ему разрешили делать.
По сути, каждый раз когда вы открываете ChatGPT или Claude в браузере, вы уже работаете с AI‑агентом. Просто степень его самостоятельности бывает разной — от простого «спросил‑ответил» до полноценной автономной работы.

Помимо браузера, AI‑агенты могут работать прямо на вашем компьютере — и тут есть принципиально разные форматы:
Десктопные приложения (Claude Desktop, ChatGPT Desktop) — по сути тот же чат, что и в браузере, но в виде отдельной программы. Казалось бы, зачем, если есть браузер? Разница в том, что десктопное приложение может заимодействовать с вашей локальной системой. Главное преимущество Claude Desktop — поддержка MCP‑серверов. Через них приложение получает доступ к файлам на диске, локальным базам данных, Git‑репозиториям и вообще к чему угодно, что вы настроите. В браузерной версии этого нет. ChatGPT Desktop работает аналогично.
Терминальные агенты (Claude Code, OpenAI Codex CLI) — это совсем другой зверь. Они работают прямо в командной строке, без графического интерфейса. Вы пишете задачу текстом, а агент сам читает файлы вашего проекта, пишет код, запускает команды, видит ошибки, исправляет их и запускает снова. По сути это программист‑напарник, который сидит у вас в терминале. Я запускаю Claude Code в папке проекта, говорю «добавь авторизацию через OAuth» — и он сам находит нужные файлы, пишет код, ставит зависимости, запускает тесты. Мне остаётся только проверить результат и подтвердить изменения. Это самый мощный формат для разработчиков, но и порог входа соответствующий — нужно быть уверенным пользователем терминала.
IDE‑расширения (GitHub Copilot, Claude Code для VS Code и JetBrains, Cursor) — золотая середина. Агент встроен прямо в вашу среду разработки. Он видит ваш код, предлагает автодополнение, объясняет ошибки, рефакторит функции, пишет тесты — всё в контексте вашего проекта, не выходя из редактора. Cursor пошёл ещё дальше — это отдельная IDE, целиком построенная вокруг AI: вы выделяете кусок кода, описываете словами что хотите изменить, и Cursor вносит правки сам. Для программиста, который проводит весь день в IDE, это самый естественный и быстрый способ работы с AI.

Важно понимать: все эти приложения используют облачные модели. Claude Desktop, Claude Code и Cursor отправляют ваши запросы на серверы Anthropic или OpenAI — модель работает в облаке, а приложение на вашем компьютере выступает умным клиентом, который знает контекст вашей локальной среды. Это не то же самое, что локальная LLM через Ollama, где модель физически работает на вашем железе.
Что такое токены
Я уже несколько раз упоминал токены, и пора объяснить, что это конкретно. Токен — это минимальная единица текста, которую понимает модель. Это не совсем слово и не совсем слог — скорее что‑то среднее. Для английского языка одно слово в среднем занимает 1–1.3 токена. Слово «hello» — один токен. Слово «unfortunately» — тоже может быть одним токеном, потому что модель видела его миллионы раз и «запомнила» целиком. А вот редкое слово вроде «defenestration» модель разобьёт на несколько кусков.
И тут есть важный нюанс для русскоязычных пользователей: русский текст обходится примерно в 2–3 раза дороже английского. Слово «привет» — это 2–3 токена, тогда как «hello» — один. Это происходит потому, что модели обучались преимущественно на английском, и кириллица для них менее «привычна» — они разбивают русские слова на более мелкие куски. На практике это означает, что одна и та же по смыслу переписка на русском съест контекстное окно быстрее, чем на английском, и через API обойдётся дороже.
Чтобы было нагляднее: одна страница текста А4 — это примерно 500–700 токенов на английском и 1000–1500 на русском. Книга в 300 страниц — около 200 000 токенов. То есть целая книга как раз влезает в контекстное окно Claude (200k), но при этом занимает его целиком, и для самого диалога места уже не остаётся. Поэтому когда вы загружаете большой документ, старайтесь делать это в начале чистого чата, а не посреди длинного диалога.
Что важно знать при работе с AI‑агентом
Не только с AI‑агентом, а в целом с AI, с которым вы взаимодействуете (в браузере, по API, через приложение, через CLI):
Контекстное окно — главное ограничение. Контекстное окно — это объём информации, который агент может «держать в голове» одновременно. Измеряется в токенах: у Claude это около 200 000 токенов или 1 миллион для модели Opus 4.6, у GPT — в зависимости от модели от 128 000 до миллиона. Звучит много, но на практике оно заполняется быстро: туда входит системный промт, вся история вашего диалога, содержимое загруженных файлов и результаты вызова инструментов. Когда окно переполняется, агент начинает «забывать» начало разговора — буквально теряет из виду то, о чём вы договорились двадцать сообщений назад. Это не баг, а физическое ограничение архитектуры. Поэтому длинные диалоги на сложную тему — это всегда риск потери контекста.
Сжатие контекста — как агент справляется с длинными сессиями. Некоторые агенты (например, Claude Code, Codex) умеют автоматически сжимать контекст: когда окно начинает переполняться, агент суммаризирует предыдущую часть диалога, сохраняя ключевые решения и выбрасывая детали. Это помогает, но неизбежно приводит к потерям — агент может забыть нюанс, который казался вам очевидным. Поэтому я взял за правило: если диалог стал длинным и агент начинает «плыть» — лучше начать новый чат, кратко пересказав ключевые решения в первом сообщении, чем пытаться дотянуть старый.
Когда видите что контекстное окно заканчивается, лучше спросить агента сформировать результаты работы в отдельный файл, чтобы при следующей сессии вы просто сказали прочитать этот файл и агент все «вспомнил».
CLAUDE.md / agents.md — инструкция для агента на уровне проекта. Это файл, который лежит в корне вашего проекта и автоматически подгружается агенту в контекст при каждом запуске. По сути это ваш «бриф» для AI: какие технологии используются, какие соглашения по коду приняты, какая структура проекта, какие команды запускать для тестов. Без этого файла агент каждый раз начинает с нуля и тратит ваши токены (и ваше время) на то, чтобы заново понять, как устроен проект. Я бы рекомендовал заводить CLAUDE.md в каждом серьёзном проекте — это как README, только для AI.
Лучшие практики по созданию инструкций описаны непосредственно на веб‑сайтах: claude.md, agents.md.
PRD — ваш главный инструмент при работе с агентом. Product Requirements Document — это подробное описание того, что вы хотите получить. Чем детальнее PRD, тем лучше результат. Когда вы просто говорите агенту «сделай мне API для управления пользователями», вы получите что‑то работающее, но почти наверняка не то, что вы имели в виду. Когда вы даёте PRD с описанием эндпоинтов, моделей данных, правил валидации, ролевой модели, обработки ошибок и примерами запросов — результат будет на порядок ближе к ожиданиям. Я обычно прошу сам AI помочь мне написать PRD: описываю задачу своими словами, а агент структурирует это в полноценный документ. Потом я правлю и отдаю ему же как задание.
Важно из практики: описать именно основную логику задачи, что вы хотите получить.
Делите сложные задачи на подзадачи. Это, пожалуй, самое важное правило. Если вы просите агента за один промт написать целое приложение — с авторизацией, базой данных, REST API, тестами и деплоем — результат будет посредственным. Агент попытается сделать всё разом, запутается в зависимостях и выдаст код, который красиво выглядит, но разваливается при первом запуске. Правильный подход — декомпозиция: сначала структура проекта, потом модели данных, потом эндпоинты по одному, потом тесты к каждому, потом интеграция. Каждую подзадачу — в отдельном запросе или даже в отдельном чате. Да, это дольше. Но результат будет рабочим.
Есть разные продукты, которые поддерживают декомпозицию сложных задач на простые, чтобы агент успевал сделать все в рамках своего контекстного окна. Да, сейчас Codex и Claude поддерживают самостоятельную декомпозицию но результат желает быть лучшим.
Пример решения это использование AI Agent Loop Orchestrator (например, бесплатный RalphTUI или легко ищутся другие варианты и платные и бесплатные).
Всегда проверяйте результат. AI‑агент не является безошибочным. Он может написать код, который выглядит идеально, но содержит логическую ошибку. Может уверенно «сослаться» на несуществующую функцию библиотеки. Может удалить файл, который вы не просили удалять. Я выработал правило: после каждой завершённой задачи — ревью. Для кода это запуск тестов, линтера и ручная проверка логики. Для текста — вычитка на фактические ошибки. Для любых действий с файловой системой — проверка через git diff, что именно изменилось.
Повторная проверка написанного кода — это общая практика, особенно если у вас есть доступ к двум разным AI.
Git — ваша страховка. Перед тем как дать агенту задачу, которая затрагивает существующий код, сделайте коммит. Всегда. Агент может переписать файл целиком, удалить «лишние» функции, которые на самом деле используются, или «отрефакторить» рабочий код в нерабочий. Если у вас есть коммит — вы в любой момент откатитесь. Если нет — будете восстанавливать по памяти. Я обычно создаю отдельную ветку для каждой AI‑задачи и мержу только после проверки.
Один агент — один фокус. Не пытайтесь в одном чате обсуждать архитектуру проекта, дебажить конкретный баг и попутно просить написать документацию. Каждая тема — отдельный чат. Когда вы смешиваете контексты, агент начинает путаться: решения из одной задачи «перетекают» в другую, контекстное окно забивается нерелевантной информацией, качество ответов падает. Думайте об этом как о вкладках в браузере: для каждой задачи своя вкладка.
Промт «подумай пошагово» — не шутка. Когда задача сложная, добавляйте в промт просьбу рассуждать пошагово, или используйте режим Extended Thinking (у Claude) / Chain of Thought (у GPT). Модель буквально начинает «думать вслух» — разбивает задачу на шаги, анализирует каждый, и только потом выдаёт ответ. Качество на сложных задачах вырастает драматически. Это особенно важно для задач с логикой, математикой, архитектурными решениями и отладкой.
Давайте агенту примеры. Если вы хотите определённый стиль кода, формат ответа или структуру документа — не описывайте это словами, покажите пример. «Напиши тесты» — это один результат. «Напиши тесты в таком стиле: [пример теста]» — совершенно другой. Модели отлично обучаются на примерах прямо в рамках диалога. Один хороший пример стоит абзаца объяснений.
Используйте скриншоты и файлы. Современные агенты — мультимодальные, они понимают изображения. Если у вас баг в интерфейсе — сделайте скриншот и отправьте агенту вместе с описанием. Если нужно проанализировать документ — загрузите файл целиком, а не копируйте куски текста. Чем больше контекста вы даёте, тем точнее результат.
Помните про галлюцинации. AI‑агент может с абсолютной уверенностью выдать неверную информацию: несуществующий метод API, выдуманную библиотеку, неправильную команду. Это называется галлюцинации. Они происходят потому, что модель генерирует наиболее вероятный текст, а не проверяет факты. Чем более специфична и нишевая тема, тем выше вероятность галлюцинации. Правило простое: всё, что касается конкретных имён функций, версий библиотек, синтаксиса команд — проверяйте по документации.
Безопасность: приложение или CLI с AI, всегда запущены в режиме пониженных привилегий, на любое действие, требующее работу с файловой системой или взаимодействия с ОС, агент спросит разрешение. Но сообщения бывают очень назойливыми и тут, вы решаете сами, дать агенту больше прав или отвечать на каждый вопрос вручную.
Мой пример обычной работы с claude: claude ‑dangerously‑skip‑permissions:)
Стоимость ошибки агента
Отдельно хочу предупредить про вещь, о которой редко говорят в обзорах, но которая бьёт по кошельку очень ощутимо. Агент может зациклиться — и это дорого.
Первое — если работаете через API, всегда ставьте лимиты на расход: и по деньгам, и по количеству запросов. Все провайдеры позволяют это настроить. Второе — не оставляйте агента работать без присмотра надолго, особенно если у него есть доступ к чему‑то важному. Третье — для любых экспериментов используйте песочницу: отдельную ветку в Git, тестовую базу данных, изолированный Docker‑контейнер. Цена ошибки в песочнице — ноль. Цена ошибки в продакшене — сами понимаете.
Еще раз про промт:
Учитель сказал: каков вопрос — таков и ответ. Кто спрашивает лениво — получает пустоту. Кто спрашивает точно — получает силу.
Создавайте правильные и понятные промты для AI. Пользуйтесь помощью у AI для генерации правильных промтов, чтобы результат был релевантен и ожидаем.
MCP‑серверы: когда AI выходит за рамки текста
Теперь перейдём к более продвинутой, но крайне полезной теме — Model Context Protocol (MCP).
Что такое MCP
MCP — это открытый протокол, который был предложен компанией Anthropic в ноябре 2024 года и с тех пор принят основными игроками рынка, включая OpenAI и Google. В декабре 2025 года протокол был передан в Agentic AI Foundation под управлением Linux Foundation.
Если объяснять совсем просто: MCP — это «USB‑C для AI». Так же, как USB‑C предоставляет единый стандарт подключения устройств, MCP предоставляет единый стандарт подключения AI‑ассистентов к внешним сервисам и источникам данных.
Зачем это нужно
По умолчанию AI‑ассистент — это изолированная «голова»: он знает только то, на чём обучен, и видит только то, что вы ему отправили в чате. Он не может залезть в вашу базу данных, прочитать файлы на диске, отправить письмо или создать задачу в Jira.
MCP решает эту проблему. Через MCP AI‑ассистент получает доступ к внешним инструментам и данным:
-
файловая система (чтение и запись файлов);
-
базы данных (выполнение запросов);
-
внешние API (GitHub, Slack, Notion, Jira, Google Calendar, Gmail);
-
поисковые системы;
-
специализированные инструменты.
Как это работает
Архитектура MCP состоит из трёх компонентов:
MCP Host — это AI‑приложение, в котором вы работаете (Claude Desktop, Cursor, VS Code и так далее). Хост содержит LLM и управляет клиентами.
MCP Client — посредник между LLM и сервером. Клиент переводит запросы модели в формат протокола и обратно. У каждого клиента связь с одним сервером (1 к 1).
MCP Server — внешний сервис, который предоставляет данные или возможности. Сервер «объявляет» свои инструменты (tools), ресурсы (resources) и шаблоны промтов (prompts).
Вся коммуникация идёт по JSON‑RPC 2.0 в рамках stateful‑сессии — то есть клиент и сервер поддерживают постоянное соединение и обмениваются данными в обе стороны.
Пример: как это выглядит на практике
Допустим, вы спрашиваете AI: «Найди последний отчёт о продажах в нашей базе данных и отправь его менеджеру по email».
Без MCP AI скажет: «Извините, я не могу получить доступ к вашей базе данных или отправить email».
С MCP происходит следующее:
-
AI понимает, что ему нужны два инструмента: запрос к БД и отправка email.
-
Через MCP‑клиент он обнаруживает доступные MCP‑серверы:
database_queryиemail_sender. -
AI формирует структурированный запрос к серверу БД — сервер выполняет SQL‑запрос и возвращает данные.
-
AI формирует запрос к серверу email — сервер отправляет письмо с отчётом.
-
AI отвечает вам: «Нашёл последний отчёт о продажах и отправил его на email менеджеру».
Какие MCP‑серверы доступны
На момент написания статьи доступны MCP‑серверы для огромного числа сервисов. Вот некоторые из популярных:
-
Git/GitHub/GitLab — поиск по кодовой базе, чтение файлов, создание коммитов и pull request’ов;
-
Slack — чтение и отправка сообщений;
-
Notion — работа с базами знаний;
-
PostgreSQL / MySQL — выполнение запросов к базам данных;
-
Brave Search — поиск в интернете;
-
Файловая система — чтение и запись локальных файлов;
-
Docker — управление контейнерами.
Полный каталог MCP‑серверов можно найти на GitHub в репозитории modelcontextprotocol.
MCP для геймдева: Unity и Unreal Engine
Отдельно хочу привести пример, который наглядно показывает, насколько мощной может быть связка AI + MCP — это геймдев.
Для Unity существует MCP‑сервер «mcp‑unity», который превращает AI‑ассистента в полноценного напарника прямо внутри редактора. Вы подключаете его к Claude Code, Cursor или VS Code — и можете управлять Unity естественным языком. Говорите «создай красный, синий и жёлтый куб» — агент сам создаёт объекты на сцене. Говорите «собери простой контроллер игрока» — агент пишет скрипт, вешает компоненты, настраивает физику. И это не просто генерация кода в отдельном окне — агент работает прямо с редактором: управляет сценой, создаёт и удаляет объекты, редактирует скрипты, манипулирует ассетами, запускает профилировщик, настраивает физику. По сути, у вас появляется второй разработчик, который сидит внутри Unity и делает рутину за вас.
Я привожу этот пример не потому, что все читатели — геймдевы, а потому, что он отлично демонстрирует суть MCP: один и тот же протокол, одна и та же модель, но подключаете разные серверы — и получаете совершенно разные возможности. Сегодня агент управляет Unity, завтра — вашей CI/CD системой, послезавтра — автомобилем или ракетой.
Заключение
AI‑ассистенты в 2026 году — это уже не игрушка и не эксперимент. Это полноценный рабочий инструмент, который при правильном использовании экономит часы рабочего времени ежедневно. Ключевые моменты, которые я хотел бы выделить:
-
Учитесь писать промты — это главный навык при работе с AI. Конкретный, структурированный запрос даёт на порядок лучший результат, чем абстрактный.
-
Учитесь писать скиллы — в статье я это не упомянул по скиллы, но это сильно упростит решение типовых задач с интегрированными инструкциями агенту.
-
Выбирайте AI под задачу — ChatGPT для универсальных задач, Claude для документов и кода, Gemini для интеграции с Google. Это именно мое видение.
-
Изучите MCP — если вы разработчик, MCP открывает возможности по интеграции AI с вашими инструментами и данными.
AI не заменит специалиста, но специалист с AI заменит того, кто AI не использует. И чем раньше вы начнёте разбираться в этих инструментах, тем больше преимуществ получите. Спасибо за внимание, надеюсь статья была полезной. Если у вас остались вопросы — пишите в коммен■■■ ВНИМАНИЕ: ПРЕВЫШЕН ЛИМИТ КОНТЕКСТНОГО ОКНА ■■■ … пишите в комментарии, я обязательно отве.
P. S. Последний абзац написан без участия AI. Или нет. Вы уже не можете быть уверены, и в этом часть идеи статьи.
ссылка на оригинал статьи https://habr.com/ru/articles/1024904/