66% руководителей в США заявляют, что не наняли бы кандидата без навыков работы с ИИ, а 71% отдадут предпочтение менее опытному кандидату с навыками ИИ, чем более опытному без них. Такие выводы появились в отчётах Microsoft и LinkedIn ещё в 2024 году.

В то же время «большинство пользователей использует инструмент плохо», заявила OpenAI в исследовании «How people use ChatGPT». А 73% всех запросов сформулированы бытовым языком, который нейросеть понимает буквально и ведёт себя как глупая жестянка.
Мы проанализировали исследования учёных в сфере машинного обучения и составили инструкцию, как писать промпты правильно и легко получать работу, несмотря на конкуренцию с ИИ.
Ошибка №1. Запрос без контекста
Что происходит
Пользователь пишет: «Напиши пост в LinkedIn». Модель не знает, кто перед ней: директор по логистике, HR, консультант или founder. Она не понимает ни аудиторию, ни рабочий контекст, ни желаемый тон. В такой ситуации LLM почти неизбежно выдаёт усреднённый текст для усреднённого автора — тот самый «AI-стиль», который легко считывается с первых строк.
Что говорят исследования
В работе The Prompt Report Шульхоффа и соавторов главный вывод шире: качество ответа зависит не только от инструкции, но и от того, какой контекст получает модель — роль, примеры, ограничения, формат, дополнительные данные и in-context examples.
Отдельно это подтверждает исследование Chroma Research Context Rot от июля 2025 года. Авторы протестировали 18 моделей, включая GPT-4.1, Claude 4, Gemini 2.5 и Qwen3, и показали неприятную вещь: модели используют длинный контекст неравномерно, а качество ответа падает не плавно, а рывками и по-разному от модели к модели. Иными словами, длинный промпт сам по себе не делает результат лучше. Иногда он делает его хуже.
Плохой промпт: «Напиши пост в линкедин про ИИ».
Хороший промпт: «Я — директор по цифровой трансформации в российской логистической компании (штат 2000 человек, автопарк). Пишу пост в LinkedIn для аудитории топ-менеджеров промышленности. Тезис: ИИ-агенты в логистике экономят меньше, чем обещают вендоры, но один конкретный кейс у нас сработал — автоматизация классификации входящих документов от перевозчиков. Срезало 40% рутины у диспетчеров. Пост — 150 слов, тон сдержанный, без восклицаний, без слов «революция» и «прорыв», без эмодзи. В конце — вопрос к аудитории. Вот ссылки на мои предыдущие посты для понимания стиля: [вставить]».
Ошибка №2. «Представь, что ты…» — устаревший ритуал
Что происходит
Люди начинают промпт с «Ты — профессор Гарварда / senior-разработчик / копирайтер с 20-летним опытом». Это было почти обязательным советом в 2023.
Что говорят исследования
Как прояснил Шульхофф в интервью в 2025 году, ролевой промпт может слегка повлиять на тон и стиль, но почти не влияет на корректность.
Почему так
Современные модели пост-тренируются под высокое качество ответа по умолчанию. В 2023 модель была «сырым текстовым предсказателем», и «ты — эксперт» реально сдвигал распределение вероятностей в сторону более техничного текста. В 2025-2026 это сдвиг почти незаметен: модель и так отвечает как эксперт, если задать точный вопрос.
Что работает вместо роли
Указание перспективы и фокуса: не «ты — финансовый аналитик», а «проанализируй этот портфель с точки зрения толерантности к риску и долгосрочного роста».
Плохой промпт: «Ты — опытный SMM-щик с 15-летним стажем, работавший с крупнейшими брендами. Придумай мне контент-план на месяц».
Хороший промпт: «Составь контент-план на октябрь для Telegram-канала B2B-компании в сфере промышленной автоматизации. Аудитория — главные инженеры заводов 40-55 лет. Цель канала — лидогенерация через демонстрацию экспертизы. 12 постов, из них: 4 разбора кейсов (без маркетинговых клише), 4 поста с новостями отрасли с моим комментарием, 2 образовательных поста, 2 анонса мероприятий. Каждый пост — 80-150 слов. Избегай слов: «уникальный», «инновационный», «революционный»».
Ошибка №3. «Думай пошагово» на reasoning-модели — уже вред, а не польза
Что происходит
Массовый совет 2023-2024 годов: добавь «let’s think step by step» или «думай пошагово». Пользователи до сих пор копируют этот приём везде, даже в GPT-5 и Claude с включённым режимом рассуждений.
Что говорят исследования
Классическая отправная точка здесь — работа Google Large Language Models are Zero-Shot Reasoners, вышедшая в мае 2022 года. Именно она сделала фразу «Let’s think step by step» мемом в индустрии: авторы показали, что даже такая простая добавка может резко улучшать результаты на задачах рассуждения у моделей того поколения. Но это был важный нюанс именно для того этапа развития LLM, а не универсальный закон на все времена.
К середине 2025 года картина стала заметно сложнее. В отчёте Wharton исследователи проверили CoT на датасете GPQA Diamond — это 198 вопросов уровня PhD по биологии, физике и химии, по 25 прогонов на каждое условие. Для «неризонинговых» моделей прирост действительно был, но умеренный и не всегда стабильный: Gemini 2.0 Flash — +13,5%, Sonnet 3.5 — +11,7%, GPT-4o-mini — +4,4%, причём для последней модели результат оказался статистически незначимым. Для reasoning-моделей выгода почти исчезала: o3-mini и o4-mini прибавляли всего 2,9–3,1%, зато ответы становились на 20–80% медленнее. Иными словами, просьба «думай пошагово» всё чаще покупает не качество, а задержку.
Плохой промпт (на reasoning-модели): «Давай подумаем пошагово. Сначала проанализируй рынок, потом выяви тренды, потом предложи стратегию. Думай медленно и внимательно. Перепроверь каждый шаг».
Хороший промпт (на reasoning-модели): «На основе [прикрепил отчёт Nielsen по рынку FMCG РФ Q3 2025] выдели три тренда, которые повлияют на стратегию дистрибуции нашей кондитерской фабрики в 2026. Критерий значимости — тренд должен затрагивать минимум 15% оборота категории».
Ошибка №4. Примеры сильнее описаний, но их никто не даёт
Что происходит
Человек объясняет модели словами, какой стиль, какой формат, какой тон. Модель понимает лишь приблизительно.
Что говорят исследования
Few-shot prompting — это техника, в которой модели дают несколько коротких примеров в формате «вход → выход», чтобы она поняла не только задачу, но и нужный способ ответа. Если zero-shot оставляет модели простор для догадок, то 2–5 хороших примеров часто буквально фиксируют траекторию ответа: как именно классифицировать, какой тон выдерживать, какие поля заполнять, что считать ошибкой.
Плохой промпт: «Напиши 5 заголовков для статьи про ИИ в логистике. Пусть будут цепляющие, но не кликбейтные».
Хороший промпт: «Напиши 5 заголовков для статьи про ИИ в логистике. Стиль — как в этих трёх примерах с моего сайта:
-
«Мы внедрили ИИ в сортировку 6 месяцев назад. Вот что реально изменилось»
-
«Почему автоматизация склада окупается не за год, как пишут, а за три»
-
«Что говорят водители о диспетчер-боте: три претензии и одна похвала» Общие признаки: конкретика, честность, отсутствие слов «революция», «прорыв», «инновация». Первое лицо множественного числа или прямая цитата. Длина — 8-14 слов».
Ошибка №5. «Не пиши…» — плохая формулировка (но с важной оговоркой)
Что происходит
Пользователь просит: «Только не пиши шаблонно», «не используй слово «уникальный»», «не делай списков». Результат часто игнорирует запрет.
Что говорят исследования
Для текстовых LLM (ChatGPT, Claude) негативные инструкции работают частично, доказывают составители Prompt Engineering Guide. «Пиши короткими абзацами» работает лучше, чем «не пиши длинные абзацы».
Но это не абсолют. В техническом контексте негативные инструкции работают: «Не включай персональные данные», «Не выдумывай источники, если не уверен» — модель этому следует.
Плохой промпт: «Напиши статью. Не делай её скучной, не используй канцелярит, не лей воду, без списков, не делай длинных предложений».
Хороший промпт: «Напиши статью в разговорном стиле, с короткими предложениями (средняя длина — 10-12 слов). Используй конкретные примеры и цифры. Формат — сплошной текст абзацами, без буллитов. Целевой объём — 600 слов».
Ошибка №6. Использовать отдельные нейросети вместо SpeShu.AI

СПЕШУ АИ открывает доступ к трём сотням нейросетей на русском языке без VPN. Вместо того чтобы платить 10 000 рублей за отдельные подписки на ChatGPT, Claude, Nano Banana, Kling, вы не платите за подписки вообще. Сколько сгенерировали, столько и заплатили. (Причём пополнить баланс можно через СБП, не морочась с зарубежными картами). Попробуйте бесплатно: SpeShu.AI
ссылка на оригинал статьи https://habr.com/ru/articles/1029406/