Как поиск стал интерфейсом-ассистентом, а не каталогом ссылок
Материалы Search Engine Land[1] фиксируют один и тот же перелом с разных сторон: классический SERP («10 синих ссылок») перестаёт быть главной формой ответа, а роль «первого экрана» берут на себя генеративные блоки, которые сразу объясняют, сравнивают и делают выводы. [2]
В Google[3] эта логика материализовалась в AI Overviews — блоке, который генерирует краткий ответ и прикрепляет ссылки на источники, оставаясь над органической выдачей (то есть формально «не заменяя» сайты, но фактически переупорядочивая внимание пользователя). [4] В официальном описании подчёркивается, что AI Overviews — не «чатбот поверх веба», а часть поисковой системы: используется кастомная модель Gemini, работающая вместе с существующими системами ранжирования и Knowledge Graph, а сами обзоры рассчитаны на «сложные вопросы», которые раньше требовали нескольких запросов. [5]
Важно, что даже «архитектура ответа» меняется: Google описывает query fan-out — генерацию нескольких связанных поисков по подтемам и источникам данных, чтобы собрать более полный ответ и подобрать разнообразные ссылки для поддержки. [6] Это прямо влияет на то, как контент «находится» машиной: система не просто ищет одну страницу под один запрос, а компилирует мозаику из фрагментов. [7]
Расширение функции показывает, что это не эксперимент «для отдельных стран». По данным блога Google, в октябре 2024 AI Overviews начали развёртываться более чем в 100 странах и на нескольких языках, а аудитория — «более 1 млрд пользователей ежемесячно». [8] Контекст для Европы тоже публично обозначался отдельным релизом (март 2025). [9]
Параллельно усиливается «инструментальная» сторона: Google прямо говорит владельцам сайтов, что для AI Overviews и AI Mode нет “специальных” требований — применяются те же базовые принципы SEO, а измерение входит в общие метрики Search Console (показ/клик учитываются «как часть обычного поиска»). [6] Это важная рамка: поисковик юридически и продуктово позиционирует AI-блоки как продолжение поиска, даже если издатели и маркетологи воспринимают это как новый канал, который «забирает верхнюю часть воронки». [10]
Метрики, которые ломают старую экономику кликов
Сдвиг к «ответам без перехода» стал измеримым ещё до массовой генеративной выдачи. Исследование SparkToro[11] по zero‑click в 2024 году показало: 58,5% поисков Google в США и 59,7% в ЕС завершались без клика (пользователь либо заканчивал сессию, либо переформулировал запрос). [12] Генеративные блоки усиливают именно этот паттерн: ответ уже «на странице», а клик становится факультативным действием — для проверки, углубления или покупки. [13]
Рисунок: доля zero‑click в США и ЕС (2024). График из исследования SparkToro показывает близкие уровни zero‑click в двух регионах и разложение поведения внутри сессии. [12]
Далее начинается то, что отрасль обсуждает как «просадку CTR даже там, где нет AI Overviews». Исследование Seer Interactive[14], которое пересказывает Search Engine Land, зафиксировало падение органического CTR по информационным запросам с AI Overviews на 61% (с 1,76% до 0,61%) и падение paid CTR на 68% (с 19,7% до 6,34%) за период, включающий июнь 2024 — сентябрь 2025. [15] Более того, падение отмечалось и на запросах без AI Overviews (в материале фигурирует −41% органического CTR год к году), что интерпретируется как общий «дрейф клика вниз» из‑за роста ответных форматов и альтернативных путей поиска (чат‑ассистенты, соцпоиск). [16]
При этом ключевой нюанс для стратегии: в том же пересказе подчёркивается, что бренды, попавшие в цитирование AI Overviews, в среднем получали больше кликов, чем те, кого AI не цитировал (там фигурируют +35% органических и +91% платных кликов относительно нецитируемых брендов в рамках набора Seer). [17] Это задаёт новую «валюту видимости»: если раньше борьба шла за позицию и сниппет, теперь — за упоминание/цитату в машинном ответе, которое может частично компенсировать снижение общего CTR. [18]
Динамика появления AI Overviews в выдаче тоже уже хорошо замерена. В исследовании Semrush[19] по 10M+ ключей (плюс данные кликов) показано: доля запросов, триггерящих AI Overviews, резко росла в начале 2025 года (6,49% в январе), достигала 24,61% в июле и затем «устаканивалась» около ~16% (15,69% в ноябре). [20] Там же показан важный тренд по интенту: AI Overviews перестают быть почти полностью информационными (91,3% в январе 2025) и расширяются в коммерческие/транзакционные/навигационные сценарии (к октябрю 2025 в исследовании указано 57,1% informational и рост долей commercial/transactional/navigational). [20]


Наконец, «классический» поиск и чат‑поиск начинают переплетаться. Анализ 17 месяцев кликстрима от Semrush по ChatGPT фиксирует: реферальный исходящий трафик из ChatGPT вырос на 206% в 2025 (в сравнении январь 2025 vs январь 2026), но крупнейшим бенефициаром остаётся Google: к началу 2026 доля переходов на Google превысила 21%. [24] В материале Search Engine Land это пересказано формулой «один из пяти кликов идёт на Google» и уточнением про концентрацию рефералов в пределах топ‑десяти доменов. [25]
Боты, краулеры и «невидимый налог» на издателей
Самый недооценённый слой изменений — не интерфейс, а инфраструктура потребления контента. Раньше «стоимость индексации» окупалась трафиком. Теперь растёт доля машинного потребления, где контент забирается для обучения или «подтягивания ответа», а визит пользователя не происходит. [26]
Показательный маркер — отчёт Akamai[27] по издательскому сектору: сообщается, что активность AI‑ботов выросла на 300% в 2025, медиа‑сектор получил 13% AI‑бот‑трафика (2‑е место среди отраслей), а внутри медиа 40% активности пришлись на издателей. [28] Там же один из самых жёстких тезисов про экономику: AI‑чатботы дают примерно на 96% меньше реферального трафика, чем традиционный Google‑поиск (Q4 2024). [28] Это означает «ножницы»: инфраструктурная нагрузка (краулинг/фетчинг) растёт, а монетизируемая аудитория падает. [28]
В ответ индустрия начинает экспериментировать с монетизацией доступа для AI‑краулеров. Cloudflare[29] публично продвигала модель pay‑per‑crawl — настройку, в которой владелец домена может разрешать, блокировать или требовать оплату за запросы от краулеров, по сути превращая scraping в тарифицируемую операцию. [30] Параллельно появляются более «силовые» инструменты против недисциплинированных ботов (например, «AI Labyrinth», который должен тратить ресурсы краулера и усложнять сбор данных). [31]
Отдельная часть картины — управляемость бот‑экосистемы со стороны AI‑платформ: документация OpenAI[32] описывает разделение на краулер «для поиска» и краулер «для обучения», а также то, что пользовательские запросы могут инициировать обращения к страницам отдельным user‑agent’ом, который не является «автоматическим» краулером. [33] Это усиливает дискуссию о том, какие именно механизмы контроля (robots.txt, отдельные директивы, коммерческие условия) реально работают в эпоху agentic‑доступа к вебу. [34]
Почему «SEO не умерло», но стало похоже на рекламу доверия
Вопрос «убьёт ли AI SEO» в этих материалах разворачивается в более точную формулу: AI не отменяет SEO, но перераспределяет, за что оно платит. В тексте «Could AI eventually make SEO obsolete?» подчёркивается, что генеративный AI ускоряет задачи, но качество результата всё ещё зависит от человеческого задания, структуры данных и технадзора — особенно там, где нужна точность, сущности и связность. [35]
Статья про «Mad Men era of SEO» предлагает сильную метафору: раньше контент помогал «быть найденным», теперь AI‑системы решают, кого рекомендовать, и делают это по сигналам позиционирования, доказательности и присутствия бренда «в разных местах веба». [36] Это важное различие: оптимизация больше не ограничивается страницей и запросом, она становится управлением восприятием, потому что ответ агрегирует источники и «схлопывает нюансы» в одну историю о бренде. [37]
Из этого вытекает почти прямое переименование KPI:
-
«позиции → доля присутствия в ответах»;
-
«клики → цитируемость и упоминаемость»;
-
«трафик → бренд‑эффект, который можно связать с конверсиями косвенно». [38]
Search Engine Land в материале про AEO‑clout формулирует это как расширение авторитетности: ссылки остаются важны, но добавляется новый вес упоминаний, цитат и чётких ассоциаций сущности бренда с темой — потому что LLM‑системы синтезируют знания, а не «ранжируют 10 ссылок». [39]
Технические «кирпичи» при этом не исчезают. Напротив, отчёт HTTP Archive[40] (Web Almanac 2025, раздел SEO) делает вывод, что базовые элементы сканируемости и семантики становятся ещё важнее в AI‑ландшафте: HTTPS превысил 91%, структурированные данные достигли ~50%, а robots.txt всё чаще используется как «заявление намерений» относительно AI‑краулеров (упоминается рост адресных правил для gptbot/claudebot). [41] Там же отмечается экспериментальный файл llms.txt: проникновение пока около 2% и во многом driven плагинами CMS, но сам факт существования маркирует сдвиг к «разговору сайта с AI». [42]
Контент, который «удобно извлекать», и семантика, которую «удобно связывать»
Если ранняя SEO‑школа учила «писать для человека» и «поддерживать сканируемость», то AI‑поиск добавляет новый критерий: извлекаемость на уровне фрагментов. В статье «How to design content that AI systems prefer and promote» прямо описан переход:
-
от страниц к passages;
-
от нарративов к модульным блокам;
-
от ключевых слов к структурированной интент‑логике. [43]
Ключевой механизм здесь — retrieval‑логика: AI‑системе легче взять блок, который самодостаточен, кратко формулирует тезис и поддержан «опорами» (определение, список критериев, классификация), чем текст‑эссе, где смысл размазан. [44] Отдельно подчёркивается критерий «ownable framing»: фрагменты, которые дают уникальную рамку и терминологию, чаще получают атрибуцию, потому что их труднее заменить равнозначным абзацем конкурента. [43]
Отсюда же растёт значение структурированных данных. Материал «How schema markup fits into AI search — without the hype» привязывает schema к задаче явного описания сущностей и отношений между ними (бренд—продукт—автор—организация), то есть к уменьшению неоднозначности для машины. [45] При этом оговаривается ограничение: никакая schema не «гарантирует цитирование», особенно на сторонних AI‑платформах, которые не раскрывают, как именно интерпретируют разметку. [46]
Интересно, что Search Engine Land приводит и экспериментальную проверку: в контролируемом тесте из трёх почти одинаковых страниц в AI Overview попала только страница с качественно реализованной schema (и она же показала лучший органический результат). [47] Это не превращает schema в «волшебную кнопку», но усиливает практический вывод: качество разметки важнее факта её наличия. [48]
Параллельно меняется инструментарий контроля и измерения. Гайд Search Engine Land по софту для AI Overviews подчёркивает, что классические rank‑trackers часто не показывают «видимость в AI‑ответе» и его относительную заметность; поэтому маркетинг‑стек смещается к трекингу упоминаний/цитат, анализу выдачи, аудиту доступности контента для извлечения и мониторингу «AI search health». [49]
Риски качества и репутации: «листиклы», регулирование и эффект одного неверного ответа
Сжатие множества источников в один ответ создаёт парадокс: ошибка или перекос «масштабируются» сильнее, чем в классической выдаче, потому что пользователь видит итоговый вывод, а не спектр ссылок. Статья Search Engine Land про репутационные риски в AI‑поиске описывает механизм «AI narrative formation»: система собирает пул источников, часто включая форумы и соцплатформы, и затем фиксирует «повторяющиеся утверждения» как доминирующий нарратив о бренде. [50] Это переводит ORM из работы со страницами в работу с «меметическими паттернами» (что чаще повторяется, то и становится ответом). [51]
Отдельная зона риска — низкокачественные «best‑of» листиклы, которые одновременно влияют на классический поиск и становятся сырьём для AI‑ответов. Search Engine Land пишет, что Google признаёт проблему «слабых best‑of списков» и заявляет о борьбе с этим видом злоупотребления. [52] На стороне регулирования подключается Federal Trade Commission[53]: правило о потребительских отзывах и testimonials (16 CFR Part 465) вступило в силу в октябре 2024 и запрещает целый класс практик, связанных с фейковыми отзывами и вводящими в заблуждение представлениями об опыте потребителя. [54] Важный практический мостик: если компания публикует «best‑of» страницы с манипулятивной логикой (ставит себя #1, фабрикует отзывы, мимикрирует под независимую оценку), это становится не только SEO‑риском, но и юридическим риском — а затем ещё и риском «попасть в AI‑нарратив» как пример недобросовестности. [55]
В «самопомощь» практик Search Engine Land про использование AI в SEO добавляет важную ремарку: AI стоит использовать как ускоритель черновиков, анализа и объяснения данных — но он не заменяет экспертизу, и «ценность сидит в человеческой проверке и контексте». [56] Это напрямую связано с риском репутации: масштабирование «среднего» AI‑контента без уникального опыта повышает вероятность, что ваш контент станет «взаимозаменяемым» и потеряет шанс на атрибуцию. [57]
Россия и Яндекс: локальный сценарий AI‑поиска и его последствия для рынка
Российский рынок важен не только как отдельная «география», но и как альтернативная траектория продуктовых решений. По StatCounter, в марте 2026 доля Яндекса в поиске в РФ составляла 72,69% против 25,93% у Google (остальные игроки — доли процента). [60] Это означает, что любые изменения формата ответа Яндекса имеют системный эффект для большинства сайтов, живущих на органическом спросе. [61]
Генеративный ответный формат в Яндексе оформился как «Нейро». В релизе компании (апрель 2024) описано, что сервис анализирует источники из выдачи, а модель YandexGPT «объединяет найденное в одном сообщении со ссылками», причём подчёркивается принцип: «факты не из памяти модели, а из источников в интернете», и ссылки выводятся отдельным блоком. [62] В справке Яндекса логика уточняется: Нейро показывается над результатами там, где «поможет сэкономить время», умеет работать в диалоге и, по заявлению справки, «ничего не придумывает от себя», предоставляя ссылки на источники. [63]
Дальше — самое важное для бизнеса: как меняется трафик и измеримость. Материал Коммерсантъ[64] (апрель 2026) сообщает о запуске Яндексом аналитики трафика из нейроблока «Алисы» (видимость сайта в ответах), с мотивацией «снизить долю серой аналитики». [65] Там же приведены цифры, которые по сути описывают масштаб AI‑ответов как нового слоя поиска:
— в среднем в марте 2026 в ответы «Алисы» в Поиске попадало 10 источников; [65]
— за январь–февраль в быстрых ответах было упомянуто более 14 млн источников‑сайтов; [65]
— ежемесячная аудитория пользователей, которые получают такие ответы, достигла 46,5 млн (рост покрытия в 1,5 раза год к году). [65]
Критичный фрагмент для издателей: в статье утверждается, что после внедрения нейроответов органический трафик у ряда информационных вертикалей снижался в среднем на 30%, а CTR в отдельных категориях падал более чем в два раза; также приводятся оценки потерь 20–40% трафика для сайтов в зависимости от типа запросов. [65] Даже если считать эти цифры «оценками рынка», они важны как сигнал: российская экосистема столкнулась с теми же экономическими напряжениями, что и западная, но на доминирующем локальном поисковике. [66]
Отдельно стоит отметить, что Яндекс параллельно перестраивает саму выдачу как «компоновщик блоков». В апреле 2026 компания объявила о внедрении «ИИ‑блендера», который подбирает комбинации более чем 40 блоков (ссылки, картинки, видео, погода, котировки и т.д.) под задачу пользователя и делает это за 50 миллисекунд; описывается также связка «лёгкой модели» и «мощной модели‑наставника» для контроля качества. [67] Это по‑сути институционализирует идею: пользовательский запрос — это не «ранжирование URL», а «сборка ответа из модулей». [68]
С точки зрения рынка рекламы и устройств важно и то, что мобильность уже давно стала базовой: в финансовом релизе Яндекса за 2023 год приводится, что доля поисковых запросов с мобильных устройств в Q4 2023 была 69,5% (и мобильный трафик давал 62,5% выручки от рекламы на странице результатов поиска). [69] В сочетании с AI‑ответами это усиливает «борьбу за первый экран»: на мобильном экране пространства меньше, а «ответные блоки» занимают большую долю видимой зоны — следовательно, классические органические результаты чаще оказываются «ниже сгиба». [70]
Рисунок: доля поисковых систем в РФ (март 2026). Табличные значения StatCounter показывают доминирование Яндекса и сохраняющуюся долю Google, что делает AI‑изменения в обоих движках релевантными, но с разным «весом» для российской аудитории. [60]
В сумме российская проекция исследования выглядит так:
1) Яндекс уже формализовал генеративные ответы с источниками (Нейро/Алиса в поиске). [71]
2) Можно ожидать перераспределения трафика вниз по воронке: меньше переходов по информационным запросам и больший вес «цитируемости» как новой метрики присутствия. [72]
3) Выдача становится «компоновкой блоков», где URL — лишь один из блоков, поэтому побеждает тот, чьи сущности и фрагменты контента удобнее встроить в ответ. [73]
Главный вывод для стратегии (и то, почему это исследование укладывается в журналистскую формулу «эпохи без кликов»): поиск одновременно становится более “умным” для пользователя и более “жёстким” для производителей контента, потому что ценность перемещается из клика в упоминание внутри готового решения. [74]
Если вам интересно следить за тем, как меняется SEO прямо сейчас, приглашаю в мой телеграм-канал — Red Hot Chili SEO. Также задавайте вопросы и делитесь мнением в комментариях.
ссылка на оригинал статьи https://habr.com/ru/articles/1022274/