«Яндекс» обновил алгоритмы своей поисковой системы

от автора

«Яндекс» разработал обновление для своей поисковой системы. В компании отмечают, что благодаря ему число веб-ресурсов с сомнительным содержимым на первой странице поисковой выдачи значительно уменьшилось. Точность выявления некачественных материалов, включая сгенерированные искусственным интеллектом, достигла 99%.

Команда разработчиков усовершенствовала алгоритмы и расширила перечень факторов, влияющих на ранжирование сайтов в поисковой выдаче. При этом учитывались кейсы, основанные на отзывах пользователей, SEO-специалистов, маркетологов и предпринимателей. 

«Этот подход стал особенно актуальным из-за растущего объема информации и ускорения производства контента, в том числе с помощью ИИ и низкого качества. Хотя такой контент может содержать необходимые ключевые слова и формально соответствовать запросу, он не несет ценности для пользователя. Владельцы сайтов, которые пытаются злоупотреблять доверием пользователей, например, используя домены закрытых организаций для размещения некачественного контента, могут заметить снижение своих позиций. При этом само по себе использование нейросетей не является негативным фактором, если публикуемый контент — качественный, проверен экспертом, не вводит пользователя в заблуждение и действительно помогает ему решить свой вопрос», — указывают в компании.

Предполагается, что после обновления алгоритмов сайты с качественным контентом смогут получать больше трафика в «Поиске» «Яндекса».


ссылка на оригинал статьи https://habr.com/ru/articles/895414/


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *