Это нормально, если 30-40% URL выдают ошибку 404? Google — об отношении поисковых ботов к битым ссылкам

от автора

Обеспокоенным вебмастерам с большим количеством «битых» ссылок в Google Search Console можно расслабиться. Оказывается, когда почти половина страниц сайта отзывается 404-й ошибкой — это норма для поискового бота Google.

Представитель корпорации Джон Мюллер сказал, что это обосновано алгоритмом работы кроулера, анализирующего сайт и каждую страницу на нем. Поисковый бот продолжает сканировать страницы, которые были удалены, причем даже те, что были удалены несколько лет назад. Помешать поисковику заниматься анализом «мертвых» страниц нельзя.

И что с этим делать? Ничего. Если вы уверены, что страницы больше не существует, то можно выдохнуть. Бот Google проанализирует «битую» ссылку и проигнорирует ее. На оценку Core Web Vitals и позиции сайта в поисковой выдаче наличие ошибок 404 не повлияет.

Кстати, планируется, что в мае этого года Google обновит факторы ранжирования и добавит новый алгоритм Page Experience. Новый алгоритм ранжирования будет состоять из 7 параметров. Также Google анонсировала новый инструмент Core Web Vitals, который придет на смену и объединит сервисы Lighthouse, Chrome DevTools, PageSpeed Insights, Search Console’s Speed Report.

В 2021 году в Google ожидаются большие изменения в ранжировании. Так что стоит обратить внимание на новый алгоритм и сервисы для проверки.

ссылка на оригинал статьи https://habr.com/ru/company/timeweb/blog/545174/


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *