Google: частота сканирования сайта ботом – не фактор ранжирования


Google: чaстoтa скaнирoвaния сaйтa бoтoм – нe фaктoр рaнжирoвaния

В сео-кругах давно существует миф о том, что частота сканирования страниц сайта Гуглботом непосредственно влияет на его позиции в результатах поиска и, соответственно, величину получаемого им органического трафика. Мол, чем чаще боты посещают ресурс, тем выше он находится в SERP.

Однако это мнение не выдерживает никакой критики. Такое заявление, общаясь с частным сеошником в Твиттере, сделал накануне Джон Мюллер (John Mueller). По словам официального представителя поисковой системы №1, систематическое сканирование страниц не является обязательным требованием для лучшей видимости или позиций сайта в выдаче Google.

Джон также отметил, что сайты, которые редко обновляют свой контент, объективно не нуждаются в частом сканировании Гуглботом. К примеру, для порталов, связанных с электронной коммерцией, сканирования раз в месяц может быть вполне достаточно.

С другой стороны, новостные ресурсы и прочие сайты с ежедневным обновлением контента вправе рассчитывать на систематическое сканирование их страниц. Безусловно, их ежедневный трафик во многом определяется регулярной работой поискового робота.

Что из этого следует? Волноваться насчет частоты сканирования нужно только тем порталам, которые часто добавляют что-то новое в Сеть. Всех остальных веб-мастеров это не касается.

Напомним, раньше Джон Мюллер заявил, что Google довольно быстро пессимизирует некачественные сайты.


Комментирование и размещение ссылок запрещено.

Комментарии закрыты.