Будет ли динамичный robots.txt файл, запрещающий обход в зависимости от времени суток, вредит SEO?


У нас серьезная проблема с трафиком на нашем сайте, и мы хотим устранить поисковые роботы как часть этой проблемы. Если мы запретим обход с помощью robots.txt только в течение нескольких часов это повредит нашему SEO?

Author: Stephen Ostermiller, 2018-01-18

1 answers

Сосредоточьте свою энергию на улучшении вашего сайта/сервера вместо того, чтобы пытаться найти какой-то хитрый обходной путь. Вы никогда не знаете, в какое время суток поисковые системы будут сканировать ваш сайт, поэтому разрешение их только в определенные окна может оказать сильное негативное влияние. Если вы заблокируете поисковые роботы, когда появится Google, вам не понравятся результаты.

Что вы можете сделать для Google, так это установить скорость обхода . Ограничение скорости обхода ("сколько запросов в секунду Googlebot делает на ваш сайт во время обхода это: например, 5 запросов в секунду") поможет снизить нагрузку, не блокируя их полностью. Если у вас большой сайт, это может означать более длительную задержку до индексации новых обновлений, но это лучше, чем полностью отказаться.

По крайней мере, для Bing у вас есть немного больше контроля. В соответствии с их как на странице:

Вы можете сказать Bingbot, чтобы он сканировал ваш сайт быстрее или медленнее, чем обычная скорость сканирования в течение каждого из 24 часов в сутки. Таким образом вы можете ограничить активность Bingbot, когда ваши посетители находятся на вашем сайте, и предоставить нам больше пропускной способности в более тихие часы.

Bing Crawl Control

 5
Author: Andrew Lott, 2018-01-18 20:02:14