web-crawlers
задержка обхода: x------- кому-нибудь здесь удалось понять, как там работает математика?
Из предыдущих исследований, посвященных чтению различных статей, я понимаю, что robots.txt задержка обх ... к 8 640 страницам в день.
Мой вопрос
crawl-delay: x; кому-нибудь здесь удалось понять, как там работает математика?
Как запретить индексирование, но разрешить обход?
На главной странице моего веб-сайта у меня есть несколько предварительных просмотров статей (с небольши ... вводил ссылки в них, но я просто не хочу, чтобы это сохраняло информацию (которая будет повторена в полных статьях).
robots.txt блокировка определенных файлов также блокирует ненужные URL-адреса
Я использую Magento для одного из своих сайтов. В Magento есть файл mage (только имя файла без расширен ... e, например magenta-color-item.html.
Как я пишу в роботе, чтобы заблокировать mage только не URL, начинающийся с mage?
Понимание Ajax-обхода поискового сайта
У меня есть пара вопросов об обходе Ajax веб-сайта, который сам по себе является своего рода поисковой ... бавить карту сайта со ссылками на все результаты поиска?
Есть ли какой-нибудь пример решения, описанный в статье выше?
Статус обходимого Ajax?
Я увидел, что у Google есть хорошее предложение/стандарт для обеспечения возможности обхода приложений ... ложение" уже в реальном мире?
Другие поисковые системы, в частности Bing, также используют или планируют использовать его?
Запретить обход всех страниц поиска
С помощью robots.txt Я пытаюсь остановить весь обход URL-адресов поиска
Disallow: /rest_of_url/search ... p;tour-duration=1/
Остановит ли приведенный выше код Disallow роботов от обхода всех моих страниц результатов поиска?
Почему боты постоянно сканируют страницы моего сайта, которые я никогда не создавал?
В своих журналах я заметил, что много запросов поступало от разных ботов и веб-сканеров, но меня смутил ... мер, запретить роботам посещать /fpss/ в файле robots.txt, но я хотел бы понять, почему они это делают в первую очередь.
Искатель Facebook без агента пользователя, отправляющего спам на наш сайт при возможной DOS-атаке
Поисковые роботы, зарегистрированные на Facebook (ipv6, заканчивающийся на:face:b00c::1), захлопнули на ... по ссылке и попали по URL-адресу только для сеанса.
Правка3: Facebook, похоже, подтвердил ошибку и ищет исправление .
Просматривают ли поисковые системы ссылки со строками запросов?
Если бы у меня был URL-адрес, подобный https://example.com/books, который содержал бы несколько ссылок ... d=baz
Будет ли там будут ли какие-либо различия/предпочтения? Или поисковая система будет сканировать и то, и другое?
Должен ли я стратегически использовать NoFollow для внутренних ссылок, чтобы сделать наш обход индексации более эффективным?
У нас хорошо продуманная система внутренних ссылок, которая гарантирует, что ни одна страница не превыш ... ить достаточно хорошо в покое или должен ли я использовать "Nofollow" для внутренних ссылок на соответствующий контент?
Как запретить Google выползать с моего сайта через изображения?
Я забочусь о веб-сайте, на котором есть несколько изображений, поступающих по внешним ссылкам.
Дело в ... ages/*.jpg$
Disallow: /*.jpg$
Поскольку все наши личные изображения находятся в определенной папке. Сработает ли это?
Поддельные ссылки вызывают ошибку обхода в инструментах Google для веб-мастеров
Google сообщил об ошибках сканирования на прошлой неделе на моем крупнейшем сайте с помощью инструментов ... огласно инструментам веб-мастера Google, эти ошибки появились в течение 11 дней. Ранее не сообщалось об ошибках обхода.
Будут ли у Googlebot проблемы с обходом сайта, если у нас есть такие международные перенаправления, основанные на местоположении и файлах cookie?
Итак, у нас есть международный сайт с несколькими поддоменами для каждого языка.
У нас есть разметка hr ...
Является ли этот сценарий перенаправления плохим для SEO и наших рейтингов SERP?
Если ДА, то как именно это вредит нам?
Как bing-бот (это правильное имя паука?) и googlebot интерпретируют перенаправление 301?
Я искал документацию о том, как боты Microsoft и Google интерпретируют 301 перенаправление.
Похоже, ... ак, потому что указанных страниц больше не существует?
Какие еще у меня есть варианты, о которых я, возможно, не знаю?
Google продолжает сканировать несуществующие страницы
Я создал простой новый веб-сайт, который заработал около полутора месяцев назад (заменив предыдущий). С ... о кэширована, так есть ли способ удалить ее? (У меня нет большого опыта работы с инструментами Google для веб-мастеров.)
Предоставлять различный контент для веб-поисковиков, чтобы исправить SEO для SPA?
Мой сайт построен как СПА-центр с использованием нокаута. Главная страница динамически заполняет список ... либо "стандартизированный" метод реализации, например, поддомен, который я мог бы использовать, например seo.mysite.com?
Как сделать перенаправление JavaScript на ту же страницу, не повредив моему SEO?
Я сделал что-то, что делает это, когда люди попадают на мою страницу в первый раз, они получают перенап ... pt находится на каждой странице и повторяется в PHP каждый время, когда кто-то (или робот) посещает сайт в первый раз.
Две страницы имеют одинаковое название, одинаковое описание, разное содержание. Являются ли они дубликатами?
Мы выпустили наш веб-сайт из нашего мобильного приложения за очень короткий промежуток времени.
Сайт до ... одинаковы.
Может ли это быть проблема? Какой алгоритм заставляет Google думать, что 2 страницы являются дубликатами?
Поисковик изображений Google не будет уважать мой robots.txt запись, чтобы не сканировать изображения
Я искал способ предотвратить обратный поиск изображений (а именно, я не хотел, чтобы люди, у которых бы ... мена (http://domain.blogspot.com), и мне интересно, не в этом ли причина проблемы?
Любые идеи, как решить эту проблему?
Учитывается ли регистр имен агентов пользователей в robots.txt?
Я блокирую различных ботов в robots.txt и мне было интересно, чувствительны ли их имена к регистру.
Например:
User-agent: grapeshot
Disallow: /
Будет ли иметь значение, если я использую grapeshot или GrapeShot?