Работа с дублированным контентом и целевыми страницами, заполненными ключевыми словами


Я начал работу над недавно приобретенным приложением для веб-сайта и хочу знать, как лучше всего справляться с большим количеством ключевых слов, дублирующим контентом, целевыми страницами.

Этот веб-сайт является веб-приложением, поэтому фактический контент, с которым взаимодействует пользователь, является динамическим и размещается в поддомене с robots.txt установите значение запретить все, а также теги noindex на всех динамических страницах, чтобы убедиться, что не все динамическое содержимое может быть проиндексировано или просмотрено.

В статические страницы переднего плана состоят из индексной страницы, справки/часто задаваемых вопросов, настроек, контактов, условий предоставления услуг, политики конфиденциальности, карты сайта и нескольких страниц, на которых объясняется, как использовать веб-приложение и получать желаемые результаты для наиболее распространенных применений сайта.

В дополнение к вышесказанному предыдущий владелец создал 70 дополнительных целевых страниц, которые в значительной степени идентичны фактической индексной странице, всего с несколькими изменениями, чтобы добавить дополнительные ключевые слова (различную метаинформацию, а также отдельные слова, которые имеют было изменено на ключевое слово, которое он пытался вставить в абзацы содержимого для этой страницы).


Мой главный вопрос заключается в том, как мне поступить со всеми этими дополнительными целевыми страницами, которые на 90 % дублируют контент и заполнены ключевыми словами. Моя цель - удалить их все вместе, но я не уверен, следует ли мне перенаправлять или полностью удалять их и обслуживать 404-е или сочетание того и другого.

Я не хочу использовать канонические теги на целевых страницах, указанных в индексе, так как они действительно низкие качество и должно быть удалено. Я подумал, что мне следует перенаправить некоторые целевые страницы на одну из статических страниц, которая лучше всего подходит для темы этой целевой страницы, в то время как некоторые из других просто 404.


Вопрос.

Короче говоря, каков наилучший метод удаления дублированного контента, заполненных ключевыми словами, целевых страниц, которые были созданы с единственной целью - попытаться получить трафик SE.

Просто удалить их и подавать 404-е? Перенаправьте некоторые из них на страницы что лучше всего соответствует теме целевой страницы? Перенаправить их все на домашнюю страницу?

Меня беспокоят возможные входящие ссылки на некоторые из этих целевых страниц и удобство использования пользователями.

Я почти уверен, что на сайте есть проблемы с пандами/пингвинами, поэтому я знаю, что у меня впереди долгий путь, пытаясь исправить это.

Author: Analog, 2017-05-31

1 answers

В вашей ситуации я бы определенно перенаправил (301 постоянный редирект) "плохие целевые страницы" на лучшую соответствующую страницу, которую вы хотите сохранить. Почему? Как вы говорите, на некоторых страницах могут быть обратные ссылки, которые вы не хотите рисковать потерять. В то же время также могут быть плохие обратные ссылки и спам-обратные ссылки, указывающие на плохие целевые страницы. На вашем месте я бы использовал такой инструмент, как ahrefs или majestic, для анализа обратных ссылок. Если есть спам или вредоносные ссылки, я бы создайте файл отказа и загрузите его в свою учетную запись Google Search Console. Если у вас нет одного из них, вы должны пойти дальше и зарегистрировать его бесплатно прямо сейчас.

Удачи @Аналоговый

 2
Author: Kristian Svensson, 2017-05-31 22:03:48