Главная > Статьи > Что такое дубли страниц и как они влияют на продвижение сайта?

Что такое дубли страниц и как они влияют на продвижение сайта?

Многие, кто решает заказать продвижение сайта, задаются вопросом – что такое дубли страниц и как они влияют на позиции ресурса в выдаче? Дубли представляют собой страницы одного сайта, на которых размещен одинаковый контент. Надо отметить, что поисковики реагируют на это негативно, соответственно их наличие может сильно сократить эффективность продвижения. В этой статье специалисты компании «Darvin Digital» расскажут вам из-за чего они возникают и какие последствия имеют.

Из-за чего возникают дубли?

Дублирующие друг друга страницы с идентичным контентом чаще всего возникают из-за:

  • Автоматической генерации, если CRM сайта делает и технические, и ЧПУшные адреса.
  • Ошибок в настройках ссылок, в результате чего возникают адреса, которых фактически нет и при запросе они выдают такое же содержимое, как и правильные ссылки.
  • Ссылок с незначащими GET-параметрами.

Личный кабинет Яндекс Вебмастера

  • Ссылок, у которых на конце есть слеш и нет, ПС считают такие страницы разными.
  • Человеческого фактора и невнимательности при размещении контента или добавлении карточек в интернет-магазине может привести к возникновению дублей.

Кроме того, не следует копировать информацию с других сайтов, даже если это описание товара или услуги, которые вы тоже продаете. Это тоже приводит к появлению дублей, но не только на сайте, а в рамках всего интернета.

Как найти дубли

Если вы желаете вручную найти дублирующие страницы, то можете использовать для этого следующую схему:

  • Зайдите в Вебмастер;
  • На вкладке «Индексирование» откройте раздел «Страницы в поиске».
  • Справа найдите «Исключенные» и нажмите.
  • Прокрутите вниз, справа в углу можно скачать таблицу с информацией.
  • При нажатии «Скачать таблицу» можно выбрать желаемый тип архива. В таблице страницы-дубли будут помечены словом DUPLICATE.

Как решить проблему

Для устранения одинаковых страниц можно воспользоваться несколькими способами:

  • Для копий страниц с незначительными показателями CTE в robots.txt требуется вписать директиву Clean-param. Ее обработка возможна любом месте файла, обозначать её для пауков Яндекса не надо.
  • Установить 301 редирект с одного дубля на другой. В этом случае в поиск попадет только конечная страница, на которую будет переводить редирект. Обязательно укажите предпочитаемый адрес, который и будет попадать в поиск.
  • Можно использовать атрибут rel=«canonical». Однако тут надо учитывать то, что, если контент дублей не полностью идентичен или часто обновляется, обе страницы так или иначе могут оказаться в поиске. Если такое произойдет, необходимо использовать один из предложенных выше вариантов.

Страницы исключенные из поиска

Влияние на ранжирование

Дубли негативно влияют на ранжирование, за их большое количество ресурс может получить негативные реакции от поисковых систем.

  • Google или Яндекс трепетно относятся к уникальности контента, при наличие дублей они признаются неуникальными.
  • Наличие большого количества дублей ухудшает индексацию и запутывает поисковых роботов.
  • Затрудняется продвижение посадочных страниц, поскольку поисковик не может выбрать релевантную из двух одинаковых.
  • Теряется «вес» страницы, поскольку он распределяется между двумя одинаковыми документами.

Если у вас есть адреса со слешем и без на конце, для них лучше всего настроить 301 редирект. Для поиска можно выбрать любую ссылку, так как наличие отсутствие слеша не влияет на конечную на индексацию.

Попавшие под поисковую выдачу дубли страниц негативно влияют на ранжирование сайта. Они могут нанести урон не только в рамках конкретного URL, но и всего домена в целом. Поэтому стоит отслеживать и вовремя устранять дублирующий контент, ведь способов их обнаружения и устранения достаточно много.