Дубли – одна из причин низких позиций в поиске. Удаление дублей из поисковой выдачи.

Из-за некоторых грубых ошибок допущенных  в СЕО могут в дальнейшем возникнуть серьезные проблемы – одной из них является дубляж страниц. Дубли плохо воспринимаются поисковыми ботами, значительным образом усложняют продвижение ресурса.

Почему так важно убрать дубли?

Две одинаковые страницы сбивают с толку поисковые боты, программа не может отдать приоритет по релевантности какой то определенной страничке. Конечно же алгоритм изучает и другие параметры, но решение о выборе дубляжа им дается туго.

К чему может привести данная проблема?

  • снижение рейтингов ресурса;
  • снижение позиций ключевиков;
  • сбои позиций из-за постоянных скачков релевантности.

Какими бывают дубликаты?

Чтобы грамотно и эффективно выстроить работу по избавлению от дубликатов, нужно предварительно в них разобраться. Есть два вида, полные и частичные. Первые размещаются на разных URL, вторые – частично дублируют содержимое.

Полные дубли

  • страницы с одинаковым URL, www, и без;
  • дубляж с https, html;
  • копии из-за реферальных ссылок;
  • генерация копий вызванная какими-либо проблемами с иерархией разделов;
  • ошибки в настройках страницы 404;
  • отсутствие слеша в конце URL.

Частичные дубли

  • Эту проблему сложнее обнаружить, так как она зачастую возникает из-за особенностей систему управления ресурсом. Ее могут вызвать такие факторы:
    Создание страницами пагинации, сортировки и фильтров копий. Если применить фильтры, то URL изменится, поисковые боты будут воспринимать страницу как отдельную.
  • Блоки описаний и комментариев. При переходе к отзывам будут созданы дополнительные параметры в адресной строке, но при этом страница остается прежней.
  • PDF для загрузки, печать. В этом случае страницами копируется содержимое интернет ресурса.

Как выявить дубли?

Существует множество способов выявления задублированых страниц. Рассмотрим самые простые из них.

Мониторинг выдачи оператором “site:”

С помощью этого метода вы сможете промониторить страницу на копии в ручном режиме. Отобранная оператором выдача просматривается визуально, все выявленные ошибки устраняются.

Специальные программы

С помощью специализированных инструментов можно просканировать сайт. Сервис может проверять ресурс в десктопном режиме или онлайн, выгружается полный адресный список, который потом сортируется.

Гугл Консоль

Программа выводит список повторяющихся тегов и мета-описаний – они могут говорить о наличии копий.

Что нужно сделать чтобы избавиться от дублей?

Изначально вам нужно удалить копии страничек со слешем и другими составляющими URL, которые дублируют копии. Также вы можете дописать условия в “robots.txt.” – этот метод будет актуален для служебных страниц, которые копируют наполнение основных.

Проблему с фильтрами, пагинацией и т.д. решит проставленный тег “rel=canonical”. При наличии на вашем интернет ресурсе печатных версий, специалисты рекомендуют применить тег meta name= “robots” content= “noindex, nofollow”. Это действие поможет скрыть такие блоки от ботов.

Лучше чтобы устранением этой проблемы занимался профессионал, так как чаще всего дубляжи создает сама система управления веб-сайтом. Непрофессиональное самостоятельное вмешательство может сильно навредить.

Оцените статью