Дублирование контента, что получается в результате

Чем вреден дублированный контент?

На сегодняшний день проблема дублирования контента — это тот фактор, который тормозит развитие SEO-области. Недобросовестная работа некоторых оптимизаторов, отсутствие осведомленности о проблемах, которые влекут за собой дублирование у владельцев сайтов, противодействие поисковых систем, все это приводит к тому, что порой качественные обладающие хорошим потенциалом сайты вылетают из индекса, иногда навсегда. Поисковые системы крайне негативно смотрят даже на частичное дублирование контента, не говоря уже о копипасте. Если поисковая машина во время проверочной сессии обнаруживает на сайте дублированный контент, то сайт помещается в карантин до исправления ситуации, то есть покидает «индекс» на некоторое время. В случае, если владельцы сайта не предпринимают никаких действий, для того чтобы уникализировать контент — сайт помещается в бан навсегда.

В случае, если дело касается плохой осведомленности владельца сайта о возможных последствиях дублирования контента, то владельцы сайтов должны более осторожно работать с RSS-лентами, служебными страницами (не скрытыми вовремя от роботов), страницами предназначенными для печати, а также рабочими дублями контента, которые создаются системой управления сайта, как резервные. Все можно решить с помощью запрета на индексацию. Но учтите, если вы скроете более 60% общей информации, это вызовет вопросы со стороны асессоров.

Как проверить текст сайта на наличие дублей?

Если вам нужно срочно узнать, имеются ли в сети дубли страниц или сайтов, продвижением которых вы занимаетесь, можете воспользоваться бесплатными программами для анализа данных, например, Double Content Finder буквально за несколько минут предоставит вам всю интересующую информацию, Advego Plagiatus выдаст список сайтов, где обнаружены малейшие следы дублированного контента, а eTXT Антиплагиат поможет решить проблему с основным контентом. Важно, любая биржа контента может служить источником дублирования. Порой очень сложно отследить имеющийся там контент, он может быть скрыт от асессоров, но будет открыт на вашем сайте. И тогда проблем не избежать. Полученные от авторов тексты можно проверять с помощью таких сервисов: copyscape.ru, findcopy.ru, antipagiat.ru, istio.com. В большинстве случаев каждая биржа контента предлагает свою программу для проверки.

Есть несколько полезных советов, применяя которые, вы сможете посмотреть даже скрытые на биржах тексты. Чтобы увидеть такие тексты в Яндексе, нужно ввести в строку поиска «я ищу:» полное название страницы, которую вы хотите проверить на дубли. А в строке «на сайте:» ставим галочку «расширенный поиск» , вписываете полное название сайта и нажимаете кнопку «найти». Поисковик выдает найденные страницы, причем сам он на этом этапе не фиксирует их как нарушение правил системы.

Что делать с дублированным контентом?

Если вы обнаружили дублированный контент раньше чем асессор, вам очень повезло. Срочно займитесь его удалением. Если тексты не удается удалить окончательно — закройте их от индексации. Есть набор инструментов, которые помогут вам быстро скрыть дублированные тексты от индексации. Самый используемый из мета-тег — это «robots» в стандартизированном html-коде страницы. Атрибутика тега: прописанный index — робот может индексировать часть текста; follow – робот учитывает эту ссылку в отчетном файле; noindex — робот не может не индексировать даже часть текста; nofollow – робот не учитывает ссылку вообще; all — робот индексирует все; none – роботу закрыт доступ к странице. Этот тег удобный и простой в пользовании инструмент. Он существенно упрощает работу поисковых роботов с содержимым страниц. Также нужно обратить внимание на тег Яндекса «noindex». Используя этот тег, вы ставите запрет на чтение текстов, робот их будет видеть при анализе, но в отчетный файл текст не попадет и при индексировании учитываться не будет. Практически каждая биржа контента имеет в своем активе тексты, которые скрыты от роботов.

Файл «Robots.txt»

Немного подробнее о файле «robots.txt». Это стандартизированный текстовый файл, который находится в корневой директории сайта. В нем содержатся инструкции для поисковых роботов. Инструкции, следуя которым роботы «видят» или не «видят» некоторые страницы, получают представление о зеркалах сайта, и об оптимизации основного контента ключевыми словами.

Следует понять, что даже с такой хитрой штукой, как дублирующий контент легко справиться. Полезно иметь карту сайта, особенно в том случае, если контент на вашем сайте обновляется в оперативном режиме.

Запомните. Тексты всегда должны быть уникальными. В меру оптимизированными и понятными читателям. Копипаст — это прямой путь в вечный бан. Поисковое продвижение держится исключительно на уникальности. Воспользовавшись услугами непрофессиональных авторов или оптимизаторов, вы потратите двойной бюджет на восстановление сайта в индексе или на создание нового.

Оставить комментарий

Plain text

  • Адреса страниц и электронной почты автоматически преобразуются в ссылки.
  • Строки и абзацы переносятся автоматически.
CAPTCHA
Этот вопрос задается для того, чтобы выяснить, являетесь ли Вы человеком или представляете из себя автоматическую спам-рассылку.
Fill in the blank.