Чем опасен неуникальный контент для сайтов

Pharmcash - фарм партнерка владеет несколькими партнерками и колцентром, низкие цены!
ZipWap - признанный лидер конверта мобильного трафика, старожилы рынка!
___________________

Этой статьей я начинаю серию публикаций по тематике SEO. Статьи будут рассчитаны на новичков и на профессионалов.

Смотрите полный видеокурс на iTunes

Дублированный контент для сайтов опасен в первую очередь тем, что покупаемые ссылки могут вести не на ту страницу, которая есть в индексе поисковой системы, а также полному выпадению из индекса. Дублирование контента может происходить в силу нескольких причин. Рассмотрим основные из них:

  • Использование RSS-лент;
  • Попадание в индекс служебных страниц;
  • Индексация страниц, предназначенных для печати;
  • Дублирование страниц, возникающее в результате работы системы управления сайта (CMS).

Эти проблемы решаются запретом на индексацию страниц, механизмы которой будут описаны ниже. Для начала же следует выяснить, каким образом можно обнаружить дублирующий контент для сайта и что с ним делать.

Обнаружить в сети дубли продвигаемых страниц можно при помощи специальных интернет-сервисов. Выявить дублирующий контент для сайта позволяют такие ресурсы,
как copyscape.ru, antipagiat.ru, findcopy.ru, istio.com. Для нее не требуется установки каких-либо приложений, а проверка осуществляется в онлайн-режиме. Еще один способ проверки уникальности контента – специальные программные компоненты. Среди них: double content finder, advego plagiatus, eTXT Антиплагиат и другие приложения. Кроме того, проверить наличие дублей страницы можно и при помощи поисковых систем. К примеру, в Яндексе достаточно ввести в строку поиска название искомой страницы и выбрать поиск по сайту в расширенных настройках. В результатах поиска будут все страницы, в которых имеются совпадения.

Итак, что же делать, обнаружив дублирующий контент для сайта? Самый очевидный метод – это удаление дублирующих элементов вручную. Если это по тем или иным
причинам невозможно, на помощь приходит запрет на индексацию страниц. Это осуществляется при помощи нескольких способов:

  1. Использование в исходном коде страницы метатега robots. Он дополняется атрибутами index(разрешение на индексацию), follow (разрешение учета ссылок), noindex (запрет на индексацию), nofollow (запрет на учет ссылок), all (полное разрешение на индексацию), none (полный запрет на индексацию). Использование метатега robots – один из самых простых способов указать поисковым роботам, можно ли индексировать те или иные элементы сайта и учитывать размещенные ссылки;
  2. Использование специального тега noindex поисковой системы Яндекс. При его помощи можно выборочно скрыть от индексации любую часть страницы. Робот увидит этот фрагмент, но не будет его учитывать. Разумеется, данный тег работает только для Яндекса;
  3. Редактирование системного файла Robots.txt. Находящийся в корневом каталоге сайта системный файл, регламентирующий процесс индексации, позволяет скрыть от поисковых роботов нежелательные элементы ресурса. Директивы файла Robots.txt предоставляют возможность выставить запрет на индексацию, определить основное зеркало ресурса и другие важные параметры.

Помимо наличия дублей страниц, крайне негативно на индексации и ранжировании сайта сказывается размещения контента с низким уровнем уникальности. Для этого необходимо щепетильно относиться к размещаемым текстам, тщательно проверяя их перед размещением. Уровень уникальности должен быть не ниже 95%. При сотрудничестве с копирайтерами для написания текстов для сайта следует заранее оговаривать требования к уникальности контента.
___________________
DrBucks - жирная фарма: более 3000 препаратов, евроязыки, лучшая проходимость заказов на рынке. ICQ: 532938
SellUS.ru- агрегатор товаров для продаж в Рунете, лучшее решение для Вашего трафа
Myrxpartner.biz - комиссия в фарме до 80%? Супер условия работы!!!

      
          

6 комментариев

  1. […] что не может не радовать.Естественно развитие блога, прошлой статьей я начал серию постов чисто про SEO, раз в неделю такой […]

  2. Спасибо за статью! Интересные советы.

  3. Контент — вообще самая важная составляющая любого интернет-проекта. Именно с контента все начинается, ведь сайт должен донести до своих посетителей какую-то информацию. Поэтому сайты с чужими статьями не представляют никакой информационной ценности для пользователей.

  4. Полезная статья о необходимости принятия мер по уникализации материалов на сайте. Все самое главное расписано подробно.

  5. Хорошая статья!;)

Leave a Reply to иван