Уникальный или не уникальный контент?

Уникальный или не уникальный контент?

При создании любого любого нормального сайта возникает вопрос — где взять контент. Подавляющая часть создаваемого контента на данный момент либо просто тупо копируется, либо рерайтится. Причина очень проста — создание действительно уникального контента стоит слишком дорого (по времени и/или по деньгам) и потому просто невыгодно и не имеет смысла. Авторское право само по себе едва ли не единственная область права, доведенная до идиотизма. В интернете же оно пока вообще практически неприменимо. Поэтому контент сейчас тырится направо и налево.

Неоднократно мне приходилось слышать и читать на форумах сказки о том, что сайт, наполненный уникальным и полезным контентом сам по себе обрастает естественными ссылками и таким образом сам по себе продвигается. Это полный бред. У меня есть один сайт медицинской тематики, контент на котором полностью уникальный и написан профессиональным врачом, доктором медицинских наук. Сайт является уникальным и единственным в своей области сайтом с таким содержанием и пользуется большой популярностью. Так вот продвижение такого сайта ничем не отличается от продвижения сайтов с заимствованным контентом. Несмотря для высокую для своей тематики посещаемость, естественных ссылок крайне мало и я не заметил ощутимого преимущества в продвижении такого сайта по сравнению с сайтами с заимствованным контентом, а они у меня в той же тематике тоже есть. Все сказки про преимущества сайтов с уникальным контентом — это полный бред. Все что, нужно — это сделать так чтобы поисковые системы считали контент уникальным, все остальное неважно.

Что касается поисковых систем, то они на данный момент очень плохо умеют замечать дублированный контент. Фактически Яндекс и Гугл умеют только находить полные дубли, и то кое-как. Достаточно очень небольших изменений в тексте, чтобы поисковики считали его уникальным и хорошо индексировали.

Начитанные люди говорят о проблеме поиска дублированного контента (нечетких дублей) любят ссылаться на алгоритм шинглов. Некоторые даже считают, что именно в с помощью этого алгоритма яндекс ищет дублированный контент, видел даже теоретические изыскания в каком-то блоге на тему того как этот алгоритм обойти. На самом деле алгоритм шинглов — это не более чем красивая теория, в чистом виде он неприменим из-за слишком большой ресурсоемкости. Возможно Яндекс и применяет его в в каких-то узких задачах, но не более того. Именно поэтому в выдаче Яндекса столько дублированного контента.

Это были общие размышления на тему дублирования контента, в одном из следующих постов я расскажу о конкретных способах уникализации контента.

Сохраните, чтобы не потерять!

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *