Проанализировав нынешнее положение в сфере отечественного продвижения, а точнее, итоги прошлогоднего введения фильтров АГС и Минусинск, можно допустить, что это лишь начало преображения, которое запланировал Яндекс. Нас непременно ждут нововведения, которые не все бизнесы смогут пережить. Нельзя сказать точно, как будет работать новый фильтр, но зарабатывать просто и много «как раньше» у многих оптимизаторов уже не получится.
По сути, за 2 года, даже с вводом злосчастных алгоритмов и прочими «репрессиями» со стороны Яндекса, в результате которых 70% ссылочного бизнеса рухнули, — система осталась прежней. Такой крепкий фундамент обусловлен плотными связями на всех уровнях. Рынок полностью зависим от релевантности выборки, тесно связанной с инфраструктурой. Большинство оптимизаторов даже не удосужились поменять схему работы. Именно благодаря их деятельности коммерческая выборка считается релевантной. Крах ссылочного бизнеса, в свою очередь, поспособствовал временному падению качества коммерческой выборки.
Ситуация постоянно меняется, хоть сейчас состояние и не наилучшее:
С таким раскладом многие СЕОшники потеряют контроль над ссылочной стороной оптимизации.
Все изменится еще кардинальней, когда появится третий – фильтр статей. Некий текстовый аналог Минусинска скажется в первую очередь на дешевом копирайтинге, сайтах, сделанных под Miralinks, и тех, кто заполняет страницы бестолковым материалом просто для семантики. Его приход погубит все контентные ресурсы, не имеющие ценности.
На первый взгляд, принцип наказания сайта за переспам страниц легко реализовать, но Яндекс почему-то не торопится. Для него важней всего безопасность. По этой причине сначала запустили АГС, а после него Минусинск. Кроме того, сейчас у них есть чем заняться из-за неразберихи после ввода Минусинска. Уменьшение рынка торговли ссылками повлекло изменения, коснувшиеся алгоритма работы Яндекса.
Бардак с выдачей, который мы наблюдали на протяжении нескольких месяцев, связан с громадным обновлением, заходящим в Матрикснет, из-за которого нормировка показателей качества ссылок нарушилась. После искривления нормировок неизбежно изменился метод анализа статей на сайте, которые релевантны по анкорам и соответствующим им ключам и связаны на входящих и исходящих. Из-за этого Яндекс, как нам кажется, задействовал механизм ручного управления трафиком для самых важных тем, а затем включил автоматический, кэширующий нормировку метрик ранжирования. Через пару месяцев этот механизм сравнивает показатели с актуальными, отмечает противоречия в нормировке, а затем исправляет, таким образом подгоняя алгоритм под текущую ситуацию.
На практике это выливается в рандомизацию, то есть постоянные прыжки трафика и позиций в топе, проанализировать причины которых трудно. Так было с «многоруким бандитом» и безуспешными попытками отловить его.
По частоте скачков будет видно «здоровье» механизма, старающегося возместить натиск Минусинска. И только после стабилизации поисковика и спада активной фазы противодействия устоявшейся экосистемы на арену выйдет новый текстовый родственник Минусинска.
Ссылочный алгоритм со своей задачей справляется на отлично. Это видно по Сапе и подобных ресурсах, которые за последнее время пострадали больше всех. Ссылки в статьях – это уже другой вопрос. Яндексу сложно обнаружить в тексте SEO-ссылку из-за того, что статьи релевантны анкорам. Показатель является ключевым параметром качества ссылки. Если ориентироваться на вес ссылок, то можно определить, что у статейных он примерно в 10 раз больше, чем у саповских. В тематической подборке Сапы соотношение количества СЕОшных ссылок по отношению к статейным составляет примерно 9 к 1.
В будущем основную роль будет иметь качество статьи по меркам сайта, где она опубликована, и по сравнению с другими из этой же темы. Бороться за полезность поисковик будет не путем определения SEO-/не SEO-ссылка, а с помощью понятий SEO-/не SEO-статья. Это разумно, учитывая, что почти все SEO-ссылки со статей расцениваются как рекламные, то есть не подпадающие под запрет из-за естественности рекламы как таковой.
Индексация документа или стабильное место в индексе зависит от двух кворумов. Если таких же текстов в сети уже достаточно, то скорей всего документ кворум полезности в интернете не пройдет. А если речь идет о сайте с высоким трастом, да еще и с определенным внутренним трафиком на тексте (кворум полезности сайта), то в индексе он останется.
На крупных сайтах происходит ротация в индексе документов. СЕОшники знают, что основным параметром бесполезности контента является похожесть или дубли, которые становятся причиной плохого ранжирования сайта. Однако предстоящий фильтр не ограничится этим показателем. Санкции будут накладываться за количество страниц, принимающих участие в ротации индекса. Сейчас не проходящие кворум полезности, к примеру, из-за «несезона» на товар (пляжные зонты зимой), никто не трогает. Однако новый фильтр, из-за большого количества таких страниц, будет накладывать ограничения. Та же ситуация произойдет с «бородатыми» сайтами. Выхода 2: либо удалять такие страницы, либо запрещать индексацию через robots.txt, намекая ПС, что это архивный контент, не добивающийся ранжирования.
Ситуация с сайтами, сшитыми для Миралинкс, немного другая. Если на данный момент они просто попадают под АГС-40, то в будущем за несоблюдение кворума полезности они будут беспощадно наказаны новым фильтром.
Аналогично Минусинску его будут постоянно улучшать и обновлять. Основных показателей будет 2: качество и количество бесполезных страниц. Пороги срабатывания, подобно предыдущим фильтрам, будут с каждым циклом расти, выпиливая прежде всего ГС.
Защититься достаточно просто:
Для того чтобы найти магазины, товары, услуги для решения деловых, потребительских задач, большинство пользователей Интернета используют различные поисковые системы Yandex, Rambler, Google, Mail.ru. Очевидно, что веб сайты или интернет магазины по которым идет раскрутка либо продвижение...
С развитием современных технологий бизнес стал уходить в интернет, и торговля – не исключение. Но для процветания собственного дела мало запустить сайт в сети. Любой проект нужно рекламировать и раскручивать, так как конкуренция в виртуальном пространстве ничуть не меньше.
В современном тренде поискового продвижения бюджет проекта стоит оценивать иначе. Почему? Читайте нашу аналитику.