Работаем с 2009 года Более 450 успешных проектов Санкт-Петербург
8 (999) 849-91-09

Оптимизация сайтов после внедрения MatrixNet

Начиная с 2008 года поисковая система Яндекс начала свой плавный переход к новой формуле ранжирования сайтов под названием MatrixNet, на середину 2010 года в поиске применялось до 420 факторов ранжирования и их всевозможных комбинаций, а уже к середине 2011 года в крупнейшей российской поисковой системе уже функционировала принципиально новая технология, которая вызвала немало споров среди оптимизаторов и владельцев сайтов. Она зиждилась на использовании поведенческих метрик, оценки асессоров, разделении коммерческих и некоммерческих вопросов пользователей, обращаемых к поиску Яндекса, а также локализации выдачи по крупнейшим городам России. Однако даже на сегодняшний день многие оптимизаторы сталкиваются с отладкой вышеупомянутой технологии ранжирования, по причине чего продвигаемые веб-сайты могут как подниматься, так и, наоборот, пессимизироваться в поиске. Фильтроваться могут как, например, внешние факторы, к которым относятся коммерческие ссылки (степень их влияния прямо коррелируется со временем их существования), так и внутренние, когда алгоритмами штрафуется непосредственно сам сайт. В этом многообразии фильтров существуют еще и отсеивание на этапе построения ранга, например, неоспоримый приоритет имеют сайты с оригинальными сниппетами, а вот документы с неуникальными фрагментами текста будут показываться с понижающим коэффициентом. В случае же с аффилированными сайтами, ресурс может не показываться по какому-либо запросу вовсе.

Что такое аффилированные сайты?

Такими сайтами называется группа ресурсов принадлежащих одному частному лицу и/или компании. Алгоритм вычисления аффилированности полностью автоматический и в его расчете участвуют, прежде всего, такие признаки, как наличие идентичных контактных данных на страницах сайтов и схожей информации, содержащейся в записях о владельцах доменных имен. В действительности, разработчики компании Яндекс не имеют в своей лексике такого понятия как «аффилиация», поскольку в их понимании она является одной из мер по улучшению качества поиска и предоставлению пользователям поискового сервиса релевантного ответа. Как выглядит такой фильтр в действии? В случае, если ваши сайты по каким-либо запросам стали взаимозаменяться в поиске, то есть оптимизируя site1.ru и site2.ru под запросы «продвижение сайтов» и «продвижение сайтов в Петербурге» с тем расчетом, чтобы иметь оба сайта в ТОП 10 по обоим словосочетаниям, мы видим «раздачу» каждому из веб-ресурсов своего запроса. Получается, что вопреки всем нашим стараниям по продвижению обоих сайтов по обоим требуемым запросам site1.ru жестко привязан к запросу «продвижение сайтов», а сайт site2.ru к «продвижение сайтов в Петербурге». Они по прежнему прекрасно индексируются и участвуют в поиске, но, вместе с тем, site1.ru никогда не появится в поиске по запросу site2.ru, и наоборот.

Как противостоять данному фильтру? Во-первых, не создавать лишних сайтов, если они не предлагают какой-либо уникальной информации и/или сервиса. Во-вторых, коль поисковой системой была обнаружена аффилиация, то позаботиться о том чтобы на ваших сайтах не было ни единого намека на их общего владельца. Если повезет, то ограничения будут сняты, хотя очень часто оптимизаторы не рискуют браться за вывод сайтов из под этого сложнейшего фильтра, предлагая владельцам подобных групп просто отказываться от прошлых амбиций по количественному завоеванию выдачи в пользу качественного развития своих интернет-проектов.

Также интересным добавлением к общей органической выдачи стало предложение наиболее свежих документов из новостных ресурсов, социального контента и так называемых спектральных вкраплений из уточняющих запросов. Например, уточняющими запросами для «раскрутка сайтов» будут являться «цена», «форум» и «что это такое».

Давайте попытаемся классифицировать факторы, применяющиеся в обновленном алгоритме ранжирования:

  1. Внутренние факторы
  2. Внешние факторы
  3. Региональные факторы
  4. Факторы, находящиеся на стороне пользователя

Теперь рассмотрим каждый фактор в деталях:

1. Внутренние факторы.

Содержимому стало уделяться максимально пристальное внимание. В связи с чем, беспрецедентному по своей жесткости регулированию подверглось так называемое перенасыщение текстовой информации ключевыми словами. Помимо естественности содержимого, был сделан упор на обнаружение первоисточника размещаемой во Всемирной паутине информации, для чего в панели вебмастера Яндекса появилась функция загрузки уникального содержимого с продвигаемого сайта. Что же касается свойств какой-либо конкретной страницы и/или сайта, то здесь опять же приоритет отдается трастовым документам с html-форматом, без каких либо попандеров и кликандеров. Говоря исключительно о коммерческих сайтах, важно понять, что подобного рода ресурс должен подталкивать пользователя заказать услугу и/или совершить покупку товара, поэтому очень важно иметь на нем следующее: профессионально выполненный дизайн, обеспечить максимальную степень доверия к продавцу со стороны покупателя, предоставить подробное описание достоинств предлагаемого ассортимента продукции и/или услуг, а также возможность их удобного выбора посетителем.

2. Внешние факторы.

2. Ссылочный фактор в среднесрочной перспективе продолжает оказывать свое влияние на положение сайта в поиске, однако воздействие коммерческих ссылок (практически все крупные поисковые системы на сегодняшний день их превосходно определяют) для ряда запросов неумолимо стремиться к нулю. Там приоритетную роль начинают играть уже иные факторы. В этой связи, ни в коем случае не стоит прибегать к быстрому наращиванию ссылочной массы, поскольку подобная тактика сейчас является абсолютно бесполезной. Сюда можно отнести и линкообменные биржи, участие в которых может полностью обнулить веса обменных ссылок.

3. Региональные факторы.

3. Как вам, думается, понятно из самого названия, региональный фактор требует от оптимизаторов обязательной привязки продвигаемого сайта к определенному региону.

4. Факторы, находящиеся на стороне пользователя.

4. Для данной группы факторов, прежде всего, будет являться важным показатель СTR, а также количественные и временные данные сессии пользователя на выдаче. В его расчете также участвует поведение пользователя на самом ресурсе, к которому можно отнести: количество визитов и просмотров страниц сайта; показатель отказов и глубины просмотра страниц; время, которое провел посетитель на сайте. Безусловно, будут анализироваться источники трафика, а также половозрастная структура и география посетителей; наиболее популярные его разделы; количество загружаемых файлов; пути по сайту и отношение к нему со стороны пользователя в зависимости от располагаемой им технологии (браузер, разрешение экрана, операционная система и пр.). Здесь будет необходимым упомянуть о стабильности работы веб-сайта и тех ошибках, с которыми столкнулся робот-индексатор при его обходе.

Важно: не стоит пытаться обмануть разработчиков Яндекса и манипулировать поведенческими факторами, поскольку подобные действия не приведут к желаемому результату, а вот попасть под очередной фильтр от поисковой машины в этом случае будет не столь затруднительно.

Полезная информация по продвижению сайтов:

Перейти ко всей информации