Что такое накрутка поведенческих факторов и к чему она приводит

Содержание:

Как накручивать поведенческие факторы автоматически

Сейчас я коснусь только накрутки в Яндексе (в Гугле пока не ставил экспериментов).

Для начала нужно зарегистрировать несколько новых аккаунтов в Яндексе. После регистрации нужно дать им время на отдых, ведь если накручивать ПФ новым профилем, его быстро забанят. После отдыха залогинившийся бот ходит по сайтам с установленными метриками и прокачивается. А уже после того, как профиль хорошо прокачается, он заходит на продвигаемый сайт по нужным запросам, задерживается на нем и переходит по внутренним ссылкам.

Вот и весь алгоритм автоматической накрутки. А теперь разберем механизм подробнее. 

Регистрация профилей в Яндексе

Бот Web Visitor заходит на сайт Яндекса и регистрирует профиль, он вводит и запоминает произвольный логин и пароль. Иногда для регистрации требуется ввести капчу – для этого покупаем любой ключ антикапчи и вводим его в программу. Так мы получаем автоматическую регистрацию профилей, которые помещаются в папку на арендованном сервере. В этой папке профили спокойно ждут 4-6 дней, после чего переходят к прокачке.

Прокачка профилей

Боты в течение 4-6 дней нагуливают себе историю. Они ходят по сайтам и маскируются под людей. У каждого бота есть своя история в браузере. Когда программа поймет, что профиль хорошо прокачан, приходит время осуществлять заходы на целевой сайт.

Заходы на сайт

В отдельном txt-файле мы отмечаем следующее:

Количество заходов нужно наращивать постепенно. После того как количество заходов достигнет 50% от средней частоты в день, перестаем наращивать. Месячную частоту запроса делим на 30 (дней), а затем делим на 2, чтобы получить 50% от количества дневных заходов – это и есть то самое число. 

Остальные события происходят автоматически по той же схеме – новые профили создаются, отдыхают несколько дней, прокачиваются и осуществляют заходы на продвигаемый сайт. 

Активные действия на сайте

Также для ботов можно настроить активные действия на сайте. С помощью активных действий бот может, например, кликнуть на кнопку «Заказать», нажать на контекстную рекламу или просмотреть видео до конца. То есть с помощью программы можно еще и увеличивать заработок на рекламе. 

Что можно отнести к поведенческим факторам

Для того чтобы этот алгоритм было сложно обойти, поисковики учитывают множество коэффициентов, значений и последовательностей. Основные факторы, которые определяют место веб-сайта в выдаче:

1. CTR — Количество кликов на сниппет в поисковой выдаче

Сниппет — это заголовок  и краткое описание страницы сайта. Собственно его и видят пользователи в выдаче.

Логика такова: «Авторитетность» сниппета повышается, если на него часто кликают. Если по сниппету кликают много, значит он соответствует их ожиданиям и предпочтению, тогда приоритет сниппета повышается

Но это не все, важно помнить об удержании целевой аудитории на странице. Если будет много кликов, но пользователи станут сразу закрывать веб-сайт, то ранжирование будет  ухудшаться.  Такое поведение является сигналом, того что сниппет не подтверждает ожидания. 

2. Время, проведенное на сайте.

Поисковые алгоритмы делают расчет так: чем больше пользователь находится на сайте, тем более значимая и полезная информация представлена там. Некоторые недобросовестные оптимизаторы пытаются увеличить время, проведенное на сайте сложной запутанной навигацией, но это будет отпугивать клиентов, и все остальные факторы будут играть против высокого ранжирования ресурса.

Однако, это справедливо не для всех. Например, на сайте онлайн вызова такси короткое время сессии — это скорее плюс. То есть чем быстрее пользователь оформил вызов, тем выше качество сервиса. В таких случаях поисковики ориентируются на показатели схожих сайтов в этой сфере деятельности.

3. Показатель отказов.

Это единственный фактор ранжирования, для которого:  чем меньше значение — тем лучше. То есть, если ресурс не понравился или он не соответствует ожиданиям, то пользователь сразу же его закроет, никуда больше не переходя, а это большой минус для ранжирования веб-сайта. Безусловно, добиться показателя по отказам 0% — невозможно, но чем он меньше, тем.

4. Глубина просмотра веб-сайта.

Напротив, чем больше будет внутренних переходов, скачиваний, нажатий на кнопки и ссылки, тем улучшается ранжирование. Ведь это значит, что сайт не только привлекает, но и «погружает»  посетителей вглубь контента по их собственному выбору.

5. Возвращения (повторные заходы) на сайт.

Если человек захотел вновь вернуться на сайт, сохранил страницу в закладках или запомнил URL, то это свидетельствует о высоком качестве веб-ресурса. Алгоритмы поисковиков высоко ценят те страницы, на которые человек возвращается несколько раз после первого просмотра, и определяют, когда пользователь перешел на сайт из закладок.

Что такое поведенческие факторы ранжирования?

Поведенческие факторы (ПФ) — это учет данных поведения посетителя на сайте, то есть как долго он просмотрел страницу, сколько открыл страниц, сделал ли возврат на сайт, по какому запросу пришел на площадку и другие.
А вот как это понятие классифицирует Гугл:

Конечно же сложно дать однозначный ответ, какой именно параметр оказывает большое влияние при учете ранжирования страницы.

Многие веб-мастера и seo-компании постоянно проводят различного рода анализы и эксперименты, чтобы понять, на что следует обращать внимание, занимаясь продвижением собственных проектов, а также клиентских сайтов. На основе их данных получился небольшой список наиболее значимых факторов:

На основе их данных получился небольшой список наиболее значимых факторов:

Длительность пребывания на сайте. Если ваш проект интересный и востребованный, тогда посетителя на нем будут долго задерживаться, что свидетельствует о его пользе.

Чем этот показатель больше, тем лучше. За сегодняшний день по данным Метрики, среднее время пребывания на блоге seoslim.ru составляет почти 2 минуты.

Показатель отказов. Отказом считается единичный просмотр страницы посетителя менее 15 секунд. Один из самых значимых параметров, которые сложно улучшать.

Например, если пользователь проводит на вашем сайте не более 15 секунд и возвращается к результатам поиска — это 1 отказ.

За сегодня на блоге было около 12% таких отказов. Как видите полностью избавиться от них практически нереально, но и забывать про него никак нельзя.

Нужно стремиться, чтобы таких отказов было, как можно меньше, ведь это сигнал для поисковиков, что на такой странице расположен контент, который не удовлетворяет запросам посетителя, и страница может быть занижена в результатах выдачи.

Глубина просмотров. Этот параметр определяет, сколько страниц просматривает посетитель за одну сессию. Согласитесь, что если сайт действительно интересный, сложно ограничиться просмотром одной страницы.

Статистика моего блога показывает, что в среднем за сегодня у меня было просмотрено 1.4 страницы. Это получается, что почти каждый второй переходи еще по каким-либо ссылкам.

Источники трафика. На сайт посетители могут приходить не только из поисковых систем, а так же из других источников (переходы из социальных сетей, закладок и других сайтов).

Если площадка полезная, тогда велика вероятность, что посетитель добавит ее к себе в закладки или поделится ссылкой с другими пользователям сети.

Все это свидетельствует росту прямых заходов и улучшению поведенческих факторов ранжирования страниц.

Количество возвратов. Как часто посетители возвращаются на страницы сайта без помощи поисковиков. Данный параметр очень важен и хорошо влияет на позиции в выдаче.

Посудите сами, если человек используя Яндекс или Google с помощью нужного запроса отыскал на страницах вашей площадки важную для себя информацию и через какое-то время опять возвращается, но уже из закладки браузера или адресной строки, тогда ваш материал действительно качественный, заслуживающий высоких позиций.

Первый клик

Очень важно, какому web-ресурсу в ТОП выдаче пользователь отдает предпочтение, а именно делает первый клик

Вот вы хотите купить гараж, естественно вводите в поиске Яндекса запрос «Купить гараж» и видите много релевантных заголовков страниц.

Какому сайту вы отдадите предпочтение? Конечно же тому, у которого в заголовке будет содержаться информация по искомому запросу, а также тому, у кого лучше будет составлено подробное описание, а именно «сниппет».

Очень подробно про его формирование я рассказал в статье «Что такое сниппет, и как он влияет на увеличение трафика».

Если в выдаче, человек совершает переход по сайту, который расположен на 3 месте, тогда это еще один сигнал для ПС, что данный сайт лучше отвечает запросам посетителей и возможно через некоторое время он будет повышен в результатах выдачи.

Поэтому старайтесь максимально качественно составлять описание страниц, а если позволяет возможность тогда настройте отображение расширенного сниппета, о котором я расскажу в следующий раз, не пропустите.

Все вышеприведенные параметры вы легко можете отслеживать с помощью Яндекс Метрики, Google Analytics и счетчика посещений LiveInternet.

Безопасная накрутка поведенческих факторов сайта

Я немного отвлекся, но зато мы выяснили, что накрутка ПФ работает и еще как! Значит пора переходить к моей основной мысли – ЕСТЕСТВЕННАЯ и БЕЗОПАСНАЯ накрутка поведенческих факторов.

Естественная – потому что совершается реальными людьми из целевого региона, их поведение разнообразно, натурально, они проводят на сайте много времени и даже совершают целевые действия (отправка формы).

Безопасная – как следствие предыдущего пункта, за эти действия наказывать никак нельзя. И вот почему.

Снова начну издалека. Если следите за тем, что я пишу о жизни студии, вы помните, что на рынке труда нет готовых кадров и опытных специалистов, а мы уже несколько лет набираем только стажеров-новичков. Я рассказывал об этом в посте «Как из SEO-блогера вырасти в агентство», а еще я показал, какое тестовое задание мы придумали, чтобы отсеивать лентяев, как мы к этому пришли и чего добились.

Схема по-прежнему максимально эффективна, работает классно и помогает находить ответственных людей.

Тестовое задание на вакансию стажера в «АлаичЪ и Ко» — это и есть ключевой момент.

Ссылка на нашу вакансию на hh.ru (сейчас она активна, но даже если уйдет в архив, описание останется прежним). Вакансии с таким описанием я размещаю уже больше года (с января 2019).

В самом конце там всегда было написано:

Я размещал там ссылку на тестовое задание не для того, чтобы получить ссылку (ссылки всегда будут неактивные), а чтобы не вступать в лишнюю переписку, а кандидаты сразу отправлялись делать задание.

Но вот беда, модераторы HH.ru следят за всеми вакансиями и выпиливают ссылки (зачем?). Минут через 10 после публикации обновляешь страницу – а ссылки нет. Приходилось заходить в редактирование и снова указывать ссылку. После этого уже модераторы ничего не проверяют, и ссылка остается навечно (лайфхак!).

И вот пару недель назад я опубликовал очередную вакансию и благополучно о ней забыл. А когда пришёл домой, вспомнил: блин, там же ссылку удалили, кандидаты ни за что в жизни не поймут, что за тестовое и где оно.

Вакансия провисела целый день без ссылки (меня это почему-то жутко расстроило), и тогда мне пришла в голову гениальная мысль – избавиться от ссылки, но оставить подсказку.

Вот, что получилось:

И пошла жара!

19 февраля я изменил описание и сразу же пошли переходы. «Всего» на графике – это все брендовые запросы (алаич, алаичъ, алаич и ко, алаичъ и ко и т.д.), так как они тоже вырастают, когда опубликованы вакансии.

Общий трафик с поисковых систем вырос в 2-3 раза:

Обратите внимание, что переходов с Гугла в период роста в полтора раза больше, значит потенциальные стажеры больше пользовались Гуглом, а не Яндексом. А стало быть, в предыдущий график с поисковыми запросами можно было бы добавить множитель x2.5

И в такие моменты жалко, что поведенческие факторы не работают в Гугле.

Естественно, все переходы – это люди, а не роботы:

Для сравнения вот так выглядел график источников переходов на сайт раньше, когда я публиковал вакансии со ссылкой на тестовое задание:

Это график за последние 2 года. Всплески прямых переходов связаны с публикациями вакансий. Видно, что раньше были пики прямых заходов, а в конце графика пик переходов с ПС (это настоящее время).

Итак.

Мы подошли к кульминации нашего разговора, и тут выходит на сцену фраза, о которую разбиваются все аргументы — «И че?»

Что использовали для накрутки

Изначально планировали использовать несколько разных сервисов для накрутки, но найти «живые» инструменты оказалось затруднительно. Поэтому остановили выбор на Userator. Использовали стандартный Userator и SEO Bonus. Но основные силы были направлены на ручную накрутку.

Как работает Userator

Заказчик оплачивает каждую сессию (11 рублей за сеанс). Специальное ПО на компьютерах исполнителей присылает им пошаговые инструкции и делает контрольные скриншоты. Исполнители – реальные люди с IP-адресами из разных регионов, зарегистрированные в сервисе.

Единая схема задания в Userator:

1. Вводится запрос-синоним.

2. Выбирается регион поиска: Москва (в Яндексе).

3. Вводится целевой запрос.

4. Осуществляется переход на 2 случайных сайта.

5. Беглый просмотр открытых страниц.

6. Возврат на выдачу.

7. Переход на целевой сайт.

8. Просмотр 2–3 страниц на целевом сайте в течение 1–2 минут.

9. Конец сессии.

Как работает SEO Bonus

В SEO Bonus взаимодействие инструмента и исполнителя происходит через Telegram-бот, соответственно, упор делается на мобильные устройства. Бот присылает одно задание в день, они проще, чем в Userator, но стоят дороже (20 рублей за сеанс). Из-за того, что заданий меньше, пользователь выглядит более реалистично.

Пример задания

Ручная накрутка

Для ручной накрутки был арендован сервер, на котором поднимали определенное количество виртуальных машин со своими конфигурациями: операционная система, разрешение и проч. На каждой машине было несколько браузеров (Firefox, Chrome и Яндекс.Браузер). В каждом браузере по несколько десятков отдельных пользовательских профилей. Каждому пользователю выделяли отдельные резидентные прокси московского региона. В общей сложности получили 168 вариантов конфигураций с несколькими десятками профилей.

Для проверки гипотезы «Владелец или конкурент» нужно было убедиться, умеет ли Яндекс отличать, кто накручивает ПФ. Для этого сайты разделили на две группы:

  • «Владелец»: максимум компрометации связи между аккаунтом в сервисе накрутки и Яндекс.Вебмастером. Установлены расширения от Яндекса (Погода, Почта и т.д.), регулярные посещения сервиса и Вебмастера.
  • «Конкурент»: следили, чтобы не было оснований связать сессию с владельцем сайта.

С помощью ручной накрутки также проверяли гипотезу «Пользователь с историей vs пользователя без истории». Соответственно, часть пользователей работала по сценарию максимально приближенному к реальному (сессии с «историей»): это реалистичные аккаунты, с номерами телефонов, Яндекс.Диском, привязкой и сохраняемыми файлами cookie. И были «чистые» сессии, для которых удалялась вся информация о предыдущих поисковых сессиях.

При этом поведение пользователей определялось не единым паттерном, как в Userator, а было максимально разнообразным:

Для накрутки брали запросы, которые находились в ТОП 50 выдачи.

Сколько крутили:

  • 20–30% от частотности запроса, если он в ТОП 20/50;
  • в случае с низкочастотными запросами (до 5 точных показов) – 1–2 визита в месяц;
  • брендовые (все нулевые) – 1–10 визитов в месяц, исходя из позиции;
  • крутили, пока запрос устойчиво не попадет в ТОП 5.

Информация о сайтах, участвовавших в эксперименте

Тематика: продажа кошек породы мейн-кун.

Региона: Москва.

Семантика: ~250 ключей.

Для проведения экспериментов создали 21 сайт – семь групп по три сайта в каждой:

  • Основная группа Userator (6 сайтов) делится на две подгруппы «Владелец сайта» (3 сайта) и «Конкурент» (3 сайта).
  • Основная группа SEO Bonus (6 сайтов) делится на две подгруппы «Владелец сайта» (3 сайта) и «Конкурент» (3 сайта).
  • Основная группа «Ручная» (6 сайтов) делится на «Аккаунты с историей» (3 сайта) и «Аккаунты без истории» (3 сайта).
  • «Контрольная группа» (3 сайта) – их не крутили.

Подробнее про сайты:

  • Домены новые, зарегистрированы примерно в одно время, все домены без истории.
  • Все сайты на разных IP-адресах (публичные хостинги: sweb, timeweb, beget и тд).
  • WordPress, разные паблик-шаблоны.
  • Одинаковое количество страниц.
  • Яндекс.Метрика, Яндекс.Вебмастер, Google Search Console, GA.

Была проведена базовая внутренняя оптимизация:

  • Написаны тексты одинакового объема с равным количество ключей, распределенных в тексте по одному принципу (12–15 тысяч знаков на один сайт).
  • Сделан каталог котят: изображения, цены.
  • Уникальные title.

Региональность:

  • Для Яндекса был присвоен регион «Москва» через Яндекс.Вебмастер.
  • Для Google добавлена организация с адресом на Google Maps (везде разные мобильные номера).

Граф кликов вместо ссылочного графа

Основное отличие BrowseRank от PageRank — структура графа. В технологии PageRank узлами графа являются документы, а ребрами — ссылки. В технологии BrowseRank ребра образуют не ссылки, но клики (переходы). Помимо этого, сохраняется мета-информация о продолжительности сессии в рамках документа.

Очевидны два существенных преимущества BrowseRank:

  • существенно лучшая устойчивость к ссылочному спаму,
  • учет продолжительности сессии позволяет оценить полезность документа для посетителя.

Поведенческий граф более достоверно отражает процесс веб-серфинга, а, следовательно, он более полезен для расчета важности документов. Большее число посещений страницы и большее проведенное время означают большую важность страницы

Основной источник данных о поведении пользователей — браузерные бары. Все ведущие поисковые системы имеют плагины, обеспечивающие мониторинг активности большой доли аудитории.

Для обработки данных о поведении пользователей предложено использовать с непрерывным временем

Экспериментальные данные демонстрируют преимущество алгоритма BrowseRank по сравнению с алгоритмами PageRank и TrustRank в определении важности документов, борьбе со спамом и ранжировании

По сути, собираемые данные можно представить записью вида URL; TIME; TYPE . Предполагается два пути перехода на документ: по ссылке с другого документа (click), либо набором url в адресной строке браузера (input). Механизм извлечения данных о переходах:

  1. Сегментация сессии.

    Новая сессия инициируется в случае 30-минутной и более паузы с момента предыдущей активности, либо в случае ввода названия сайта в адресную строку.

  2. Формирование пар url.

    В рамках каждой сессии создаются пары url из соседних записей. Пара url означает, что переход был осуществлен при помощи ссылки.

  3. Формирование начального распределения.

    В каждой сессии, сегментированной по типу перехода, первый url введен непосредственно пользователем. Такие url мы считаем «доверительными» и называем этот трафик «зеленым». Обрабатывая данные о поведении пользователей, мы считаем переходы на эти url следствием случайного распределения. Нормализация на частоту посещения этих документов дает начальные вероятности посещения соответствующих страниц.

  4. Извлечение продолжительности сессии.

    Для каждой пары url продолжительность сессии первого url вычисляется простой разностью дат. Если url был последним в сессии, возможны два варианта. Для сессий, сегментированных по времени, продолжительность просмотра последнего url рассчитывается на основании данных о просмотрах других страниц. Для сессий, сегментированных по типу, время просмотра последнего url рассчитывается исходя из времени начала следующей сессии.

Как узнать, что вы попали под фильтр?

Самый просто способ — зайти в Яндекс.Вебмастер, где в разделе Диагностика — Безопасность и нарушения обязательно будет такое сообщение:

Можно также написать в техподдержку и получить в ответ такое письмо:

Увы, сайт попал под фильтр, а значит впереди много кропотливой работы по избавлению от него.

Признаки фильтра на сайте

Чтобы знать, как бороться с фильтром, нужно знать, как его «диагностировать». Это пригодится, если, например, нет доступа в Яндекс.Вебмастер, но есть к Яндекс.Метрике или Google Analytics. Итак, признаки того, что сайт угодил под фильтр:

  1. Резкое падение трафика (в течение суток) на 85-90% из поисковой выдачи.

2. Просадка по позициям до 30-50 мест.

3. В некоторых случаях трафик «режут» не на весь сайт, а только на определенные страницы: самые посещаемые, коммерческие страницы и так далее.

4. Также иногда ограничение трафика не касается брендовых запросов — по ним сайт остается в ТОПе

Что еще раз подтверждает, насколько важно усиливать свой бренд — в такие моменты он может спасти ваш бизнес

За что накладывается фильтр?

Ресурс попадает под фильтр в таких случаях:

  1. Яндекс получил сигнал, что трафик на сайт неестественный, с признаками накрутки:
  • слишком большое количество переходов;
  • неестественные пропорции количества переходов, популярности запроса и позиции. Например, сайт на 20 позиции, а за месяц на него 200 переходов по высокочастотным запросам;
  • много переходов по нерелевантным запросам — продаете розовое вино, а на сайт массово заходят по запросам «розовое вино смотреть клип онлайн».

2. Онлайн-бизнес стал жертвой работы конкурентов, которые провели кампанию против сайта. Как правило, по самым скромным подсчетам, для этого нужно чтобы конкуренты в течение 2-3 месяцев тратили не менее $500 на накрутку вашего сайта.

3. Вы использовали или регистрировали свой сайт в сервисах накрутки по типу SERPClick, Userator, Movebo. При этом могли не пользоваться ими по назначению.

4. Произошла ошибка. Да, Яндекс не застрахован от этого.

Была ли накрутка?

Если вы самостоятельно накручивали поведенческие, то здесь все ясно и лучше явиться к Яндексу с повинной.

Если не накручивали, то, как минимум, нужно найти следы преступлений, чтобы было с чем обратиться к администраторам Яндекс. Как это сделать:

  1. Смотрим переходы по позициям в Яндекс.Вебмастере и ищем аномальные:
  • нет ли завышенных показателей CTR относительно позиции;
  • нет ли переходов по запросам, по которым вы не продвигаетесь;
  • нет ли переходов по «adult» тематике и прочим подобным запросам.

2. Смотрим переходы по запросам в Яндекс.Метрике и ищем аномальные:

3. Ищем странные и неестественные скачки трафика в определенный день или определенное время суток. Если рост трафика был более 30% без явной причины (праздник, ивент, сезонность), изучаем, что произошло.

Какие действия на сайте могут считаться накрученными или выдавать действия бота?

Обычно накрутка ПФ с помощью ботов или реальных пользователей фиксируется по такому алгоритму действий:

  1. Медленная, с паузами прокрутка страницы вниз.
  2. Резкие движения мышкой вокруг каких-то элементов, кнопок, форм отправки.
  3. Открытие и «долгое чтение» информационных разделов (например, условий доставки, аренды, гарантии с первого визита). Возможны петли мышкой (как будто пользователь читает).
  4. Не попадание мышкой в меню (обычно при накрутке ботами).

Когда работает бот, он делает рандомные твисты и движет мышкой вниз с небольшими рывками, которые скрипт видоизменяет произвольно по времени и по темпу.

Поведенческие факторы на сайте

На просторах сети поведенческими факторами называют ряд возможных действий пользователей, которые они производят на сайтах. Обычно это вход, авторизация, просмотр контента и скачивание файлов, клики на баннеры и ссылки, многое другое. Влияние поведенческих факторов (пф) на ранжирование в поисковых системах неоспоримо, так что их анализ – важнейший этап для оптимизации сайта.

К поведенческие факторы ранжирования сайта yandex и google относятся:

Клики в выдаче поисковой системы. Основное значение придается первому и последнему кликам, ведь, согласно алгоритмам в Яндекс, обычно именно они считаются наиболее релевантными.
Посещаемость ресурса, которая указывает на его популярность и востребованность на просторах сети.
Глубина просмотра, вычисляющаяся из количества просмотренных страниц и бездействие пользователя в ссылочных факторах вашего сайта.
Время нахождения как на сайте в целом, так и в его отдельных разделах в частности. Это важнейший критерий оценки качества ресурса, ведь хороший портал всегда задержит посетителей на длительный срок, когда плохой пользователи покидают практически сразу.
Показатель возвратов – количество вернувшихся пользователей, формирующих постоянную целевую аудиторию.
Показатель отказов, охватывающий пользователей, которые не стали просматривать на сайте более одной страницы

Этот фактор считается отрицательным, указывая на низкое качество сайта и нерелевантность запросу
Важно обратить внимание также на то, что этот критерий не может считаться основным, ведь посетители могли покинуть страницу не только потому, что она не соответствовала их ожиданиям, но и вследствие того, что они сразу нашли ответ на свой вопрос.

Таким образом, влияние на продвижение поведенческими факторами тесно связано со статисткой и посещаемостью сайта, уникальностью его содержимого, удобством использования и общей привлекательностью для пользователя.

Этот алгоритм ориентирован на улучшение качества и конкурентоспособности ресурса, ведь сайты с положительной оценкой поведенческих факторов всегда превосходят аналоги при прочих равных условиях. Поэтому поведенческие факторы ранжирования Яндекс так важны для продвижения.

Изначально появление поведенческих факторов стало попыткой поисковых систем сделать выдачу максимально достоверной, избавляясь от внешнего влияния и махинаций. Чистота поиска – основная цель большинства разработчиков, так что постоянно появляются все новые алгоритмы ранжирования. К тому же, сайты с положительными показателями с точки зрения seo продвижения, будут подниматься в топе выдачи быстрее.

Сколько это стоило

Немного расскажу про стоимость эксперимента, во сколько нам это обошлось. Основные затраты у нас получились — это трудозатраты, потому что это такая морока и такая рутина.

Причем, это нельзя перепоручить начинающему специалисту. Мы в ценах клиентов обычно считаем такие затраты.

Больше 600 тысяч мы потратили при таком раскладе, больше 400 часов ушло.

Если говорить про внешние затраты, которые мы платили деньгами непосредственно, 250 тысяч у нас вышло на домены, прокси, хостинги и так далее. Сам юзератор, мы думали, что сможем больше денег слить, не смогли больше. Старались как могли, 33 тысячи удалось нам потратить за 5 месяцев на все сайты. Если бы было желание, мы бы еще полгода работали, то мы бы, наверно, размахнулись.

Как добавить сайт и настроить проект для продвижения

Теперь подошла очередь опробовать данный сервис по накрутке поведенческих на своих проектах. Для этого я не стал далеко ходить, а выбрал парочку интересных мне запросов этого блога seoslim.ru и закинул в Movebo, о том как измелись позиции читайте ниже по тексту.

Перед началом работы надо перейти на сайт системы https://movebo.ru/, пройти простую регистрацию, для чего нажимаем соответствующую ссылку в правом верхнем углу.

Перед началом создания проекта потребуется пополнить баланс. Забегая вперед скажу, что в среднем за один поисковый запрос вы будите платить 5 рублей в стуки за 1 сессию.

Так что сразу можете прикинуть, во сколько вам обойдется такого рода продвижение поведенческими факторами.

Переходим во вкладку «Проекты», где нам система предложит добавить новый сайт за три шага.

Шаг 1. Поисковые системы и другие настройки. Здесь пишем URL адрес сайта, отмечаем те поисковые системы под которые планируете продвигаться, желательно отметить тип сайта, чтобы сессии были тематичными, так как это влияет на характер поведения пользователя.

Задаем тематику площадки, чтобы посещали люди, которых такая тема интересовала ранее и указываем как распределить трафик по времени суток, ведь на некоторых сайтах ночью переходов может быть больше.

Например на мой блог на выходные дни людей приходит меньше, чем в будние, поэтому целесообразно распределять накрутку переходов поведенческие факторов в течении всей недели.

Шаг 2. Способы продвижения и ключевые слова. Теперь для каждой поисковой системы потребуется выбрать регионы, под которые хотите продвигать ключевые слова и привести список нужных запросов.

Настраиваем режим продвижения: автоматический (задания выполняются специальным ПО реальных пользователей) или ручной (задания выполняют пользователи интернета).

Movebo позволяет как отдельно добавлять ключи в ручном режиме, так и импортировать их из популярных счетчиков посещений сайта (LiveInternet, Google Analitycs и Yandex Метрика).

Шаг 3. Глубина сессии и время на сайте. На последнем этапе настройки останется только выбрать количество времени, проводимое пользователем на сайте и сколько страниц ему стоит просматривать в рамках одной сессии.

Какие санкции бывают за накрутку поведенческих факторов?

Всё, что нам осталось объяснить по данной теме – это, какие санкции бывают за накрутку поведенческих факторов. Одну из них мы подробно разобрали выше: сайт попадёт под фильтр поисковых систем и его существование будет под большим вопросом. Конечно, пока что, поисковые сервисы не накладывают серьёзных наказаний за подобные процедуры. Максимум, что они могут сделать – это понизить ресурс в выдаче и перестать ранжировать по ключевым запросам.

Блокировать сайт, начислять штрафы и другие платежи за это никто не будет. Просто, чтобы заново достигнуть былого результата, работать придётся не то что честно, а в два, а то и в три раза больше. Поэтому что, в большинстве случаев, владельцам сайта приходится перекраиваться его полностью.

Легче создать новый, что приведёт к дополнительным затратам. Если Вы в курсе, что такое домен сайта, то не сложно будет объяснить, что они так же отслеживаются поисковиками. Поэтому, если кто-то желает «обмануть» браузер и зарегистрировать сайт под тем же доменом, дабы не покупать новый, не рекомендуем этого делать. Как мы уже говорили, сайт, и всё, что с ним связано, попадёт в особый список контроля. Поэтому, есть вероятность, пусть за небольшую оплошность, попасть в бан.

Как улучшить поведенческие факторы?

Как улучшить поведенческие факторы? Это первый вопрос, ответ на который нам нужно знать. Ведь именно естественное улучшение поведенческих факторов скажется положительно не только на трафиковом продвижении сайта, но и конверсии веб-ресурса.

Как мы уже говорили, поведенческие факторы делятся на два вида: внешние и внутренние. Поэтому и улучшение сайта стоит рассматривать с двух сторон.

Внешним улучшением станет правильный сниппет в поисковой выдаче. Ведь только если информация в нем заинтересует пользователя, то он перейдет на сайт. В связи с этим, следует сделать сниппет привлекательным и информативным.

И так, что для этого нужно:

Использовать спецсимволы HTML, чтобы сообщить нужные сведения

Акцентировать внимание на ключевых словах для раскрытия темы текста. Использовать быстрые ссылки для перехода в блоки сайта

Использовать специнструменты для браузеров.

Теперь разберемся с тем, что нужно делать с внутренним улучшением. Ведь именно улучшение сайта в большей степени влияет на показатели поведенческих факторов.

Во-первых, следует наполнять сайт уникальными и полезными материалами. Оформление ресурса должно быть приятно глазу и не отвлекать от главного. Не забывайте о хорошей навигации. От нее тоже зависит то, насколько долго пользователь останется на сайте.

Также следует убрать все битые ссылки. Ранее мы уже писали о том, как удалить битые сайты с сайта WordPress, которые негативно сказываются на оптимизации ресурса, а значит и его продвижении.

Кроме того, для ошибки 404 стоит продумать правильную подачу. То есть ее нужно сделать так, чтобы пользователь мог с этой страницы перейти в другой раздел сайта или на главную страницу. Иначе посетитель просто уйдет с ресурса, посчитав его неработающим.

Во-вторых, размещайте на страницах веб-ресурса фото- и видеоматериалы, различные опросы и все то, что может привлечь аудиторию. Это поможет увеличить время нахождения пользователя на сайте, что даст сигнал поисковикам о том, что веб-ресурс полезен. Значит, его стоит поднять в списке поиска.

В-третьих, следите за тем, чтобы сайт работал бесперебойно. Нужно чтобы каждая страница сайта грузилась быстро. Кроме того, сайт должен быть удобен и для мобильных устройств. Большинство пользователей просматривают сайты именно так.

В-четвертых, нужно как следует работать с семантическим ядром. О том, что это такое семантическое ядро и как его настроить мы уже рассказывали. Но хотелось бы напомнить, что семантика полезная и важная часть при продвижении сайта, представляющая собой структуру веб-ресурса с использованием ключевых запросов.

Для правильной работы с семантическим ядром сначала следует провести анализ, а затем и добавить низкочастотные запросы (НЧ). Следующим шагом станет заполнение сайта среднечастотными (СЧ) и высокочастотными (ВЧ) запросами.

Но в любом случае, только комплексная работа с внешними и внутренними видами поведенческих факторов даст хороший результат. Это позволит сайту постоянно продвигаться в поисковой выдаче.

Выводы

Во-первых, я хочу предупредить, что это никакой не кейс, это просто наблюдение, интересный эксперимент, который я даже не планировал. Но теперь планирую рассмотреть его более подробно, изучить результат и посмотреть, что будет, когда я закрою вакансию.

Во-вторых, я знаю, как это масштабировать, если захочется сделать буст. У нас есть еще вакансии на копирайтера, программиста, специалиста по контексту – если для каждой вакансии сделать аналогичную страницу с описанием тестового на сайте, можно увеличить брендовый трафик в 4 раза. В таком случае я обойду тех накрутчиков, которые благодаря бОльшему объему входящего трафика находятся выше меня по целевым запросам.

Все в ваших руках и в ваших фантазиях.

А я буду дальше наблюдать и делать заметки. Вполне вероятно, что скоро я напишу на эту тему еще один пост с новыми результатами.

Спасибо за внимание. Жду ваших комментариев

До связи, друзья.

PS Надеюсь, что представители Яндекса, прочитав мою заметку (а я знаю, что они читают), не сочтут это за явку с повинной и не накажут меня. Ведь это вовсе не накрутка поведеченских…

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Adblock
detector