Что это такое семантическое ядро: для чего оно нужно

Содержание:

Виды семантических ядер

Семантика для контекста и SEO различается и не может быть взаимозаменяема. Семантическое ядро для контекста будет недостаточно проработанным для SEO продвижения, а ядро для SEO в контексте будет слишком громоздким и неточным.

Семантика для контекстной рекламы

Основная задача это определить по каким именно запросам потенциальные покупатели будут искать товары или услуги, чтобы сразу совершить покупку или сделать заказ. Подбирается максимально релевантная страница для каждого запроса, т.к. чем выше релевантность, тем меньше шанс отказа и «слива» бюджета в рекламе.

Для расширения охвата, в контекстной рекламе, используются околотематические и редкие поисковые запросы. Нецелевые переходы исключаются минус-словами, операторами, а также определенными параметрами целевой аудитории.

В основе сбора семантического ядра для контекстной рекламы лежит не количество ключей, а их качество и точность. Убираются «холодные» запросы, длинные запросы, общие запросы, клик по которым доходит до 5 000 рублей и выше, информационные запросы и запросы, которые имеют низкую частотность.

Семантика для SEO

Основная задача это собрать максимально возможную семантику для сайта, в последствии, из которой будет формироваться большая иерархическая структура.

Семантическое ядро для SEO должно полностью охватывать проблематику сайта, мы должны понимать, что пользователь ищет, что он возможно будет искать, какие проблемы он будет решать, какие вопросы задавать, чтобы на все это дать ответ в категориях, карточках товаров или статьях на сайте.

В основе составления семантического ядра для SEO лежит количество и проработанность ключевых запросов и групп. Чем шире семантическое ядро сайта, тем больше входных страниц на которые будут заходить потенциальные пользователи.

Настройка и использование программы Словоеб

Интерфейс программы

Я уже отметил ранее, что Slovoeb весьма схож с его предшественником — программой Key Collector. В свою очередь разработчики снабдили Словоеб достаточно интуитивным и понятным интерфейсом. Именно благодаря этому в этой программе основные элементы меню и инструментов просты и понятны каждому блогеру.

Посмотрите интерфейс программы Словоеб:

1 Элементы меню. С их помощью вы можете пользоваться своими созданными проектами в программе, а также осуществлять экспорт данных, которые собрали, в таблицу Exel для дальнейшего анализа. Здесь также расположены настройки программы.

2 Кнопка торможения запущенных процессов. Необходима для прекращения работы всех действующих процессов парсинга или конкретного отбора определенных данных. Применяется при разных обстоятельствах. Обычно, например, когда необходимо быстро остановить работу софта. К примеру, вы допустили ошибку при указании определенных первичных параметров для парсинга поисковых запросов.

3 Включение стоп-слов. Эта кнопка помогает пользователю программы Словоеб прописать перечень определенных ключевых слов, которые он не хочет видеть в результатах после парсинга запросов. Тем самым прога экономит ваше время при подборе ключевиков с помощью исключения из процесса парсинга ненужных вам запросов.

4 Парсинг слов из левой колонки сервиса WordStat. При помощи данной кнопки активизируется отбор запросов из левой колонки сервиса Яндекса. В конечном счёте, в результатах таблицы отражаются поисковые запросы с их базовой частотой.

5 Парсинг слов из правой колонки сервиса WordStat. Похожий сбор, как и из левой колонки данного сервиса статистики Яндекс.

6 Отбор подсказок из поиска. Эта кнопка отлично помогает получить подсказки для определённого поискового запроса от наиболее популярных поисковиков (Google, Yahoo , Rambler, Яндекс, Mail, и т.д.).

7 Подбор частоты поисковых фраз. При помощи данного элемента меню есть возможность собрать информацию по разным типам частоты ключевых фраз. При нажатии на данную кнопку появляется выпадающее меню, в котором можно выбрать наиболее подходящий вариант получения данных по искомым поисковым фразам для своего ресурса:

Кстати, немаловажная фишка в этой программе, которая позволяет подобрать наиболее подходящие и результативные ключевые запросы для раскрутки своей статьи.

8 Сезонность ключевых фраз. Данная кнопка необходима для получения данных об изменениях в частотности исследуемых поисковых запросов относительно сезонов года согласно статистике Яндекс Вордстат.

9 Вычисление конкуренции. Slovoeb даёт возможность услышать ответ на вот такой вопрос: «Какое количество веб-ресурсов, находящихся в индексе, имеют релевантный ответ на определённый поисковый запрос»:

Однако расчёт ведётся только на основании данных с поисковиков Яндекс и Google. При помощи выпадающего меню есть возможность отобрать различные варианты для выявления конкурентных запросов — система Яндекс, Google или все вместе.

10 Сбор статистики о позициях блога. Позволяет определять позиции страниц блога по заданным страницам в поисковиках Яндекс и Google.

11 Выявление наиболее релевантных статей. Slovoeb в состоянии указать для любого ключевого запроса самую релевантную статью на вашем блоге, которая максимально ему соответствует.

Для того, чтобы это осуществить вебмастеру достаточно просто указать доменное имя сайта или блога и воспользовавшись этой опцией узнать адрес наиболее релевантной статьи (по мнению поисковых систем Яндекс и Google). Эта фишка здорово может помочь в определении целевой страницы на своём блоге, которую необходимо оптимизировать под данный поисковый запрос.

Выбор региона сбора данных WordStat. С помощью этого элемента программы пользователь сможет прописать в настройках регион продвижения своего веб-ресурса. При этом в результатах парсинга будут отражаться только ключевые запросы и их характеристика, актуальные для региона, который вам интересен:

Зачем вообще нужно семантическое ядро?

Ой, для того, чтобы ответить на этот вопрос, мне нужно вспомнить себя в то время, когда я был начинающим интернет-маркетологом. Я зачитывался хорошими статьями, познавал истину и так далее. Конечно же, я тогда никакого понятия не имел, что такое семантическое ядро и уж тем более о том, как его составить правильно.

Тогда мне казалось, что стоит только написать хорошую статью, как благодарные читатели тут же засыпят меня своими отзывами и начнут покупать мои продукты.

И я действительно писал качественные материалы, уроки по изучению 3д визуализации, но по какой-то, неведомой мне тогда причине, мои статьи не пользовались большой популярностью. В этот момент я понял, что делаю что-то не так.

Это одна из самых распространенных ошибок начинающих блоггеров. Они слушают “интернет-гуру” и начинают писать статьи о том, что им интересно и как они живут. Благо,через некоторое время один из моих знакомых посоветовал писать статьи на те темы, которые уже ищут люди, а не те, которые мне бы хотелось рассказать.

Другими словами, мне нужно было найти популярный запрос и под него писать статью. Это сработало: люди начали приходить на мои ресурсы и читать уроки. Правда мне, каждый раз при написании новой статьи, приходилось подбирать новые и новые ключевые запросы. А бывало так, что я попросту  не знал, о чем писать и какие запросы мне вообще искать в том или ином случае.

Вот тут я и подумал, что нужен заранее подготовленный контент план, по которому можно было бы писать статьи, вне зависимости от упадка сил и празднования религиозных праздников. И я составил такой список заготовок.

Позже я узнал, что у такого плана уже даже есть и название — семантическое ядро. А  еще узнал о том, что есть определенные правила его составления. А про хвосты — я скромно промолчал бы, но не сейчас)

Почему хвост — лучший друг СЯбаки?

При составлении СЯ очень важное значение имеет хвост. Это те несколько вариантов словосочетаний, которые идут после ключевого запроса

Вы знаете, зачем нужен хвост для собаки? Я сам был удивлен, когда впервые узнал. Оказывается, что именно хвост помогает держать равновесие нашим питомцам при интенсивном беге, так как задействуется только 2 лапы одновременно, а при обычной ходьбе — 4.

Так вот, для СЯбаки (семантического ядра) хвост также является своего рода инструментом для баланса. Именно хвосты помогут вашим статьям пробиться в ТОП выдачу поисковиков.

К примеру вводим ключевой запрос:

Вот выпадающий список по одному очень конкурентному запросу. И если вы включите эти хвосты в свою статью, то получите неимоверное количество трафика, так как именно эти “друзья” приведут к вам дополнительных посетителей.

В идеале, если эти хвосты будут отдельными разделами вашего материала, но то, как писать статьи по конкретному ключевому запросу — отдельная тема для разбора.

Что еще дают хвосты? Они помогают вашим статьям сделать более широкий охват аудитории, а также повысить CTR. Представим себе, что посетитель вводит ключевой запрос вместе с таким хвостом:

Так вот, если у вас не будет такого хвоста в статье, то для этого запроса ваша страница на сайте не будет рекомендована поисковой системой. И учитывайте, что ваши конкуренты скорее всего не уделяют внимания хвостам, в отличии от вас).

Это значит, что если вы  не поленитесь и начнете работать с этими “крошками” сео-продвижения, то ваши статьи смогут пробиться в ТОП выдачу гораздо быстрее и легче, благодаря тому, что вы уделили чуть больше времени на проработку ключевого запроса.

Вроде все понятно, но почему SEO-компании и их специалисты не прорабатывают эти хвосты? Здесь тоже проблема, с неправильной постановкой вопроса. Подкорректируем?

Rush Analytics

Rush Analytics — инструмент для SEO-оптимизации сайта и подбора семантического ядра с удобным и интуитивно понятным интерфейсом, прозрачными ценами на каждый проект и высокой скоростью работы.

В Rush Analytics много опций:

  • подбор ключевых слов из Wordstat и Google Ads;
  • быстрая и точная кластеризация запросов;
  • сбор различных частотностей фраз;
  • сбор поисковых подсказок;
  • текстовый анализатор и многое другое.

Инструмент платный: есть пробный период в течение 14 дней, далее — от 999 рублей в месяц без учета скидок.

Сервис получил премию Baltic Digital Days за лучший SEO-сервис 2019 года. Протестировать его однозначно стоит, возможно, именно он станет вашим must-have.

Метод перемножения

Шаг 1: расширения масок

Добавляем к базовым маскам расширения из одного слова, чтобы уточнить запрос по разным характеристикам в зависимости от специфики продукта:
 
 
Какие категории использовать — решаете сами. Откуда брать варианты? Сайты конкурентов, словари синонимов, тематические форумы и блоги — всё, где можно найти идеи о том, что именно в продукте интересует целевую аудиторию. Это могут быть синонимы, жаргоны, специфическая лексика и т.д.
 
Всё заносим для удобства в Excel. Получаем по каждому базису примерно такое:
 

 
Принцип: 1 ячейка = 1 слово.

Шаг 2: перемножение

Перемножаем первый столбец с остальными по очереди в любом сервисе генерирования ключевых слов:
 

 
Результаты переносим на отдельный лист, удаляем нецелевые и ультранизкочастотные запросы.

Облако запросов — расширение семантического ядра

Облако запросов — это все ключевые слова, полученные парсингом поисковых подсказок и Яндекс Wordstat по маркерным запросам.

По нашему опыту эффективнее всего получать расширения запросов из поисковых подсказок Яндекса + поисковые подсказки Google и левой колонки Яндекс Wordstat.

Почему?

Не потому, что в Rush Analytics есть парсинг только Яндекс Wordstat и поисковых подсказок 🙂
Потому, что эти источники семантики: а) Обладают максимальной полнотой б) Подсказки изначально трастовый источник семантики т.к. сам Яндекс исправляет орфографию и добавляет в подсказки ТОЛЬКО реальные запросы пользователей. Что нам и нужно.

Часто задаваемые вопросы по сбору облака запросов

Q: У меня есть база Пастухова, есть аккаунт в SeoPult и Sape — там тоже есть ключевые слова — чем они плохи?

A: Если говорить о готовых базах данных (например, База Пастухова), то плохи они вот чем а) непонятно откуда взяты эти запросы — реальные ли это запросы или же это «кривые» запросы горе-оптимизаторов б) Большинство запросов в готовых базах данных банального сгенерированы или уже потеряли актуальность.
SeoPult и Sape можно использовать, чтобы прикинуть свои маркеры — иногда там можно найти интересные ключевые слова

Таким образом, проще собрать свежие и актуальные ключевые слова для своей тематики, чем «копаться в мусоре».

Поверьте — все пригодные запросы этих баз данных есть в Яндекс Wordstat и поисковых подсказках. Мы проверяли.

Итак — у нас есть 2 потенциальных источника семантики — Яндекс Wordstat и поисковые подсказки.

Формируем финальное облако запросов:

Финальное облако запросов будет включать в себя:
а) Ключевые слова, собранные с левой колонки Wordstat
б) Ключевые слова, полученные из поисковых подсказок

Т.е. вам нужно объединить 2 массива данных (2 файла), которые мы получили из поисковых подсказок и из Яндекс Wordstat.Не забудьте проверить частотность собранных подсказок по Wordstat — это пригодится вам в дальнейшей работе.

Здесь вы должны иметь от нескольких тысяч до нескольких сотен тысяч целевых ключевых слов + знать их частотность по Wordstat. Уже на данном этапе понятно, что собранная база ключевых слов в 10-50 раз превышает то, что имеют конкуренты 🙂

Как составить семантическое ядро с нуля

Для того, чтобы корректно составить семантическое ядро, необходимо разобраться какие бывают виды ключей и на какие параметры нужно обращать внимание

Частотность запросов

Частотность — количественная величина, которая показывает сколько раз пользователь обращался к поисковой системе с конкретным запросом.

Бывают низко- средне- и высокочастотные поисковые фразы. Подробно об этом мы ранее рассказывали в статье.

Нельзя назвать точные цифры, которые помогут отнести запрос в ту или иную группу частотности, потому что в зависимости от тематики и географии показатели будут сильно различаться.

Ниже указаны примерные показатели:

  • Высокочастотные запросы (ВЧ) – с ориентировочной частотностью выше 5 000, состоят из 1-2 слов. Их смысл обычно слишком общий, чтобы понять, что именно хочет пользователь. Пример: «кроссовки».
  • Среднечастотные запросы (СЧ) – с ориентировочной частотностью от 1 000 до 5 000, состоят из 3-4 слов. Имеют более точный смысл, чем высокочастотные. Пример: «кроссовки nike air».
  • Низкочастотные запросы (НЧ) – с ориентировочной частотностью до 1 000, состоят из 4-5 и более слов. Смысл передается максимально точно, из них мы можем наверняка понять намерение пользователя. Пример: «купить кроссовки найк аир спб».

Состав поискового запроса

Как правило, поисковый запрос состоит из трех частей:

  • тело (базис) — показывает, что мы ищем;
  • спецификатор — уточняет, является обращение коммерческим (пользователь хочет купить товар/услугу) или информационным (пользователь ищет информацию);
  • хвост — содержит уточняющие данные.

Например, во фразе «купить кроссовки nike air спб»:

  • тело — «кроссовки»;
  • спецификатор — «купить»;
  • хвост — «mike air» и «спб».

Тип запроса

Тип ключа — важный параметр, который дает нам много информации о намерении пользователя.

Существует 4 типа запросов:

SpyWords

SpyWords — это онлайн-сервис, который поможет подобрать семантическое ядро на основе ключевых запросов конкурентов в рекламе и SEO-продвижении.

Инструмент поможет найти ключевые фразы, которые используют конкуренты в Яндекс или Google, и добавить их в свои рекламные кампании. Порой попадаются такие запросы, придумать которые самому тяжело.

В SpyWords можно не только скачать ключевые фразы конкурентов, но и увидеть тексты их объявлений, позиции в выдаче, дневной бюджет.

Сервис также помогает найти перспективные для продвижения продукты — те, на которые большой спрос, но без серьезной конкуренции. Об этом можно судить по стоимости клика по ключевым словам. Например, если стоимость клика довольно высокая, делаем вывод, что фразу используют много рекламодателей. Значит, есть спрос на товар и можно получить прибыль.

Если внимательнее разбирать отчеты SpyWords, можно найти ключи и нишу, где большой спрос, но мало конкурентов или дешевые клики. Следовательно, можно продвигаться там. Подход будет полезен и для контекста, и для SEO.

Сервис платный: от 3 300 рублей в месяц без учета скидок.

Семантика для фидов

Зачем её собирать

Реклама по фидам работает хорошо в соответствующих нишах – книги, автозапчасти, комплектующие для компьютеров, спецтехника, электронные запчасти и т.д. То есть там, где большое количество товаров, каждый содержит артикул или численный / буквенный индекс и направлен на небольшой спрос.
 
Семантика для фидов обеспечивает достоверный минус-файл и чистоту трафика.
 
Стандартного списка минус-слов недостаточно. В лучшем случае они закрывают 30-40% реальных минус-слов. В каждой тематике также есть запросы, которые содержат характерные слова и делают сам запрос нецелевым, нерелевантным для вас

Поэтому нужно собирать минус-слова для фидов на основе реальных запросов.
 
Когда вы рекламируетесь по большому массиву товаров, важно запретить показы по запросам, на которые вы не даете ответа – они снижают CTR и повышают цену. Например, в теме автозапчастей это «как установить своими руками»

Вам, как продавцу, они вообще не нужны.
 
Пример – запросы по автозапчастям Bosch. Это массив в несколько сотен тысяч. Из него мы выделили те, которые содержат цифры – это запросы товарные, таких получилось 20-30 тысяч. Мы составили из них частотный словарь, чтобы найти группы с нерелевантным спросом. Важно брать реальные фразы по конкретному бренду.
 
Это дает более точный файл минус-слов, на основе которого можно запретить нецелевые показы. В итоге по России средняя цена клика составила 7-10 рублей, а цена заявки – 60-70 рублей. Мы добились высокой конверсии, так как привлекали только трафик, близкий к покупке.

Подводные камни рекламы на фидах

Это «фэйковые» артикулы и названия товаров.
 
Допустим, у вас 10 тысяч автозапчастей

В процессе важно проверить, нет ли среди артикулов двойные значения. Он может означать как товар, так и ГОСТ, инструкцию, которые не имеют отношения к вашей тематике

Или товар абсолютно из другой области.
 
Как это проверить? Берете список артикулов и пробиваете по ним частотность. Также вручную выявляете артикулы с двойным значением. По ним уточняете семантику – добавляете название бренда или уточняющие слова, чтобы исключить показы по нецелевому охвату.
 

Достаточно ли в объявление добавить артикул или нужно «%артикул + %купить (или другое транзакционное слово)»
 
Второй вариант не дает дополнительного трафика, но вы можете напрямую контролировать позицию объявления не только по запросу артикула, но и по запросу «%артикул + %купить» через подключение биддера.
 
Так было до недавнего времени. На очень больших товарных фидах не хватало баллов, чтобы загрузить много ключевых слов, и приходилось от этого отказываться.
 
Недавно Яндекс объявил о том, что позиции в рекламной выдаче можно персонализировать так же, как в поисковой выдаче. Каждому пользователю можно показать те результаты, по которым он с большей вероятностью кликнет. Яндекс уходит от торгов за позиции к торгам за аудиторию. Чем большая ставка, тем большую долю можно получить.
 
Вывод: нет смысла размножать семантику по фидам. Достаточно добавить одно самое широкое название артикула или индекс товара.
 
Что делать со статусом «мало показов»
 
В первую очередь смотрите не что и как выпало, а изменился ли трафик. Если нет, переживать не стоит. Значит, эти объявления не генерировали трафик.
 
Если заметно снизился – не плюс-минус 10% погрешность, а больше, – то нужно разбираться: скорее всего, ошибки в кластеризации по кампании, подборе семантики. Хотя, применительно к фидам, такое маловероятно.

Бесплатный парсинг запросов конкурентов

Чтобы парсить конкурентов, их надо знать. В анализе ниш я уже рассказывал, как определить своих конкурентов.

Выписываем всех ваших конкурентов, если вы еще этого не сделали. Надо брать только прям точных конкурентов. Например, у вас сайт по диабету, вам надо брать только сайты по диабету. Сайты, которые посвящены всей медицине с разделом диабета не подойдут, потому что у вас напарсятся другие разделы сайта, которые посвящены не диабету, и вы запаритесь их чистить.

Wizard.Sape

Заходите в KeyCollector во вкладку Wizard.Sape. Выбираем анализ доменов.Вводим логин, пароль. Любой тематический url и своих конкурентов списком. Нажимаем начать сбор.После сбора, в колонке частотность wordstat, появляются цифры сервиса их необходимо очистить.

Так же можно еще собрать “сбор расширений ключевых фраз” в той же самой вкладке в KeyCollector.

Megaindex

Заходим в KeyCollector во вкладку Megaindex. Вводим логин и пароль, указываем Москва, потому что Россию нельзя указать. Выбираем последнюю дату, раньше можно было парсить за весь период, но сейчас почему-то не работает, можно выбирать только определенную дату. Вбиваем домены конкурентов. И начинаем парсинг.

Rookee

Выбираем Rookee в Keycollector, составление семантического ядра.Здесь все проще, выбираем Москва, топ 10 и вводим конкурентов с http://

Можно отдельно собрать по Яндексу, потом по Гуглу.Так же можно собрать “сбор расширений ключевых фраз” в той же самой вкладке в KeyCollector.

Top.Mail.ru

Здесь все сложнее. Необходимо перейти в рейтинг https://top.mail.ru/, и там найти ваших конкурентов с открытым счетчиком. Обычно что-то узконишевое там сложно найти, но все равно расскажу про этот способ для общего кругозора.

Вводим вашу тематику в поле поиска рейтинга.Получаем сайты. Как видим нашей тематики тут нет. Замочек напротив сайта – стата закрыта. Значок рейтинга – стата открыта.Так вот, если бы мы делали сайт не по диабету, а по косметике, то первый сайт бы нам подошел. У него открыта стата и мы можем спарсить её. Переходим на него и смотрим его id.В KeyCollector щелкаем на значок mail, сбор статистики из счетчиков TOP.MailУказываем id счетчика и выставляем самый большой срок данных, 3 года.Есть так же пакетный анализ, где можно указывать сразу много счетчиков.

Так же можно спарсить глобальный рейтинг top.mail по ключевым словам, в той же самой вкладке в KeyCollector.

На этом бесплатный сбор ключевых слов у конкурентов закончен. Теперь его надо очистить и оставить только нужное.

В итоге получаем готовый список ключевых слов конкурентов, которыми можем дополнить наше ядро.

Составляем семантическое ядро: программы

Словоёб – бесплатная программа для подбора ключей. Для начала работы достаточно просто извлечь программу из архива и запустить файл exe. Работать с ней очень просто, примерная инструкция по использованию (прочитайте в другой статье подробный обзор и инструкцию как пользоваться словоебом):

  1. На верхней панели нажмите на шестеренку и зайдите в настройки. Здесь много всего можно подстроить под себя, но сейчас перейдите в последнюю вкладку Yandex.Direct;
  2. Введите логин и пароль от Яндекса (создайте доп.ящик, т.к. его могут забанить);
  3. Жмите создать новый проект, назовите и сохраните его;
  4. Нажмите на «Пакетный сбор слов из левой колонки Yandex Wordstat»;
  5. Внесите первичный запрос и пару основных, затем жмите Начать сбор;
  6. Просмотрите выдачу и пометьте галочкой все, которые не подходят для вас, потом кликните правой кнопкой мыши и Удалить отмеченные строки;
  7. Нажмите «Сбор частотности из сервиса Yandex.Wordstat» — Собрать частотности «!».
  8. Ориентируйтесь именно на столбец «Частотность «!»» — это конкретное число запросов именно этой фразы (в месяц). Можно отфильтровать по возрастанию, и сразу отбросить все КЗ с частотностью ниже 30 — это всего 1 запрос в день.
  9. Экспортируйте данные в Excel – нажмите на верхней панели соответствующий значок.

Key Сollector – платная программа (около 1700 рублей). С ним работают профессиональные сеошники. Если вы хотите просто подобрать СЯ для небольшого блога и все, не стоит платить такие деньги за программу, лучше использовать Словоеб. Чаще всего ее покупают опытные блоггеры со множеством сайтов или веб-райтеры, занимающиеся сео-статьями.

Работать с программой очень просто:

  1. Начать новый проект;
  2. Выбрать регион Россия + СНГ (или другое);
  3. Введите поисковый запрос и нажмите на кнопку Яндекс.Вордстат (1 выделенная зеленым кнопка);
  4. Просмотрите варианты и выберите подходящие;
  5. Перенесите подходящие запросы во 2 и 3 кнопки, выделенные зеленым на скрине;
  6. Получите подходящие ключи.

Сама программа довольно проста в использовании + есть инструкции в интернете. При желании можно купить и пользоваться.

Резюме

1) На начальном этапе более важен не сам сбор (всё автоматизировано), а поиск базисов;
 
2) Базисы могут быть простые и чистые (гироскутер) и мусорные и грязные (дизель);
 
3) Проверьте, все ли синонимы и переформулировки вы собрали: в помощь Wordstat и блок «похожие запросы» в SERP;
 

4) Если вы не успеваете обработать все запросы, выполните приоритезацию базисов по марже, частотности и количеству запросов;
 

5) Анализ частотных словарей полезен в 20-30% случаев, часто можно обойтись и без него

НО! Важно четко понимать, из каких переменных складываются нужные базисы и какие значения могут эти переменные принимать;
 
6) Учитывайте специфику задачи, размер компании, размер рынка, объем спроса и то, что хотите получить на выходе.
 
Эффективный сбор семантики требует креатива, нет универсальной схемы. Главное в любой ситуации соблюдать оптимальный баланс между трудозатратами, охватом целевой аудитории и личной эффективностью.
 
Высоких вам конверсий!
 
Статья подготовлена по материалам вебинара Ильи Исерсона.

Семантическое ядро для Landing Page

Так как продвижение лэндинг пейдж имеет свои особенности, то и ядро будет сильно отличаться от стандартного. Ранее мы уже писали о том, что лэндинг должен быть ориентирован только на один основной запрос и иметь небольшое дерево подзапросов. Семантическое ядро должно быть точно таким же.

То есть, перед составлением ядра для landing page, определите один основной запрос, который полностью характеризует Вашу деятельность

Обратите внимание, что это должен быть не высокочастотник, который охватывает все, а подходящий достаточно конкретный ключевик. К примеру, для лэндинга по продаже мебельных щитов по МСК, запрос «щит» и «мебельный щит» не подойдут

После того, как Вы определились с основной ключевой фразой — найдите для нее максимально похожие подзапросы. Это и будет семантическое ядро для Вашей посадочной страницы. Небольшое, но полностью характеризующее деятельность.

Так как все запросы будут очень похожи друг на друга — не переборщите с оптимизацией. Применяйте синонимы, заменяйте на местоимения и т.д.

Этап 2. Сбор и чистка семантического ядра в Key Collector

Перед началом сбора семантического ядра необходимо указать регион, по которому следует собирать запросы и их частотность. Регион напрямую связан с магазином, для которого собирается семантика, то есть если ваш магазин находится в Москве, то и запросы с их частотностью нужно собирать по данному региону. Для этого в нижней части окна мы выбираем регион для сервисов Yandex.Wordstat и Яндекс Директ:

После выбора региона можно приступать к сбору семантики.

Методика

В основном меню нажимаем кнопку «Пакетный сбор слов из левой колонки Yandex.Wordstat»:

В открывшимся окне мы увидим поле, куда необходимо добавить запросы прямо из нашего файла. После их добавления в нижней правой части окна следует нажать на иконку разделения фраз по группам:

После нажатия на кнопку в правой колонке групп мы увидим, что наши группы добавлены, и во всплывающем окне появилось поле с названиями наших групп, внутри которых находятся соответствующие запросы. Далее мы можем нажимать кнопку «Начать сбор»:

Запустив парсинг левой колонки Yandex.Wordstat, мы автоматически получаем все расширения наших запросов из сервиса, и теперь не будем собирать их вручную.

Следующим шагом является сбор корректной частоты запросов. Для этого следует очистить данные общей частотности, собранной вместе с запросами из сервиса Yandex.Wordstat, нажав на заголовок столбца правой кнопкой мыши и выбрав пункт «Очистить данные в колонке»:

Для сбора частотности мы используем функционал «Сбор статистики Yandex.Direct»:

Во всплывающем окне выбираем период сбора равный году. Это необходимо потому, что спрос на товары зачастую является сезонным, и без годовой частотности мы не сможем выявить самые популярные запросы. Целью сбора выбираем «Базовую» и «Уточненную» частотность, после чего нажимаем кнопку «Получить данные»:

Когда частотность собралась, можно переходить к чистке семантики от мусорных фраз. Мы рекомендуем удалять запросы с «Уточненной» частотностью менее 10, так как это означает, что подобные запросы приносят меньше 1 посетителя в месяц.

Выделяем такие запросы и нажимаем кнопку «Удалить фразы»:

Теперь можно приступить к чистке запросов по фразам.

Для этого есть несколько инструментов:

1. Инструмент фильтрации позволяет быстро отсечь часть ненужных запросов. Используя его, можно оставить в основной таблице только те фразы, которые включают в себя английские символы, цифры или состоят из 4 и более слов и т.п. для пакетного удаления.

2. Инструмент «Стоп-слова» позволяет отмечать фразы на удаление или последующий перенос в другую/новую группу по заранее загруженным в поле словам. Можно сразу выделить запросы с вхождениями городов (отличных от выбранного региона), названий компаний конкурентов, а также информационные запросы со словами «как», «почему», «отзывы», «реферат» и пр.

3. Инструмент «Анализ групп» позволяет собрать запросы в группы по различным вариантам группировки и отмечать названия групп, выделяя сразу несколько запросов для удаления или последующего переноса в другую/новую группу.

Рекомендуем пользоваться всеми инструментами, основным из которых должен стать «Анализ групп». Данный инструмент находится во вкладке «Данные»:

Во всплывающим окне можно увидеть несколько вариантов группировки, из которых мы советуем использовать метод «по отдельным словам».

В данном методе все запросы будут присутствовать в таблице и не случится того, что запрос, не попавший ни в одну группу, будет исключен из таблицы и его придется искать позже вручную в общем списке запросов.

Просматривая группы одну за другой, отмечаем их или фразы внутри них, которые явно нам не подходят. В процессе мы будем наблюдать, что, выбирая пять групп, мы уже отметили в общей таблице 9 фраз:

После того как отметим все группы и запросы в них, мы можем закрыть данное окно и нажать на кнопку «Удалить фразы».

После чего следует перейти к выгрузке запросов в Excel для последующей ручной чистки запросов и группировки семантики.

Чтобы совершить пакетную выгрузку всех запросов из разных групп, необходимо в правой колонке программы отметить все наши группы и нажать кнопку «Режим просмотра мульти-группы». После этого можно выгрузить наше семантическое ядро в Microsoft Excel:

Распределение семантического ядра: внешняя оптимизация сайта

Теперь кластеры нужно проанализировать и распределить по посадочным (целевым) страницам вашего сайта. Если есть похожие по смыслу кластеры — не нужно создавать под них отдельные страницы и тем самым плодить дублированный контент. Отбираем из них самый частотный кластер и его используем. Не пытайтесь также распределить на одной странице сразу несколько кластеров — это не приведет к успеху, придерживайтесь структуры и правила: каждый кластер = отдельному URL на сайте.    

Когда вы уже определились с URL-страниц для своих кластеров, нужно подготовить техническое задание, чтобы распределить ключевые слова с точки зрения SEO-оптимизации. Переходим в инструмент Текстовый Анализатор SEO и создаем в нем под каждый кластер отдельный проект. Добавляем ключевые слова и запускаем проект. Текстовый Анализатор проанализирует тексты сайтов-конкурентов из выдачи ТОПа и сгенерирует ТЗ, которые дальше вы можете отправить копирайтеру. 

Отдельно про функционал Текстовый Анализатор мы рассказывали в предыдущих материалах:

  1. Базовое руководство по Текстовому Анализатору
  2. Статья «Работаем с Текстовым Анализатором»
  3. Видеоруководство по Текстовому Анализатору
  4. Вебинар по Текстовому Анализатору

Wordstat Яндекса и расширения для браузера

Wordstat — это бесплатный сервис поисковой статистики и подбора слов от Яндекса. Именно здесь можно посмотреть статистику запросов по любой поисковой фразе в зависимости от региона поиска.

Чтобы собрать семантическое ядро, используя исключительно Wordstat Яндекса, нужно копировать каждую страницу с результатами, переносить ее в Excel, а затем отсеивать нерелевантные запросы и только после этого добавлять в рекламные кампании. 

Сократить процесс в несколько раз поможет расширение для браузера WordStater. После его установки Wordstat выглядит так:

Расширение позволяет одновременно собирать поисковые фразы, их частотность и минус-слова. При добавлении они будут подсвечены красным на всех страницах.

Далеко не всегда суть поискового запроса можно понять сразу же, иногда приходится копировать и искать его в новой вкладке. Разработчики расширения продумали этот момент — создали переход по нужному ключевому слову прямо из интерфейса при помощи одного клика. Это удобно и значительно экономит время.

Другие расширения с подобными возможностями:

  • Yandex Wordstat Helper
  • Yandex Wordstat Assistant
  • Yandex Wordstat Keywords Add
Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Adblock
detector