Ко мне обратилась компания N, которая занимается разработкой сайтов для бизнеса. Продвижение у них услуга второстепенная, поэтому для разработки контент-плана понадобился специалист на аутсорсинге. Начали сотрудничество с одной услуги – настройка аналитики через Tag Manager.

Табл. 1. Изначальное семантическое ядро (регион продвижения «Россия»):

Базовая семантика

Все, навскидку, правильно. Коммерческие фразы соответствуют сформированному спросу. Только продавать услугу у агентства не получается. Причина видна без аудита: частотность у ключевых слов низкая. Здесь даже ТОП-1 не спасет. Не меньше 50% трафика заберет рекламная выдача. Сайту в органической выдаче остаются «слезы». Тем более, они учитывали только общую частоту, вместе со всевозможными хвостами, а использовали фактически «маски ключей».

Если при проверке статистики использовать " ", выясняем, что запросы то «нулевые». Поискового трафика от них не дождешься, поэтому решили составить контент-план по тематике и написать несколько статей. Часть разместить на собственном сайте, а остатки на сторонних блогах. Заодно и прокачать ссылочный профиль. С этого началось наше сотрудничество.

Почему контент-план начинается со сбора семантики

На самом деле никого не интересуют слова, по которым предстоит писать тексты. Бизнесу нужны посетители, конвертируемые в лиды. Семантическое ядро здесь выступает в роли наживки, маркера для поисковой системы, что на конкретном сайте есть информация по запросу. Только при условии «правильного» восприятия Яндексом и Google удастся быть увиденным представителями целевой аудитории.

За основу взяли краткое название сервиса «Google Tag Manager». Начинать всегда рекомендуется с максимально частотных ключевых фраз. Мало востребованные варианты пускать в работу не стали, заказчику была важна скорость исполнения. Так, варианты «таг, тэг, манагер» из выборки выпали. Их общая частотность не превышает сотни запросов в месяц, поэтому особой роли это не сыграет.

Табл. 2. Маски для парсинга

Маски для парсинга

Заметно, что хвосты забирают изрядную долю показов. Нужен общий список существующих слов, чтобы на его основе составить контент-план. Встречается два варианта – много однотипных фраз, из-за чего приходиться писать лонгриды, или большое количество небольших групп под короткие тексты с узкой тематикой. Чаще получаем решение, совмещающее оба случая. Остается дождаться завершения парсинга. Выбор между ручным и автоматизированным сбором очевиден.

Вручную удастся лишь подобрать общий список, разбить его по составу (при помощи Excel). Но для контент-плана нужно учесть интент по каждому запросу, определить лидеров выдачи, чтобы было у кого «подсмотреть» темы и содержание статей. Решение объяснимо: раз поисковая система поместила страницы в ТОП-10, значит, они качественные, надо брать пример с них.

Как удалось ускорить сбор семантики для контент-плана

Рецепт №1 для быстрого сбора семантического ядра – Кей Коллектор с подключенным сервисом анти-капчи и прокси-серверами. Ручная работа на старте ограничилась внесением списка масок. Все остальное программа сделала «за нас». Подключиться придется при формировании списка статей, из которых будет состоять контент-план.

Перечень работ:

  1. Парсинг левой колонки Вордстата по маскам с глубиной 1.
  2. Парсинг поисковых подсказок и похожих запросов (также по маскам).
  3. Сбор общей частности по всему списку.
  4. Сбор данных по ТОП-10 поисковой выдаче Яндекса.
  5. Группировка фраз с учетом состава и топовых сайтов.

По результатам парсинга получили 1844 запроса. В перечень вошли не только всевозможные хвосты и вариации наименования (кстати, сочетание «таг менеджер» все-таки попало в выборку, хотя мы его не включали в список). Перечень содержит еще и другие тематические словосочетания без включения маски. Если попробовать сформировать группы сразу, увидим, что в них полно «мусора» вроде «скачать книгу по настройке Tag Manager».

Поэтому проводим ручную чистку от мусорных пунктов:

  1. Запросы, не включающие ни одного слова из выбранных масок.
  2. Неявные дубли и фразы, где присутствуют повторы слов.
  3. Ключи со специальными символами (двоеточие, слеш и пр.).
  4. Словосочетания с цифрами и целиком состоящие из латиницы.

Остается удалить пункты с нулевой частотностью, вручную почистить те, где присутствуют буквы английского алфавита. Результат – осталось всего 454 запроса. Среди них наверняка еще найдется мусор, с «левым» интентом, но задача состоит в максимально быстром составлении контент-плана. Так что формируем группы по этому списку. Чистить продолжим в процессе формирования ядра на каждую отдельную статью.

Каким получился контент-план

В итоге краткого (на подробное никто времени не давал) изучения интента сформированных групп получили 44 статьи с уникальным заголовком. Если даже часть тем клиент впоследствии объединит, контент-плана, выполненного в экспресс-режиме, хватит на месяц ежедневных публикаций. Пусть многие запросы имеют низкую или нулевую частотность, если учитывать кавычки, зато появился инструмент для прокачки пользовательских факторов.

Скачать файл

Основные этапы:

  1. Составил список статей-лонгридов. Релевантной семантики хватило на десяток текстов.
  2. Выбрал темы для текстов длиной 2-4 тысячи знаков, по более узким вопросам.
  3. Остатки раскидал вручную по релевантности состава фраз.

В процессе осталось «всего» 309 ключей. Остальные так или иначе оказались нерелевантными по интенту, хотя и содержали слова из масок. Вычищал лишнее без сожаления, потому что наиболее частотные и смысловые фразы попали в контент-план на первом этапе. Еще осталось решить, какие статьи попадут в блог клиента, а что опубликовать на сторонних сайтах.

Моя рекомендация – статьи по наиболее частотным ключевым фразам разместить на собственном ресурсе в разделе «Блог». Низкочастотные же словосочетания и группы с небольшим количеством слов в «FAQ». На ссылочную массу лучше сделать «уникальные дубли» статей. Тогда созданный контент-план начнет работать в полную силу.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.