Любая технологичная компания стремится автоматизировать ряд рутинных и времязатратных процессов. Будь то глобальное желание внедрить кнопку «БАБЛО» или небольшая «деталька» одной из услуг — при внедрении ищется баланс между:
Выгодой от внедрения (экономия времени, сокращение сроков и повышение скорости и т.д.);
Потерями (суммой вложенных средств, потерями в качестве и т.д.).
Одной из основных проблем при внедрении автоматизации является потеря итогового качества оказания услуги. Но с развитием технологий и взрослением отрасли SEO, как канала интернет-рекламы, число инструментов автоматизации растет.
Группы работ по SEO и их автоматизация
К продвижению сайта сейчас относится довольно большое число задач — от технического аудита и настройки индексации, до анализа его продающих свойств (коммерческие факторы ранжирования). Давайте разберём каждый из этапов работ и имеющиеся общедоступные (а не внутренние) инструменты их автоматизации на рынке поискового продвижения.
1. Семантическое ядро — штука индивидуальная. Для каждого проекта ядро разрабатывается персонально, и до сих ни одной команде разработчиков не удалось успешно автоматизировать процесс. Идеально решение задачи выглядело бы так:
На вход — сайт и регион.
На выход — полное семантическое ядро с разбивкой на тематические группы и указанием сводной информации по каждому запросу (частоты, прогноза трафика, уровня конкуренции, типа запроса, текущих позиций и т.д.).
Широкое распространение здесь получили модули/программы, помогающие оптимизаторам (и менеджерам проектов) ускорить процесс сбора и анализ поисковых запросов. Среди лидеров на открытом рынке — Key Collector.
Шаги в сторону полной автоматизации предпринимались здесь множество раз, но ни один из сервисов не позволяет выполнить процесс без серьёзной потери качества. Под качеством здесь в первую очередь подразумевается баланс точности и полноты (F-мера).
Либо теряется большая часть запросов, которые могли бы приносить целевой трафик (проблема полноты), либо подбираются запросы, которые не являются подходящими для проекта (проблема точности).
2. Группировка и распределение запросов — штука коллективная. Логика оптимизатора при проведении работ по группировке и распределении следующая:
Требуется выделить среди запросов из семантического ядра такие, которые относятся к одному интенту (поисковой потребности);
Проверить гипотезу о схожести запросов и ассоциировать их в группу (сгруппировать).
При ручной группировке требуется для каждой поисковой фразы отдельно определить:
Переколдовку запроса (или слова-синонимы);
Тип документов в выдаче (главные/внутренние, коммерческие/информационные);
Определить базовую поисковую потребность;
Свести сведения в таблицу и назначить посадочные страницы на сайте.
При росте числа запросов в семантическом ядре быстро растёт и время, затраченное на процесс, и число допускаемых специалистом ошибок (утомляемость, «замыливание» глаза и т.д.). Здесь идеальным помощником являются средства автоматизации, которые «пробивают» выдачу в нужной поисковой системе и по принципу схожести выдачи по двум и большему числу поисковых запросов объединяют фразы в группы.
К лидеру по качеству кластеризации относится сервис «Топвизор». Использование модуля группировки запросов позволяет существенно ускорить процесс без потери качества, ведь при группировке используется информация от самой поисковой системы и два запроса могут быть определены в группу, только если в ТОП-10 результатов выдачи по ним находится нужное число одинаковых документов.
Настройки по умолчанию подразумевают наличие 3 одинаковых документов (иллюстрация ниже). При изменении данной настройки в большую сторону — можно образовывать и большее число групп с меньшим числом запросов в каждой.
После сбора информации из заданной поисковой системы в заданном регионе — будут сформированы кластеры. Возможна их ручная корректировка, в случае необходимости (иллюстрация ниже).
После формирования кластеров SEO-специалисту оказывается достаточно провести проверку и скорректировать структуру сайта.
3. Технический аудит — следование заданному набору правил. При выполнении технического аудита проекта проверяется его соответствие заданному списку правил и рекомендации. От качества технической оптимизации во многом зависит успешность продвижения, так как наличие большого числа дублей в индексе или слишком медленная загрузка страниц могут не только мешать индексации, но и ухудшать ранжирование.
Полной автоматизации процесса технического проведения аудита с формированием рекомендаций по устранению ошибок пока не добилась ни одна команда. К основным недоработкам в данном направлении можно отнести:
«Равнение» всех ошибок, как критических (скажем, наличие битых ссылок), так и вообще не ошибок (отсутствие заполнения meta-тега Keywords, который никак не используется для ранжирования).
Неполная диагностика сайта, проверка только небольшого числа правил, недостаточного для полноценной диагностики.
Отсутствие на выходе конкретных рекомендаций по устранению ошибок и замечаний.
Отсутствие расстановки приоритетов (с чего именно начинать корректировку программной части).
С одним из рекомендованных списков правил технической оптимизации можно ознакомиться по ссылке: https://devaka.ru/articles/technical-seo.
Для ускорения процессов проведения диагностики сайта мы бы рекомендовали следующие инструменты и программы:
Screaming Frog SEO Spider;
PageSpeed Insights;
Audit MegaIndex;
СайтРепорт.
4. Внутренняя оптимизация — ключевая задача для попадания в ТОП результатов выдачи. Именно на группу внутренних факторов ранжирования приходится львиная доля успеха от SEO.
Сами работы по внутренней оптимизации можно разделить на следующие группы:
Текстовая оптимизация и работа с Title и meta-тегами;
Оптимизация структуры, перелинковка, анализ ЧПУ (человеко-понятных URL);
Прочие внутренние факторы: возраст, классификация документов и т.д.
К комплексной автоматизации работ по внутренней оптимизации пока не подошла ни одна команда, хотя имеются довольно успешные с практической точки зрения модули:
a. Анализа текстовых факторов, Title. Де-факто, данные проверки сводятся к контролю следующих факторов:
Все слова из запроса встречаются в теге Title (оптимально — чистое вхождение).
В тексте имеется чистое вхождение запроса (или наиболее близкой его корректной с точки зрения русского языка формулировки).
Каждое слово из запроса встречается в тексте столько раз, сколько в среднем в ТОП-10 по запросу, но не менее 3 раз.
Первое вхождение всех слов из запроса приходится на первые 20% текста на странице.
Вхождения слов из запроса равномерно распределены по тексту (нет участков, где плотность зашкаливает или наоборот — объемных кусков текста, где вхождений слов из запроса нет вообще).
В тексте 2 и более раз встречаются слова, которые подсвечиваются поисковой системой в выдаче как наиболее близкие синонимы.
Связанные по логике слова из запроса встречаются в тексте рядом друг с другом (в рамках 1 предложения / пассажа).
Текст разбит на логические блоки по 250-500 символов (абзацы и главы).
В тексте имеется хотя бы 1 список перечисления или таблица.
В текстовых заголовках документа (h1-h3) встречаются слова из запроса.
В тексте имеется хотя бы 1 картинка на 1 500 символов сплошного текста.
В тексте хотя бы раз встречаются общие синонимы слов из запроса (не из подсветки поисковой системы).
В Title имеется явное указание региона (города) продвижения в непосредственной близости от продвигаемых запросов. Для Москвы это указания: «Москва» и «в Москве» (для геозависимых запросов).
В тексте есть прямое указание регионов, в которых компания оказывает услуги (для геозависимых запросов).
Текст всецело раскрывает проблематику из запроса.
Рекомендации по улучшению текстовых факторов сейчас предоставляют почти все агрегаторы в качестве «компенсации» за относительно слабое влияние внешних ссылок, на комиссии с которых они и зарабатывают.
b. Оптимизация структуры и перелинковки — существенно зависит от семантического ядра проекта, относительной конкуренции запросов и их частот. Для грамотного распределения веса на сайте помогут: Page Weight и SEOTO.ME. Одна из простых и понятных подзадач здесь — минимизация уровня вложенности продвигаемых документов (аббревиатура УВ на иллюстрации ниже).
c. Полный список прочих внутренних факторов, которыми оперируют поисковые системы — остаётся в тени, поэтому и каких-либо работ в рамках автоматизации здесь не предпринимается.
Сейчас рынок оптимизации скорее движется в сторону аутсорсинга большого числа работ по внутренней оптимизации и автоматической постановке задач, так:
По семантическому ядру можно автоматизировать работу по формированию ТЗ для копирайтера (ключевые фразы и объём требуемого контента вычисляется автоматически на основании ряда эвристических правил и анализу сайтов в результатах выдачи).
Произвести автоматический анализ полученного контента на предмет соответствия требованиям поисковиков (ссылку см. выше).
Автоматически проанализировать корректность тега Title и meta-тегов и их соответствие поисковым запросам, ведущим на заданный URL-адрес.
Диагностировать проблемы по распределению статического веса и структуры (УВ, длина и формирование URL-адреса).
К сожалению, данная автоматизация помогает добиться результата только для не очень конкурентных фраз. А задача по объединению данных проверок в один рабочий инструмент — остаётся открытой.
5. Внешняя оптимизация — казалось бы, что может быть проще? Но текущая оценка качества работы ссылочных агрегаторов остаётся не на самом высоком уровне. Использование общедоступных агрегаторов при наращивании ссылочной массы ведёт к заметной потере качества относительно «кастомных» подходов. На это есть следующие причины:
Недостаток качественных доноров. Спрос на аренду ссылок во много превышает число качественных доноров на рынке. Все агрегаторы грешат закупкой большого числа площадок «до кучи», дабы добить расходуемый ими бюджет до рекомендованного. Дальнейший их анализ — часто приводит к съёму более 50% массы.
Отсутствие серьёзной работы по генерации естественных анкоров (текстов ссылок) с корректным распределением по длине, грамотным русским, добавлением синонимов.
Проблемы с дальнейшим контролем качества доноров. Здесь мы рекомендуем, как минимум, использовать периодическую проверку площадок средствами сервиса DriveLink.
Дальнейшее развитие антиспам-алгоритмов поисковых систем, направленных на подавление искусственного влияния (Пингвин у Google и предстоящий Минусинск у Яндекса) — делает работу по автоматизации ссылочных факторов с помощью агрегаторов ещё и опасной. Возвращается эпоха кастомного подхода и крауд-маркетинга.
Стоит отметить, что к работам по внешней оптимизации также относятся и ссылки из социальных сетей и отклики из них. Данная группа факторов, в подавляющем числе тематик, оказывает незначительное влияние на позиции, но уже имеются основания полагать, что поисковые системы хорошо фильтруют искусственные накрутки данных показателей. Хотя и существует ряд сервисов, позволяющих автоматизировать процесс, к ним можно отнести ФорумОк, Prospero и другие.
6. Поведенческие факторы — ах, как хотелось бы автоматизировать… Но нет, здесь Яндекс применяет очень суровые санкции за манипулирование кликовыми поведенческими факторами и автор предостерёг бы читателя от попыток «автоматизировать» данный процесс.
Для полноты картины, стоит отметить, что сами по себе поведенческие факторы можно подразделить на три группы:
Поведение пользователя на странице результатов выдачи.
Поведение пользователей внутри сайта.
Общие сведения о посещаемости сайта (источниках трафика, исходящих переходах и т.д.).
Оставляя несколько в стороне системы активной накрутки поведенческих метрик, рассмотрим, какие же из работ можно было бы автоматизировать без потери качества? Это:
Мониторинг качества и объёма сниппета. Соответствие сниппета продвигаемой фразе. Сигнализация о низком показателе CTR.
Выявление страниц с плохими поведенческими характеристиками по данным средств аналитики трафика (время на странице, % выходов).
Низкая посещаемость продвигаемых документов на сайте (документы с отсутствующей посещаемостью — показывают надрывный рост).
К сожалению, данные сведения (аудит пользовательских метрик) пока не автоматизированы полноценно ни одной из команд на рынке, хотя, имеются закрытые (корпоративные) наработки в данном направлении.
Вполне логично предположить, что шаги в данном направлении возьмут на себя сервисы съёма позиций, такие как «Топвизор».
Что же касается автоматического улучшения внутренних пользовательских метрик на основании анализа поведения пользователей — данные работы ложатся на плечи специалистов по юзабилити. В последнее время намечается тенденция привлечения данных специалистов к работам по поисковой оптимизации, так как улучшение удобства использования сайта — сказывается на целой группе внутренних поведенческих факторов и способствует росту позиций.
7. Антиспам (санкции поисковых систем) — славятся своим многообразием. Возможный путь автоматизации процесса диагностики был намечен в статье: «Санкции поисковых систем — новый виток борьбы», хотя на текущий момент по связке: «Запрос + Документ + Регион» ни одна из общедоступных систем не производит полноценную автоматическую диагностику. Имеются скорее одиночные попытки помощи в диагностике:
По текстовым фильтрам: http://coolakov.ru/tools/new_filter/ и http://arsenkin.ru/tools/filter/
Инструмент помощи диагностики фильтров по просадке/падению трафика: https://seolib.ru/tools/pessimization-checker/
Хотя до полной автоматизации процесса здесь ещё очень далеко.
8. Аналитика позиций и трафика — неотъемлемый этап работ специалиста. Как известно, позиции в поисковой системе Яндекс не меняются ежеминутно. Основные колебания выдачи приходятся на периоды так называемых апдейтов. После текстовых апдейтов и значимых изменений алгоритма важно проверить позиции. Здесь верным другом был и остаётся сервис Топвизор, который дополнительно также производит и мониторинг конкурентов в выдаче, динамики их позиций и видимости.
В дополнение к нему, идёт обязательный инструмент оптимизатора — новая Яндекс.Метрика 2.0.
Это единственный инструмент на рынке SEO, который позволяет:
Видеть поисковые запросы, по которым на сайт осуществлялись переходы из Яндекса (в полном объёме).
Прямо в веб-интерфейсе производить сегментацию данных и сравнение сегментов.
Анализировать списки поисковых запросов, по которым осуществлялись заходы на заданный продвигаемый URL-адрес.
Получать многие другие полезные сводки.
Выводы
Как мы видим, до полной автоматизации процесса продвижения сайта ещё очень далеко и поисковая оптимизация по-прежнему требует экспертного подхода и большого объёма ручного труда. Во многих аспектах SEO пока ещё не хватает открытых инструментов и разработчикам есть куда двигаться в поисках своей ниши.