Аудит включает более 700 проверок (рис. 10.1 а – е). При проведении аудита используются более 50 программ, плагинов и сервисов. Проверки выполняются по 25 группам факторов. Ориентировочное время на проведение аудита – 120-200 часов, но может варьироваться в зависимости от размеров проекта. В таком виде аудит изучают слушатели полного курса специализаций «Продвижение каталога», «Продвижение интернет-магазинов» и «Продвижение порталов». В таком формате проводится полный аудит в «ТопЭксперт».
Общий анализ сайта
Сбор информации о проекте от клиента. Для того чтобы работа велась эффективно, необходимо изучить историю проекта и его текущее состояние. Чем больше данных предоставит клиент, тем более эффективной будет ваша работа, так как вы сумеете изучить совершенные ранее ошибки, поймете, где слабые места проекта, и сможете сэкономить время, используя чужой труд в тех областях, где он может быть выполнен удовлетворительно. Вот перечень сведений, которые неплохо было бы получить у клиента:
□ доступ в «Яндекс.Метрику», «Яндекс.Вебмастер»;
□ доступ в Google Analytics, WebmastersGoogle;
□ логи сервера;
□ отчеты по SEO;
□ семантическое ядро;
□ выгрузка с бирж или доступ в аккаунты;
□ информация о том, попадал ли сайт хоть когда-нибудь под фильтры;
□ сведения о том, что меняли на сайте за последний год (два);
□ информация о том, какими человеческими ресурсами располагает заказчик;
□ информация о том, каких результатов к каким срокам ожидает заказчик;
□ план развития проекта на ближайший год;
□ порядок внесения изменений на сайте;
□ сведения о контактных лицах;
□ информация о том, как создаются новые страницы;
□ аудиты (плюс ТЗ), проводимые ранее;
□ есть ли у компании другие сайты, где продается та же или похожая продукция;
□ есть ли зеркала сайта, менялся ли хозяин домена;
□ логи всей переписки с Платоном Щукиным.
Ручной анализ сайта. Необходимо вручную изучить сайт, стать его постоянным пользователем, зарегистрироваться, найти ошибки и столкнуться с теми проблемами, которые мешают посетителям, заходящим на сайт:
□ открыть большое количество разнообразных страниц сайта и изучить структуру, категории, шаблоны, наполнение, виды контента, проблемы, ошибки;
□ попытаться добавить спамный контент;
□ совершить основные действия пользователя;
□ изучить способы создания контента на сайте;
□ изучить регулярность публикаций на сайте и актуальность информации;
□ изучить работоспособность функционала и разделов сайта.
Анализ отчетов о продвижении. Сопоставление отчетов с хронологией изменений алгоритмов поисковых систем, изменений на сайте, покупки ссылок и другими явлениями позволяет изучить и понять многие скрытые проблемы проекта. Нужно проверить:
□ соответствует ли проблематика запросов продвигаемым страницам;
□ что было сделано, как это коррелирует с динамикой продвижения;
□ соответствие прогнозов результатам;
□ в чем заключаются проблемы и задержки в достижении результатов;
□ наличие и содержание рекомендаций по сайту;
□ наличие и содержание контрольных аудитов.
Оценка потенциала сайта в области трафика. Невозможно делать прогноз относительно изменения трафика, но можно оценить потенциал тематики и выполнить свою работу максимально эффективно. Нужно изучить:
□ проблематику в тематике;
□ полноту охвата тематики на сайте;
□ содержание сайта;
□ достижения успешных проектов в области трафика;
□ потенциал контентных решений в тематике в области трафика.
Почему нельзя прогнозировать изменение трафика с приемлемой точностью?
□ Среда нестабильна: ошибки ПС, новые алгоритмы, фильтры, действия конкурентов, неполное представление об алгоритмах, машинное обучение.
□ Сезонность и всплеск спроса: метеориты и пластиковые окна, лед и шины.
□ Неисполнение обязательств со стороны клиента (текст не выложен, ТЗ не внедрено).
□ Данные по статистике запросов основаны на прошлом опыте.
□ Неизвестны все запросы, по которым придут посетители.
□ Технологическое отставание специалистов – шесть месяцев минимум.
□ Ошибки SEO-специалиста, ошибки клиента, ошибки сторонних сервисов.
□ Ошибки подрядчиков.
□ Происки конкурентов.
Рис. 10.1, a
Рис. 10.1, б
Рис. 10.1, в
Рис. 10.1, г
Рис. 10.1, д
Рис. 10.1, e
Анализ CMS на эффективность для продвижения
□ CMS обновляется?
□ Содержит ли CMS необходимые для такого типа проекта SEO-модули (http://topexpert.pro/2.html)?
□ Не совершили ли разработчики критических ошибок (http://topexpert. pro/4.html)?
□ Проверка на использование стандартного шаблона в качестве дизайна сайта.
□ Определение CMS сайта (http://seobudget.ru/tooLs/cms/).
Анализ начальной точки продвижения сайта. Для того чтобы измерить эффективность перед запуском сайта в продвижение, необходимо обозначить начальную точку. Это позволит нам также соотнести сайт с потенциалом тематики, измерив, например, разнообразие ассортимента.
□ Количество рубрик – 15.
□ Количество карточек – ≈600-800.
□ Анализ позиций по всей семантике (A-Parser, http://www.seoLib.ru/analytics/).
□ Видимость как сумма (wordstat/position) – грубо.
□ Видимость как сумма (wordstat/k_ctr_position) – менее грубо.
□ Посещаемость сайта («Яндекс.Метрика», LiveIntemet, Google Analytics, http://seobudget.ru/visitors/, http://www.alexa.com/).
Матрица сайта
Матрица – формат представления структуры сайта, удобный при изучении крупных проектов.
Матрица сайта (рис. 10.2):
□ по горизонтали – категории сайта (ноутбуки, пылесосы);
□ по вертикали – шаблоны страниц (карточки товаров, каталог товаров);
□ на пересечении – типы страниц, представленные параметрами в URL (карточки пылесосов, каталог ноутбуков).
Рис. 10.2
Ошибки в матрице:
□ перечисление всех страниц;
□ логические несоответствия;
□ построение матрицы на планируемом, а не на текущем состоянии сайта.
Особые случаи:
□ у небольшого сайта может быть всего один раздел;
□ «О компании», «Контакты», «Помощь» – это одна группа в матрице, а не три страницы.
Изучение тематики
Выбор проектов для анализа. При изучении конкурентов рекомендуется отбирать лидеров в одном с вами сегменте, а также в более узком и более широком сегментах. Так, если вы торгуете компьютерной техникой, то лидер в вашем сегменте будет успешным магазином компьютерной техники, более узкий сегмент может быть представлен магазином, где продаются только ноутбуки, а более широкий – онлайн-гипермаркетом, который охватывает множество товарных категорий. В ходе анализа следует:
□ изучить лидеров по LiveInternet;
□ изучить лидеров по SEORate;
□ изучить лидеров по MegaIndex;
□ изучить лидеров через http://www.seolib.ru/help/seoprice/;
□ сравнить отобранные проекты.
На схеме (рис. 10.3) видно, что все представленные проекты имеют существенный трафик и большое количество страниц, что делает их интересными для изучения. Лидер по поисковому трафику – проект carsguru.net. Для того чтобы это выяснить, пришлось удалить из статистики витальные запросы, с их учетом лидер – auto.ru, который весьма плохо ранжируется в поисковых системах.
Составление списка возможных контентных модулей тематики. Для того чтобы собирать трафик, необходим контент. Кроме того, у посетителей есть определенные ожидания о том, какой контент должен быть на сайте. Например, на автомобильном портале многие посетители ожидают увидеть:
□ обзоры автомобилей;
□ форум;
□ информацию об автозапчастях, тюнинге, шинах, дисках;
□ расширение коммерческого раздела;
□ каталог организаций;
□ сведения о ПДД, онлайн-экзаменах, штрафах;
□ видео;
□ тест-драйвы;
□ FAQ по автострахованию;
□ информацию об автопутешествиях;
□ статьи;
□ новости.
Рис. 10.3
Оценка потенциала аудитории контентных модулей. Чтобы расставить приоритеты по списку контентных модулей, необходимо учесть потенциал трафика, соответствие модуля концепции проекта, стоимость разработки.
1. Отобрать запросы, характеризующие каждую проблематику, и посчитать сумму по «Яндекс Wordstat»:
■ ноутбуки (asus|acer|macbook|sony…) -драйверы -скачать -описание -чехол…
■ (сумка|чехол|мышка|мышь|салфетки…) (+для ноутбука]+для нетбука) и т. п.
Значения в скобках, разделенные символом |, означают «или», а минус перед словами показывает, что следует исключить все запросы, содержащие данное слово.
2. По Livelnternet посчитать отношение долей между поисковыми системами в данной тематике (http://www.Liveinternet.ru/stat/ru/computers/ searches.html). Построить пропорцию, подсчитать прогноз трафика по Google и Mail.
3. Вычесть взаимоисключающие значения, если они есть: ноутбуки – чехлы.
Приблизительный потенциал по ноутбукам с экраном 17 дюймов {Из работы Александра Вежнина, 8-й поток профессионального курса.}
Запрос, введенный в «Яндекс Wordstat»:
ноутбуки 17 -характеристики -параметры -топ -сравнение -отзывы -аксессуары -обзоры -тесты -рейтинг -обсуждение -форум -драйвера -как -разобрать -работает -биос -камера -windows -ремонт -аккумулятор -какой -клавиатура -батарея -wifi -включить -разборка -видео -bios -разбор -блютуз -питание -программы -видеокарта -сумка -рюкзак -кейс -чехол -тысяч -руб -рублей.
Полученный результат: 11799.
На основе полученных данных считаем потенциальный трафик в ведущих поисковых системах по следующим формулам:
х /100 ∙ 41 = 11 799;
х /100 = 11 799/41;
х /100 = 287,780487804878;
х (общий потенциал трафика по трем поисковым системам) = 28 778,0487804878, или 28 778.
«Яндекс»: 28 778/100 ∙ 41 = 11 798,98, или 11 799.
Google: 28 778/100 ∙ 52 = 14 964,56, или 14 946.
Mail: 28 778/100 ∙ 4 = 1151,12, или 1151.
Согласование плана по развитию проекта со списком контентных модулей. При планировании развития интернет-проектов часто забывают об оценке потенциала. SEO-специалист, используя известные ему инструменты, помогает определить потенциал всех вариантов развития проекта. Затем совместно с руководством проекта определяет приоритетность каждого модуля.
Изучение SEO-модулей, используемых лидерами в тематике. Каждая тематика по-своему уникальна, часто особенности находят отражение в технических решениях, используемых SEO-специалистами. Например, форум на проекте carsguru.net (рис. 10.4) уникален по своей структуре с точки зрения семантического ядра.
Рис. 10.4
Составление списка SEO-модулей для сайта:
□ перелинковка индексации;
□ перелинковка статического веса;
□ перелинковка анкорного веса;
□ составление sitemap.xml на основе анализа логов сервера;
□ проверка индексации страниц.
Составление списка возможных функциональных модулей тематики. Наличие и качество исполнения функциональных модулей также влияет на продвижение сайта. К примеру, интернет-магазин по продаже ноутбуков, на котором нет функционала сравнения товаров, может потерять посетителей. Другой пример – возможность покупки в кредит. Если такой функционал на сайте не предусмотрен, возникнет отток посетителей и снижение поведенческих факторов.
Проверка сайта на наличие функциональных модулей тематики. Изучаем наличие и реализацию функциональных модулей на сайте, сопоставляем с показателями успешных проектов и лидеров тематики.
Поиск площадок для размещения PR-ссылок в тематике. Такими площадками могут стать:
□ тематические порталы;
□ тематические СМИ;
□ каталоги организаций;
□ региональные площадки.
Следует изучать площадки с упоминаниями наиболее известных компаний в тематике.
Изучение динамики трафика в тематике. Знать нужно для того, чтобы оценить результаты роста за прошлый период. Возможно, рост в абсолютных значениях в действительности был падением, если считать его относительно динамики роста рынка.
Динамика трафика, полученная с помощью Wordstat.yandex.ru, приведена на рис. 10.5.
Изучение распределения трафика между ПС. Прежде чем продвигать сайт, необходимо оценить потенциал каждой поисковой системы. Есть тематики, где Mail.ru может дать много трафика, есть тематики, где Google обгоняет «Яндекс».
Распределение трафика, полученное с помощью LiveInternet.ru, показано на рис. 10.6.
Хостовые факторы
Проверка корректности использования редиректов. Ошибки при использовании редиректов могут привести к потере статического веса, смене входных страниц и даже выпадению сайта из индекса. Перечислим эти ошибки:
□ любой многошаговый редирект;
□ использование неверного типа редиректов;
□ внедрение внутренних редиректов без смены ссылок на новые адреса;
□ постановка редиректов между страницами с разным контентом (может быть ошибкой);
□ использование редиректа вместо rel=canonical;
□ редирект, конечной точкой которого является не 200-я страница;
□ использование редиректов для различающихся страниц;
□ использование любых редиректов для robots.txt;
□ использование редиректов на внешние сайты по внутренним ссылкам.
Рис. 10.5
Рис. 10.6
Проверка корректности использования страниц с кодами ответа 4** (ошибок). Наличие кода ответа 404 может приводить к потере денег, снижению лояльности пользователей, выпадению части сайта из индекса и потере статического веса. Нужно проверять следующие ситуации:
□ страница не существует, но используется не страница с кодом 404;
□ страница существует, но используется страница с кодом 404;
□ страница должна быть удалена из индекса, но используется код 404 вместо 410;
□ страница поменяла адрес, но не поставлен редирект.
Анализ страницы с кодом 404. Страница с кодом 404 должна быть корректно оформлена, это позволит минимизировать потери трафика:
□ должна иметь шаблон в дизайне сайта;
□ должна давать пользователю возможность вернуться назад;
□ должна давать пользователю возможность посетить важные разделы;
□ должна отдавать код ответа 404.
Исправление ошибок. Для того чтобы исправить ошибки, необходимо их найти. В рамках большого сайта эту задачу невозможно решить без инструментов автоматизации. К ним относятся следующие инструменты:
□ для поиска страниц с кодами ответа 3**;
□ поиска ссылок на редиректы;
□ поиска страниц с кодами ответа 4**;
□ поиска ссылок на страницы с кодами ответа 404;
□ сервисы, построенные на краулере, которые определяют источники ссылок: «СайтРепорт», PageWeight, Xenu.
Анализ сайта на отказоустойчивость. Если не обеспечить для сайта достаточных мощностей, то с приходом трафика начнутся отключения сайта, а пользователи будут получать информацию об ошибке.
Анализ скорости загрузки страниц. Скорость загрузки страниц влияет на конверсию и ранжирование. Воздействуя на код страницы, мощности и настройки сервера и CMS, необходимо увеличивать скорость загрузки страниц. Для измерения скорости существуют сервисы https://chrome.googLe.com/webstore/search-apps/pagespeed и http://tooLs.pingdom.com/. На рис. 10.7 показано измерение скорости загрузки сайта сервисом http://Loadimpact.com/.
Рис. 10.7
Анализ размеров страниц. Анализ предельных значений размеров страниц позволяет обнаружить неочевидные ошибки, например страницы с очень маленьким весом, которые могут создаваться из-за ошибок CMS. Анализ предельных значений проводится по типам страниц и разделам сайта. Верстка должна быть оптимизирована, чтобы страницы грузились быстро.
Анализ логов сайта, поиск страниц, которые не посещал робот. Анализ логов позволяет понять, какие страницы посещал робот. Это важно, например, при работе над индексацией страниц. Бывает так, что страница посещается роботом, но в индекс не попадает.
□ По User-Agent можно узнать, робот какой ПС заходил на страницу.
□ В логах хранятся запросы.
□ В логах хранится дата посещения.
□ В логах хранится URL страницы.
□ В логах хранится код ответа.
Сервисы для анализа логов: Awstats, WebAlizer, Analog, Logalyzer.
Индексация
Проверка индексации каждой страницы сайта. Индексация особенно важна для больших проектов. Если в индекс попадают мусорные страницы (дубликаты, страницы с ошибками, пустые страницы), важные страницы (продвигаемые) получают меньше статического веса. Если в индекс не попадают важные страницы, сайт недополучает трафик. Проверка включает в себя:
□ составление списка всех важных страниц сайта (выгрузкой из БД, вручную);
□ составление списка всех страниц сайта (с помощью программы Page-weight или Xenu);
□ проверку всех ссылок с помощью запросов url:http://www.site.ru/page/ и url:http://site.ru/page/, используя автоматический парсер ПС (программа A-Parser);
□ составление четырех списков:
■ всех проиндексированных важных страниц;
■ всех проиндексированных мусорных страниц;
■ всех непроиндексированных важных страниц;
■ всех непроиндексированных мусорных страниц.
Составление списка непроиндексированных страниц, посещенных роботом. В некоторых случаях после посещения роботом страница не попадает в индекс. Важно отличать такие страницы от тех, которые не в индексе и робот их не посещал, поскольку технология индексации таких страниц различается. Выполните следующие действия:
□ при помощи анализа логов составьте список страниц, которые посещал робот;
□ получите списки важных непроиндексированных страниц, не посещенных и посещенных роботом;
□ изучите список непроиндексированных страниц, которые не посещал робот ПС. На эти страницы необходимо привести робота, чтобы они попали в индекс;
□ изучите список непроиндексированных страниц, которые посетил робот ПС. Это страницы, которые имеют проблемы с дублями или статическим весом.
Проверка возможности индексации важных областей на Flash– и Ajax-сайтах. При продвижении творческих проектов важно изучить индексацию областей, при написании которых использовались технологии Flash, Ajax или другие, с индексацией которых могут возникнуть проблемы.
□ Необходимо по матрице сайта открыть текстовые сохраненные копии страниц всех типов и найти тексты, выложенные с помощью этих технологий. Если текст найти удалось – значит, блок индексируется.
□ В редких случаях даже при отсутствии Flash и Ajax на сайте может быть настолько «кривая» верстка, что текст не попадет в текстовый индекс.
Проверка возможности индексации всех страниц сайта при текущих инструкциях robots·txt. После корректировки robots.txt необходимо проверить, что все важные страницы доступны для индексации. Проверка осуществляется сервисом http://webmaster.yandex.ru/robots.xml.
Проверка целесообразности использования
□ сделать проверку по матрице сайта (сервисы RDS-bar, «СайтРепорт»);
□ найти незакрытые
□ изучить, какие внутренние ссылки закрыты в nofollow;
□ изучить, какие внешние ссылки закрыты в nofollow;
□ изучить, какие страницы закрыты в meta noindex;
□ изучить, какие страницы закрыты в meta nofollow;
□ изучить, есть ли на сайте SEOHide и корректно ли он внедрен.
Проверка корректности использования
□ незакрытый
□ индексируемый SEOHide;
□ проверка корректности SEOHide с помощью плагина WebDeveloper;
□ важные страницы с meta nofollow, meta noindex;
□ nofollow на внутренних ссылках.
Поиск ошибок (сравнение индексов по категориям и типам страниц). Необходимо подробно изучить сайт на предмет наличия ошибок. Один из способов сделать это – сравнение списков проиндексированных в разных поисковых системах страниц по тем разделам и типам страниц, где их количество в индексе различается.
□ Изучаются области сайта, где в одной ПС страниц меньше, чем в другой (табл. 10.1).
□ Страницы из списка проиндексированных открываются и изучаются.
□ Изучаются те страницы, которые отсутствуют в индексе одной ПС, но есть в индексе другой.
□ Изучаются страницы, помеченные в Google как supplemental.
Таблица 10.1. Сравнение индексов
Поиск в индексе технических страниц. Далее приведены популярные типы технических страниц, которые рекомендуется закрывать от индексации, а также некоторые варианты идентификации их через оператор inurl:
□ файлы статистики – /*_openstat;
□ страницы контекстной рекламы или меток – /*from=adwords, /*utm_source=, /*utm_campaign=, /*utm_content=, /*utm_term=, /*utm_medium=;
□ корзина – /cart/, /order/;
□ страницы сортировки – /*sort, asc, desc, list=*;
□ страницы поиска – /search/;
□ страницы авторизации – /auth/;
□ версия для печати – /*printable, /print;
□ напоминание пароля – /remind_password/;
□ регистрация – /register/;
□ административный раздел – /administrator/;
□ кэш страниц – /cache/;
□ модули, подгружаемые на страницы, – /components/, /plugins/;
□ файлы инсталяции CMS – /installation/, /installer/;
□ логи – /logs/;
□ файлы – /files/;
□ скрипты, таблицы стилей – /ajax/, /java/, /ess/;
□ аккаунты пользователей – /user/ и др.
Анализ динамики индексации сайта. Динамика индексации сайта может указать на слабые места и проблемы проекта.
Статистика по списку проиндексированных страниц, собранных с параметром &how=tm, позволяет узнать возраст страниц и изучить динамику индексации сайта.
Проверка robots.txt на ошибки. Из-за ошибки в robots.txt весь сайт может быть исключен из индекса. Чтобы избежать этого, следует:
□ с помощью сервиса http://webmaster.yandex.ru/robots.xmL проверить, закрывает ли robots.txt все ненужные страницы и не находит ли валидатор ошибок;
□ проверить соответствие robots.txt правилам http://help.yandex.ru/webmaster/?id=996567.
Проверка robots.txt на наличие директив для всех поисковых систем. «Яндекс» и Google используют различные директивы в robots.txt, и инструкции для них следует писать разные. В robots.txt писать User-Agent: «Яндекс» + User-Agent: * обязательно, опционально писать еще User-Agent: Google.
Проверка sitemap.xml на ошибки. С помощью sitemap.xml можно управлять индексацией своего сайта. Для того чтобы поисковые системы доверяли рекомендациям и корректно обрабатывали их, необходимо исправить ошибки. Нужно проверить следующее:
□ ссылка на sitemap.xml должна быть в robots.txt;
□ атрибуты дат страниц расставлены корректно;
□ приоритеты расставлены правильно;
□ исключены уже проиндексированные страницы;
□ нет страниц, закрытых от индексации в robots.txt;
□ нет нарушений валидности составления sitemap.xml (сервис http://webmaster.yandex.ru/sitemaptest.xmL).
Дополнительная информация о sitemap.xml – на http://www.sitemaps.org/ru/faq.html#faq_xml_schema.
Дублирование, аффилиаты, ошибки
Анализ содержания поддоменов. На поддоменах может располагаться что угодно: копия сайта, спамный контент, вирусы. Например, на поддомене может располагаться архивная версия форума, которая уже не работает и поэтому не обновляется. Используя найденные ошибки в движке форума, которые не были исправлены, спамботы могут оставить на страницах форума ссылки на спамные ресурсы. Необходимо внимательно изучить содержание поддоменов до начала продвижения сайта.
Запрос к «Яндексу» вида rhost:ru.site* дает нам список страниц, расположенных на поддомене.
Получив список поддоменов, следует изучить их содержание через site:1.site.ru. Предмет изучения – поиск лишних доменов, уязвимостей, дублей, спамного и ошибочного контента.
Поиск дублирующих страниц. Необходимо найти все возможные дубли страниц сайта и перенастроить сервер таким образом, чтобы только одна страница главного зеркала была индексируемой. Порядок поиска:
□ сравнение по шинглам (сервис «СайтРепорт»);
□ сравнение Title (сервис «СайтРепорт», WebMaster Google, оператор intitle: в «Яндексе»);
□ проверка на наличие дублей:
■ www.site.ru и site.ru;
■ http:// и https://;
■ dir и dir/;
■ / и /index.php;
■ /cat/dir/ и /dir/cat/;
■ /cat/dir/id/ и /cat/id/;
■ panasonic/tv/ и param_1=12¶m_2=44;
■ param_1=12¶m_2=44 и /cat_12/dir_44/;
■ site.ru и test.site.ru;
■ test.site.ru и site.ru/test/;
■ /bedroom/divan_roza.html и /guestroom/divan_roza.html;
■ /?red_id=3342;
■ /session_id=442424424022492.
Поиск дублирующего контента. На сайте могут присутствовать частичные дубли. Такие страницы не только соревнуются между собой в релевантности по ключевым словам дублированного блока, но и могут терять релевантность по продвигаемым запросам за счет размывания текста. Способы решения проблемы:
□ сравнение по шинглам (сервис «СайтРепорт»);
□ ручной осмотр разных страниц сайта по матрице.
Поиск пустых страниц. На некоторых сайтах можно найти страницы с пустыми Title. При таком раскладе продвигаемые страницы теряют в релевантности, потому что содержимое Title имеет значительное влияние на ранжирование страницы. Нужно выполнить проверку:
□ по Title (сервис «СайтРепорт»);
□ по количеству контента и размеру страницы (часто пустые страницы и страницы с ошибками имеют проблемы в Title).
Поиск страниц с ошибками. Из-за ошибок CMS, базы данных, кодировки, верстки, скриптов и др. некоторые страницы могут отображаться с ошибками. Выполняется поиск:
□ вручную при сравнении индексов;
□ через поиск в тексте ключевых слов admin, SQL и т. п.;
□ с помощью анализа ошибок в логах;
□ с помощью анализа страниц с высоким процентом отказов.
Поиск циклических (бесконечных) страниц. Некоторые модули сайта могут создавать циклические страницы. Так, например, распространенный модуль календаря мероприятий позволяет создавать бесконечное количество страниц, углубляясь в даты до эпохи динозавров и еще дальше. Проверка выполняется:
□ как анализ подозрительных модулей (календарь);
□ анализ страниц с высоким уровнем вложенности (сервис «СайтРепорт»).
Проверка на аффилиаты, зеркала, тестовые поддомены. При
продвижении сайта может возникнуть неприятная ситуация, когда после получения результатов поисковая система склеит несколько сайтов клиента между собой. Способы решения проблемы:
□ проверка данных whois (сервис http://nic.ru/whois/);
□ поиск аффилиатов по контактным данным и whois (сервисы http://www.skvotte.ru/, http://2ip.ru/domain-List-by-emaiL/, http://www.recipdonor.com/infowhois);
□ поиск всех проектов на этом IP (запрос IP:255.255.255.255 в Yahoo!);
□ поиск по дублированию контента;
□ поиск совпадений между проектами по контактным данным и адресам организации;
□ поиск совпадений между проектами по контенту;
□ поиск совпадений между проектами по информации о владельцах домена;
□ поиск совпадений между проектами по реквизитам, адресу самовывоза, номерам телефонов;
□ поиск ссылок между проектами;
□ поиск совпадений между проектами по ассортименту и ценовым предложениям;
□ поиск совпадений между проектами по IP;
□ пытка клиента .
Региональность
Ошибки при определении региона. Существует ряд признаков, по которым поисковые системы определяют регион сайта. Иногда регион может быть определен с ошибкой. Например, был случай, когда сайту клиники доктора Александрова присвоили регион «Александров». Общение с коллегами показало, что случай этот не единичный. Данную проблему могут вызвать:
□ наличие слова, схожего с названием региона, в важных областях страницы;
□ то, что поисковая система не добавила нужный регион в список регионов сайта;
□ отсутствие указания явных региональных признаков на сайте.
Проверка корректности определения регионов в «ЯндексКаталоге». «Яндекс.Каталог» – один из способов привязки региона к сайту. Необходимо проверить, какой регион присвоен сайту в «Яндекс.Каталоге».
Проверка корректности определения регионов в «ЯндексАдреса». Если у компании есть представительства в разных городах, следует указать это с помощью панели «Яндекс.Вебмастер», добавив адреса всех представительств.
Проверить, какие регионы добавлены как представительства, в «Яндекс.Адреса».
Проверка ранжирования региональных доменов. Сайт может хорошо ранжироваться в одном регионе и плохо – в другом. Для того чтобы понять, над какими городами нужно работать, необходимо собрать статистику по видимости сайта во всех продвигаемых регионах.
Способ решения проблемы – изучение ранжирования сайта по регионам по всей семантике.
Анализ наличия ссылок с региональных площадок. Для хорошего ранжирования по регионам необходимо получить ссылки с региональных площадок. Многие площадки дают возможность поставить ссылку условно бесплатно.
Способ решения проблемы – поиск площадок, где лидеры размещают статьи, пресс-релизы и т. п., по соответствующим регионам.
Разделение семантического ядра на регионально зависимые и регионально независимые запросы. Чтобы эффективно продвигать сайт в регионах, необходимо иметь представление, по каким запросам выдача различается, а по каким – нет.
Способ решения проблемы – проверка семантического ядра на регионально зависимые запросы (сервис http://www.seoLib.ru/script/geo/).
Спам и уязвимости
Поиск генерируемого контента. Контент, сгенерированный автоматически, с высокой долей вероятности будет расценен поисковой системой как спамный. Необходимо изучить сайт на предмет такого контента. Это делается ручным поиском блоков с генерированным контентом по матрице.
Проверка генерируемого контента на спамность. Если при генерации контента соблюдать определенные правила, он не будет расценен как спам. Необходимо изучить технологию генерации контента:
□ изучить содержание блоков с генерируемым контентом;
□ изучить генерируемый контент на предмет решения проблем пользователей;
□ запросить у клиента и изучить ТЗ, по которому реализованы модули генерации.
Анализ исходящей рекламы на нарушение правил ПС. Согласно лицензии поисковой системы «Яндекс», сайт, использующий рекламу, мешающую пользователю находить нужную ему информацию, будет понижен в ранжировании. К таким видам рекламы относятся:
□ попапы;
□ тизеры;
□ рич-медиа;
□ редиректы;
□ кликандеры;
□ любые всплывающие окна.
Анализ SEOin/SEOout. При простановке ссылок важно учитывать значения SEOin/SEOout, чтобы избежать фильтрации на вес входящей ссылки:
□ количество SEOin должно быть больше количества SEOout (сервисы RDS bar, Solomono);
□ количество исходящих ссылок должно быть меньше количества страниц в индексе (сервисы RDS bar, Solomono, плагин Wink).
Проверка ошибок и спамности HTML-заголовков. Title и H1, Н2…Н6 могут быть заспамлены как намеренно, так и случайно. Необходимо изучить содержание Title и H1 – Н6 по всему сайту. Выявляются следующие проблемы:
□ слишком длинные заголовки (бонус получают не все слова);
□ дублирование Title, дублирование H1;
□ множественный повтор ключевых слов («окна, окна, окна»);
□ использование заголовков не по назначению (ссылки в меню, выделение жирным);
□ несколько заголовков H1;
□ отсутствие заголовков;
□ отсутствие ключевых слов в заголовках;
□ отсутствие связи между текстом и заголовками;
□ совпадение Title и H1.
Проверка страниц на наличие скрытого текста. На странице может быть спамный или важный контент в невидимой области, скрытый при помощи CSS и JavaScript. К примеру, при наличии скрытых спамных ссылок сайт может быть пессимизирован. Способы решения проблемы:
□ HTML-анализ страницы и поиск блоков скрытого текста;
□ визуальный анализ страницы и выделение всего текста с помощью сочетания клавиш Ctrl+A;
□ анализ с помощью плагина WebDeveloper для Firefox;
□ поиск скрытых ссылок. Способы решения проблемы: со страницы (плагин Wink);
□ поиск всех внешних ссылок с сайта (сервис «СайтРепорт»).
Проверка работы службы модерации контента. В результате действий модератора, систематически допускающего на сайт спамные объявления, сайт может быть пессимизирован. В моей практике был такой случай. Способы решения проблемы:
□ поиск в индексе по спамным словам («порно», «диплом», «скачать», «бесплатно», «виагра», adult, viagra, free, blowjob, sex, movies);
□ проверка с помощью ручного добавления спамного контента;
□ установка плагина, автоматически определяющего спамные комментарии (сервис http://api.yandex.ru/cleanweb/).
Проверка работы контент-менеджеров. Неподготовленный контент-менеджер может допустить серьезную ошибку. Важно изучить работу контент-менеджера и подготовить для него инструкции. Проверять нужно:
□ не копирует ли контент-менеджер из Word в визуальный редактор;
□ публикует ли контент-менеджер через или через визуальный редактор;
□ выдерживает ли контент-менеджер стандарты оформления текста;
□ крос-браузерны ли опубликованные страницы;
□ не создаются ли дубли контента;
□ нет ли на сайте индексируемых черновиков контента;
□ проверяет ли контент-менеджер поставленные ссылки;
□ учитывает ли контент-менеджер нужды SEO.
Поиск SEO-разделов, SEO-страниц и архивной версии сайта.
На старых сайтах иногда можно встретить пережитки прошлого: скрытый от пользователей раздел для SEO, архивную (старую) версию сайта, на которую нет ссылок. Важно убедиться в том, что эти страницы запрещены для индексации:
□ изучить по HTML-карте сайта, какие существуют категории, сколько там страниц, какие у них URL;
□ изучить список входных страниц;
□ сравнить список страниц в индексе со списком страниц, найденных краулером (A-Parser или Xenu).
Проверка сайта на XSS-уязвимости. Если сайт имеет уязвимости, он может быть заражен вирусом, также может произойти утечка персональных данных пользователей, его могут использовать для простановки спамных ссылок. Виды проверок:
□ с помощью сервиса Acunetix Web Vulnerability Scanner;
□ по чек-листу (https://www.owasp.org/index.php/XSS_Filter_Evasion_Cheat_Sheet).
Проверка текстов на наличие грамматических ошибок и опечаток. Орфографические и грамматические ошибки снижают доверие пользователей к сайту. Проверка орфографии выполняется с помощью сервиса http://www.webmaster.yandex.ru/spellcheck.xml.
Анализ сайта на клоакинг. Некоторые веб-мастера все еще используют клоакинг с целью манипуляции поисковой системой. Необходимо проверить сайт:
□ сравнить кэш страницы с текущей версией;
□ сравнить содержание страницы с копией в «СайтРепорт» (по умолчанию представляется user-agent: «Яндек.Бот»);
□ выполнять поиск клоакинга в продаваемых ссылках;
□ выполнять поиск клоакинга в контенте.
Изучение списка исходящих внешних ссылок. Важно убедиться в том, что на сайте нет несанкционированных ссылок и ссылок на спамные сайты, в частности, что сайт не продает ссылки через биржи:
□ получить список ссылок на внешние сайты с помощью сервисов Solomono, «СайтРепорт»;
□ искать спамные сайты и несанкционированные ссылки.
Проверка IP-адреса хостинга на наличие спамных сайтов. По IP-адресу могут располагаться спамные и забаненные сайты. Об их наличии и содержании лучше узнать сразу – проверить через запрос ip:255.255.255.255 в Yahoo!, где 255.255.255.255 – адрес сервера.
Проверка сайта на фильтры в «Яндексе» и Google. Сайт может находиться под санкциями. Различают довольно большое количество фильтров, которые условно можно объединить в три группы: фильтр на домен, фильтр на страницу, фильтр на ссылку. Признаками санкций являются:
□ ухудшение позиций сайта в поисковой выдаче (выявляется изучением динамики изменений позиций сайта за длительный период);
□ выпадение страниц из индекса (обнаруживается в результате изучения динамики индексации сайта);
□ обнуление или уменьшение значений тулбарных метрик (выявляется изучением ТИЦ и PR);
□ падение трафика (обнаружить поможет изучение данных «Яндекс.Метрики», Google.Analytics);
□ информеры ПС (проверяется изучением данных «Яндекс.Вебмастера», GoogleWebmaster);
□ исключение сайта из каталога «Яндекса» или отказ в добавлении в каталог (это покажет проверка в скрытой части «Яндекс.Каталога» через запрос http://bar-navig.yandex.ru/u?ver=2&url=http://site.ru&show=1).
Проверка страниц на фильтры в «Яндексе» и Google. SEO-специалист, который ранее продвигал сайт, мог перестараться с оптимизацией продвигаемых страниц. Проверяется:
□ падение позиций запроса или группы запросов (изучением динамики изменений позиций по запросам и группам запросов за длительный период);
□ наличие страницы в индексе.
Проверка ссылочной массы на фильтры в «Яндексе» и Google. Ошибки SEO-специалиста могут привести к тому, что закупка части ссылок приносит убытки:
□ наблюдается обнуление ТИЦ;
□ по купленным проиндексированным ссылкам позиции не растут;
□ позиции по запросам падают или стагнируют.
Проверка ссылочной массы на спамность доноров. Проверить, рабочая ли конкретная ссылка, невозможно, но можно исключить подозрительные сайты из ссылочной массы. Факторы для изучения:
□ трафик;
□ SEOin или SEOout;
□ отношение числа ссылок к числу страниц в индексе.
Поведенческие накрутки. Важно узнать, не предпринимаются ли осознанные или неосознанные действия по накрутке поведенческих факторов. Об этом свидетельствуют:
□ необоснованный рост трафика по некоторым запросам, опережающий рост позиций (или вообще при отсутствии роста позиций) (сервисы «Яндекс.Метрика», Google Analytics);
□ рост трафика при отсутствии роста конверсии (сервисы «Яндекс.Метрика», Google Analytics).
Проверка текстов на спамность ключевых слов. Страницы с заспамленными текстами могут быть пессимизированы. Чтобы не допустить этого, нужно использовать любой сервис, который строит график распределения ключевых слов (функция page auditor и лексикологический анализ в «СайтРепорт») (рис. 10.8).
Проверка IP на наличие в базах спама. IP-адрес, по которому расположен сервер заказчика, с которого уходят уведомления о регистрациях и рассылка для пользователей, может содержаться в спам-листах. Проверить это можно с помощью сервиса http://2ip.ru/spam/.
Рис. 10.8
Проверка на ссылочные взрывы. Неквалифицированный SEO-специалист может закупить непропорционально большое количество ссылок за короткий период, вызвав эффект ссылочного взрыва. В этом случае купленные в определенный период ссылки перестают учитываться и бюджет расходуется впустую (рис. 10.9). Проверка выполняется с помощью сервисов http://MajesticSEO.com и http://Ahrefs.com.
Рис. 10.9
Факторы авторитетности
Анализ параметрических характеристик сайта. Нужно изучить косвенные показатели авторитетности и статического веса сайта и страниц, чтобы оценить начальное положение сайта и динамику его роста:
□ ТИЦ (с помощью RDS Bar);
□ PR (с помощью RDS Bar);
□ AlexaRank (сервис www.alexa.com);
□ места в различных рейтингах (LivInternet, MegaIndex, SeoRate);
□ присутствие сайта в каталогах «Яндекса», DMOZ, Mail.ru.
Анализ узнаваемости компании в Интернете. Один из показателей авторитетности проекта – активность в Интернете:
□ статистика по витальным запросам (узнать ее поможет сервис wordstat.yandex.ru);
□ количество упоминаний названия компании и домена в Интернете (информацию дадут запросы к «Яндексу»);
□ наличие в значимых тематических рейтингах (например, для SEO это ktoprodvinul.ru, seonews.ru, cmsmagazine.ru);
□ упоминание в блогах, новостях (сведения дадут запросы к «Яндексу»).
Анализ долевого распределения трафика по разным каналам интернет-маркетинга. Необходимо изучить все источники трафика на сайт. Некоторые из этих источников можно использовать для получения ссылок. Во время анализа часто можно обнаружить ошибки веб-мастеров и маркетологов, приводящие к падению конверсии. Проверка заключается:
□ в анализе через сервисы «Яндекс.Метрика» и Google Analytics;
□ в изучении трафика, конверсии, в сравнении категорий сайта и разных источников трафика.
Анализ ссылочной массы на трастовые ссылки (в том числе каталоги ПС). Основной параметр релевантности – TrustRank – строится на ссылках с авторитетных ресурсов. Необходимо изучить сайт на наличие таких ссылок:
□ получить список сайтов (с помощью сервисов Ahrefs, MajesticSEO, Solomono);
□ по выборке изучить площадки с высокими ТИЦ, PR (в «Яндекс.Каталоге» или DMOZ).
Анализ возрастных факторов по страницам и по сайту. Нас интересует возраст ссылок, страниц и сайта в целом. Для его определения нужно:
□ узнать возраст сайта через whois (http://nic.ru/whois);
□ изучить историю домена (http://web.archive.org/);
□ изучить историю индексации (http://yandex.ru/yandsearch?text=Запpoc&lr=213&how=tm);
□ изучить даты последней индексации страниц со ссылками (с помощью копий, сохраненных в ПС);
□ сопоставить даты индексации страниц со ссылками с датами простановки ссылок.
URL-факторы
Изучение наличия ключевых слов в домене. Употребление ключевого слова в имени домена оказывает значительное влияние на ранжирование. Наличие основных ключевых слов в имени домена можно проверить вручную.
Изучение наличия ключевых слов в URL. Употребление ключевого слова в URL оказывает влияние на ранжирование. Для того чтобы выяснить, есть ли в URL ключевое слово, нужно:
□ получить список всех URL сайта;
□ изучить алгоритм формирования URL;
□ изучить все URL сайта на наличие в них ключевых слов.
Анализ иерархии URL-структуры сайта. URL должен помогать пользователю понять, где он находится, а поисковой системе – увидеть вложенность страниц в разделах и принадлежность страницы к определенному типу. Для выполнения анализа нужно:
□ получить список всех URL сайта;
□ изучить иерархию вложенных групп;
□ проверить наличие в URL отличительных признаков типов страниц.
Изучение наличия ключевых слов в именах файлов. Документы .jpeg, .pdf, .doc и другие также собирают трафик. Наличие ключевого слова в названии файла – важный фактор ранжирования. Следует проверить наличие соответствующих ключевых слов по документам HTML, PHP, JPEG, PDF, DOC, PPTX и др.
Проверка URL на спамность. SEO-специалист может переборщить со стремлением разместить ключевые слова в URL, сделав их спамными. Приемлемая частота употребления ключевых слов:
□ допускается, когда ключевое слов встречается два раза, при этом одно употребление – в домене;
□ если в домене ключевого слова нет, оно встречается в URL не более одного раза.
Семантическое ядро
Анализ семантического ядра на полноту охвата. Очень важно, чтобы семантическое ядро охватывало максимально возможное количество проблем пользователей и запросов, формирующих эти проблемы. Нужно выяснить:
□ охватывает ли семантическое ядро весь ассортимент клиента;
□ охватывает ли семантическое ядро все проблемы целевой аудитории.
Анализ семантического ядра на наличие пустых запросов.
В семантическом ядре часто оказываются пустые запросы. Примеры таких запросов – «квартира под ключ», «белый бриллиант». Для поиска пустых запросов:
□ считаем значение wordstat по всему семантическому ядру;
□ считаем значение "!wordstat" по всему семантическому ядру;
□ строим пропорцию "!wordstat"/wordstat;
□ проверяем вручную все значения меньше 5 %.
Анализ семантического ядра на актуальность. Ассортимент сайта и спрос пользователей постоянно меняются. Если семантическое ядро делалось год назад, оно уже неактуально, посчитано по устаревшим данным и не учитывает новых запросов и новых проблем пользователей. Нужно выяснить:
□ соответствует ли текущий ассортимент сайта семантике;
□ как давно собиралось семантическое ядро, изменилась ли среда;
□ появились ли возможности поиска новых запросов (например, новая версия базы Пастухова).
Изучение запросов с высоким процентом отказа. Запросы могут находиться на хороших позициях, но не приносить никакой выгоды при высоком проценте отказов. Необходимо обнаружить такие запросы и устранить причины проблем. Для этого следует:
□ получить выгрузку по запросам из «Яндекс.Метрики» или Google Analytics;
□ подготовить срез запросов с высоким процентом отказов по семантическому ядру;
□ изучить пары «запрос – входная страница».
Изучение страниц с высоким процентом отказа. Необходимо также изучить страницы с высоким процентом отказов, так как причины могут быть не связаны с парой «запрос – документ», а скрываться в ошибках и недоработках самого документа. Нужно:
□ получить выгрузку по страницам из «Яндекс.Метрики» или Google Analytics;
□ подготовить срез страниц с высоким процентом отказов;
□ изучить страницы.
Изучение запросов с высокой конверсией. Большой интерес представляют запросы, дающие высокую конверсию. Изучение природы возникновения такой конверсии позволяет определить приоритеты при продвижении проекта. Для этого нужно:
□ получить выгрузку по запросам из «Яндекс.Метрики» или Google Analytics;
□ подготовить срез запросов с высокой конверсией;
□ изучить пары «запрос – документ».
Изучение страниц с высокой конверсией. Необходимо изучить также страницы, имеющие высокую конверсию:
□ получить выгрузку по страницам из «Яндекс.Метрики» или Google Analytics;
□ подготовить срез страниц по семантике с высокой конверсией;
□ изучить страницы.
Изучение страниц с низкой конверсией. Низкая конверсия может быть не связана с процентом отказов. Необходимо отдельно изучить причины этой проблемы:
□ получить выгрузку по страницам из «Яндекс.Метрики» или Google Analytics;
□ подготовить срез страниц с низкой конверсией;
□ изучить страницы.
Изучение запросов с низкой конверсией. Необходимо изучить также запросы, имеющие низкую конверсию:
□ получить выгрузку по запросам из «Яндекс.Метрики» или Google Analytics;
□ подготовить срез запросов с низкой конверсией;
□ изучить запросы.
Определение запросов, не упомянутых ни в тексте страницы, ни в анкор-листе. На сайте могут быть страницы, которые не содержат в тексте или входящих ссылках ключевых слов из продвигаемых запросов. Проверить это нужно по всему списку пар «запрос – документ» с помощью url:http://site.ru/page.html «key» (сервис А-Parser).
Проверка корректности группировок в семантическом ядре.
Каждый запрос должен встречаться только один раз, каждая проблема должна быть вынесена на отдельную страницу. Эти простые правила редко соблюдаются при разработке и продвижении сайта. Чтобы выяснить, соответствует ли им ваш сайт, нужно:
□ вручную изучить группировку по выборочным разделам семантического ядра;
□ найти дубликаты запросов (Excel).
Определение коммерчески эффективных продуктов. Ключевая метрика в SEO – прибыль для клиента. Сопоставив данные о конверсии страниц, размере спроса, конкуренции и прибыльности товара, можно определить приоритеты в продвижении и контекстной рекламе. Для этого нужно:
□ получить выгрузку данных о конверсии страниц;
□ изучить, какова конкуренция по каждому запросу;
□ получить данные о прибыльности товара;
□ получить данные о размере спроса (Wordstat.yandex.ru).
Структура сайта
Поиск страниц, с которых не стоят исходящие ссылки. Если со страницы нет исходящих ссылок, она образует висячий узел и нарушает естественное распределение весов между страницами сайта. Все висячие узлы следует либо привести к виду обычных страниц, либо удалить.
Нужно найти висячие узлы. Сделать это можно с помощью сервиса «СайтРепорт», посмотрев список всех страниц, с которых нет ни одной исходящей ссылки.
Анализ уровней вложенности страниц. Распределение страниц по уровням вложенности играет важную роль в управлении статическим весом. Следует изучить:
□ распределение страниц по уровням вложенности;
□ наличие и происхождение страниц более 3-го уровня вложенности;
□ наличие и происхождение страниц более 5-го уровня вложенности;
□ предельные значения уровней вложенности.
Анализ распределения запросов по структуре сайта. Важно, чтобы приоритеты продаж соответствовали приоритетам привлечения клиентов. Следует понять:
□ соответствуют ли коммерческие приоритеты продаж стратегии SEO;
□ все ли разделы охвачены семантикой, нет ли необоснованного перекоса.
Анализ выделения логических кластеров. Корректная структура сайта позволяет по URL понять, каково содержимое страницы. Нужно выяснить:
□ можно ли по URL определить, где сейчас находится пользователь;
□ вложены ли страницы логически (нет ли, к примеру, карточки товара, которая вложена не в свою категорию, а в главную страницу).
Как формировалась структура. В первую очередь важно, чтобы структура сайта соответствовала реальным проблемам пользователей, а содержимое страниц было основано на изучении спроса. Нужно выяснить:
□ проводилось ли при разработке сайта маркетинговое исследование спроса;
□ находят ли текущие проблемы пользователей отражение в структуре сайта.
HTML
Проверка сайта на ошибки в HTML. Существует свод правил, используя которые, поисковые системы распознают верстку на сайте. Например, тег H1 выделяет главный заголовок в тексте страницы. Некоторые специалисты используют теги не по их истинному назначению, например выделяя с помощью тега H1 элементы меню. Порядок проверки:
□ проверка валидности по матрице с помощью сервиса http://validator.w3.org/;
□ проверка соответствия кодировки содержимого документа его заголовку;
□ проверка на отсутствие закрывающих тегов;
□ проверка наличия нескольких H1;
□ изучение корректности использования и содержания H1 – Н6;
□ изучение наличия корректных ALT для картинок;
□ проверка наличия спамных , , , .
Проверка на кросс-браузерность по матрице. Страницы сайта должны корректно отображаться на всех популярных платформах, иначе часть посетителей не смогут пользоваться сайтом, что негативно скажется на конверсии и поведенческих факторах. Проверка должна происходить при изменении следующих условий:
□ Firefox, Opera, Chrome, Internet Explorer;
□ 1024,1280,1960;
□ iPod, iPhone;
□ полный экран, стандартный экран, свернутый экран.
Проверка наличия микроформатов. Передавать поисковой системе расширенные данные о содержании сайта, контактную информацию, отзывы, сведения о товарах можно с помощью следующих микроформатов:
□ hCard – формат разметки контактной информации;
□ hRecipe – формат для описания кулинарных рецептов;
□ hReview – формат разметки отзывов;
□ hProduct – формат разметки сведений о товарах.
Анализ корректности использования микроформатов. При использовании микроформатов могут быть допущены ошибки. Проверяются:
□ правила использования микроформатов с помощью http://microformats.org/wiki/Main_Page-ru;
□ валидация микроформатов с помощью http://webmaster.yandex.ru/ microtest.xml.
Анализ попадания содержимого микроформатов в индекс поисковых систем. Не всегда корректные данные микроформатов учитываются поисковыми системами. Например, Google может посчитать отзывы в микроразметке ненастоящими и не учитывать их при формировании сниппета. Нужно проверить, было ли учтено содержание микроформатов при формировании сниппетов.
Анализ кода на наличие скриптов и CSS-инструкций внутри страницы. Вынесение кода в отдельные файлы позволяет оптимизировать работу сервера, расход трафика и скорость загрузки страниц. Для этой проверки нужно разобрать HTML по матрице, проверить, что код CSS-инструкций и скриптов хранится в отдельных файлах, а не в коде страницы.
Юзабилити
Составление матрицы юзабилити. Нужно понять, какие проблемы испытывают пользователи, приходящие на сайт, что из присутствующего на сайте помогает решить эти проблемы, а что мешает. Для этого следует:
□ уточнить по матрице, какие проблемы пользователи могут решить в каждом шаблоне;
□ уточнить, какие дополнительные проблемы возникают у пользователей;
□ просмотреть список элементов, присутствующих на странице;
□ изучить опыт успешных проектов тематики, список элементов, которые присутствуют на страницах других проектов;
□ просмотреть список элементов, необходимых для решения ключевой и дополнительных проблем.
Анализ соответствия содержания входных страниц проблемам пользователей. Анализируя полученные данные, необходимо понять, что убрать с входных страниц, а что на них добавить. Для этого следует изучить:
□ список элементов, которые не нужны для решения проблемы, но присутствуют на странице;
□ список элементов, необходимых для решения проблемы, которых нет на странице.
Анализ юзабилити ссылок. Правила юзабилити не являются жесткими. Профессионалы в создании интерфейсов могут смело нарушать их и делать удобные сайты, но при создании среднестатистических проектов стоит придерживаться простых правил:
□ ссылки подчеркнуты;
□ ссылки выглядят иначе, чем текст;
□ ссылки, действие которых происходит в том же окне, имеют пунктирное подчеркивание;
□ очевидно, что за ссылкой кроется выпадающее меню;
□ границы ссылок и кнопок выполнены явными;
□ ссылка «Купить» оформлена кнопкой.
Анализ юзабилити форм регистрации. На странице регистрации/оформления заказа происходят очень большие потери пользователей. Причинами являются, в частности, сложность и запутанность регистрации, необходимость предоставления большого количества данных. Чтобы оттока пользователей не было, страница регистрации/оформления должна соответствовать следующим требованиям:
□ содержание форм проверяется на валидность;
□ запрашиваются только данные, влияющие на возможность выполнения заказа;
□ данные сохраняются при перезагрузке страницы;
□ капчу можно разгадать с первого раза;
□ дополнительные поля вынесены в форму, предлагаемую к заполнению после регистрации;
□ сразу после регистрации происходит автоматическая авторизация;
□ для некоторых прогрессивных сфер возможна авторизация через социальные сети.
Проверка текстов на юзабилити. Текст на странице должен быть не только полезным, но и понятно оформленным, иначе его не станут читать. Проверяются:
□ связки «заголовок + абзац»;
□ выделение смысловых акцентов с помощью перечней, цитат, заголовков, картинок;
□ отступы и верстка по сетке;
□ функциональные элементы для решения задач;
□ ссылки внутри текста (должны быть заметными).
Проверка перелинковки на полезность с точки зрения пользователя. Все ссылки должны быть для людей. SEO встраивается в эту систему, а не наоборот. Нет смысла показывать на странице тура в Турцию ссылку на визы в Карачаево-Черкессию для белорусов. Необходим таргетинг. Проверяется:
□ используются ли механизмы таргетинга при простановке ссылок;
□ эффективны ли эти механизмы, какова конверсия внутренних переходов;
□ отсутствие так называемых SEO-ссылок внутренней перелинковки в подвалах, специальных разделах, тексте а-ля «Википедия».
Анализ конверсии входных страниц и сценариев поведения.
Изучение конверсии входных страниц и путей следования пользователей по сайту позволяет сделать полезные выводы о поведенческих факторах. Для этого:
□ смотрим конверсию по разным запросам, изучаем различия аудитории;
□ ставим эксперименты, проводим А/В-тестирование;
□ изучаем через метрику видеозаписи действий пользователей;
□ на основе правой колонки Wordstat и здравого смысла составляем логические цепочки: какая информация необходима посетителю для совершения покупки.
Сниппеты
Парсинг сниппетов по всем запросам «Яндекса» и Google. Сниппеты оказывают существенное влияние на конверсию сайтов в выдаче. Это подтверждено исследованиями, проводимыми компанией «Яндекс».
Следует по всем запросам спарсить сниппеты «Яндекса» и Google (сервис A-Parser).
Анализ сниппетов в Google. Необходимо выделить каждую часть сниппета и проверить, что корректно формируются:
□ логическая структура и ключевые слова в URL;
□ отзывы по микроформату hReview;
□ заголовок (Title, DMOZ, анкор-ссылки, текст страницы);
□ указание авторства контента (по микроформату hCard);
□ содержимое сайтов (по микроформатам hProduct и GoodRelations);
□ мероприятия (по микроформату hCalendar);
□ адрес (по микроформату hCard);
□ хлебные крошки (по микроформату Breadcrumb);
□ описание (текст страницы, Description, описание в каталоге DMOZ).
По каждому пункту необходимо зафиксировать, корректно ли формируется сниппет и существуют ли возможности для улучшения.
Анализ сниппетов в «Яндексе». Необходимо выделить каждую часть сниппета и проверить, что корректно формируются:
□ логическая структура и ключевые слова в URL;
□ регистр букв в домене;
□ значок (файл favicon.ico);
□ заголовок сниппета (Title, H1 – Н6, STRONG, В, UL, LI, «Яндекс.Каталог», DMOZ, Description);
□ быстрые ссылки (структура, URL, переходы по ссылкам);
□ содержимое сайтов (микроразметка hCard, hRecipe, hReview, hProduct);
□ регион («Яндекс.Адреса», «Яндекс.Каталог»);
□ адрес («Яндекс.Адреса»);
□ социальные ссылки (связанные аккаунты в социальных сетях);
□ хлебные крошки (хлебные крошки, ЧПУ);
□ описание (текст страницы, Description, «Яндекс.Каталог», анкор-лист);
□ ссылки в описании.
По каждому пункту необходимо зафиксировать, корректно ли формируется сниппет и существуют ли возможности для улучшения.
Изучение областей, откуда берется описание. Для того чтобы влиять на содержание описания, необходимо понять, откуда оно берется и по какому алгоритму. Для этого нужно собрать информацию по всем источникам данных, используемых поисковыми системами при формировании сниппетов:
□ парсинг Description (A-Parser, «СайтРепорт»);
□ парсинг («Яндекс.Каталог», DMOZ (можно вручную));
□ сбор анкоров (ранее собраны через «Яндекс.Вебмастер», Ahrefs, выгрузки бирж);
□ парсинг , , ,
,
,
,
,
, Title (модуль Page Auditor в «СайтРепорт»);
□ парсинг текста страниц (A-Parser может собрать сохраненные текстовые копии);
□ сравнение данных о сниппетах с данными об источниках.
Ссылочная масса
Получение ссылок из различных источников. Необходимо собрать ссылки из всех источников:
□ «Яндекс.Вебмастер»;
□ Ahrefs, MajesticSEO, Solomono;
□ выгрузка с бирж и агрегаторов.
Получение данных о ссылках. Для анализа ссылок необходимо получить по всей ссылочной массе следующие данные:
□ URL;
□ ТИЦ;
□ PR;
□ количество исходящих ссылок со страницы;
□ возраст;
□ наличие сайта в «Яндекс.Каталоге»;
□ наличие сайта DMOZ;
□ дату индексации;
□ текст ссылки;
□ цену;
□ количество входящих ссылок на сайт;
□ количество исходящих ссылок с сайта;
□ трафик сайта;
□ количество страниц сайта в индексе «Яндекса»;
□ количество страниц сайта в индексе Google.
Анализ динамики изменения ссылочной массы. Необходимо изучить динамику изменений ссылочной массы с помощью:
□ MajesticSEO;
□ Ahrefs.
Проверка индексации страниц-доноров. Далеко не все размещенные ссылки попадают в индекс поисковых систем. Некоторые ссылки могут стоять несколько лет, прежде чем SEO-специалист узнает, что их до сих пор нет в индексе. Необходимы:
□ после покупки – проверка индексации страниц (вручную кэш в «Яндексе», плагин wink);
□ при покупке – изучение индексации похожих страниц сайта, размещенных ранее.
Сбор анкор-листа. Тексты ссылок участвуют в ссылочном ранжировании. Необходимо собрать всю доступную информацию об анкорах:
□ внутренний анкор-лист – с помощью «СайтРепорт» (Проект-Отчет по загрузке-Коллектор анкоров);
□ внешний анкор-лист – с помощью Ahrefs, Solomono, MajesticSEO.
Проанализировать по матрице по одной популярной странице каждого типа.
Анализ ссылочной массы на атаки конкурентов. Иногда приходится сталкиваться с недобросовестными конкурентами. Чтобы минимизировать ущерб от них, выполняем следующие проверки:
□ поиск ссылочных взрывов (с помощью MajesticSEO, Ahrefs);
□ поиск спамных ссылок (с помощью Excel по выгрузкам);
□ поиск спамных анкоров (с помощью Excel по выгрузкам);
□ поиск ссылок с бирж, которых нет на аккаунтах компании.
Внутренние ссылки
Изучение списка исходящих ссылок на внешние сайты. Статический вес распределяется между всеми ссылками сайта. Если ссылок на другие ресурсы существенное количество, продвигаемые страницы сайта могут недополучать вес. Необходимо:
□ просмотреть список доменов, на которые стоят ссылки;
□ просмотреть список ссылок на внешние ресурсы («СайтРепорт», RDSBar).
Проверка страниц на дублирование ссылок. Некоторые ссылки могут дублироваться. Это мешает специалисту контролировать передачу статического веса и анкорное ранжирование. Необходимо найти такие ссылки и решить, что с ними делать. Выполняется это поиском среди внутренних ссылок доноров, которые несколько раз ссылаются на акцептор.
Проверка страниц на циклические ссылки. Циклические ссылки – это ссылки, которые ссылаются сами на себя. Нужно выполнить поиск циклических ссылок по сайту («СайтРепорт»).
Анализ модулей динамической внутренней перелинковки. Модуль динамической перелинковки может быть полезен для SEO, если его правильно использовать. Выполняются:
□ проверка на индексацию таких ссылок;
□ проверка наличия таргетинга и его эффективность;
□ проверка анкоров на соответствие SEO-нуждам.
Изучение исходящих внутренних анкоров и внутренних ссылок по матрице. Изучение исходящих внутренних ссылок и их анкоров позволит понять, какие ссылки лишние и как используются анкоры:
□ определяем, что закрывать в SEOHide;
□ определяем, что удалять;
□ определяем, где поменять анкор.
Изучение входящих внутренних ссылок по матрице. Необходимо изучить по входным страницам, откуда на них стоят ссылки. Выполняется это анализом внутренних доноров («СайтРепорт», Page-Weight).
Анализ внутреннего анкор-листа через «СайтРепорт». Важно посмотреть на ссылки как с позиции донора, так и с позиции акцептора:
□ изучаем внутренний анкор-лист (с помощью коллектора анкоров в «СайтРепорт»);
□ определяем, какие анкоры добавить, а какие убрать, в соответствии с семантикой по критериям разнообразия, наличия безанкорных ссылок, переспама.
Статический вес
Определение страниц, получающих недостаточный статический вес. Часть важных страниц может недополучать статический вес. Вместо этого наибольший вес может переходить к непродвигаемым и техническим страницам. Чтобы решить эту проблему, необходимо:
□ сортировать страницы по PageRank в «СайтРепорт» или другом сервисе;
□ сравнить полученный список со списком входных страниц.
Расчет статического веса при перелинковке (низко-, средне– и высокочастотные запросы) (условно по PageRank). Статический вес имеет большое значение. Рассчитав распределение статического веса и направив его на продвигаемые страницы, мы можем существенно увеличить приток трафика из поисковых систем. Чтоби добиться этого, необходимо:
□ изучить текущее распределение статического веса между страницами сайта (Page-Weight, «СайтРепорт»);
□ рассчитать распределение статического веса и выбрать оптимальную схему (Excel).
Расчет статического веса по входящим внешним ссылкам (условно по PageRank). Статический вес имеет большое значение. Рассчитав распределение статического веса и направив его на продвигаемые страницы, можно существенно повысить трафик из поисковых систем. Для этого:
□ оцениваем ссылки по тулбарному PageRank;
□ добавляем в схему распределения PageRank данные по внешним ссылкам.
Эти расчеты позволяют примерно определить, когда выгоднее поставить ссылки на раздел, а когда – на карточки товаров.
Анкоры
Определение доли некоммерческих анкоров в анкор-листе. При продвижении часть ссылок должна иметь некоммерческий анкор. Определить долю таких ссылок можно:
□ проанализировав анкор-лист (тексты всех внешних и внутренних ссылок);
□ рассчитав долю некоммерческих анкоров.
Проверка анкор-листа на релевантность запросам. Формула ВМ25 позволяет определить одну из границ релевантности анкор-листа. Следует рассчитать ВМ25 анкор-листа по запросам (Excel).
Проверка анкор-листа на полноту охвата семантики (внутренние и внешние ссылки). Перед тем как ставить новые ссылки, необходимо собрать статистику по текущим анкорам:
□ подготовить список запросов;
□ проверить наличие всех запросов в анкор-листе (проставленные и проиндексированные ссылки);
□ проверить наличие разбивок ко всем средне– и высокочастотным запросам в анкор-листе.
Анализ покупных ссылок на наличие информационных анкоров. При ранжировании информационных запросов коммерческие SEO-ссылки не передают вес. Необходимо проверить список ссылок на наличие таковых. Выполняется проверка того, что информационные запросы покупными ссылками не продвигаются.
Проверка анкор-листа на спамность (внутренние и внешние ссылки). Еще одна грань релевантности анкор-листа – переспам. SEO-специалист должен лавировать между релевантностью по ВМ25 и переспамом анкор-листа. Спамность считается:
□ по количеству повтора анкора;
□ наличию анкоров с повторами слов.
Проверка анкор-листа на наличие уникальных биграмм. Некоторые SEO-специалисты в качестве анкоров ссылок по старинке используют редкие слова. Поисковая система это может расценивать как спам. Запросом к ПС определяем, нет ли несуществующих комбинаций слов.
Естественные ссылки
Определение доли естественных (живых) ссылок в ссылочной массе. Естественные ссылки играют важную роль в ранжировании сайтов. Проверка:
□ получаем список ссылок из «Яндекс.Метрики»;
□ считаем количество ссылок, по которым были переходы ко всему количеству.
Изучение естественных ссылок. Если сайт получил естественные ссылки в результате каких-то действий, полезно изучить эти действия и создать сценарии наращивания естественных ссылок. Следует изучить природу возникновения естественных ссылок, их количество и передаваемый трафик.
Анализ ссылок из социальных сетей. Часть ссылок может быть размещена в социальных сетях. Необходимо:
□ изучить инфоповоды появления ссылок;
□ изучить площадки, разместившие ссылки;
□ составить список решений и инструментов, которые можно использовать для увеличения числа ссылок из социальных сетей.
Анализ PR-активности сайта, поиск возможностей для размещения естественных ссылок. Взаимодействие SEO с отделом PR позволяет получать ссылки с самых крупных и интересных ресурсов, где купить ссылку невозможно. Нужно выполнить поиск:
□ PR-площадок;
□ возможностей использовать PR-площадки для простановки ссылок.
Поиск и изучение отзывов о компании. Наличие негативных отзывов в видимой части индекса ухудшает конверсию вашего сайта, приводит к снижению продаж и, как следствие, понижению поведенческих факторов. Для того чтобы этого не происходило:
□ важно знать площадки, где можно оставить отзывы по вашей тематике, в том числе универсальные площадки;
□ необходимо стимулировать клиентов оставлять отзывы.
Отсутствие отзывов тоже негативно сказывается на конверсии.
Анализ трафика с сайтов через «ЯндексМетрику». Анализируя источники трафика, можно найти много интересных площадок для PR и SEO. Необходимо разобраться:
□ откуда идет трафик;
□ каков характер появления ссылок, которые дают трафик;
□ каково содержание страниц, откуда идет трафик;
□ в чем заключается поиск сценариев для привлечения подобных ссылок.
Текстовые факторы (важные зоны документа)
Поиск дублирующихся Title. Существует правило: один запрос нельзя продвигать на две страницы. Дублирование Title нарушает это правило, поскольку размывает релевантность продвигаемой страницы. Чтобы избежать этой проблемы, необходимо найти на сайте все дубликаты Title (сервисы «СайтРепорт», Google.WebMaster).
Проверка Title на спамность. На некоторых страницах SEO-специалисты могут перестараться с употреблением ключевых слов в Title. Кстати, при генерации Title также могут быть спамными. Необходимо выполнить:
□ поиск Title, в которых несколько раз повторяются ключевые слова;
□ ручной отсмотр списка всех Title сайта (такой отчет есть в «СайтРепорт»).
Проверка наличия ключевых слов в Title. Необходимо выполнить проверку наличия ключевых слов в Title. Для этого построить таблицу проверки наличия слов в Title (с помощью Excel).
Проверка длины Title по всем страницам сайта. При ранжировании Title дает бонус словам, находящимся в видимой части заголовка. Если написать слишком длинный Title, ключевые слова, употребляемые далеко от начала, при ранжировании будут расцениваться как обычный текст. Следует построить таблицу проверки наличия слов в Title (с помощью Excel).
Поиск спамных употреблений в , , . На сайтах заказчиков иногда встречается наследие прошлого – оптимизация ключевых слов с использованием тегов и др. Явный спам с использованием этих тегов может представлять угрозу для ранжирования. Избавиться от них поможет отчет по тегам в «СайтРепорт».
Проверка Description на дублированность. Содержимое тегов Description должно быть уникальным. Проверить это поможет отчет по тегам («СайтРепорт»).
Проверка Description на спам. Рекомендуется проверить содержимое тегов Description на спамность. Для этого необходимо выполнить ручной анализ выгрузки списка всех Description («СайтРепорт»).
Проверка HTML заголовков на спамность. Содержимое тегов HI – Н6 оказывает большее влияние на ранжирование, чем обычный текст. Для этого необходимо корректно использовать их и не спамить. Выполняются:
□ постраничные выгрузки в отчете по тегам списка Н1 – Н6 («СайтРепорт»);
□ парсинг всех страниц сайта и выгрузка содержания тегов (A-Parser).
Анализ заголовков входных страниц на соответствие ключевым словам. Необходимо проверить, что содержание заголовков Н1 – Н6 соответствует продвигаемым запросам, для этого свести таблицу семантики и выгрузку по заголовкам (Excel).
Текстовые факторы (область контента)
Проверка на наличие ключевых слов в ALT. Содержимое атрибута ALT влияет на ранжирование изображения. Чтобы проверить его, нужна сводка всех ALT на сайте (парсинг + Excel).
Проверка наличия телефонов, адресов и другой важной информации в виде индексируемого текста. Контактная информация должна быть представлена индексируемым текстом в HTML-коде. Проверяется вручную на отдельных страницах.
Поиск важных ссылок, выполненных в виде картинок. Поскольку текст ссылки участвует в ранжировании, часть важных ссылок обязательно должна быть оформлена в виде текста. Ссылки проверяются на содержание тега (сервис «СайтРепорт»).
Анализ уникальности текстов. Необходимо убедиться в отсутствии дублей контента внутри сайта. Выполняется сравнение контента, расположенного на сайте (сервис «СайтРепорт»).
Проверка на воровство контента. Необходимо убедиться в том, что контент не украден. Выполняется:
□ сравнение текстов отдельных страниц всей матрицы с индексом;
□ проверка с помощью сервисов http://seobudget.ru/tooLs/unique/;
□ проверка того, используется ли сервис сообщения об уникальном контенте в «Яндекс.Вебмастере».
Анализ наличия важных форм запросов в текстах. Важно убедиться в том, что тексты содержат точные формы наиболее частых запросов. Для этого выполняется проверка наличия в тексте точной формы запроса.
Анализ корректности написания текстов с точки зрения алгоритмов обработки текстов:
□ оценкиваются расстояния между словами;
□ проверяется употребление запросов в рамках одних пассажей.
Анализ заголовков по матрице. Проверяется:
□ содержание прямых вхождений всех популярных форм запросов;
□ достаточность количества заголовков;
□ использование заголовков по прямому назначению.
Анализ текста по матрице. Проверяется:
□ его наличие;
□ объем;
□ содержание.
Анализ эффективности продвижения
Проверка соответствия запросов входным страницам. При продвижении существует риск возникновения ситуации, при которой поисковая система сменяет продвигаемые страницы. Необходимо постоянно держать под контролем соответствие запросов продвигаемым страницам. Для этого необходимо:
□ собирать данные о продвигаемых страницах (A-Parser);
□ проверять соответствие продвигаемой страницы в выдаче семантике;
□ выполнять анализ на основе отчета о продвижении.
Анализ ранжирования картинок с сайта. Сайты фотобанков, галереи и многие другие проекты получают значительное количество трафика с поиска картинок. Следует проверять данные о позициях сайта в результатах поиска по картинкам (A-Parser).
Анализ ранжирования видео с сайта. Для некоторых сайтов трафик по видеоконтенту имеет высокий приоритет. Нужно выполнять:
□ анализ трафика на страницы видеофайлов («Яндекс.Метрика»);
□ парсинг YouTube (A-Parser).
Анализ ранжирования DOC, XLS, PDF, РРТХ-документов сайта. Для некоторых сайтов может быть важен трафик по документам. Выполняется стандартная проверка по специфическим запросам (A-Parser).
Анализ запросов, по которым приходит трафик из поисковых систем («Яндекс», Google, Mail). Анализ запросов, по которым приходит трафик, может показать как новые анкоры для перелинковки, так и новые направления для развития контента сайта. Выполняется:
□ изучение списка запросов (с помощью «Яндекс.Метрики»), включение запросов в семантику;
□ расширение семантического ядра на основании полученных данных.
Бизнес-аналитика
Проверка корректности оформления заказа. Несмотря на усилия SEO-специалистов, результат работы могут свести на нет ошибки системы оформления заказа. Автору приходилось сталкиваться с ситуациями, когда клиент сомневался в эффективности SEO из-за того, что, несмотря на рост трафика, заказов не прибавлялось. Оформляем пару заказов и проверяем:
□ время реакции;
□ корректность обработки данных;
□ соответствие наличия товаров на сайте и на складе (заказываем редкий товар);
□ соответствие срока доставки указанному на сайте;
□ возможность оплачивать редкой валютой;
□ соответствие возможности самовывоза указанному на сайте.
Проверка саппорта. Служба саппорта может долго реагировать на запрос, давать некорректную информацию. Проверяем:
□ реакцию системы на матерный, злой запрос;
□ реакцию системы на стандартный запрос;
□ время ответа;
□ информативность ответа;
□ готовность и способность сотрудников решить проблему;
□ соответствие режима работы указанному на сайте.
Проверка колл-центра. В результате неэффективной работы колл-центра сайт может потерять позиции по поведенческим факторам. Клиент может потерять заказы. Нормальной работе могут мешать:
□ злой клиент;
□ звонок в обеденное время;
□ звонок за пять минут до конца рабочего дня;
□ необходимость оформлять заказ по телефону;
□ глупые вопросы;
□ сложные вопросы;
□ обещание перезвонить.
Сравнение ценовых предложений. Возросший трафик не повысит продаж, если при формировании ценовых предложений заказчик не принимает во внимание колебания цен на рынке. Следует изучить топ-10 наиболее популярных товаров и сравнить свои ценовые и сервисные предложения с предложениями конкурентов.
Уведомление клиента о возможном увеличении нагрузки на колл-центр. Обязанность SEO-специалиста – проинформировать клиента о том, что возможен резкий рост трафика, из-за чего нагрузка на колл-центр возрастет. Автору пришлось столкнуться с ситуацией, когда клиент вынужден был остановить эффективное SEO из-за того, что не успевал расширять колл-центр.
Сводная таблица
1. Таблица приоритетов: критические, важные и незначительные ошибки.
2. Формат: фактор, статус, что делать, приоритет.
По результатам аудита составляется ТЗ.