Раскрутка: секреты эффективного продвижения сайтов

Боде Михаил

Бабаев Анар

Евдокимов Николай

Штараев Алексей

Костин Евгений

Аннотация

Издание представляет собой самое полное и подробное руководство по поисковой оптимизации (SEO) от практикующих специалистов данной области.

Из книги вы узнаете основы SEO – алгоритмы, цели, принципы, особенности оптимизации. Отдельные главы посвящены специалистам, всем, кто желает построить собственную компанию и организовать, а также клиентам, использующим данный вид сервиса.

В приведенных интервью своим опытом делятся известные в интернет — сфере личности, эксперты в области SEO: Сергей Людкевич (Корпорация РБС), Алексей Жуков (UnMedia), Илья Зябрев (AlterTrader Research Ltd.), Роман Клевцов (Optimism), Елизавета Трибунская (SearchEngines.ru), Леонид Гроховский (ТопЭксперт).

Издание адресовано всем, кто начинает постигать основы поисковой оптимизации, и специалистам, желающим повысить свой профессиональный уровень благодаря практическому опыту авторов и приведенным рекомендациям от ведущих российских компаний по разработке интернет — решений.

12+ (В соответствии с Федеральным законом от 29 декабря 2010 г. № 436 — ФЗ.)

 

Вводная

 

Эволюция факторов ранжирования поисковых систем

Несмотря на сделанные еще в 1960 — 1970 — х предсказания фантастов, лет двадцать – двадцать пять назад мало кто догадывался, что вскоре для поиска любой информации миллионы людей будут обращаться к Глобальной cети. Трудно вообразить, что когда — то Интернет был «исхоженным» вдоль и поперек – не миллионы, а жалкие десятки разрозненных сайтов, которым не приходилось бороться за высокие позиции в поисковой выдаче (она же по — английски Search Engine Results Page, SERP). Да и первые алгоритмы поиска были простыми как колесо: релевантными признавались те ресурсы, на страницах которых содержался поисковый запрос. Сама выдача была ожидаемо куцей.

Однако грибница Интернета расползлась по миру, и по мере того, как ширился Веб, множились и сайты в нем. Чтобы не сдуться при этом масштабировании, поисковым системам потребовалось изменить подход к ранжированию ресурсов и взяться за разработку гораздо более сложных алгоритмов.

 

Внутренние факторы

В 1994 году увидела свет первая полнотекстовая поисковая система под названием WebCrawler. Произошла революция: ранее информация в Сети структурировалась исключительно в виде каталогов ссылок, сгруппированных по тематическому признаку. Следом на орбиту большого поиска вышли Lycos и AltaVista. Это были первые попытки организовать доступ к ресурсам Веба не на основе каталогизации. До наших дней дошли только упоминания о тех поисковых системах, хотя многие из нас застали их на закате славы.

В 1997 году практически одновременно на двух разных континентах зародились гиганты современного поиска – Google и «Яндекс». Их алгоритмы ранжирования, со скидкой на локальные особенности, развивались в одном русле. Стремительные изменения в качестве поисковой выдачи требовали принятия решительных мер ради выполнения единой миссии – предлагать пользователям релевантные их запросу, предельно качественные и полезные ресурсы.

Львиная доля сайтов на рубеже тысячелетий была по сегодняшним меркам примитивна, их страницы отличались незамысловатым дизайном и длинными «портянками» текстов с высокой плотностью ключевых слов. Благодаря нескольким наивным, на наш взгляд, приемам они могли продвигаться вверх в выдаче и добиваться лояльности со стороны поисковиков. В частности, большое значение для выхода в топ имело использование ключевых слов в метатегах. Один из них, keywords, ранее предназначался исключительно для того, чтобы передать информацию поисковому роботу. Он больше не играет ведущей роли в ранжировании, и даже оставить его незаполненным не будет страшным грехом.

Со временем подтвердилось, что мало учитывать лишь эти внутренние факторы, отводя сайту подобающее ему место в SERP. К внутренней оптимизации страниц предъявлялись все более высокие требования. Поисковики усложняли свои алгоритмы и объявляли войну некачественному и неуникальному контенту, скрытому тексту и многим другим нарушениям со стороны сайтостроителей, пытающихся обмануть, с одной стороны, поисковую машину, с другой – пользователей.

На текущий момент в связи с увеличением «удельного веса» внутренних факторов сложился целый свод писаных и неписаных требований к оптимизации, без соблюдения которых дорога в «высшее общество» – в топ – закрыта. И наоборот, отдельные факторы, которые ранее вершили судьбы сайтов (как то: метатеги, «тошнота», большие тексты, схемы перелинковки), утрачивают актуальность. Таким образом, если первые алгоритмы поисковых машин анализировали лишь релевантность ресурса запросу, то в настоящее время важнее его качество и полезность для посетителей.

 

Внешние факторы

Внутренняя оптимизация сайта – вотчина его владельца или администратора. Неудивительно, что веб — мастера из числа – выразимся иносказательно – «моральных релятивистов» научились оперировать не совсем честными методами и выдавать порой некачественные страницы за релевантные поисковому запросу. Так было до 1998 года, пока в Google не сошлись на том, что необходимо ввести новые факторы, которые бы не зависели напрямую от действий оптимизатора и позволяли объективнее судить о качестве сайта.

Вскоре вступили в силу внешние ссылочные факторы, призванные определять популярность ресурса в Сети, которая выражалась в количестве других сайтов, ссылающихся на него. Иначе говоря, к текстовой добавилась ссылочная релевантность. Оценка внешних факторов являлась дополнительным критерием отсева, благодаря которому в выдаче оседали действительно хорошо сделанные и интересные людям сайты. Но к тому моменту маховик интернет — бизнеса раскрутился и SEO1 из боязни упущенной выгоды ответило на действие противодействием. Ввод ссылочного ранжирования повлек за собой всплеск ссылочного спама. Оказалось, что манипуляции подвержены не только внутренние, но и внешние факторы. Сетки сателлитов (вспомогательных, сопутствующих сайтов, предназначенных лишь для улучшения позиций главного) прекрасно «пускали пыль в глаза» поисковикам, убеждая их в авторитетности сайта, а выдача все больше засорялась шлак — ресурсами. Так аферисты внедряются в бомонд, и если в него проникает слишком много пройдох и пустышек, то бомонд превращается в лучшем случае в полусвет. Поисковики парировали «мусорную атаку».

Впоследствии алгоритмы ссылочного ранжирования становились все более сложными, на службу борьбы с искусственной накруткой ссылочных метрик были поставлены многочисленные фильтры. Именно в ту пору за SEO закрепилась сомнительная слава грязного трюкачества, с помощью которого удается обхитрить поисковые алгоритмы. Как внешние, так и внутренние факторы ранжирования требовали все более глубокого анализа сайта и внешней ссылочной массы. Оценке подвергались технические характеристики ресурса, его возраст, контент и качество ссылающихся на него сайтов — доноров. Было введено такое понятие, как rustRank (называемый также трастом) – показатель доверия поисковиков к площадке. Не заслуживший траста сайт имел минимальные шансы подняться вверх в выдаче и занять желаемые места в топе.

Благодаря многочисленным ссылочным биржам веб — мастер сегодня все же способен самостоятельно влиять на внешние факторы. Но закупка ссылок требует внимательного и взвешенного подхода. Неверная стратегия ссылочного продвижения лишь навредит ресурсу. На помощь оптимизаторам и сайтовладельцам в наши дни приходят «умные» сервисы, которые максимально эффективно и безопасно, работая с внутренними и внешними факторами, обеспечивают подъем ресурса в топ поисковой выдачи. Одним из таких сервисов, самым крупным на российском рынке автоматизированной поисковой оптимизации, является SeoPul (h p://seopult.ru/).

 

Поведенческие факторы

Анализ поведения пользователей явился следующей ступенью в развитии поисковых алгоритмов. Он был призван кардинально повысить качество выдачи и помочь в борьбе с поисковым спамом. Поведенческие факторы – если не совершенное оружие в арсенале поисковых систем, то, во всяком случае, мощное: на них трудно воздействовать искусственными методами. Если пользователи сходным образом реагируют на тот или иной сайт, с высокой степенью вероятности это говорит о том, отвечает ли он их ожиданиям. И дело не только в кликабельности, которая якобы поддается накрутке.

Поведенческие факторы – это широкий комплекс пользовательских действий, учитываемых и интерпретируемых поисковыми алгоритмами. «Яндекс» возлагает выполнение столь деликатной миссии на плечи «оценщиков» — асессоров и на технологию машинного обучения MatrixNet. Изначально, когда поведенческие факторы обрабатывались по иному принципу, наблюдения за активностью посетителей зачастую трактовались ошибочно. Само собой, глубина просмотра туристического портала с увлекательными статьями о путешествиях будет не такой, как у сайта службы такси. Поведенческие факторы разнятся в зависимости от тематики и типа сайта. Введением технологии MatrixNe проблема была решена. Ресурсы были разбиты на группы и проходили проверку по формализованному набору параметров и общему впечатлению асессоров.

Таким образом, прежние методы «черной» оптимизации утратили силу, так как низкосортные ресурсы были не в состоянии конкурировать в топе с «человеколюбивыми» и качественными. Влиять напрямую на поведенческие факторы невозможно, но косвенно – вполне. Самое главное, сайт должен быть качественным и полезным для пользователей. Уникальный тематический контент, грамотное юзабилити, продуманный дизайн, привлекательный сниппет (подробнее о сниппетах читайте в разделе «Оптимизация сниппетов» главы

«SEO — практикум»), бесперебойная работа сайта – все это в руках веб — мастера. Подчиняясь этим требованиям, владелец площадки создает благоприятные условия для ее посетителей, а уж их удовлетворенность сайтом поисковая система не преминет зафиксировать и перевести на язык цифр, которые определяют позиции в топе.

 

Новые факторы

Стремительное развитие электронной коммерции и высокий спрос на товары и услуги в Интернете отразились на факторах ранжирования. Специально для интернет — магазинов «Яндекс» внедрил коммерческий алгоритм ранжирования, поскольку применительно к сайтам такого типа важно учитывать совсем не такие характеристики, как, например, в случае с новостными или информационными порталами.

С точки зрения «Яндекса», для качественного коммерческого сайта имеют большое значение такие факторы, как четкое указание цены товара или услуги, широта ассортимента, недвусмысленное описание условий доставки, корректность контактной информации с использованием карт. Учитывается также наличие отзывов и комментариев пользователей, оставляемых в сервисе «Яндекс. Маркет» или на других сайтах с рейтингами компаний, а также в социальных сетях. По количеству и характеру отзывов поисковик судит о качестве оказываемых услуг и уровне обслуживания покупателей. Если на компанию подозрительно часто жалуются, это, скорее всего, ударит по позициям ее интернет — магазина в SERP.

Известность компании – это еще один коммерческий фактор, влияющий на ранжирование. Частые запросы к поисковику, связанные с сайтом конкретной компании, свидетельствуют о ее популярности, а значит, такому ресурсу «больше веры».

В особую категорию выделяются социальные факторы ранжирования. Базовое правило работы с ними элементарно: ни в коем случае не следует пренебрегать инструментами социального маркетинга для нужд SEO. Самая популярная в Рунете социальная сеть «ВКонтакте» имеет ежедневную аудиторию более 40 млн человек. Поисковые системы придают информации в социальных сетях большое значение и учитывают в ранжировании ряд социальных факторов.

Во — первых, поисковый робот учитывает в социальных сетях внешние ссылки. Во — вторых, наряду со ссылками рассматривается активность пользователей в официальных группах, имеющих отношение к сайту. В группе кипит жизнь, в ней много участников (не ботов)? Поисковый робот констатирует: «Учтем». В — третьих, приветствуется наличие на сайте социальных кнопок, в том числе Like («Мне нравится») на странице рядом со статьей, обзором, описанием товара и другим контентом, который может оценить пользователь. Каждый «лайк» сигнализирует поисковику о том, что страница нравится посетителям и заслуживает более высокого места в топе.

В полном соответствии с исторической наукой алгоритмы поисковых систем становятся все более многогранными, факторы ранжирования сегодня разносторонне учитывают множество аспектов продвигаемого ресурса. По мере развития Глобальной сети рождаются тренды, которые не остаются без внимания поисковых систем, и, что логично, в игру вступают новые факторы, влияющие на ранжирование. Зато у владельца сайта, в отличие от ситуации десяти — пятнадцатилетней давности, есть незыблемые ориентиры: думать об удобстве и качестве проекта, думать о посетителе, да и просто – думать. Возможно, то, что не учитывается сегодня, будет важным фактором завтра. Например, почему бы, помимо формальных признаков картинки, не учитывать, кривые ли руки у фотографа, снимавшего товар для интернет — магазина. Глядишь, «Яндекс» назовет это «фактором божьей искры». Но догадки догадками, шутки шутками, а здравый смысл подчас помогает предвосхитить будущее поисковой оптимизации лучше, чем бурная фантазия.

 

Слагаемые бюджета на SEO

 

Современное SEO – не шаманство, а комплекс рациональных мер, вписанный в сферу цивилизованного интернет — маркетинга: кампания дробится на этапы, каждый – с конкретными задачами и KPI2. Однако в большинстве случаев, кто бы ни брался за раскрутку сайта – агентство или оптимизатор — одиночка, – заказчик редко получает подробный отчет о той или иной статье расходов. Гораздо прозрачнее SEO выглядит при использовании автоматизированных сервисов поискового продвижения. В системе SeoPul финансовая составляющая рекламной кампании и вовсе разложена по полочкам – с первого взгляда видно, какие суммы уходят на покупку ссылок. Но ссылки – это далеко не единственная часть поисковой оптимизации. Финансовых вложений требуют и иные меры, без принятия которых до попадания в топ будет как до Антарктиды на самокате. Так что владельцу сайта лучше заранее разведать, сколько денег может быть потрачено из бюджета на продвижение и на какие именно задачи.

 

Внутренняя оптимизация

Работа с внутренними факторами – хронологически приоритетная и чрезвычайно важная часть поискового продвижения. Перед тем как начать покупать ссылки, необходимо провести скрупулезный аудит сайта на предмет его корректности с точки зрения SEO. Полноформатная ревизия предполагает проверку HTML — кода, файла robots.txt, настроек CMS (системы управления контентом), наличия дублей страниц и других технических деталей. Обязательный пункт подготовки – оптимизация контента, проверка текстов на уникальность и защита авторства материалов. Мало того, что тексты должны иметь оптимальный процент вхождения ключевых слов, необходимо проанализировать их структуру и форматирование: использование заголовков и подзаголовков, абзацев, списков и т. д. Не забывайте и о правильной внутренней перелинковке. Она служит как для удобства пользователей, так и для передачи веса между страницами сайта. Все недочеты, выявленные аудитом, должны быть устранены, иначе зачем он нужен?

Внутренняя оптимизация сайта – это еще и «рихтовка» каждой посадочной страницы в отдельности. Это титаническая работа, с которой сам владелец ресурса полностью едва ли справится, если только он не супергерой – разработчик, интернет — маркетолог и оптимизатор в одном лице, не разменивающийся на такие мелочи, как сон. Но, скорее всего, придется прибегнуть к помощи специалистов, которые подготовят сайт к продвижению, и оплатить их услуги. Лучше не жадничать, потому что вложения окупятся сторицей: будучи грамотно оптимизированным, ресурс позволяет сократить траты на SEO в дальнейшем. Начинать оптимизацию с покупки ссылок – все равно что абы с кем выходить в открытое море на яхте, состояния которой вы себе не представляете. Любая серьезная внештатная ситуация в сотнях километров от береговой линии – огромный риск, равно как и «плавание» по выдаче «Яндекса» в опасной близости от поисковых фильтров. А ведь еще поди пойми, с чем беда – со штаг — юферсом или спинакер — фалом, если ты не готовил судно к плаванию. «Хорошую ж яхту купил! Белую такую…» – разведет руками незадачливый «мореход». Сайт тоже, бывает, выглядит в глазах его хозяина «белым» и непотопляемым. До первого серьезного волнения в топе.

 

Покупка ссылок

Стоимость ссылочного продвижения напрямую зависит от конкурентности и частотности запросов, под которые оптимизируется каждая конкретная страница сайта. На стадии формирования семантического ядра нужно понимать, что высокочастотные запросы обойдутся куда дороже, чем низкочастотные. Далее, цена ссылок зависит от того, сколько и на что тратят ваши конкуренты. Прежде чем назначить цену на ту или иную ссылку, нужно провести анализ конкурентной среды. Это трудозатратно и увеличивает расходы на кампанию, если заказывать ее в агентстве.

В SeoPult, однако, нет необходимости в монотонной ручной работе по подбору ключевых слов, анализу конкурентов и высчитыванию оптимального бюджета. Автоматизация перечисленных процессов снижает затраты владельца сайта на продвижение и дает ему четкую картину расходов на закупку ссылок. Следует заметить, что SeoPul лишь вспомогательное звено в продвижении: система дает рекомендации относительно затрат на ссылки, анализируя конкурирующие сайты. Однако клиент всегда вправе перейти на «ручное управление», если чувствует такую необходимость.

 

Заказ контента

Conten is king3. А на престоле немыслим самозванец, не скрывающий своего сомнительного статуса. И взбунтуется народ, и исполнятся гневом посетители, и прахом пойдут поведенческие факторы. Да и «Яндекс» вмешается в эти «игры престолов» и загонит площадку под плинтус. То бишь на периферию выдачи, куда не ступала нога ищущего.

Как осетрина бывает только первой свежести, так и контент должен быть уникальным и тематическим – и никаким другим. Хотите высоких позиций и высокой конверсии? Напишите в бюджете большими буквами: «Заказ текстов». Связывать слова в предложения, а предложения в абзацы можно самому, были бы талант да навык, но это обычно нерационально: владельцу сайта придется потратить сотни часов на одни лишь тексты. Распространенная практика – заказывать контент на текстовых биржах или у копирайтеров — фрилансеров. Зачастую на биржах выходит дешевле и безопаснее, причем они несут прямую ответственность за действия своих сотрудников и следят за сроками выполнения задач.

К контенту относятся и графические материалы. Коммерческой площадке важно не только описать, но и показать товар. Заимствовать изображения у конкурентов категорически противопоказано, равно как и использовать чужие статьи. Поисковые алгоритмы идентифицируют картинку — дубль в два счета. Оптимальный вариант – сделать качественные, детальные снимки товара, демонстрирующие все его характерные особенности. На съемку придется потратиться, зато ваши собственные, ниоткуда не скопированные фотографии послужат заделом на будущее и предотвратят досадные эксцессы с поисковыми системами.

Еще одна, часто игнорируемая, ипостась контента – комментарии. Их наличие на страницах сайта определенно приветствуется. «Живой» сайт милее поисковым системам, да и люди охотнее пользуются им, если видят активность со стороны других его посетителей. Комментарии и отзывы достаются владельцам площадок, как правило, бесплатно, но, если проявить смекалку и дать клиентам небольшой бонус за отклик о проекте или о продукте, можно получить в разы больше пользовательского контента.

 

Работа специалистов

Созданием и продвижением сайта обычно занимается несколько человек, и каждый рассчитывает получить вознаграждение за свой труд. Команда может включать верстальщика, программиста, дизайнера, маркетолога, оптимизатора, линк — менеджера, копирайтера, контент — менеджера и т. д. Нередко ввиду скромного бюджета к работе над проектом привлекаются всего два — три специалиста, которые обладают разносторонними навыками. Расценки у каждого свои и зависят от множества критериев, включая квалификацию, опыт, сложность задач и, с позволения сказать, «повышающий коэффициент за простодушие заказчика». В случае SEO выделяются два базовых варианта – расчет с оптимизатором — фрилансером по договору и оплата счета, выставленного агентством. Ни «ремесленник — одиночка», ни солидная контора полной гарантии выхода в топ не даст, но, само собой, каждый хочет получить денежную компенсацию за выполненную работу. А уж поручать ли внутреннюю и внешнюю оптимизацию сайта SEO — компании или же пытаться действовать самостоятельно с помощью системы автоматизированного продвижения и веб — мастера – решать владельцу ресурса.

Бюджет на продвижение не константа. Иногда что — то из него допустимо исключить, а что — то уместно добавить. Необходимо подходить к его оценке взвешенно, четко понимая, какие цели поставлены и каких результатов нужно достичь. Стратегию каждый выбирает для себя: гнаться ли за конкурентами и тратить не меньше, чем они, или же достаточно поначалу выбирать менее конкурентные фразы и постепенно наращивать позиции в топе. Далеко не всегда большой бюджет означает мгновенный успех. И лить воду на SEO — мельницу надо осторожно, чтобы не снести плотину

 

SEO — практикум

 

• Работа над уникальностью контента на сайте

• Оптимизация в стратосфере Рунета

• Икроножное SEO: оптимизаторские финты для интернет — изданий

• SeoPult: приборы, карты, фигуры пилотажа

• Трастовость сайта

• ГС, горе от ума и парадоксы современного SEO

• Особенности продвижения интернет — магазина

• Веденческие факторы ранжирования

• Оптимизация сниппетов

• Продвижение в «Яндекс. Картинках»

• Продвижение через поисковые подсказки

• Выбор домена и хостинга

• Сверка уникальности контента методом шинглов

• Семантическая разметка страниц

• Трафиковое продвижение

• Зеркала и склейка

• Особенности продвижения молодого сайта

• Региональное продвижение: места силы

• Аффилиаты: сидя на двух стульях

• Продвижение аффилированных интернет — магазинов

• Создание эффективной посадочной страницы

• Возможности HTML5 при оптимизации

• Особенности мобильных версий сайтов

 

Работа над уникальностью контента на сайте

Оригинальный авторский контент на сайте – одна из первостепенных метрик, обуславливающих качество, трастовость площадки. Представители поисковых систем не устают повторять, что нет никакого резона добиваться высоких позиций сайта в выдаче за счет полулегальных ухищрений, а тем более откровенно нечестных методов. Зато проведенная с умом внутренняя оптимизация и внятное содержимое сайта – это путевка в топ.

Перефразируя поговорку, подтверждаем: кто понял Веб, на контент не скупится. Многие блогеры и владельцы сайтов берут тексты буквально из головы, переводя мысли в буквы по многу часов ежедневно. Кто — то формирует целую редакцию, которая выдает на — гора десятки и сотни статей в месяц. Чаще эту задачу поручают копирайтерам. Производство авторского контента трудозатратно, что отталкивает тех, кто ищет легких путей всегда и везде. Бич Интернета в целом и SEO в частности – воровство контента: зашел к конкуренту на сайт, скопировал текст и загнал в CMS своего сайта в первозданном виде или с вариациями. К счастью, в наше время существуют способы защиты интеллектуальной собственности в Интернете от посягательств. Автор контента имеет возможность подтвердить свои права на него, а сайту в результате нехитрых операций можно присвоить статус первоисточника текста (если он действительно является первоисточником).

 

Защита уникальности контента

Уникальный контент нравится и пользователям, и поисковым машинам. Гораздо приятнее и продуктивнее открывать в топе по какому — либо запросу сайт за сайтом и изучать различные точки зрения, а не натыкаться на один и тот же текст где ни попадя. Поисковые системы стараются не допустить высокого ранжирования сайтов с чужим контентом. Успехов в борьбе с такими площадками позволили достичь введенные Google алгоритмы Panda и Penguin. Борется с плагиатом и «Яндекс», исключая из выдачи по ключевым запросам страницы с дублированным контентом.

Все бы хорошо, и «нарушители конвенции» вправду заслуживают наказания. Но часто эти алгоритмы обрушиваются, как ни странно, на самих авторов, признавая их тексты неуникальными и налагая на них суровые санкции. Вопиющая несправедливость, однако пока таков статус — кво. Как же все — таки защитить свой контент от воровства и при этом сделать его первоисточником с точки зрения «Яндекса» или Google?

Прежде чем рассмотреть способы защиты контента, разберемся с тем, какими путями нечистые на руку веб — мастера добывают чужие тексты. Если злоумышленник – новичок, то он обычно переходит с сайта на сайт и без затей копирует текст вручную. Поднаторевшие плагиаторы автоматизируют свой «труд» программами — парсерами, которые считывают и собирают всю необходимую информацию воедино. Таким же манером «умыкают» содержимое RSS — лент.

Способов защиты от воровства предостаточно. Самые простые – запрет копирования текста средствами JavaScrip и наложение прозрачного GIF на картинку. Но эти приемы выбьют почву из — под ног разве что у малоопытных «копипастеров». Более продвинутые индивиды обойдут такую защиту в два притопа, в три прихлопа и в четыре клика. Не повредит также «включить дипломатию»: обнаружив на чужом сайте свои тексты, картинки, элементы дизайна, куски кода и т. д., обратитесь к его владельцу с настоятельной просьбой удалить все, что он у вас «подрезал». В девяноста пяти случаях из ста ответом вам будет тишина, но попытка не пытка. Иногда можно добиться своего, написав хостинг — провайдеру жалобу на нарушителя с призывом повлиять на него или закрыть площадку. Однако желательно позаботиться о защите своего контента еще до того, как он будет украден. Это наиболее верная тактика, которая сбережет ваши время и нервы.

Сравнительно недавно и Google и «Яндекс» осознали масштабы плагиата в Сети и сделали первый серьезный шаг навстречу сайтовладельцам, желающим предотвратить «угон» своего контента. Механизм защиты Google основан на привязке контента к аккаунту пользователя в Google+. На странице сайта ставится ссылка на профиль автора посредством атрибута rel="author", который говорит Google: «Вот первоисточник». Кроме того, в качестве маркера, удостоверяющего авторство, может выступать электронный адрес, расположенный на том же домене, что и сам сайт. В профиле участника Google+ указывается адрес электронной почты. Например, домен сайта – somesite.ru, значит, адрес должен иметь вид [email protected] Он отображается в разделе «Мои публикации». Ради защиты приватности можно запретить показывать электронный адрес всем пользователям. Таким образом, ставя под своими статьями подпись с адресом электронной почты, привязанной к профилю Google+, вы декларируете свое авторство перед лицом Google.

У «Яндекса» защита контента строится по иной схеме. Автору предоставляется возможность сообщить о новом материале и защитить его еще до того, как он будет впервые опубликован. На панели сервиса «Яндекс. Вебмастер» есть форма, через которую можно заявить об авторстве. Туда вводится адрес сайта и текст объемом 2 — 32 тыс. символов. Пассаж проходит проверку на уникальность, и, если таковая подтверждается, указанному сайту присваивается статус первоисточника. Одно «но»: сервисом могут воспользоваться лишь сайты с тИЦ больше десяти.

Заодно никто не мешает прибегнуть к старому доброму методу, который изобрели оптимизаторы: покупается несколько ссылок с анкорами, содержащими фрагменты текста, который подлежит защите. Такие ссылки с цитатами из статей наводят поисковые системы на первоисточник и помогают исключить возникновение проблем с копированием контента и установлением его авторства.

 

Проверка контента на уникальность

Иногда требуется произвести проверку текстов на уникальность. Например, копирайтер прислал заказанную ему статью, но вдруг он обманщик и выдает плоды чьего — то труда за свой материал?

Инструментов для проверки контента на уникальность много. Одни работают в режиме онлайн, другие требуется скачать в виде приложения и установить на компьютер. Перечислим наиболее известные и распространенные интернет — сервисы первой категории: Copyscape Premium, Antiplagiat.ru, Istio.com, Miratools.ru. Обратите внимание и на программы второй категории: Advego Plagiatus, DCFinder, Praide Unique Conten Analyzer.

Помните, что своевременная проверка текстов на уникальность позволяет избежать больших неприятностей. Ведь, к примеру, приняв от фрилансера сворованный текст, вы невольно оказываетесь его пособником, ну а поисковику безразлично, почему именно на вашем сайте было опубликовано описание товара, составленное для другого интернет — магазина.

 

Где брать уникальный контент

Требования к текстам зависят от тематики и специфики сайта. Например, для интернет — магазина бытовой техники описания товаров составляют, опираясь на их характеристики. В таком случае услуги копирайтера нужны нечасто: гораздо проще воспользоваться специальными шаблонами. А вот для туристического портала с описанием стран и курортов необходимы интересные авторские статьи, обзоры, заметки.

Копирайтинг, или написание текстов с нуля, – это наиболее дорогой способ получения оригинального контента. Статьи заказываются, как правило, у фрилансеров или на специализированных биржах. Не всегда копирайтер так уж необходим: качественно изложить смысл чужого текста с добавлением авторской изюминки сумеет и добросовестный рерайтер, чей труд несколько дешевле. Рерайт в большей степени актуален для новостных сайтов.

Другой источник контента – публикации на иностранных языках. Интернет в целом априори богаче контентом, чем один из его сегментов – российский. Знаете, английский, немецкий, испанский языки? Отлично. Переводите профильный для вас материал и публикуете его на своей площадке, в соответствии с правилами хорошего тона снабдив статью указанием источника информации. Правда, такой способ нельзя назвать быстрым и недорогим. В любом случае вы потратите либо свое время, либо деньги, если привлечете к делу переводчика.

Сделаем неожиданный поворот: не обязательно искать контент в Интернете. Вы себе не представляете, сколько ценной информации у вас прямо перед носом в офлайне. Нужны подробные статьи о научных исследованиях в области космоса в 1990 — е? Залезьте в Google, но только чтобы выяснить маршрут до ближайшей районной библиотеки. Там вы найдете архивные подшивки журналов и газет, выходившие малыми тиражами книги, статьи из которых вряд ли проникли в Глобальную сеть. Кроме того, бездонным источником контента являются аудио– и видеозаписи. Расшифровывать такие записи какое — то время назад догадались сообразительные веб — мастера: получающиеся на выходе тексты после редактуры отлично подходят, например, для информационных порталов.

Размещение контента на страницах сайта – это преимущественно работа его владельца, и неважно, как он будет ее выполнять: своими силами или руками нанятых контент — менеджеров. Но единожды наполнить ресурс мало. Для достижения хороших результатов в продвижении и для удержания занятых позиций необходимо постоянно обновлять контент. Сайт должен быть «живым», развиваться и пополняться свежими материалами. В случае с интернет — магазинами отличным выходом из ситуации будут комментарии и отзывы пользователей о товарах. Двойная польза: хорошие поведенческие характеристики по версии поисковиков и дополнительный уникальный контент. Причем абсолютно бесплатно.

По — настоящему серьезных проблем с созданием уникального контента не бывает. Бывают проблемы с внутренним лежачим камнем и внутренней жабой. Полностью бесплатным качественный контент быть не может, но, исходя из своих потребностей, владелец сайта по зрелом размышлении найдет наименее затратный способ добыть его. Помните, что любой текст, попавший в ваши руки, пусть даже это отсканированная страница из малоизвестной книги, необходимо проверить на уникальность. Это будет своего рода страховкой от проблем с поисковыми системами. А главное, с трудом полученный контент нужно беречь как зеницу ока и защищать свои права на него. Выполняйте эти условия – и ваш сайт гарантированно удостоится доверия со стороны поисковиков и заслужит лояльность пользователей.

 

Оптимизация в стратосфере Рунета

В кулуарах отраслевых конференций неофиты осаждают гуру поисковой оптимизации, обычно задавая им в корне ошибочный вопрос: «Что сегодня работает в SEO?» Они пребывают в плену заблуждения, будто миром правит информация, как по — прежнему толкуют бизнес — тренеры с визитками, распечатанными на струйном принтере. Согласны с ними? Пощекочите себе неокортекс. Мы живем в постинформационной среде, где к долгосрочному успеху ведет способность процеживать потоки информации, а не зачерпывать ее ладонями. Узнав один — два рецепта – для простоты вообразим, что на текущий момент они эффективны, – вы трагически ограничиваете себя, да так, что метод тыка грозит оказаться вернее вашего. Опережать конкурентов нужно не на полкорпуса, ибо оптимизаторский бизнес не ипподром: SEO — жокеи мнят, что управляют ставками, тогда как в реальности ставки управляют ими. Обогнать дышащих тебе в спину на несколько световых лет – вот цель, достойная SEO — пилота. А достичь ее помогает здравый смысл, и только он. В SEO сегодня работает не ссылочная масса, не поведенческие факторы, не сигналы соцмедиа, не умащение третьестепенных сотрудников «Яндекса» в надежде урвать инсайт. В SEO работает ваша голова.

Системы автоматизации интернет — рекламы, ссылочные биржи, агрегаторы мало того, что сделали великое дело – упростили доступ к технологиям и демистифицировали SEO. Они уравняли посредственностей и дали шанс вырваться из их круга тем, кто готов думать наперед. Набирать и регулировать ссылочную массу под низкочастотные запросы худобедно умеет каждый веб — мастер. Вместе с тем большинство (вам на радость; почему – вы поймете дальше) забывает о том, что SeoPul и ему подобные сервисы являются лишь инструментом. Умным и избавляющим от лишних забот, но инструментом, а не скатертью — самобранкой. Ну а SEO – это, смейся не смейся, творчество, а не потребительская утопия из русских народных сказок. Скажем жестче: оптимизаторское большинство боится или не знает, как выйти за пределы теплой атмосферы со знакомыми методами, интерфейсами, профессиональными шутками, наконец. Да только существует и стратосфера, и открытый космос. В них холодно, они находятся пугающе далеко от границ вашей зоны комфорта, зато именно туда запускают спутники, которые транслируют сигналы на весь мир.

Чтобы не быть голословным, поведаю вам историю успеха, свидетелями которой были я и еще два автора книги. Описываемые события начались пять лет назад, однако механизмы, придуманные героем рассказа, безотказно работают до сих пор, хотя мало кем эксплуатируются.

Жил да был, живет и ныне припеваючи умный интернет — предприниматель, а тогда еще просто оптимизатор. Трудился он в 2007 – 2008 годах не на последней должности в веб — студии средней руки. Старожилы помнят эти годы как пору становления ссылочных бирж и массового «линк — шопинга». Не пренебрегал автоматизацией и наш герой. Преуспев в ней, он в силу природного любопытства начал, по Стругацким, «желать странного» – расширить свой исполнительский диапазон. Он предчувствовал, что ультрановые на тот момент технологии вскоре станут общедоступными и будут обязательными к использованию, обеспечивая в лучшем случае тактическое, но не стратегическое преимущество над самыми мудрыми из конкурентов. По иронии судьбы умный оптимизатор – назовем его для сохранения инкогнито Георгием – рассуждал в тех же терминах, в которые облекает на сегодняшний день свою политику «Яндекс»: «Хорошая ссылка должна быть поставлена “по любви”, хорошая ссылка с точки зрения SEO – та, что размещена по делу, в нужном месте, будучи доступной людям, и важно, чтобы с нее были хоть какие — то переходы…» Нам с вами эти принципы сегодня ясны как божий день, однако в предкризисный год даже не самые растяпистые оптимизаторы закупали линки тоннами без разбору, ведя себя как Хрущев в период «интенсификации» сельского хозяйства.

Уже в те времена ссылки потихоньку дорожали, а механизмам их отбора было, мягко говоря, далеко до идеала. Прижимистый и сообразительный Георгий, руководствуясь голой логикой, рассуждал: «Зачем мне каждый месяц платить за какие — то ссылки, когда я – хотя бы гипотетически! – могу их получать бесплатно или поставить их единожды по сдельной цене на долгие годы?» Мысль Гоши, выпускника МЭИ, стремительно раскручивалась по линии оптимизации процессов: зачем покупать ссылки ради ссылок? Лучше, чтобы с них шел трафик, а то и чтобы они приносили клиентов.

Георгий слыл в профессиональной среде человеком начитанным и ироничным, и немудрено, что он горячо любил Ильфа и Петрова. Суть придуманного им метода как нельзя лучше иллюстрирует манера поведения отца Федора из «Двенадцати стульев», который, влезая в окно к инженеру Брунсу, цыганил у того злосчастный гарнитур: «Не корысти ради, а токмо волею пославшей мя жены…» – добиваясь в конечном счете желаемого вопреки воле советского служащего. Безобидный в жизни, на онлайновых полях Гоша хищно искал себе жертв – посещаемые «человеческие» сайты, где ему, по его расчетам, необходимо было присутствие в виде нескольких ссылок. В сумме – около 30 – 40 площадок в месяц. Но насколько же изобретательно он их обрабатывал! Задумка была в том, чтобы найти ключик к каждому ресурсу в отдельности, не отступая перед трудностями и используя все нестандартные приемы, какие только удастся изобрести.

Нацелился, к примеру, наш охотник на популярный строительный портал. Звонит в его офис и спрашивает с детской непосредственностью, заранее зная ответ: «У вас SEO — ссылки продаются?» Ему, презрительно: «Нет! Ни — ко — гда». Он с довольной ухмылкой кладет трубку. Через три дня перезванивает и говорит:

– Здравствуйте. Я увидел у вас в разделе «Пресс — релизы», что можно пресс — релизы на строительную тему вам присылать?

– Да, можно.

– А какая цена?

– Полторы тысячи рублей.

– А можно я туда три ссылки поставлю?

– Да на здоровье! Хоть четыре, хоть пять. Это ж пресс — релиз.

Он берет текст, упаковывает в него ссылки, отсылает – и вуаля, пресс — релиз с линками невозбранно красуется где его душе было угодно.

Иногда стороннему наблюдателю Георгий мог показаться не отцом Федором, а Остапом Бендером. Верите или нет, были случаи, когда девушку, отвечавшую за контент на авторитетной площадке, он приглашал на свидание. Ради амурных радостей. И, как вы уже догадываетесь, ради ссылок. Моральный аспект его поведения мы вольны обсуждать сколько угодно, однако важен сам принцип: он прилагал немыслимые для большинства оптимизаторов типового образца усилия к тому, чтобы добиться своего. Втирался в доверие, начинал дружить, рвал дистанцию – и получал — таки ссылки с заранее намеченных сайтов. В высококонкурентных тематиках его конкуренты – не школьники, заметим, а отраслевые авторитеты – тратили в начале 2008 года тысячи долларов, он же умудрялся обеспечить себе 40– 50 ссылок с ресурсов класса «Коммерсанта», Forbes, CNews, закономерно попадая в топ по любому коммерческому запросу. А самым обидным для его безынициативных в массе своей критиков было то, что он все – все! – заработанные таким образом деньги клал себе в карман. Для них его приемы были непостижимы и невидимы. Так стоящий на пригорке пастух не способен различить, как высоко над облаками спутник передает сигнал на территорию в тысячи квадратных километров.

Вышеописанная методика тиражируется настолько, насколько дозволяет ваша фантазия. Публикуют на сайте дельные пресс — релизы? Будет ему пресс — релиз. Онлайн — СМИ хочет статью? Нащупайте его потребность, угадайте ее, пусть в качестве интервьюера выступит ваш спикер, и с его слов будут вести, совершенно верно, необходимые ссылки. Владелец сайта контактен и сметлив? Да здравствует бартер: ты – мне, я – тебе. Облизываетесь на

«жирненькое» комьюнити – какой — нибудь форум риелторов? Подкупаем администратора, чтобы не вы влезли со своей ссылкой в калашный ряд, а лицо, облеченное локальной властью. Между прочим, «подкуп» не равно «взятка». Подкупает обаяние. Подкупают перспективы дальнейшего сотрудничества. Площадка за площадкой. Каждый день. Без шаблонов, но и без лишних расходов.

«Да как же попасть в солидное СМИ мне, сеошнику от сохи?» – самокритично спросит иной читатель с сомнением. Это возможно. Не дунул — плюнул, но возможно. Например, отыскиваете в своей компании звезду по меркам профессионального сообщества и обращаетесь в нужное интернет — издание, с которым налажен предварительный, ни к чему не обязывающий контакт: «Вы знаете, наш генеральный директор известен в нашей сфере очень хорошо, и он готов потратить время на то, чтобы вести у вас колонку, отвечать на какието вопросы, с удовольствием даст интервью». Возьмем в качестве примера обожаемый ITспециалистами сайт «Хабрахабр». Пытаться пропихнуть «джинсу» на эту площадку – дело гиблое. В девяти случаях из десяти заказной пост будет мигом выявлен, заклеймен позором и закрыт. Но один из выходов – сыграть на образовательном компоненте проекта, дав его посетителям всамделишную добавленную ценность. Вы размещаете в обители гиков не вам одному нужный маловразумительный текст, начиненный ссылками, а материал, полезный для аудитории «Хабрахабра». Усадите за клавиатуру вашего технического директора, убедите его написать умную статью о хитрых нюансах, вскрывшихся при программировании какого — то из ваших проектов. В итоге вы получите на правильном ресурсе ссылки с правильным текстовым окружением, по которым будут переходить живые люди.

Методика «индивидуального приручения» не исключает ссылочного продвижения. Наоборот, их комбинация и дает синергию, которая для многих оптимизаторов недостижима, точно Грааль. Нужна эта точечная техника в первую очередь для высокочастотных, сложных запросов. В случае с низкочастотными уместны чисто технические приемы наподобие сквозных ссылок, каковые в настоящее время прекрасно работают в Google. Если по изложенной нами методике вам удастся договориться с сильным, трастовым донором и разместить на его страницах сквозную ссылку, это способно положительно повлиять на позиции продвигаемого вами сайта в SERP второй по популярности поисковой системы Рунета.

Описанная нами механика продвижения энергозатратна, ее не так просто воспроизвести, зато она обеспечивает колоссальный долгосрочный эффект. Вдумайтесь, каково это – переиграть целую армию оптимизаторов, отказавшись от их правил и шор.

Что же Георгий? Негоже забывать героя. Его история продолжается. О хеппиэнде говорить рано, но жизненные чекпойнты он проходит на удивление удачно, всякий раз поднимая планку. Сайты, которые он продвигал в 2007 – 2008 годах вышеописанным методом, кормят его по сей день. Они до сих пор словно гвоздями прибиты в топе.

Существует возможность зайти в ту же нишу с другого края. А именно, создавать собственные сети сайтов — доноров. Как открывая собственные ресурсы, так и скупая за умеренную плату чужие. Что характерно, при горизонте планирования в несколько лет эта стратегия финансово выгоднее, чем разовая покупка SEO — ссылок на тех же площадках.

Пример из жизни. Был в российском Интернете «самостийный» неофициальный форум у факультета одного из крупнейших вузов страны. Умный оптимизатор (не Георгий, так что пусть ему больше не икается) однажды набрел на него, оценил объем накопленного на площадке контента и активность на ней и предложил веселым студентам: «Ребята, а давайте я вам буду за хостинг платить. Вы себе резвитесь, развлекайтесь, а я вашу площадку выкуплю под свои нужды». На текущий момент затраты на сайт окупились многократно: размещением ссылок в целях самого оптимизатора, продажей контекстной рекламы, использованием для продвижения клиентских сайтов. Когда таких ресурсов под вашим началом скопится два — три десятка, вы почувствуете, что потенциал вашего SEO — арсенала возрос нелинейно.

Разобранная нами стратегия подходит не только для частного оптимизатора — надомника, но и для среднестатистической SEO — компании со стабильным оборотом. Когда ей удается выручить сверх обычного миллион рублей или два, моментально встает вопрос, на что их израсходовать. Можно по накатанной закупить биржевые ссылки «на все». Но построить свою сеть – выгоднее. Конечно, при условии, что учредитель компании рассчитывает на постепенное честное развитие, а не на приобретение Infiniti FX50 с последующим отъездом в Венесуэлу, прочь от одураченных клиентов. Для тех же, кто предпочитает созидать, развертывание собственной сети – превосходный способ диверсифицировать доходы и потихоньку слезть со «ссылочной иглы».

Едва ли мы откроем большой секрет, упомянув о том, что почти все сколько — нибудь крупные SEO — агентства России располагают собственными широчайшими сетями сайтов. Вынуждены признать, немало образований такого сорта сформировано из откровенных ГС6. Однако наряду с ними живут и процветают конгломераты дельных, приятных глазу и богатых контентом ресурсов по 10 – 15 порталов. По сравнительно скромной оценке, если в данный момент выставить их на продажу, то каждый из таких «ухоженных» ресурсов будет стоить приблизительно 5 — 10 млн руб.

Но что, если вы не руководитель большого агентства, а независимый оптимизатор, чей кошелек пока не отягощен миллионами? При 20 клиентах и обороте миллион рублей в месяц шибко не разгуляешься. Ткать такую сеть своими силами вам будет трудно. Решение – в кооперации: создавайте консорциум из себе подобных, продвинутых SEO — талантов. Собирайте с каждого по чуть — чуть и покупайте сайты на паях по 100 – 200 тыс. руб. за штуку. Весь доход с ресурсов – от контекстной рекламы, ссылок и т. д. – делите поровну и используйте для своих нужд, без суеты наращивая мышцы. Даже космический корабль, как показала мировая практика, может построить не только госкорпорация. Кстати, если вдуматься, примеры в наших рекомендациях гораздо больше напоминают добившиеся успеха гаражные стартапы «старой школы», чем — то, что мы удручающе часто видим на венчурных смотринах и конференциях.

Вокруг нет приличных сайтов? Сделайте их сами. Ссылочных бирж вам стало мало? Разместите ссылки на площадках, о которых думаете с замиранием сердца. Все просто. Почему? Потому что мы пилоты. Только не теряйте пространственно — финансовую координацию из — за головокружения от первых успехов.

 

Икроножное SEO: оптимизаторские финты для интернет — изданий

Посещаемость сетевых массмедиа, включая спортивные, зависит от событийного фона, колебания которого отражаются на трафике, приходящем к ним из поисковых систем. Интерес народонаселения ко всему громкому и яркому «немного предсказуем»: не нужно быть семи пядей во лбу, чтобы сообразить, что Чемпионат Европы по футболу – 2012 прикует к себе внимание миллионов. Однако спрогнозировать возникновение таких пиков – дело нехитрое. Протянув руку в будущее, можно нащупать и менее очевидные точки роста аудитории.

Дотошный веб — мастер, пестующий новостной сайт или блог спортивной тематики, должен выступать не только в качестве тренера, которому поручено держать проект в форме. Ему надо уметь превращаться в букмекера, способного видеть как в ближней, так и в дальней перспективе фаворитов публики – в образном смысле: людей, явления, события, обещающие с течением времени оказаться в центре внимания общественности. Архиважная способность – ставить себя на место владельца клуба, который делает инвестиции в команду (площадку) на годы вперед. Эти советы смотрелись бы в нашей книге по меньшей мере странно, когда бы у значительного количества успешных интернет — изданий 60 – 80 % трафика не приходилось на SEO. Логично, что и решаются такие задачи SEO — методами.

Судьба онлайн — СМИ всецело в руках стратега, чья миссия – решать, в каком направлении развивать площадку. На что же ему опираться в своих изысканиях? На ежедневный анализ конкурентной среды и собственные ноу — хау. Фигуры высшего SEO — пилотажа нам часто показывают именно спортивные издания, так что значительная часть рассказа отведена под описание их приемов.

Как было сказано вначале, администрация спортивных сайтов первого и второго эшелона приспособилась реагировать на спрос, которого еще нет. Зная о времени проведения знакового соревнования, мы пытаемся установить, что и по каким запросам, связанным с ним, будут искать тысячи людей в «Яндексе» и Google в означенный временной интервал. Покамест по таким запросам конкуренции фактически нет, а значит, есть все шансы занять по ним места в топе, чтобы за три — четыре дня до начала событий получить гигантский трафик. Возьмем в качестве примера ту же Олимпиаду в Сочи. Попробуем предугадать, что народ примется искать за несколько месяцев и недель до нее, как будет распределяться спрос. Билеты на то или иное состязания, расписание выступлений, состав команд в коллективных видах спорта, информацию по отдельным атлетам, гостиницы возле Сочи как минимум. По каждой нише мы составляем семантическое мини — ядро и заранее проводим по нему работы. Получается кулак, сжатый заранее и готовый ударить в строго выбранный момент. Когда чемпионат начинается, действующие по старинке СМИ часто не поспевают за предусмотрительными конкурентами и получают вершки, а корешки достаются тем, кто создал себе фору заблаговременно, загнав сайт в индекс по нужным запросам.

Более широкое применение снискала стратегия «раздувания контента», согласно которой мы, откровенно говоря, пытаемся высосать из пальца максимум поискового трафика, не опускаясь при этом до шулерства. Подобным чаще грешат не СМИ, а информационные порталы, открывающие разделы исключительно для того, чтобы ловить аудиторию из поисковиков, «намывать» трафик. Так, популярнейший сайт Рунета о путешествиях давным — давно взял эту методику на вооружение. Поначалу он составлял многочисленные описания отелей, потом добавил отзывы – и эта база данных на сегодняшний день является единственным его конкурентным преимуществом. За год повторить то, что было им сделано, физически невозможно. Усадить несколько сотен редакторов за «контент — арбайт»? Нерентабельно. Муравьиным трудом наш портал с шестибуквенным доменом соорудил механизм, позволяющий ему никого больше не пускать на свою теплую солнечную полянку. Своруют у него тексты? В суд.

Удачный и не просто белый, а белоснежный, на наш взгляд, образчик «UGC8 — наддува» – Sports.ru со своей «Трибуной». Блоги читателей, тусовка, общение приумножают контент портала многократно, и, как следствие, трафик прирастает пропорционально объемам пользовательских материалов.

Сбору поддается и трафик не с основного поиска, в том числе видеоконтент. Предположим, Аршавин забивает гол за «Арсенал», Погребняк – за «Рединг». Мы знаем, что десятки тысяч болельщиков и любопытствующих неотступно следят за нашими легионерами. Куда они забираются первым делом в поиске видео с острейшими моментами игры? На крупные видеохостинги. Да только на YouTube им ничего не светит, потому что Премьер — лига следит за тем, чтобы ее контент вовремя оттуда удалялся. Зато существуют видеоблоги на Wordpress с посещаемостью в десятки тысяч человек, содержащие только ролики с голами Премьер — лиги. Контент полупиратский, соглашений с правообладателем нет, но вдумайтесь, какие цифры. А ведь нарушать закон не обязательно: вышеописанное лишь одна из фантазий на тему, воплощенная в жизнь.

Сходные приемы применяются в манипуляциях новостным трафиком, со скидкой на специфику жанра. Побеждает в новостном трафике тот, кто первым выпускает заметку. На многих порталах редакция заранее пишет три версии материала: условно говоря, «Сборная России проиграла», «Сборная России выиграла», «Сборная России сыграла вничью».

В админку сайта вбиты все три варианта, каждый из которых публикуется нажатием одной кнопки. Финальный свисток – и СМИ, которое раньше других тиснет заметку о матче, снимет все сливки с трафика: текст попадает в новостной агрегатор в считаные секунды, и последовавшие за удачливым «первопроходцем» СМИ волей — неволей оказываются в положении цитирующих его. Заблаговременно пишутся и некрологи на знаменитостей. Смерть настигает селебрити, и редакторы онлайн — СМИ наперегонки отдают дань его памяти, повидимому ошеломляя скоростью реакции старуху с косой.

В оборот идет даже непрофильный для портала трафик – на грани фола. Лет пятьшесть назад из — за риска крушения совершил аварийную посадку самолет. Пресса взорвалась: «В аэропорту таком — то аварийно сел такой — то самолет, пострадавших нет». Однако событие рейтинговое на все сто, и оно естественным образом занимает верхние строчки в «Яндекс. Новостях». Вскрывается деталь: на борту было три болельщика «Спартака». Что делает одно влиятельное спортивное интернет — СМИ? Оно выкатывает на титульную страницу заголовок: «Болельщики “Спартака” чуть не разбились в авиакатастрофе». Бум, добрых 10 тыс. человек перетекают на портал с новостного агрегатора. Если сайт делает 10 – 15 рейтинговых новостей такого рода в день, его трафик с «Яндекс. Новостей» нередко превышает основной поисковый. Каким насосом нагнетают интерес к своим материалам те, кто не брезгует спекулировать на острых темах? Задачу решает круглосуточная работа распределенной редакции, которая включает редакторов и переводчиков, рассредоточенных по всем часовым поясам и знающих самые разные языки, с тем чтобы обеспечивать моментальный перевод новостей из любого уголка мира. Хлопотно, но и возможности для монетизации необозримые.

В случае с непредвиденными событиями новостные ленты задействуют ранее упомянутый UGC, поскольку ближе всех к месту события его очевидцы. Если удачливые наблюдатели знают, что снятое ими видео удобно и престижно загрузить на сайт СМИ, то оно срывает куш. Пожалуй, это тот случай, когда с LifeNews можно брать пример. Если, не дай бог, фанаты «Спартака» учинят побоище с турецкими болельщиками «Фенербахче», первые свидетельства драки с высокой степенью вероятности появятся на LifeNews.

Чтобы добывать пользовательский контент раньше конкурентов, сайт должен убедить широкие массы в том, что случайно снятый эксклюзив соберет зашкаливающе много просмотров именно здесь. Впрочем, чаще тот, кто запечатлел экстраординарное событие, загружает ролик на YouTube, RuTube и им подобные видеохостинги. Раз гора не идет к Магомеду, то Магомед идет к горе. Значит, необходимо, чтобы эти площадки мониторились со стороны портала особыми агентами на предмет записей уникальных событий.

Характерный случай. В Санкт — Петербурге проходил матч «Зенит» – «Спартак». Между фанатами команд завязалась драка стенка на стенку. Мимо проезжала «Чайка» с видеорегистратором, который зафиксировал потасовку. Водитель не понял, кто с кем сцепился, но выложил ролик на YouTube, честно сознавшись в своем неведении. Журналист из «желтого» интернет — издания наткнулся на видео вскоре после его публикации, бросился читать «Гостевые» на сайтах клубов, благодаря чему, сопоставив факты и комментарии, понял, что при численном равенстве сторон победили «зенитовцы». В какие — то минуты он выпек новость: в Питере зафиксированы беспорядки, болельщики «Спартака» подрались с «зенитовцами», через девять минут прибыл ОМОН. Это рейтинговое событие, которое соберет 5 — 10 тыс. человек и удостоится великого множества просмотров. Нельзя забывать, наконец, и о возможности собрать трафик с видеохостинга.

Инвестиции в SEO у интернет — СМИ бывают и кратко-, и средне-, и долгосрочными. Однако глубинный смысл заключается в том, чтобы поисковый трафик был не иглой, слезть с которой означает развеять аудиторию, а трамплином к новым высотам. Собственно, даже в таких хитростях SEO предстает неотъемлемой частью интернет — маркетинга: оно изучает спрос текущий и потенциальный, пытаясь всесторонне удовлетворить его.

 

SeoPult: приборы, карты, фигуры пилотажа

Смысл SeoPul как сервиса заключен в его имени. Это пульт, с которого удобно управлять каналами продвижения в Интернете, меняя картинку несколькими нажатиями. С той лишь разницей, что пульт телевизионный (ПДУ) в шутку, но справедливо называют «лентяйкой», тогда как к SeoPul это определение не подходит. Эргономичный, как ПДУ, по назначению он скорее напоминает приборную панель аэробуса, к которой лентяя не подпустили бы и на пушечный выстрел. Система понятна на интуитивном уровне, «кнопки» и «рычажки» в ней недвусмысленно подписаны – бери да нажимай, рули рекламной кампанией. Однако пассивно заливать в SeoPul тысячи и десятки тысяч рублей – подход варварский. Самолету нужно топливо, но стараниями одного лишь заправщика он не оторвется от земли. Чтобы подняться ввысь и лечь на курс, ему необходим пилот, который, держа положительный тангаж и гася крены, делая скидку на погодные условия и характеристики судна, сообразно советам диспетчера ступенчато преобразует простое желание – «Хочу долететь до теплого моря!» – в команды для сложной машинерии. А научиться управлять ею нельзя без знаний о конструкции самолета, его механизмах, его умной начинке. В порядке оперативного инструктажа я опишу малую толику возможностей SeoPult, часть его официальных и недокументированных функций, зная которые вы будете способны самостоятельно повышать виртуозность управления системой и не допустите досадных просчетов в планировании рекламных маршрутов. Разъяснение будет вдвойне актуально в свете того, что наш сервис, в отличие от самолета, доступен каждому, притом что наломать в нем дров сложно, но можно.

Что же представляет собой SeoPult? Вкратце – автоматизированную рекламную систему, которая обеспечивает продвижение сайтов SEO — методами в тесной связке с контекстной рекламой. Она освобождает руки оптимизатору или целой команде, так как аналитические модули SeoPul годятся для решения широкого спектра задач в сфере поискового продвижения. В том числе, само собой, для набора и регулирования ссылочной массы. Как вы наверняка знаете (см. раздел «SeoPult: математика под капотом» главы «SEO для специалиста»), в состав SeoPul входят интеллектуальные, математически выверенные алгоритмы подбора доноров, но, гордые за них, мы ими не хвастаемся: все равно как конструктор кичился бы тем, что его самолет умеет в считаные секунды набирать высоту. Умеет, но что дальше? Стабильны ли системы безопасности, не трясет ли пассажиров, не забьется ли в элероны лед при прохождении облачного слоя, точна ли навигация? Наряду со средствами ссылочного продвижения SeoPul дает инструменты для решения целого круга SEO — задач, включая сохранение уникальности контента, продвижение в регионах, работу над внутренними факторами. Те, кто считает все перечисленное бонусными опциями, жестоко заблуждаются. Предлагаю им в порядке эксперимента зарегистрироваться в SeoPult, создать проект, закупить ссылок наобум и ждать… – какая у нас следующая дата конца света после 22 декабря 2012 года, которым кончается календарь майя? Вот до нее, по — видимому, и придется. Чтобы вывести сегодня сайт в топ по желаемым запросам, требуется порядком потрудиться над ним самим. В системе предусмотрен инвентарь для таких работ, однако пользователи, особенно новички, часто из лени или из — за спешки закрывают глаза на ее рекомендации и принимаются лепить ссылочное окружение с детским восторгом: «А ну как сделаю самый большой снежок!» Вот только и снег бывает грязным да неклейким (читай: доноры негодные), и недруги метят в беспечно подставленную спину (недооценка конкурентной среды), и вообще поди поуворачивайся от чужих снарядов с таким здоровенным шаром в руках (ошибки в расчете бюджета). А лучше было бы, например, найти укрытие, наделать снежков разного калибра впрок и выждать. Говоря языком интернет — маркетинга, не полагаться на одну метрику, а оперировать стратегическими KPI.

Фундаментальное преимущество SeoPult – синергия поискового продвижения сайтов и контекстной рекламы. Эти два канала включаются как вместе, так и по отдельности. В некоторых случаях спасительна контекстная реклама «соло». Обычно для достижения позиций по средне– и низкочастотным запросам требуется от двух до восьми недель, в случае с высокочастотными запросами сроки еще больше. Что делать, к примеру, если отдача нужна была «вчера»? Подпитать площадку контекстной рекламой. Со дня запуска проекта получать переходы на нее, гарантировав себе энное количество продаж или определенную посещаемость. Как только сайту удается попасть в желанный топ, показ контекстной рекламы по умолчанию автоматически приостанавливается и деньги на счете тратятся отныне только на ссылки, благо в большинстве случаев SEO дешевле контекста. Сценарий стандартный, но тот факт, что он заложен в базис сервиса, гарантирует сокращение расходов на рекламную кампанию.

С чего начинается SEO — маршрут? С подбора семантического ядра. В глазах малоопытного оптимизатора добыча «словесной руды» – измождающая рутина. Однако даже здесь, на низком старте, SeoPul предусматривает не один, а несколько способов решения задачи.

Молодой сайт, если он не проиндексирован поисковыми системами, не может подобрать близкие к топу запросы, потому что сайта как части конкурентной среды фактически нет. Без бумажки ты букашка, а без индекса – бактерия. Конечно, помимо всего прочего, система умеет собирать запросы из счетчика на площадке, но если заходов на сайт пока не было, выбрать тоже не из чего. Тогда добро пожаловать в простейший режим, в котором, анализируя титульную страницу, сервис подбирает для нее запросы из Wordstat.yandex.ru (h p://wordstat.yandex.ru/), после чего владельцу сайта остается удалить непрофильные и слишком дорогие.

Но что, если бы вы знали, по каким запросам продвигаются ваши конкуренты? Можно было бы отсечь те, по которым попасть наверх выдачи было бы слишком дорого, посмотреть, какие «вражьи» запросы вам все — таки подойдут, и начать их продвигать. Делать своими силами подобное – сизифов труд. Мало кто знает, что в SeoPul это достижимо. Система разрешает создавать (не вести, а именно создавать) проекты под любые URL. Дело пяти минут – добавить сайт конкурента в систему на свой аккаунт и пройти первый этап, а именно

«Подбор ключевых запросов». Ведь ваш конкурент наверняка занимается поисковым продвижением, он вырвался на некие позиции. Выбираете «Топ — 1…50», ведется поиск ключевых запросов, и вы получаете целую охапку таковых, пригодных для использования в вашем проекте. Оговорюсь, метод не безукоризненно честный, нами не одобряемый, однако напрямую правилами сервиса не запрещен. Зато он наглядно демонстрирует гибкость системы.

В SeoPul внедрен и функционал автоматического – мы ведь сервис автоматизации, верно? – подбора ключевых запросов. На основе данных из Google AdWords (h p:// adwords.google.com) и Wordstat.yandex.ru системой формируется семантическое ядро для продвижения с учетом анализа главной страницы сайта, возраста домена и иных факторов. Берутся ровно те запросы, которые пригодны для конкретного ресурса, и ничего лишнего. Добавьте сюда пул «расширительных» запросов, также генерируемых системой.

На составлении семантического ядра умственный труд оптимизатора в SeoPul не заканчивается. Ключевики заправлены в систему, горючее в рублевом эквиваленте залито в баки. Вроде бы трафику – быть. Но вот куда ему притекать? «На сайт» – ответ плохой, бесполезный в своей абстрактности. Правильный ответ: «На посадочные страницы». А как он туда будет поступать, если оптимизатор о них не задумался? Конечно, SeoPul призван выпекать позиции в топе, да только, чтобы обжигать в нашей печке горшки, надо придать им форму. Иначе на выходе получится отлично схватившийся, крепкий, но бесформенный кусок глины. Всецело отдавать системе на откуп подбор страниц, релевантных тем или иным запросам, беспечно и расточительно. Как она поступит в общем случае? Стандартным поисковым запросом обратится к «Яндексу» и заберет самую первую страницу, которую тот считает релевантной. Но всегда ли это решение верно? Нет. Перед нами вновь встает проблема молодого сайта: у него может быть проиндексирована либо одна, главная страница, либо часть страниц, которые только что попали в индекс, или он вообще из рук вон плохо оптимизирован. Удручающе распространенный случай – на одну продвигаемую страницу приходится добрая сотня запросов. Оптимизировать контент такой страницы – невыполнимая миссия. Вспомним закон буквы F в интернет — маркетинге: все посетители смотрят первый экран, особенно в его верхний левый угол, и только часть из них прокручивает колесико мышки (чтобы увидеть, что находится чуть ниже), если они не находят в самом начале нужную информацию. Удастся ли на первом экране одной — единственной страницы разместить ключевые слова под сотню запросов, да так, чтобы текст оставался читаемым и не побуждал закрыть текущее окно в браузере? Конечно, нет. Для того — то и необходимы посадочные страницы, где пользователя подталкивают к тому или иному шагу (не к двадцати и не к ста). Человек приходит из поисковой выдачи, видит карточку товара, сопутствующие товары и большую кнопку «Купить». Он точно знает, куда он попал и зачем. Его путь к нужному вам действию – кратчайший.

Анализируйте контент своего сайта, подбирая непосредственно те landing pages (в статьях англоязычных экспертов вы встретите именно это словосочетание, обозначающее посадочные станицы), которые хочет пользователь. Намного проще оптимизировать страницу и впоследствии ссылочной массой «продавить» ее релевантность. Предположим, по некоему запросу большинство ссылок ведет не на ту страницу, которую сам «Яндекс» считает наиболее точно соответствующей ему. Естественно, поисковый робот проверит и проанализирует эту «неожиданную» для него страницу, поймет, что она действительно содержит более релевантный контент, и сделает ее релевантной, обеспечив ей должное место в выдаче.

Золотое правило: для одного запроса – одна посадочная страница. Примечание к золотому правилу: как вариант, одна посадочная страница – для группы близкородственных запросов. Но холодильник Indesi и холодильник Bosch, продающиеся на одной и той же странице, не комильфо и нецелевое расходование средств. Единые в смысловом отношении запросы уместно продвигать в виде вставок и дополнительных предложений на странице. Например: «У нас также искали». Разумеется, «холодильник Bosch цена» и «холодильник Bosch купить» – это запросы, легко уживающиеся на одной странице. Единственное, если у «холодильник Bosch купить» окажется еще под сотню сопутствующих запросов, продвигать их на одной странице будет категорически нельзя. Значит, потребуется развести покупку холодильника Bosch и описание ценообразования по двум разным страницам. Вот где скрывается средоточие поисковой аналитики – в «расслаивании» запросов, в выявлении того, какие сочетаются в одной точке входа на площадку, а какие необходимо дробить и дифференцировать далее.

Не бойтесь погрязнуть в мелочах. Со всеми по — настоящему скучными и не требующими вашего внимания аспектами SEO система справится самостоятельно. Прочие – ваша забота. В частности, не пренебрегайте анализом НЧ — запросов (низкочастотных), одноцентовым продвижением. Некую фразу вбивают в поисковую строку три человека в месяц? Маловато, зато все три – из вашей целевой аудитории, они нужны вам. Напротив, бойтесь бескрайней широты. Взять хотя бы запрос «игрушки». Какие они бывают? Ведь не только детские: для взрослых, для животных, компьютерные и т. д. Так правильно ли продвигаться по запросу «игрушки»? Едва ли. Другой кейс: вы продаете ортопедические подушки. Сделать ставку на запрос «купить подушки» – значит обмануть ожидания тех, кто, ища пуховые подушки, попал в интернет — магазин «про здоровье». Эти люди (единицы, десятки, сотни), поморщившись, будут мгновенно закрывать вашу с любовью сверстанную страничку с уникальным — преуникальным контентом, что, вне всякого сомнения, ударит по поведенческим метрикам сайта. Стало быть, вне зависимости от тематики площадки мы берем кайло и лупу дробим статистику и смотрим на низкочастотники через увеличительное стекло.

Как поступить в том случае, если предлагаемый вами продукт новый, даже революционный, однако именно в силу новизны его никто еще не ищет в Сети? Не злоупотреблять подвязыванием его сайта к общим, «аморфным» запросам. Внедрять такой ресурс в естественный топ следует не раньше чем через полгода, а то и через год после того, как будет начата всесторонняя работа с целью повысить его узнаваемость. Ни контекстная реклама, ни SEO на начальной стадии вам не помощники, ваши инструменты – вирусный маркетинг, сарафанное радио, но никак не ссылочное продвижение.

Итак, вы подобрали посадочные страницы, которые, на ваш взгляд, будут интересны посетителю. Пора браться за оптимизацию. SeoPult, а вместе с ним и другие рекламные системы и современный SEO — софт дают рекомендации по внутренней оптимизации сайта. И вновь наша опора – конкурентная среда. Обобщенно – примерно так: вы анализируете 10 – 20 сайтов конкурентов, смотрите их среднее вхождение ключевых запросов и примерно подсчитываете, сколько раз на странице вашего сайта должно встречаться то или иное ключевое слово. Однако обязательная часть процесса – визуально — структурный анализ конкурирующих сайтов: грубо говоря, следует посмотреть, что и в каких блоках находится на таких площадках.

Невзирая на многочисленные советы по внутренним факторам, не переводятся нерадивые оптимизаторы, которые пренебрегают элементарной SEO — «гигиеной». Наделать ссылок в «подвале» сайта, обеспечить вхождение ключевых слов в ссылки, и только в них (тогда как обязательны вхождения непосредственно в тексте, который описывает услугу или продукт) – по — прежнему ошибки из серии самых распространенных. Да и к выполнению рекомендаций по внедрению тегов разметки – b, (жирное начертание, «болд») и

i >, italic (курсив) – многие относятся халатно. Что, в таком теге выделения должно

находиться хотя бы одно из пяти вхождений? Делают «болдом» все пять. А ведь, казалось

бы, «хотя бы одно» не равно «все». Нужно и курсивом сделать? Еще пять вхождений загоняют в . Закономерно, что контент на странице оказывается плохо читаемым. Ее быстро покидают даже те, кто днем с огнем не мог ранее найти продаваемый на ней товар. Поведенческие метрики опускаются ниже ватерлинии. Да и асессоры «Яндекса» улавливают закономерность, ставя таким страницам низкие баллы, ввиду чего столь примитивная перестраховка со стороны веб — мастеров, скорее всего, вскоре окажется бесполезной и даже вредной. А ведь решение на поверхности: выделять тегом имеет смысл то вхождение, на котором нужно сфокусировать внимание посетителя.

Интуиции, чувства меры и здравого смысла в SEO иногда бывает мало даже оптимизаторам со стажем. В функциональность SeoPul входит анализ страницы в целом, с выкладками не только по нахождению тех или иных тегов на ней, не только по количеству внешних и внутренних ссылок, но и, в частности, по тому, какие из них открыты для индексации, а какие нет. Система проводит также анализ основных ошибок, зондирует страницу на наличие скриптов, ошибок в индексации, скрытых блоков, скрытых ссылок, давая владельцу сайта всю эту информацию в емком и ясном виде.

Следующий шаг после комплексной подготовки к продвижению – изучение ценообразования и манипуляции с ним. А именно: сколько вы будете платить за конкретный запрос? При расчете бюджетов следует ориентироваться на тех, кто находится в «Топ — 10», анализировать их ссылочную массу, смотреть, какое количество ссылок обеспечивает вожделенные позиции, искать среднюю цену такой ссылки. Как и в большинстве других случаев, SeoPul умеет это делать за пользователя: два клика – и перед вами рекомендованный бюджет для продвижения того или иного запроса. Безусловно, желательно использовать весь бюджет, который предлагает система, будь то молодой или старый сайт, потому что SeoPul априори учитывает подобные факторы и покупает ссылочную массу так, чтобы не спровоцировать санкций со стороны поисковых систем. Если сайт молодой, то сервис будет набирать ссылочную массу, стараясь не вызвать «ссылочного взрыва» или других эксцессов.

Если вы вдруг не достигнете поставленных целей, ничто не помешает вам поднять бюджет. Равно как и снизить, например убрав непроиндексированные ссылки после попадания в топ. Но впрыскивать в кампанию 10 % от рекомендованного бюджета крайне неправильно. Разве только ваша цель – попасть из «Топ — 200» в «Топ — 150».

Разведка подчас приносит данные о ссылочной массе конкурентов, которые можно в дальнейшем использовать при работе в ручных режимах. Впрочем, автоматический в большинстве случаев предпочтителен. Для кого? Даже не для SeoPult, а для самого пользователя. Система оперирует каскадами фильтров, которые разнятся в зависимости от задач. Они на регулярной основе перепроверяются штатными аналитиками и беспрерывно модифицируются. Любитель «старой школы», гордясь своими золотыми руками, нередко создает одинединственный фильтр и ждет у моря погоды. Между тем ручные режимы следует использовать только для точечной борьбы. Нужно безанкорное продвижение? Ручной фильтр. Требуется поработать с регионами? Часть бюджета пускается на автоматический режим, часть на ручную доводку. Нужно закрепить уникальность контента, сделав свой сайт первоисточником? Да, ручной режим. Но не более того. При комплексном продвижении запросов единичные рукодельные фильтры скорее вредны.

Неувязки с сокращением бюджетов – обычное дело, но причиной им служит лишь невнимательность. Наша служба техподдержки регулярно получает вопросы вида: «Я снял бюджет, а ссылки не снимаются». В SeoPul предусмотрено два способа съема ссылок при уменьшении бюджетов – «снимать плавно» и «снимать сразу». Плавный съем осуществляет избавление только от нерабочей ссылочной массы: так, убирать какую — то ее часть в случае превышения бюджета нужно именно постепенно. Это оптимальный режим, поскольку любой отток влияет на ссылочную массу в целом. Не исключено, что при снятии ссылок по запросу «пластиковые окна» просядет запрос «пластиковые окна в Бутово». Однако применительно к определенным запросам, например сезонным, правильно будет «снимать сразу» (если точнее, в течение пяти дней). Вряд ли вы возразите мне, если я замечу, что в мае мало кому нужны новогодние игрушки или пуховики. Начав продвигать их в сентябре, вы, дай бог, достигнете известных результатов в декабре. Но спустя какой — то месяц ваш товар перестанет быть востребованным. Следовательно, потребуется урезание бюджета в кратчайшие сроки. Впрочем, нельзя снимать всю ссылочную массу в одночасье: было 1000 руб. – оставили 100 руб. Даже при выборе варианта «снимать сразу» имеет смысл ужимать бюджет постепенно. Сначала – до 900 руб. Далее на протяжении одного — двух апдейтов нужно скрупулезно отслеживать, не сказались ли проделанные манипуляции на позициях сайта. При отсутствии отрицательной динамики возможно дальнейшее уменьшение трат. Эта часть процесса автоматизируется с трудом и тоже требует вашего внимания и вашей головы.

Система обладает и средствами, позволяющими веб — мастеру или оптимизатору следить за тем, на каком свете ресурс и все ли с ним благополучно. При создании проекта в его профиле возникают настройки статистики и аналитики, куда необходимо ввести данные от одного из трех счетчиков, после чего система начнет забирать сведения из него и показывать пользователю в простом виде, сколько человек перешло на сайт, кто по каким запросам, словоформам и т. д. Благодаря тому что статистика посещаемости интегрирована с инструментами продвижения, возникает возможность оценить, сколько было вложено в SEO и какова отдача от него. Предположим, из отчета явствует, что ссылок было куплено на 100 руб., а за месяц на сайт перешло 20 человек. Значит, привлечение каждого обошлось в 5 руб. Если система прогнозировала показатель 7 руб., очевиден выигрыш. Если же предполагалось 2 руб., нужно искать, где был допущен просчет, чему и способствует внутренняя аналитика сервиса.

Существуют наиболее вероятные места «пробуксовки». Немного об одном из них. На что, по — вашему, в первую очередь смотрит человек в естественной поисковой выдаче? Ясное дело, на сниппет сайта. Он оценивает его качество, красоту, заголовок и текст. Эти блоки автоматически генерируются поисковиком из контента сайта, и влиять на их состав вебмастер способен лишь ограниченно, косвенно. В SeoPul наличествует подмодуль, который изо дня в день проверяет сниппеты. Благодаря ему владелец сайта может провести ретроспективный анализ, посмотрев, как выглядел сниппет месяц или два назад, выдвинуть гипотезу, на что опирались алгоритмы поисковика в его составлении, и, предприняв обходные маневры, подкорректировать данный элемент. В заголовок сниппета, как известно, выносится содержимое тега itle. С текстом дело обстоит сложнее. Если в случае с Google необходимо оперировать метатегом description, то для «Яндекса» обычна ситуация, в которой для части запросов в сниппете отображается содержимое description, для другой же части описание черпается из контента сайта. Как быть в таком случае? Изучите вычлененный поисковиком кусок текста, и, если вы считаете, что он не является продающим, если он не способен привлечь внимание посетителя, попытайтесь его творчески переработать. Посмотрите, взял ли его «Яндекс» на вооружение. Если тот выбрал другой фрагмент, значит, редактируйте его. Взаимодействие с «Яндексом» – это все равно игра в черный ящик. Зато благодаря SeoPul эта игра проходит хотя бы не в черной комнате, где не видно, что и когда из ящика было вынуто.

Я не раз касался того, как SeoPul извлекает пользу из анализа конкурентной среды. Возможен и прямой анализ – в форме сравнения. Небольшой пример. Дан список из 50 поисковых запросов и десяток конкурентов. В отчетах SeoPul можно получить сравнение сайта с конкурирующими и постоянно быть в курсе, выше или ниже его они находятся в выдаче. Такой мониторинг дает вам возможность заблаговременно принять решение об увеличении бюджета или, наоборот, успокоить нервы зримым подтверждением своей незыблемости в топе. Система показывает, насколько быстро набирает очки тот или иной сайт. В конце концов, алгоритмы поисковиков меняются едва ли не каждый день. Хотя глобальные изменения совершаются не чаще чем раз в полгода, нелишним будет прогнозировать, исходя из реальной статистики, в какую сторону грозит качнуться выдача и где подстелить соломку, чтобы не было больно падать по позициям.

Нельзя умолчать о такой функции, как гостевой доступ. Изначально он создавался для того, чтобы у человека, который таким образом заходит в систему, не было возможности редактировать данные в проекте. Режим допускает как «белое», так и «сероватое» применение. Честные оптимизаторы через такое «окошко» могут показывать своему клиенту в понятном и приятном интерфейсе, какие позиции занимает его сайт и сколько расходуется на продвижение, и не засорять ему почту письмами с многочисленными отчетами. В свою очередь, оптимизаторы, нечистые на руку, используют гостевой вход с «коэффициентом накрутки». Дело в том, что при настройке урезанного доступа владелец аккаунта вправе выбрать, какие данные предоставлять гостю. Можно показать ему только ключевые запросы и позиции, можно продемонстрировать увеличенный коэффициент цены ссылочной массы, а следовательно, и бюджета в целом. Этически такой прием часто сомнителен, однако вполне правомерен, когда клиент договаривается с SEO — агентством о некоей наценке за сервис и знает о ней.

Мне удалось бегло описать лишь несколько функций SeoPult. Правда, надеюсь, моих примеров достаточно, чтобы вы убедились в степени гибкости системы. Естественно, за манипуляции во вред сервису его администрация вынуждена налагать бан, о чем честно предупреждает на своих страницах большими буквами. Однако штатной и полуофициальной функциональности системы хватает с головой практически для любых случаев без привлечения сторонних инструментов. Подобно тому как, в отличие от автовладельцев, владельцы и пилоты самолетов редко бывают одержимы их «апгрейдом», предпочитая совершенствоваться в искусстве маневра и в управлении, то же самое можно сказать и о продвижении своими силами и через автоматизированные сервисы. Стараться нужно в обоих случаях. Но вообще – земля и небо.

 

Трастовость сайта

 

В число важнейших факторов ранжирования входит такой показатель сайта, как трастовость, именуемый также rustRank, или просто траст. Представители поисковых систем настаивают на том, что траст – понятие относительное и не выражается количественно для каждого отдельно взятого сайта. Нам же как практикам важно одно: траст существует, он более чем реален и участвует в ранжировании. А значит, было бы непростительной ошибкой закрывать на него глаза в процессе поискового продвижения. Суслика никто не видит, но он действительно есть, и огромный.

 

Что такое rustRank

Первое упоминание о трасте датируется 2004 годом. Это понятие фигурировало в совместном труде сотрудников Стэнфордского университета и компании Yahoo! под названием

«Борьба с веб — спамом с помощью rustRank». Согласно содержанию работы, rustRank отводится важная роль в искоренении искусственной накрутки авторитетности ресурсов. Ключевые моменты влияния траста на качество выдачи таковы.

1. Наличие лишь одного метода определения авторитетности сайта, а именно PageRank, на руку любителям «черной» оптимизации. Один из их методов базируется на создании множества грамотных перелинковок между сайтами с нулевым весом, которые образуют сетку сателлитов. Благодаря накрутке реципиент получает приличный вес и вместе с ним статус авторитетного ресурса.

2. Во избежание глобальной несправедливости и ради устранения спама из выдачи и вводится rustRank. Таким образом, при передаче PageRank от донора к реципиенту посредством обратных ссылок учитывается некий «особый вес», исходящий только от качественных, крупных, известных, прошедших ручную проверку ресурсов. Трастовый сайт не станет ссылаться на низкосортный ресурс с псевдоуникальным контентом. Это обстоятельство призвано подтолкнуть оптимизаторов и разработчиков к созданию предназначенных для людей сайтов с интересным контентом.

В сущности, траст напоминает переменную, без которой невозможно решить уравнение. Значение траста нельзя зафиксировать, но без него у сайта падают шансы на долговременное попадание в топ по высококонкурентным запросам. Вместе с тем все ресурсы Сети не могут обладать большим rustRank. Это привело бы к хаосу в поисковой выдаче, так как определить сайты, наиболее релевантные запросу, было бы проблематично.

Благодаря трасту сайт котируется поисковыми системами выше, чем если бы не имел его, но залогом успеха в продвижении по — прежнему остаются уникальный тематический контент, безупречная внутренняя оптимизация и максимально приближенная к естественной внешняя ссылочная масса, стабильная и разнородная.

TrustRank присваивается домену в целом по аналогии с тИЦ, и делается это двумя способами. Во — первых, посредством ручной проверки сайта асессорами, во — вторых, в автоматическом режиме на основании ряда факторов, отражающих качество ресурса. Оценки в первом и втором случаях могут не совпадать: порой при незначительном трасте, определенном автоматически, выставленный вручную балл оказывается на порядок выше.

 

Способы увеличения траста

Наряду с поднятием «пузомерок» (в частности, PR и тИЦ) увеличение траста сайта – ежедневная забота оптимизатора. Пусть траст – величина, не поддающаяся измерению, но ее можно преумножить. Получение даже небольшого rustRank серьезно повышает шансы ресурса на то, чтобы продвинуться в топ по ключевым запросам. Процесс приобретения траста имеет две составляющие.

1. Работа над внутренней оптимизацией сайта. Качество внутренней оптимизации явным образом влияет на присвоение траста.

2. Приобретение ссылок с трастовых ресурсов. Наличие у площадки даже небольшого количества покупных ссылок с авторитетных ресурсов повышает эффективность ссылочного продвижения в целом.

 

Работа с сайтом

Оптимизаторы носили бы на руках того, кто предоставил бы им подробный достоверный список факторов, которые принимает во внимание поисковая система при назначении уровня траста ресурсу. Также тайной за семью печатями остаются алгоритмы вычисления траста, которые вдобавок регулярно меняются. В частности, «Яндекс», поставив себе на службу систему машинного обучения MatrixNet, ускорил внедрение изменений.

Опытным путем SEO — эксперты все же составили перечень наиболее важных факторов, влияющих на получение rustRank. Легко заметить, что многие из них схожи с критериями выставления тИЦ, вИЦ («взвешенный индекс цитирования» в терминологии «Яндекса») и PR. Перечислим наиболее важные.

1. Необходим качественный контент – уникальный и тематический. Сайту с заимствованным контентом странно рассчитывать на доверие поисковиков. Все тексты должны быть объединены общей тематикой, или, по — умному, обязательно присутствие сквозного семантического кластера. Сайту о ремонте жилых помещений с дельными статьями легче заслужить доверие, чем псевдоэнциклопедии, страницы которой забиты всякой всячиной, мало интересующей пользователей.

Немаловажны с точки зрения присвоения траста страницы с контактными данными, информацией о компании. Очевидно, что эти сведения должны быть реальными. В противном случае оценка асессоров будет заведомо отрицательной.

2. Возраст домена и сайта напрямую влияют на присвоение траста. Молодой сайт лишен шансов быстро удостоиться rustRank. Поисковики прибегают к таким ограничениям ради борьбы с сателлитами и дорвеями, которые с первых дней жизни способны засорить поисковую выдачу. Стоит отметить, что возраст сайта для поисковика отсчитывается не с даты регистрации домена, а с момента первой индексации его поисковым роботом.

3. Качество хостинга играет не последнюю роль в оценке сайта. Учитывается бесперебойная работа сервера, отсутствие ошибок в его настройке, скорость загрузки страниц сайта, история IP — адреса. Если на IP ранее был размещен вредоносный ресурс, нарушавший правила поисковых систем, вероятно понижение траста у продвигаемого ресурса.

4. Дизайн сайта, претендующего на хороший траст, не должен быть шаблонным. Если в коде встречаются фрагменты, которые используются и на других сайтах, они могут быть идентифицированы как дублированный контент. Да и асессоры оценят шаблонный дизайн невысоко.

5. Вредоносный код несовместим с трастом. Следует тщательно проверить сайт и убедиться в отсутствии вирусов на нем.

6. Спам на сайте недопустим. Необходимо проверять комментарии, сообщения форума и своевременно удалять все похожее на спам.

7. Стабильный трафик свидетельствует о востребованности сайта. Регулярная посещаемость и естественный, постепенный прирост аудитории – прямой путь к набору траста.

Резкие скачки или падение трафика с высокой степенью вероятности приведут к понижению rustRank.

8. Кликабельность сниппетов демонстрирует интерес пользователей к продвигаемому ресурсу. Привлекательный сниппет приближает сайт к получению заветного траста.

9. Время нахождения на площадке – один из поведенческих факторов, которые также влияют на доверие к ней со стороны поисковых систем. Данные о длительности пребывания пользователей на сайте «Яндекс», в частности, получает посредством установленного на сайте счетчика «Яндекс. Метрика». Слишком быстрый переход посетителей со страниц свидетельствует о низком качестве контента.

10. Присутствие в крупных «белых» каталогах, а именно в «Яндекс. Каталоге» и DMOZ, повышает траст сайта в «Яндексе» и Google.

11. Использование ключевых слов в домене в некоторой степени также работает на присвоение траста. По возможности домен должен быть лаконичным и характеризовать тематику ресурса. Слишком длинные домены с нагромождением ключевых запросов в URL характерны для спам — сайтов. Им поисковики не доверяют и принимают против них защитные меры.

12. Количество страниц в индексе также учитывается при оценке ресурса. Поисковики больше доверяют крупным сайтам, у которых в индекс попало большое количество страниц с качественным контентом. Маленькие площадки имеют право на существование и способны попасть в топ, однако траста им достанется гораздо меньше.

13. Сайт тем больше нравится поисковикам, чем чаще обновляется его содержание. Не обязательно каждый день добавлять уникальные статьи, достаточно систематически проводить работу с контентом, тем самым показывая, что сайт живет и развивается. Полезно использовать такие фишки, как RSS — ленты и XML — sitemap.

Этот внушительный список отражает требования к внутренним факторам сайта. Не менее важны и внешние.

 

Приобретение ссылочной массы

Покупка ссылок с целью «подкачки» траста требует бдительности, так как доноры должны быть исключительно трастовыми площадками и передавать большой вес.

В SeoPul реализована такая функция, как закупка сугубо трастовых ссылок. Система самостоятельно определяет, нужно ли сайту поднять rustRank, и автоматически подключает к используемому каскаду фильтры закупки трастовых ссылок.

Прибегая к традиционным ручным методам закупки ссылок, необходимо помнить о нескольких факторах, на которые следует обращать особое внимание при отборе доноров.

1. Качество исходящих ссылок продвигаемого ресурса. Прежде чем начать поиск доноров, проверьте собственные исходящие ссылки. Если они ведут на ресурсы сомнительного качества, это может грозить передачей в обратном направлении «отрицательно заряженного» траста. Необходим и контроль количества исходящих ссылок. Чем их меньше, тем лучше.

2. Входящие ссылки. «Надуть» траст покупными ссылками не так просто, но все же возможно. Поэтому при покупке трастовых входящих ссылок важно проверять возможных доноров с особой дотошностью. Подлинно трастовый ресурс запросит высокую плату за размещение ссылки и будет удовлетворять основным критериям площадки с большим rustRank.

При необходимости можно каждого донора пристально изучать под лупой, но гораздо удобнее поручить эту задачу каскадам фильтров системы SeoPult. Источником качественных доноров для SeoPul является биржа трастовых ссылок rustLink, где сайты проходят жесткий отбор и ручную модерацию. Это гарантирует, что ссылки, приобретенные в rustLink, положительно повлияют на авторитетность и трастовость продвигаемого ресурса.

Рекомендуется при покупке ссылок разбавлять общую внешнюю ссылочную массу с помощью безанкорного продвижения. В среднем 5 — 10 % от бюджета на продвигаемую страницу следует выделять на закупку ссылок с анкорами вида «тут», «здесь», «на сайте» и т. д. Также для придания большей естественности можно купить несколько ссылок на страницы, которые непосредственно не участвуют в продвижении.

3. Входящие естественные ссылки. Покупка ссылок – дело нехитрое, особенно если под рукой удобный инструмент. Но хотя SeoPul при грамотном использовании выводит сайты в «Топ — 10» поисковой выдачи, параллельно имеет смысл провести работу над внутренними факторами. Владелец качественного сайта способен добиться того, чтобы ссылки на его материалы бесплатно размещались в известных блогах, на крупных тематических сайтах. Интересный и востребованный ресурс сам по себе запускает механизм наращивания естественной ссылочной массы. Необходимо дать пользователям то, что им нужно: знания, сервисы, развлечения, исследования. Получив популярность в широких кругах, сайт вправе рассчитывать на достойный траст. А трастовым ресурсам проще как забраться на высшие ступени поисковой выдачи, так и удерживать завоеванные позиции.

Резюмируя все вышеизложенное, мы повторим, что, как это ни тривиально, качество сайта – тот фундамент, на котором строится его продвижение.

В процессе присвоения уровня траста ресурсу поисковые системы учитывают тысячи разных параметров, но все они коррелируют с качеством сайта и его полезностью для интернет — аудитории.

 

АГС, горе от ума и парадоксы современного SEO

«Мой сайт попал под АГС9!» – обронить такую фразу на форуме оптимизаторов – значит вызвать такой же всплеск сочувствия пополам со злорадством, какой возник бы, если бы некая дама написала в комьюнити о фитнесе: «Я сидела на диете полторы недели, но за два дня набрала все, что сбросила». Как в том, так и в другом случае жалобщиков избавило бы от проблем знание ряда фундаментальных законов: в первом – «сеошно — математических», во втором – физиологических и биохимических. О том, чем в большинстве случаев оказывается мнимое «попадание под АГС», какую пользу сметливый оптимизатор извлечет из теории игр, комбинаторики и иных страшных в своей полезности дисциплин, расскажет известный SEO — эксперт Андрей Шипилов.

Насколько актуален АГС сегодня?

Андрей Шипилов: АГС свою задачу выполнил. Потому что он был направлен против массы ГС, автоматически ваяемых школьниками. Их больше нет, поэтому сайты продолжают наказываться совсем по другим основаниям. Конечно, если вы сваяли кучу говносайтов, то у вас сайт попадает под АГС, пять страниц в индексе осталось – и вы рвете волосы. Но если у вас нормальный сайт, в развитие которого вложено 5 – 6 млн руб., да пусть даже 500 тыс., и у вас вдруг остается десять страниц в индексе, а вы бегаете кричите, что у вас АГС, то, простите, у вас не АГС – у вас глупость! В теории игр есть такое положение: не надо искать заговор там, где все можно объяснить простейшей глупостью.

Разве АГС сегодня не работает?

АГС – комплекс фильтров «Яндекса», определяющих, достойна ли страница (или сайт) индексации, исходя из ряда критериев ее качества. – Примеч. ред.

А. Ш.: Он продолжает работать. Вот пришел Коля Иванов: «Ах, я сейчас пойду зарабатывать на Sape!» Сделал 100 сайтов, и 100 сайтов у Коли Иванова ушли под АГС. Такое случается. Когда приходит человек, у которого сайт приносил на нормальной рекламе, на контексте или еще на чем — то 60 тыс. руб. в месяц, когда у него была посещаемость 20 тыс. в месяц, когда на сайте бурлила жизнь и вдруг у него либо трафик падает в 50 раз, либо вылетают все страницы из индекса, то это не АГС, а, повторюсь, глупость.

Действительно хороший сайт не может в принципе попасть под АГС?

А. Ш.: Как правило, человек, желая сделать свой сайт лучше и наслушавшись советов SEO — специалистов, загнал его в такие условия, что он, с точки зрения «Яндекса», стал очень плохим. Я придумал термин – «парадокс Марьи — искусницы». Знаете, когда в старом фильме выходит мальчик и колдун предъявляет ему 20 абсолютно равнозначных копий его мамы – выбирай, какая настоящая. Сейчас любой в нашей отрасли находится в положении такого мальчика, выбирающего между десятками «Марий — искусниц», потому что на рынке SEO сейчас информации нет. Есть информационный белый шум, и среди него гуляет одинединственный нужный вам ответ, но вы его не увидите, поскольку у вас нет методики, как его вытащить. Простейший эксперимент. Я иду в «Помощь» «Яндекса», читаю о синтаксисе robots.txt, захожу на форум под видом новичка и спрашиваю: «Ребята, каков правильный синтаксис строки Crawl — delay? Как мне ее правильно написать в robots.txt?» Получаю восемь, десять, пятнадцать ответов. Взаимоисключающих. Логика подсказывает, что среди ответов в лучшем случае только один верный.

Другой парадокс – «парадокс монетки»: принимая решение по принципу «орел или решка», я получу более точный ответ, чем задав вопрос на форуме. Говорят, что на форумы не надо ходить, но форумы – это отражение сообщества. Человек, который владеет информацией, будет на ней зарабатывать, он ею делиться не станет. И даже если некто владеет информацией, маленьким кристалликом истины, тот все равно будет поглощен информационным шумом. Темы быстро «сгорают». Положим, вы нашли способ заработать на SEO. Вы сумеете на нем зарабатывать два — три года, не больше, а скорее меньше. Возникает куча сервисов, разного рода программ SEO, которые что — то делают. В основе их функционирования лежит тот же информационный шум, который гуляет по SEO — рынку. Но человек, получая информационный шум опосредованно, через программу, зачастую не видит того, что творится на форумах, он хочет быть выше их суеты: «Пускай школьники болтают, а вот программа дала мне результаты, я на них и буду ориентироваться». Посмотрите по терминологии, зайдите на форумы Sape, на SearchEngines. Приходит человек: «У меня трастовые показатели сайта 15, показатели вхождения – 18, все круто, а сайт падает. Почему?» А что такое «трастовые показатели – 15»? Ему программа это сказала. Еще конкретный пример: «У моего сайта выпала первая страница из индекса. Все остались, а первая выпала. Почему?» Да потому, что ему какой — то сервис сказал, что выпала первая страница. Когда человек хочет улучшить свой сайт, он волей — неволей оказывается жертвой информационного шума.

В заблуждение впадают те, кто слишком доверяет как истинным, так и самозваным SEO — специалистам, это болезнь неофитов?

А. Ш.: Классический пример. Сидит народ на серьезной конференции и рассуждает о влиянии поведенческих факторов на ранжирование сайтов, на их позиции в «Яндексе». Дескать, надобно увеличить время просмотра страницы на столько — то, а глубину просмотра на столько — то, а показатель отказов – на столько — то. Обратите внимание: употребляя эти термины, каждый под ними понимает свое. А в соседнем зале рассказывают, как «Яндекс» наказал MegaIndex или еще кого — то за накрутку поведенческих факторов. Что такое поведенческие факторы? Никто не знает. Раз никто не знает, будем принимать за поведенческие факторы статистику. Почему? Потому что статистика показывает, как пользователь ведет себя на нашем сайте. Коль скоро она показывает, как пользователь ведет себя на нашем сайте, значит, статистика и есть поведенческий фактор. Следовательно, надо улучшить статистику сайта. А как я буду улучшать? Уменьшая процент отказов, увеличивая глубину просмотра, увеличивая время нахождения на сайте.

Очень серьезная контора, очень грамотные специалисты. Компания занимается онлайн — обучением. Хороший инвестор, действительно умелые технические специалисты и преподаватели, бизнес — команда прекрасная. Они принимают совершенно верные тактические решения, проводят маркетинговые исследования. Однажды делают вывод: «Если мы разместим на сайте видеоролики, то тем самым повысим усвояемость материала, сделаем его более интересным». Приходит грамотный технический специалист и говорит: «Вы что, сдурели – видеоролики класть на своем сервере! Есть же видеохостинг. Заведите аккаунт, положите все видеоролики там, а здесь сделайте iframe или еще что — нибудь и показывайте на здоровье». Посетитель заходит, смотрит видеоролик «Как собрать детектор для пыли в домашних условиях». Как принято на видеохостингах, ему сразу же подсовываются значки более интересных записей на ту же тему, он щелкает, смотрит их 15 минут, не уходя со страницы. Все радуются: проведенное на сайте время – 15 минут, глубина просмотра – неимоверная, и уж, наверное, чудесные поведенческие характеристики. В какой — то момент у сайта оказывается ноль страниц в индексе. Причина проста: поисковая машина лишена эмоций и ей понятен тот факт, что на сайте с 5 тыс. страниц каждая ссылается на один и тот же хостинговый аккаунт и народ ходит туда, только чтобы через эти страницы смотреть видеоролики на стороннем хостинге. Что увидел «Яндекс»? Дорвей. Сайт забанен.

А как понять причину «возмездия»?

А. Ш.: Причина наказания качественного сайта может быть до такой степени неочевидной, что даже три — четыре аудитора, садясь вместе, очень долго будут копаться. Сам я сейчас, когда занимаюсь аудитом сайтов, действую очень просто: я прежде всего стараюсь понять, что именно было вытащено из информационного шума. Я вижу, по какой ниточке из информационного шума они пошли, и всегда отыщется уязвимая точка, где сделано не то. Только так. Если тупо сидеть и искать, вы ничего не найдете.

Другой аспект. Везде, на сайтах разработчиков CMS, на сайтах специалистов по безопасности, в очень многих серьезных источниках по SEO, выложены чек — листы по 20 – 30 пунктов, описано, чего не надо делать, какие технические погрешности на вашем сайте могут привести к наказанию со стороны поисковых машин. В 90 % случаев именно нарушение чисто технических требований и приводит к наказанию сайта, несмотря на то что разработчики сайта все это читали и вроде бы понимают: не нужно плодить дубли, надо закрывать от поисковых роботов все технические страницы, результаты сортировки, профили – все то, что не несет информации, релевантной содержанию сайта.

Беда в том, что если вы все перечисленное без задней мысли проделаете, то потеряете четыре пятых трафика, который у вас идет на эти паразитные страницы. Снова бросаемся с головой в информационный шум, выныриваем оттуда вот с такими глазами, с полной уверенностью в том, что чем больше у нас проиндексированных страниц на сайте, тем лучше он проиндексирован, чем больше трафик на сайт льется, тем круче. Да, если ваш сайт – СМИ и вы с трафика продаете рекламу, без вопросов. А если вы торгуете шинами или бриллиантами и добились того, что на ваш сайт в поисках бриллиантов заходит 50 тыс. человек в день? Чтобы радоваться этому – извините, господа, – надо быть полным глупцом! Потому что бриллиант и даже автомобильные шины – это не тот товар, который можно продать 50 тыс. покупателям. Значит, у вас столпится такая куча народа, что вы его не продадите.

Еще раз: не плодим дубли, категорически закрываем от индексации все технические страницы, в строгом соответствии с рекомендациями в «Яндексе» и Google составляем robots.txt. На 95 % сайтов, аудит которых я проводил, robots.tx был написан с синтаксическими (что не страшно, в общем — то) или фактическими ошибками. За последние два года мне три раза приходилось сталкиваться с тем, что сайт вылетал из индекса, поскольку веб — мастер нечаянно запретил индексацию сайта в файле robots.txt, просто написав строку Allow без параметров, подумав, что она разрешает индексировать на сайте.

Смотрим, чтобы было с robots.txt. В обязательном порядке проверяем, что выдает наш сервер в ответ на запрос браузера. Если ваш сервер отвечает – типичная ситуация, – что срок валидности опубликованного материала истек 1 января 1980 года, то ни о каком регулярном и системном посещении вашего сайта поисковыми роботами и речи нет. Вы можете прописать в sitemap все параметры как положено, однако, если робот увидит эту запись в коде ответа сервера, он ваш sitemap проигнорирует. Пустячок, но я сам был свидетелем того, как новостной сайт нормально не индексировался. После того как в полях, касающихся модификации публикаций, появились валидные даты, возникла валидная дата истечения cookie, сайт взлетел просто за счет того, что робот стал заходить практически секунда в секунду с публикуемым материалом. Грубо говоря, вы делаете технически правильный сайт и потом не платите мне 30 тыс. за то, чтобы я вам сказал: «Исправьте эту строчку в robots.tx или закройте с помощью noindex технические страницы».

К слову о noindex. Он позволяет закрыть часть страницы от индексации. Проглядываю сайт, и каждое второе предложение – в noindex. Спрашиваю у владельца сайта:

– Что это такое у тебя?

– А это я придумал такой очень хороший способ уникализации текста!

– Как так?

– Вот «Яндекс» это предложение читает, это предложение читает, это предложение, и вроде как текст уникальный.

– Да «Яндекс» у тебя все прочитает, понимаешь?

Noindex – это «не помещать в индекс», это не значит «нельзя читать, нельзя анализировать». Это значит «прочти, проанализируй, но не помещай в индекс». На сайте «Яндекса» четко все написано в «Помощи», двоякие толкования исключены.

Очень серьезная контора, имеющая десятки сайтов по всему бывшему СССР Специфика компании вынуждает одни и те же позиции товара по 50, по 100 раз на одной странице приводить. В какой — то момент сайт перестает нормально индексироваться, все рушится, из индекса тоже много вылетает. Когда я проверяю сайт, в первую очередь смотрю robots.txt, потом код страницы. Открываю совсем небольшую страничку – там 150 раз noindex.

– А что это, господа?

– Понимаете, у нас слово «насос» встречается 150 раз, и мы подумали, что «Яндекс» это сочтет спамом. Только один «насос» оставили, а все остальные забрали в noindex, чтобы поисковик их не прочитал.

Во — первых, «Яндекс» никогда прайс — лист, табличку не сочтет спамом. Он не дурак и распознает, где у вас прайс — лист, а где текст, насыщенный спамом. Он это начал понимать лет десять назад. Во — вторых, если на сайте 50 тыс. страниц и на каждой надо обработать тег по 150 раз, это же какие вычислительные мощности потребуются. В конце концов, либо роботу самому «надоело», либо человек зашел, увидел 150 noindex, у него глаза из орбит вылезли, он – чпок! – нажал кнопку.

Повторюсь, когда я слышу: «Помогите, мой сайт попал под АГС!» – то, если это достаточно серьезная площадка, почти наверняка она попала не под АГС, а под информационный белый шум в Интернете, помноженный на глупость владельца.

Если не АГС, то что может грозить хорошему сайту и за что именно?

А. Ш.: Да простит меня поисковая система «Яндекс», но у нее очень часто случаются разного рода ошибки и глюки. В большинстве случаев они некритические и остались бы незамеченными, кабы владельцы сайтов, «вооруженные» информационным шумом, не следили за позициями. Здравый смысл подсказывает, что важно следить за трафиком сайта. А информационный шум говорит: «Мониторь позиции». Вдруг владелец сайта видит, что у него позиции начинают скакать. Когда подобное происходит, у меня первая мысль: «А не глюк ли это “Яндекса”?» Ведь мне известно, что с моим сайтом все нормально и ни с того ни с сего он прыгать в выдаче не начнет. А у человека, который живет в белом шуме, иная реакция: «А какой фильтр на меня наложили?» Он делает лихорадочные шаги в поисках мнимого фильтра и надеется устранить проблему, мечась от одного предположения к другому: «Ах, может быть, у меня переспам? А давай на 1 % меньше ключевых слов на всех страницах сделаем? Ах, может быть, я слишком много ссылок закупил? Дай — ка я от части откажусь, закуплю вместо них другие…» Сайт, в общем — то, стабильный и нормальный, но с ним в одночасье затевается чехарда: синхронно меняются тексты на всех страницах, ссылки скачут. Все, и никаких фильтров не надо. Просто потому, что тексты синхронно поменялись, позиции у вас упадут.

Технологии совершенствуются. Раньше – да: накупил ссылок – фильтр «Ты последний» (уж не знаю, существовал он на самом деле или нет), переспамил – фильтр «Ты спамный». Сейчас такого нет. Действуют очень сложные механизмы, которые стараются понапрасну не наказывать. На сегодняшний день «Яндекс» наказывает, только если его изрядно достать. Четкой статистики у меня нет, но частенько ко мне приходят люди с просьбой: «Ах, определите, какой у меня фильтр!» Нередко дело в региональной принадлежности оказывается. «Яндекс» все время что — то у регионов подкручивает. Господа, ваш сайт привязан к Перми. Поменяйте регион, и вы увидите, что эта чехарда только в конкретном регионе происходит, в других ее нет. У «Яндекса» написано чуть ли не аршинными буквами черным по белому на панели «Веб — мастер», что для каждого региона используются свои правила ранжирования. Следовательно, что — то с факторами ранжирования в вашем регионе происходит. Можно задать «Москву», зайти с зарубежного IP и убедиться, что на самом деле с сайтом все нормально. Я не знаю, как он внутри устроен, в моих глазах «Яндекс» – это «черный ящик» что на входе, что на выходе. Но очень часто по какой — то причине «Яндекс» перестает видеть часть страницы. Может, действительно какие — то проблемы с базой, а может, проблемы со считыванием. Тем не менее он индексирует страницу до половины, а оставшуюся часть не видит. Такие эксцессы, впрочем, кратковременны. Если вас «Яндекс» видит по одному заголовку, по тупому вхождению предложения целиком, а абзацем ниже – нет, то подождите немножко. При условии, что вы страницу в noindex не забирали, не бывает так, чтобы страница индексировалась кусочками, она всегда индексируется полностью.

Когда позиции скачут или нечто подобное происходит, как правило, это не фильтр?

А. Ш.: Я бы не сказал «как правило». Всегда можно проверить. Все боятся: «А ну как у меня на сайте какой — то криминал, и если я напишу в техподдержку “Яндекса”, то меня накажут еще сильнее». На самом деле написал и получил ответ: «Извините, с вашим сайтом все в порядке, у нас была ошибка. Подождите немного, ваш сайт начнет ранжироваться нормально». Уверяю вас, когда я обращаюсь по поводу нормального сайта, я в 90 % случаев получаю именно такой ответ. Так и пишут: «Проблемы с нашей стороны. Подождите, ваш сайт начнет нормально ранжироваться». Спросите! Нет, я буду уменьшать количество вхождений на сайте. Нет, я буду менять структуру: кто — то мне подсказал, что у меня неправильный sitemap. Я нагенерю sitemap, куда для надежности включу все технические страницы, которые «Яндекс» никогда бы не нашел самостоятельно. Итог печален.

Говносайты, MFA — сайты11 (между прочим, хорошие MFA — сайты очень тяжело отличить от обычных качественных сайтов, это практически одно и то же), сайты под Sape, под продажу ссылок, для арбитража всегда видно сразу. Если сайт нормальный, приличный, на нем несымитированная людская активность, но он оказывается наказанным, это не АГС. У АГС нет конкретной причины. АГС – это сложный механизм, который берет совокупность огромного количества параметров. Когда сайт наказывают за что — то конкретное, это не АГС, а в 90 % случаев глупость владельца.

Если что — то случается с позициями, до ответа от «Яндекса» лучше не делать «резких движений»?

А. Ш.: Да. Конечно, если ваш сайт плохой и наказан за то, что он плохой, вам так и скажут честно: «Развивайте ваш сайт. Наши алгоритмы приняли решение». Если ваш сайт до сих пор был нормальным, то глупо опасаться, что на основании письма его отнесут к плохим. Может быть, такая вероятность есть, но она намного ниже, чем шансы на то, что вы сами испортите свой сайт необдуманными действиями. Для того и существует диалог. Можно даже написать: «Был такой — то запрос, по нему у меня сайт был на пятой позиции, а сейчас на пятнадцатой. Что случилось?»

Клиент стесняется написать. А я всегда пишу, даже если клиент меня просит не писать уж открою секрет. Потом отвечаю клиенту, что его сайт вернется в индекс через два — три апдейта, и с чистой совестью беру с него деньги за письмо, написанное в «Яндекс». Если он не хочет платить, ради бога, пусть напишет сам, но если он хочет мне заплатить за то, чтобы я написал, я сделаю это.

За что все — таки могут наказать качественный, сделанный для людей сайт? Ведь, кроме АГС, существуют и другие фильтры.

А. Ш.: Могут наказать за технические проблемы, особенно если ваши конкуренты подсуетятся. Если ваш сайт тяжело индексировать, то есть на нем 200 страниц, а на его индексацию надо потратить ресурсов как на сайт с 200 тыс. страниц, его могут наказать, пусть даже с точки зрения наполнения контентом он совершенно нормальный. Положим, робот ждет, пока сайт ответит, по пять секунд на страницу, или у вас на каждую страницу с полезной информацией приходится десять с бесполезной. Или архитектура сайта до такой степени запутана, что робот, проходя по графам, по 50 раз зайдет на одну и ту же страницу, считая, что он попадает на новую.

Могут ошибочно наказывать за поведенческие факторы или за неверную раскрутку сайта. Например, если в какой — то момент вы решили всерьез продвинуться по SEO и получилось так, что у вас 95 % входящего трафика составляет SEO — трафик, причем большой, то есть если на ваш сайт только с поисковиков заходит 20 тыс. человек в день, составляющие абсолютное большинство его посетителей, то определенные механизмы позволят «Яндексу» заподозрить, что у вас MFA — сайт, созданный исключительно для того, чтобы сливать куда — то трафик по более высокой цене, чем та, по которой вы его привлекаете. И если, не ровен час, на вашем сайте найдутся тому подтверждения – необоснованно большое количество тизерок и прочего, – то вас однозначно накажут, и довольно жестоко, притом что наказание будет снять очень тяжело. Или у вас нормальный сайт, но вы решили продвинуться сомнительным способом. К вам пришел новый веб — мастер и обмолвился, что знает, где взять трафик по 10– 20 коп. за человека. Такие источники действительно есть, и вы гоните себе 50 тыс. человек в день. Между тем у вас никакого другого входящего трафика нет. Так не только у «Яндекса». Все роботы сразу делают стойку: «А, мы имеем дело с арбитражем!» Не дай бог, у вас на сайте где — нибудь мелькнут слова «пошли SMS»: он будет наказан. Хотя, казалось бы, это совершенно невинные вещи.

Сайт рискует попасть под фильтр только потому, что у него слишком большой процент трафика поступает из поисковиков, хотя на самой площадке все идеально?

А. Ш.: Да. Что такое идеальный сайт с точки зрения поисковой машины? Никто не знает. Приведу еще один пример. Сайт компании в сфере недвижимости, и на нем огромные базы – десятки тысяч страниц. На нем реализован механизм – то ли AJAX, то ли что — то другое, – благодаря которому человек заходит на сайт, просматривает один объект недвижимости, щелкает на другом, тот подгружается, притом висит один и тот же URL. С точки зрения робота, человек находился на одной странице с неизменным URL. Сайт работает, посетители выполняют нужные им действия, все сделано для людей. Что видит поисковая машина? То, что изо дня в день сотни человек ходят на одну и ту же страницу сайта, а на остальные страницы не заглядывают. Закономерный вопрос: а зачем эти страницы в индексе?

Но ведь «Яндекс» декларирует, что с некоторых пор прекрасно понимает AJAX?

А. Ш.: Не берусь судить, AJAX там или не AJAX. Да, мне говорили, что и JavaScrip понимает, и Flash подгружает. Но факт: как только была дана рекомендация использовать тупой GET — запрос, чтобы каждая страничка имела свой адрес, сайт начал очень хорошо индексироваться, вошел в индекс заново. Правда, по — моему, после письма Платону Щукину12, где ситуация была объяснена.

А как быть в таком случае, когда действительно, казалось бы, невинная, с точки зрения владельца сайта, мелочь приводит к попаданию под фильтр? Например, то же самое использование тизерок, избыток рекламы.

А. Ш.: По — моему, у «Яндекса» это даже где — то написано. Даже если нет, у «Бегуна»13 четко продекларировано. Если вы прочтете пользовательское соглашение «Бегуна» и будете его неукоснительно выполнять, шансы попасть под фильтр за арбитраж трафика, за слив трафика в сети контекстной рекламы у вас будут минимальными. Например, тот же самый «Бегун» никогда не примет ваш сайт в свою систему, если у вас «моновходящий» трафик. Допустим, на 90 % – с тизерок. Ваш сайт даже не рассматривают, одного упомянутого факта хватит, чтобы сайт не был принят в «Бегун». Так почему же политика поисковиков должна быть иной?

Один из хороших способов уйти от информационного шума – черпать знания не из SEO — источников, а из других, близких: документации поисковиков, документации систем контекстной рекламы. Profit — Partner14 дает, например, очень хорошую инструкцию. У меня был случай, когда я сам не мог понять, в чем дело, но, поскольку сайт участвовал в «Яндекс» — «вертушке», я просто позвонил знакомому специалисту из Profit — Partner, и тот мне

объяснил на пальцах, как именно структура трафика повлияла на ситуацию.

Мы вновь возвращаемся к поведенческим факторам. Почему я говорю, что поведенческие факторы не равны статистике? Еще и потому, что значительная часть поведенческих факторов вообще лежит за пределами вашего сайта. До того как человек к вам пришел, он отслеживается. Человек в поиске кликнул на одном сайте – ушел, на другом сайте – ушел, заглянул на ваш – остался. Вам плюс. Где, на чем он кликает до вашего сайта, вы не в силах проконтролировать. Мало того, вы это естественно и сымитировать не сумеете. Человек провел на вашем сайте три минуты – вроде как много. Дальше он ушел на другой сайт той же тематики, провел там 15 минут, заполнил форму, сделал заказ. Это все отслеживается. Хотя у вас, казалось бы, нормальная глубина просмотра, но у вас будет плохая поведенческая характеристика, а у владельца конкурирующего проекта – хорошая.

Способ избежать наказания – делать сайт интересным для людей. Попробую сформулировать правила.

Во — первых, попробуйте вылезти из информационного белого шума. Когда вы видите, что перед вами двадцать «Марий — искусниц», не выбирайте между ними, идите и ищите другой источник знаний. В сказке мальчик вышел за дверь, и ему девочка шепнула, что от настоящей мамы теплом повеет. Лучше выйдите за дверь, и найдете место, где вам шепнут правильно.

Во — вторых, возьмите на вооружение то, о чем «Яндекс» говорит, хотя никто никогда его не слушает: делайте ваш сайт интересным людям, развивайте его. Маленький секрет. Если у вас хороший трафик с поисковых машин, есть трафик из контекста, на вас ссылаются форумы, к вам переходит тьма народа с ссылок, значит, у вас нормальный входной «мультитрафик», ваш сайт очень хорошо отслеживается поисковыми машинами. Но если ваш сайт притом не заносится в «Закладки», вы заметите, что трафик начинает потихонечку падать просто потому, что раз сайт действительно нравится людям, то хоть один из ста человек его к себе в «Закладки» да внесет. Не заносят? Стало быть, сайт не нравится людям, плохой он. Это тоже поведенческий фактор, и все именно так и происходит. Одно время было поветрие: существовали всякие хитрые механизмы, которые заносили сайт в «Закладки», либо побуждали занести сайт в «Закладку», либо заносили его без ведома пользователя. Потом эти методики завяли. Механизмы имитации очень быстро раскалываются.

Не надо забывать, что математика – это наука, а поисковики делаются математиками. Я несколько лет назад потратил деньги и хорошенько изучил теорию игр, и я осознал, каким был идиотом до той поры, не понимая простейших вещей, очевидных в рамках математических моделей. Они противоречат интуиции, но верны. Многие решения на SEO — рынке принимаются на интуитивном уровне, на уровне догадок, а с той стороны – точная наука, которую не обманешь.

 

Особенности продвижения интернет — магазина

 

Ежедневно в Рунете делаются десятки тысяч запросов с целью поиска товаров или заказа услуг. Преимущественно через «Яндекс», который является главным поставщиком клиентов для большинства локальных коммерческих площадок. Немудрено, что успех бизнеса в Сети зависит от того, какую позицию в поисковой выдаче занимает интернет — магазин. У продвижения таких сайтов есть нуждающиеся в разъяснении нюансы, а кроме того, в SEO выработались специфические приемы для вывода сайтов категории e — commerce в топ «Яндекса».

 

Место не для каждого

Позиция вверху SERP гарантирует площадке поток целевых посетителей, но не каждому проекту имеет смысл тратить бюджет на продвижение с целью занять первые места в поисковой выдаче. Каким же сайтам нет резона метить в топ и почему?

1. Только что «сошедший со стапелей» коммерческий сайт имеет минимум шансов попасть в топ. Поисковики проявляют осторожность по отношению к молодым ресурсам и не спешат им доверять. Даже если сайт прошел безупречную внутреннюю оптимизацию, потребуются месяцы, прежде чем ему можно будет «разевать рот» на траст «Яндекса» и выход на высокие позиции в выдаче по основным запросам.

Правильнее начинать продвижение новой площадки с запуска кампании по контекстной рекламе и с присоединения к «Яндекс. Маркету». Параллельно следует осуществлять продвижение по НЧ — запросам, избегая резкого прироста ссылочной массы. Через год впору будет бороться за высокие места в выдаче по СЧ– и ВЧ — запросам (средне– и высокочастотным).

2. Многие категории товаров затруднительно продавать дистанционно. Так, не каждый пользователь решится приобрести джинсы без примерки. Поэтому маленьким интернет — магазинам с ассортиментом такого рода невыгодно удерживаться в топе ввиду крайне низкой конверсии, в отличие от крупных проектов типа Wildberries.ru и Sapato.ru, чья аудитория несопоставимо больше.

3. Нерентабельно заниматься в Интернете продажей очень дешевых и притом неуникальных товаров. Потребуются большие, приближенные к опту объемы заказов, чтобы работать не в убыток себе. Да и редкий житель России согласится заплатить за доставку почти столько, сколько стоит сам товар. Поэтому конверсия «ширпотребных» площадок оставляет желать лучшего.

На первом этапе организации собственного бизнеса в e — commerce необходимо провести серьезный анализ выбранной ниши, изучить конкурентов, понять, стоит ли дальше двигаться в эту сторону, а следовательно, прибегать к продвижению торговой площадки с помощью SEO.

 

Ставка на низкочастотные запросы

Главным козырем в продвижении интернет — магазина будут низкочастотные запросы. Дело в том, что высокочастотники требуют больших расходов, к тому же нередко бьют из пушки по воробьям. Не всегда тот, кто ищет «паркет», хочет его купить. С высокой долей вероятности пользователя интересует способ укладки напольного покрытия, но он не ввел в состав запроса уточнений. Иначе говоря, трафик по ВЧ — запросам не всегда является целевым.

После того как большинство посадочных страниц попало в топ по НЧ — запросам, для укрепления позиций можно начать подключать СЧ– и ВЧ — запросы. Но страницы для такого продвижения (главную, каталоги и прочие) необходимо оптимизировать заранее.

Для каждого низкочастотника из огромного списка необходимо подготовить и оптимизировать отдельную страницу. Каждая посадочная страница должна отвечать на один запрос. Это угодно «Яндексу» и рационально с точки зрения конверсии. Чем точнее landing page соответствует запросу, тем выше вероятность того, что посетитель совершит на ней желаемое действие.

 

Подбор ключевых запросов для семантического ядра

Составление семантического ядра – задача несложная, но кропотливая и рутинная. Альтернативой ручному подбору запросов для семантического ядра в сервисе Wordstat

«Яндекса» служит более удобная, с нашей точки зрения, функциональность SeoPult. На этапе подбора ключевых слов и словосочетаний система автоматически генерирует список ключевиков, исходя из анализа контента страниц. Стоит пойти дальше и прибегнуть также к помощи дополняющего подборщика, которые добавляет ключевые слова к введенным вручную, оценивая их частотность. Таким образом, система предлагает лишь те слова, по которым на сайт придут реальные посетители. Например, статистика «Яндекса» свидетельствует о том, что определенное словосочетание имеет частотность 150, а, по данным SeoPult, на практике оно принесет лишь десять посетителей в месяц. Эти данные бесплатны, и в других источниках их найти затруднительно. Кроме прогноза посещаемости по ключевым запросам, система выполняет расчет оптимального бюджета на их продвижение.

Полученный список НЧ — запросов подлежит дальнейшему анализу, на сей раз с помощью вашего собственного мыслительного аппарата. Из массива слов нужно выделить те, которые в большей степени подходят для продвижения коммерческого проекта. Уточним, что все запросы делятся на навигационные, информационные и транзакционные. Владельца интернет — магазина интересуют преимущественно транзакционные, нацеленные на поиск конкретного товара с перспективой покупки, каждый из которых будет релевантен той или иной посадочной странице

 

Стратегия продвижения

План выведения интернет — магазина в топ включает в себя перечисленные ниже пункты:

• подбор запросов, составление семантического ядра;

• размещение ключевых запросов на релевантных страницах, создание недостающих страниц под другие запросы;

• внутренняя оптимизация страниц;

• запуск SEO — кампании по НЧ — запросам;

• постепенное подключение к продвижению СЧ — запросов;

• распределение бюджета в пользу СЧ — запросов;

• ввод в стратегию ВЧ — запросов с целью получения максимального трафика.

 

Подготовительные работы

Перед запуском SEO — кампании следует проверить техническую сторону сайта. На это может уйти немало времени и средств, так как коммерческий ресурс содержит великое множество страниц, каждая из которых должна функционировать безупречно. Технический аудит заключается в проверке работы сервера, тестировании площадки на устойчивость к высоким нагрузкам, корректной настройке CMS с точки зрения SEO, проверке валидности кода. Огрехи и недоработки обязательно должны быть устранены, прежде чем состоится первое «знакомство» сайта с поисковиком.

 

Получение траста

Наличие траста не менее важно для хорошего интернет — магазина, чем для любого другого качественного ресурса. Чтобы получить несколько «жирных» трастовых ссылок, владельцу ресурса предстоит обратиться не к чистому SEO, а скорее к комплексному интернет — маркетингу. Вот что стоит предпринять для завоевания звания авторитетного сайта:

• добиться статуса официального торгового представителя некоей марки и получить обратную ссылку с сайта производителя;

• провести работу с ведущими блогерами в своей отрасли и договориться о размещении ссылок у них;

• регулярно заявлять о себе статьями и пресс — релизами на крупных профильных порталах;

• будоражить общественность и создавать инфоповоды, чтобы получать естественные ссылки с тематических новостных ресурсов;

• коммуницировать с целевой аудиторией на форумах, давать консультации, предлагать интересные обзоры товаров.

Значительный вес будет передаваться по безанкорным ссылкам, которые наиболее близки к естественным. Люди, ссылаясь на тот или иной сайт, редко делают это с указанием ключевых запросов. Так что безанкорные ссылки в почете у поисковых систем. Отметим, что с помощью SeoPul также можно нарастить траст, поскольку одним из источников доноров системы является биржа трастовых ссылок rustLink.

 

Внутренняя оптимизация

Поисковой системе «приятнее» такая страница интернет — магазина, которая структурирована и сверстана по блочному типу. Предпочтительно делить контентную область страницы на несколько составляющих: заголовок, краткое описание, полное описание, блок с изображением, кнопка заказа и т. д. Обязательно наличие следующих правильно оптимизированных элементов: метатегов, одного заголовка первого уровня, описания, цены, изображений, ссылок на другие страницы (например, на карточки сопутствующих товаров или инструкции), блока отзывов. Дополнительным плюсом будет качественный видеоролик о товаре.

 

Настройка CMS

Грамотная настройка CMS в значительной степени облегчает труд оптимизатора. С помощью системы управления контентом можно при создании карточки товара автоматически вносить нужные ключевые слова в метатеги и тег itle, генерируя уникальные описания. Настраивается также и занесение ключевого запроса (названия товара) в заголовок H1.

Дополнительные ссылки в карточке товара рекомендуется закрывать от индексации.

Имейте в виду, что для индексации роботу нужно отдавать только уникальный контент с каждой страницы. Повторяющаяся сквозная информация при попадании в индекс может восприниматься поисковиком как дубли, что приведет к склейке и выпадению из индекса важных целевых страниц.

 

Контент для карточек товара

Базовые правила касаемо контента незыблемы и не зависят от типа сайта. Три слова: качественный, тематический, уникальный. В случае со многими товарами есть возможность отойти от сухого изложения характеристик и внести долю творчества в информацию о продукте, чтобы итоговый контент отличался от того, который описывает тот же товар на сайте конкурента.

Сложнее дело обстоит со специфической продукцией, например медикаментами, когда описанием является прилагаемая к лекарству инструкция – информация для пациента. В таком случае на странице желательно размещать дополнительные тексты: отзывы пациентов, аннотацию специалиста и т. д.

Картинки в карточках товара в идеале также должны быть уникальными и сопровождаться атрибутом al с занесенными в него ключевыми словами. Желательно не размещать на площадке те же изображения, что и на десятке сайтов — конкурентов, а выделить пусть даже скромный бюджет на фотосессию и подготовить собственный графический материал.

В тексте на каждой посадочной странице должно быть оптимальное количество вхождений ключевых слов. Но чтобы определить, какое из них сколько раз надлежит употребить, необходимо изучить сайты конкурентов в топе, оценив тысячи страниц. Такой анализ в считаные секунды проводит SeoPult. При выборе целевой страницы одним кликом запускается механизм анализа успешных схожих проектов, и по его итогам выводится количество рекомендованных вхождений ключевого слова в текст на странице.

Оптимизируя сайт под НЧ — запросы, важно сделать правильную внутреннюю перелинковку, причем ссылки должны содержать уникальные анкоры. Схема перелинковки страниц в продвижении по низкочастотке завязана на передачу веса с главной на внутренние страницы, а именно:

• ссылки с главной страницы ведут на страницы второго уровня, обратные ссылки на главную не размещаются;

• страницы второго уровня ссылаются на страницы третьего уровня (страницы с описанием товаров);

• страницы товаров перелинкованы по кольцу и получают также попутный вес с внешних ссылок.

Одно только «но»: вышеописанная схема способствует эффективному продвижению посадочных страниц с товарами по НЧ — запросам, однако затрудняет продвижение главной страницы по СЧ– и ВЧ — запросам. В случае острой необходимости перелинковку впоследствии можно будет переделать на иной лад.

 

Наблюдение за действиями посетителей

Анализировать поведение посетителей на сайте крайне важно. Ведь нужно иметь представление о том, откуда приходит трафик и каков он, окупаются ли вложения в продвижение, какой процент посетителей проходит конверсионный сценарий полностью и почему происходят отказы. Чем выше конверсия и ниже цена привлечения одного покупателя, тем эффективнее продвижение.

Наблюдение за аудиторией обеспечивают счетчики. Самые распространенные –

«Яндекс. Метрика», Google Analytics, LiveInternet. Они собирают и дают информацию по многим жизненно важным аспектам активности на сайте: по количеству посетителей, стоимости их привлечения, в том числе детальные данные по каждому ключевому запросу. Самостоятельно вычислить стоимость привлечения посетителя проблематично, но с помощью SeoPul это сделать довольно просто. Достаточно «скормить» SeoPul пароль и логин для счетчика LiveInternet, чтобы получить подробный отчет и рекомендации по внесению изменений в список ключевых запросов. Кроме того, в сводке можно будет проследить зависимость между позицией сайта в определенный период и тем, сколько посетителей в заданный отрезок времени наблюдалось на площадке.

Высокая конкуренция в электронной коммерции не должна препятствовать открытию вашего бизнеса в Сети. «Право на топ» есть у каждого, но в фаворитах у поисковых систем все — таки остаются качественные оптимизированные сайты. Ну а поскольку интернет — магазин предусматривает выполнение множества рутинных операций, в его продвижении незаменимы современные удобные инструменты, автоматизирующие SEO.

 

Поведенческие факторы ранжирования

 

При ранжировании ресурсов в выдаче поисковая система, в частности «Яндекс», стремится исходить из интересов пользователей, пытаясь оценить сайт так, как это сделал бы его посетитель. Ранжирования с точки зрения человеческого поведения «Яндекс» добивается двумя методами. Первый – это обучение MatrixNe силами асессоров, которые подробно изучают каждую страницу по многочисленным критериям и выносят свой вердикт относительно нее. Второй зиждется на поведенческих факторах, или на интерпретации действий реальных пользователей поисковой машиной.

В совокупности эти две технологии определяют уровень качества ресурса и решают вопрос его места в выдаче. Так или иначе, мнение модераторов преобладает над оценкой поведенческих факторов. Какой бы высокой ни была кликабельность сниппета, если ручная проверка выявит нарушения, например несоответствие контента поисковым запросам, допущенное с целью привлечения большого трафика, путь в топ площадке будет закрыт.

 

Источники данных

Откуда «Яндекс» получает данные о поведении пользователей? Официальной информации нет. Ответ надежно спрятан в том же «черном ящике», где собраны остальные тайны алгоритмов ранжирования.

Но путем детального анализа и многочисленных наблюдений все же удалось выделить три основных источника.

1. Поисковая выдача. Из поисковой выдачи собираются данные о кликабельности сниппетов. Наиболее выигрышный и релевантный запросу сниппет привлекает к себе больше внимания и обеспечивает больше переходов на сайт. Если пользователи чаще делают клик не на первой, а, к примеру, на пятой строке выдачи, поисковик получает сигнал, что, возможно, замыкающий «Топ — 5» сайт заслуживает более высоких позиций.

Информация также поступает из браузера. Высокая частота отказов от просмотра сайта кликом на кнопке «Назад» в браузере свидетельствует о его недостаточном соответствии ожиданиям пользователей. В большей степени удовлетворяющим запросу будет считаться такой ресурс, на котором посетитель задерживается, прекращая поиск в выдаче.

2. Счетчик «Яндекс. Метрика». С одной стороны, он представляет собой удобный инструмент для владельца ресурса, позволяющий получать детализированную статистику о посетителях и эффективности продвижения. С другой – было бы глупо самому «Яндексу» не брать в расчет те данные, которые владелец сайта приносит ему на блюдечке с голубой каемочкой. Обо всем, что происходит на сайте, хорошем и не очень, поисковик знает и учитывает эти сведения при ранжировании.

3. Надстройка для браузера «Яндекс. Бар». Это еще один «шпион» «Яндекса», собирающий информацию о поведенческих характеристиках пользователей. Браузерный плагин «Яндекс. Бар» является информационной панелью некоторых служб поисковой системы («Погода», «Пробки» и пр.) с формой быстрого поиска. Предоставляя пользователям многофункциональный удобный инструмент, поисковик преследует и корыстные цели – отследить их действия, проанализировать информацию и сделать выводы о степени релевантности того или иного сайта запросу.

Как видно из примеров, поисковому гиганту Рунета не составляет труда получить все необходимые данные о поведении пользователей и включить их в общий механизм ранжирования.

 

Основные поведенческие факторы

Базовыми считаются следующие поведенческие факторы ранжирования «Яндекса».

1. Глубина просмотра. Количество просмотренных пользователем страниц сайта.

2. Время нахождения на сайте. Другая важная метрика, отражающая длительность пребывания посетителя на сайте.

3. Показатель отказов (bounce rate). Под отказом понимают ситуацию, в которой пользователь, просмотрев лишь одну страницу, прекращает пребывание на сайте (закрывает окно, вкладку браузера, переходит на страницу выдачи). Чем выше показатель отказов, тем весомее предположение о низком качестве сайта и его нерелевантности запросу. Но есть исключения, которые учитывают в общей формуле ранжирования представители поисковой системы. Специфика многих сайтов подразумевает предоставление ответа на запрос пользователя на первой открытой им странице. Например, человек, страдающий от зубной боли, ищет ближайшую к нему стоматологическую клинику, набирает поисковый запрос «стоматология марьино», кликает на первом сниппете в выдаче и видит контактный телефон. Ему оказалось достаточно информации, чтобы записаться на прием, не совершая переходов на другие страницы сайта.

Стоит учитывать тот факт, что поисковая машина при построении SERP не суммирует механически значения разрозненных факторов, а на основе их анализа составляет общую картину, которая позволяет судить о качестве ресурса сравнительно объективно.

4. Клики в выдаче. По мнению поисковика, сайты, на которых были сделаны первый и последний клики, при условии что посетитель открыл сразу несколько сайтов из выдачи, говорят о большей релевантности ресурса.

 

Кластер страниц по дополняющим запросам

Кроме приведенных выше поведенческих факторов, существует еще один, но его правильнее назвать косвенным или предваряющим. Это наличие на сайте комплекса, или кластера, страниц, оптимизированных по дополняющим запросам. Если на сайте имеются страницы по дополняющим запросам из Wordstat. yandex.ru, у «Яндекса» есть повод полагать, что ресурс стремится обеспечить хорошие показатели поведенческих факторов, например длительное пребывание на сайте, большое количество просмотренных страниц и т. д.

Дополняющие запросы рекомендуется брать из «Статистики слов», а именно из колонки «Что еще искали люди». Эти слова являют собой переформулировки исходного запроса, сделанные после того, как пользователь просмотрел сайт и вернулся на страницу поисковой выдачи. Именно по частотности перефразирования они сортируются в вышеупомянутой колонке.

 

Как повлиять на поведенческие факторы

Владея информацией об основных поведенческих факторах, которые принимает в расчет «Яндекс», можно добиться положительной динамики в поведении пользователей. Что можно сделать, чтобы посетители ресурса выказывали ему больший пиетет?

Во — первых, добиваться привлекательности сниппета. Даже неудачно составленный поисковиком сниппет, в основу которого лег отрывок текста страницы, можно подкорректировать, и после следующей индексации он будет выглядеть совсем иначе.

Во — вторых, правильно определять посадочную страницу. Она должна целиком и полностью отвечать на поисковый запрос и быть релевантной ему на все сто.

В — третьих, составить кластер страниц по дополняющим запросам.

В — четвертых, поработать над качеством дизайна и юзабилити сайта. По — настоящему интересный, привлекательный и интуитивно понятный ресурс вряд ли оттолкнет посетителя.

В — пятых, если нет возможности быстро исправить огрехи, а ситуация с поведенческими факторами оставляет желать лучшего (показатель отказов выше 40 %, менее 2,5 просмотра за среднюю сессию), нужно просто убрать с сайта счетчик «Яндекс. Метрика». Тогда

«Яндекс» перестанет нести круглосуточный дозор и можно будет воспользоваться «передышкой», чтобы привести дела в порядок.

Задача поисковой системы – показывать пользователям только качественные ресурсы. Чтобы понять, что привлекает, а что отталкивает человека от сайта, производится тщательный анализ его поведения. Данные о поведенческих факторах учитываются в общей формуле ранжирования. И очевидно, что если прилагать усилия к созданию хорошей площадки, то не придется опасаться потери аудитории и утраты лояльности со стороны поисковика.

 

Оптимизация сниппетов

 

Сниппет играет далеко не последнюю роль в привлечении целевой аудитории на площадку. К сожалению, многие оптимизаторы и владельцы сайтов недооценивают его значение. Между тем кликабельность сниппета относится к поведенческим факторам, которые, как известно, влияют на ранжирование ресурса в поисковой выдаче.

 

Роль сниппета в ранжировании

Сниппет представляет собой небольшое текстовое описание рядом со ссылкой на странице поисковой выдачи, релевантное поисковому запросу. Внятно составленный, а возможно, даже интригующий сниппет побуждает пользователя щелкнуть на ссылке в SERP. Чем информативнее и понятнее данный элемент пользователю, тем выше вероятность того, что благодаря сниппету будет совершен переход на сайт. Качественный сниппет не только порождает рост посещаемости площадки, но и влияет на ее позиции в топе, так как кликабельность сниппета – поведенческий фактор, каковые поисковая машина учитывает при ранжировании ресурса.

В прошлом, когда поисковая выдача строилась без жесткого вмешательства «Яндекса», владельцы ресурсов в полной мере могли влиять на вид сниппета: в тег description помещалось описание, транслировавшееся в сниппет. Однако из — за множества нарушений «Яндексу» пришлось принять меры и ограничить права веб — мастеров.

Сейчас сниппет генерируется автоматически, причем поисковик сам решает, из какого источника брать текстовую информацию, релевантную тому или иному поисковому запросу. Например, Google ориентируется на описание в теге description, что упрощает задачу владельцу ресурса и позволяет ему управлять формированием сниппета. «Яндекс» относится к этому блоку гораздо строже и обращается с ним менее предсказуемо: в сниппет может быть помещен отрезок текста из контента страницы или, к примеру, описание из «Яндекс. Каталога». Заголовок сниппета вычленяется из тега itle страницы.

Строение сниппета

Сниппет включает следующие части:

• заголовок — ссылку;

• краткое (две — три строки) описание;

• URL главной и релевантной страниц.

Кроме перечисленного минимального набора данных, в сниппет может войти и другая информация.

• Фавикон. Небольшой графический элемент, который виден в строке браузера при загрузке сайта. В сниппете он размещается слева от заголовка. Наличие фавикона приветствуется поисковиками, поэтому не стоит пренебрегать им, и это особенно касается коммерческих проектов. Большим плюсом будет отображение в фавиконе логотипа компании. Добиться появления этой картинки размером 16 х 16 пикселов в строке браузера и в сниппете можно следующим образом: создать в графическом редакторе файл favicon.ico, поместить его в корневую папку сайта и дополнительно в код всех страниц сайта вставить строку link rel="icon" href="/favicon.ico".

• Контактные данные организации. Адрес со ссылкой на «Яндекс. Карты», телефон и

другие данные, которые располагаются в нижней части сниппета под основным описанием.

Все эти параметры размещаются в справочнике организаций «Яндекса» и прописываются в соответствующем разделе сервиса «Яндекс. Вебмастер».

• Регион. Указывается в сниппете справа от URL. Необходим для ориентации пользователей и общего продвижения ресурса. Задается в сервисе «Яндекс. Вебмастер».

• «Быстрые» ссылки. Иногда в сниппете под заголовком отображаются ссылки на основные разделы сайта. Важно знать, что размещение «быстрых» ссылок допускается не для всех сниппетов в выдаче, а лишь для лидеров топа, стоящих на первых трех — четырех позициях. Чтобы «быстрые» ссылки появились в сниппете, нужно выполнить пару рекомендаций:

– разместить ссылки на разделы на главной странице сайта;

– анкор ссылки сделать максимально коротким (одно — два слова), эти же слова продублировать в заголовке h1 и теге itle релевантной страницы.

• Передача дополнительной информации о содержимом сайта. Осуществляется с помощью сервиса «Яндекс. Вебмастер». Отличная возможность более точно выразить тематическую направленность ресурса и донести важную информацию до «Яндекса». Поисковик размещает их как в сниппете, так и других сервисах и виджетах. Например, для пользователя будет крайне полезно, если по коммерческому НЧ — запросу «купить пылесос homas win t1 aquafilter» в сниппете напротив заголовка он сразу увидит цену искомого товара на сайте. Полный список тематик для передачи данных «Яндексу» находится на странице h p:// content.webmaster.yandex.ru.

 

Работа над качеством сниппета

Хотя сложно диктовать «Яндексу», какое описание в сниппете по тому или иному ключевому запросу должно появляться в поисковой выдаче, косвенно повлиять на это все же можно. Описание для сниппета заимствуется поисковиком из контента страниц и описания ресурса в «Яндекс. Каталоге», следовательно, в первую очередь необходимо поработать именно над этими источниками.

Во — первых, качественный оптимизированный контент на странице косвенно сделает сформированный на его основе сниппет привлекательным для пользователей.

Во — вторых, информативный, лаконичный и понятный пользователю текст в описании сайта для «Яндекс. Каталога» может стать основой для успешного и привлекательного сниппета.

В — третьих, для каждого ключевого запроса и релевантной страницы составляется отдельный сниппет. Необходимо время от времени проверять выдачу и просматривать сниппеты по всем продвигаемым запросам.

 

Продвижение в «Яндекс. Картинках»

 

Зацикливаясь на позициях в топе, оптимизаторы зачастую упускают из виду возможность привлечь к продвижению дополнительную артиллерию. Как известно, пользователи поисковиков переходят на площадки не только из сниппетов со ссылками, но и из других блоков SERP, например с картинок.

Иллюстрации, размещенные на сайте, при правильной оптимизации могут появляться в выдаче по ключевым запросам и обеспечить приток трафика. «Яндекс» в ответ на запрос помещает на первую страницу с результатами поиска релевантные изображения из своего сервиса «Яндекс. Картинки». Располагаются они либо в верхней части страницы над основной выдачей, либо в середине SERP. В любом случае они привлекают внимание пользователей. А то простое обстоятельство, что конкуренция в выдаче по картинкам не слишком остра, открывает массу возможностей перед владельцем сайта.

В продвижении в «Яндекс. Картинках» есть и недостатки: во — первых, отсутствие статистики по частотности, что затрудняет прогнозирование трафика, а во — вторых, не совсем удобная реализация перехода с картинки на сайт, где та размещена. Но по большому счету на оба минуса можно закрыть глаза, так как продвижение через эту службу подчас демонстрирует прекрасные результаты.

 

Руководство к действию

Для того чтобы использовать картинки в продвижении, необходимо провести ряд работ на самом сайте.

1. Составление макета страницы. Страница должна быть структурирована так, чтобы картинки и окружающий текст гармонично вписывались в нее. Желательно разместить несколько изображений на одной странице для более подробного представления товара. И соблюсти ряд технических условий.

• Окружающий картинку текст необходимо поместить в тот же самый div или

p, где находится она сама. Требования к тексту: уникальный, со вхождением ключевого

запроса.

• В адрес страницы нужно внести ключевое слово в точном переводе на английский. Например, у страницы, посвященной массажной подушке Beurer, линк должен выглядеть следующим образом: www.site.ru/massagers/beurer — massagecushion — photo.html.

• В теге itle на страницах необходимо вхождение ключевого запроса и слова «фото» или «фотография».

2. Подготовка картинок.

• Не стоит использовать чужие картинки, так как «Яндекс» способен их распознать и идентифицировать как дубликаты, даже если они были обработаны в графическом редакторе.

• Картинки должны быть представлены в высоком разрешении, но вместе с тем обладать малым весом.

• Приветствуется размещение на картинках «водяного знака» (watermark) с логотипом компании. Он должен быть аккуратным и не закрывать основную часть изображения. Для привлечения большего внимания к представленному на фото товару можно указывать на самой картинке его стоимость.

• Формат для сохранения картинки – JPG или GIF.

• Имя графического файла должно включать точный перевод ключевого слова на английский. Например, для запроса «массажная подушка beurer фото» название файла должно выглядеть следующим образом: massagecushion — beurerBR — 350.jpg.

• Картинки нужно разместить в папке, которая соответствует товарной группе, например /massagers.

3. Размещение картинок на странице.

• Вывод картинки правильнее реализовать с помощью HTML. Технология типа JavaScrip будет препятствовать индексации графики поисковиками.

• Прописывая HTML — код для вставки картинки, нужно обратить внимание на следующую особенность: в теги al и title требуется внести соответствующее текстовое описание. Оно служит для поисковика отправной точкой, по которой он определяет релевантность запросу. Пример кода:

(img alt="фото массажной подушки Beurer BR — 350" itle="Beurer BR — 350 фотография массажной подушки" border="0" src="h p:// www.site.ru/massagers/massagecushion — beurerBR — 350.jpg"/).

4. Систематическое добавление новых картинок. Обновление контента, включая

графический, повышает лояльность поисковиков к сайту и положительно влияет на его ранжирование.

5. Приобретение внешних ссылок. Рекомендуется купить недорогие ссылки в количестве не более двух с нужными анкорами (например, «фото массажной подушки Beurer»), ведущие как на страницу с продвигаемыми картинками, так и на сами картинки.

6. Распространение картинок на сторонних ресурсах. После того как картинки на сайте проиндексированы поисковиком и определены как первоисточник, можно использовать их в качестве вспомогательного инструмента для повышение траста со стороны «Яндекса».

Размещение картинки на большом количестве ресурсов говорит о ее популярности и дает поисковику повод полагать, что такое изображение достойно считаться авторитетным и ранжироваться выше. Можно «расклеить» картинки на других сайтах самостоятельно или позволить сделать это другим пользователям. При копировании изображения желательно не изменять имя файла, но стоит уменьшить его размер.

Эти меры вносят лепту в продвижение сайта, и не такую уж малую. При правильном выполнении всех рекомендаций довольно высок шанс добиться появления картинок с сайта в блоке «Яндекс. Картинки» на первых позициях и получить приятный бонус в виде дополнительного трафика.

 

Продвижение через поисковые подсказки

 

Технология поисковых подсказок впервые была внедрена поисковой системой Google. Впоследствии ее взял на вооружение и лидер поиска Рунета – «Яндекс». С 2008 года подсказки стали общедоступны в строке поиска «Яндекса», до того в течение года проводилось их тестирование на пользователях «Яндекс. Бара».

 

Формирование поисковых подсказок

Поисковые подсказки в «Яндексе» возникают в раскрывающемся списке при начале ввода запроса в строку поиска. В перечне до десяти строк все фразы начинаются с тех букв, которые пользователь успел написать, но заканчиваются по — разному. Например, набрав «оте», среди поисковых подсказок во второй строке мы увидели запрос «отечественная война 1812 года», в третьей – «отели турции». Поисковые подсказки – это наиболее популярные запросы. Такая «предупредительность» со стороны «Яндекса» удобна: если пользователю нужно то, что искали до него тысячи других, ему не придется набирать фразу целиком – достаточно кликнуть на ней в списке.

Поисковые подсказки «Яндекса» формируются по сложным алгоритмам, проходя десятки фильтров. В конечном счете остаются самые актуальные и наиболее популярные в последнее время. Список подсказок обновляется ежедневно, утрачивающие актуальность удаляются из него. На случай громких новостей и событий, о которых в короткий отрезок времени спрашивает огромное количество пользователей, существуют «быстрые» подсказки, их список пересматривается раз в полчаса.

Поисковые подсказки геозависимы. В ответ на запрос «куда сходить» находящемуся в московском регионе выдачи будут даны подсказки, ориентированные на жизнь в столице: «куда сходить в москве», «куда сходить в москве сегодня», «куда сходить с ребенком в москве» и т. д.

Не всегда наиболее часто задаваемый запрос (по общей статистике Wordstat. yandex.ru) находится вверху списка поисковых подсказок. Так, запрос «отели турции» имеет 300 тыс. показов в месяц, а «отечественная война 1812 года» – лишь 25 – 28 тыс. Но в сентябре 2012 года в связи с празднованием двухсотлетия победы России в войне 1812 года произошел всплеск интереса ко второму запросу, и «Яндекс» начал предлагать его в качестве завершения поисковой фразы хоть не в первую, но во вторую очередь.

 

Как попасть в поисковые подсказки

Чтобы выбиться в лидеры поисковых подсказок, нужно поднимать частоту запроса и поддерживать его актуальность. Для коммерческого проекта приоритетно продвижение его бренда, а значит, увеличение популярности и узнаваемости среди аудитории. Например, при наборе в строке поиска «магазин игрушек» в списке подсказок появляются магазины с конкретными названиями. Невольно пользователь понимает, что раз торговая площадка оказалась в списке часто запрашиваемых и, следовательно, популярных, то заслуживает большего доверия и не будет ошибкой перейти на нее.

Таким образом, попадание сайта компании в поисковые подсказки способствует увеличению трафика и повышению уровня лояльности посетителей. «Пролезть» туда коммерческому проекту естественным путем практически невозможно, если только он не лидер отрасли. Небольшим сайтам приходится «пробиваться локтями» и бороться за то, чтобы быть рекомендованными «Яндексом». Следует подчеркнуть, что крайние меры, такие как многократное введение запроса в строке поиска одним и тем же человеком, не приведут к росту частотности и актуальности запроса. Наоборот, поисковик распознает накрутку с одного IP — адреса и пресечет эти действия.

Для достижения результата нужно приложить гораздо большие усилия и прибегнуть к помощи других пользователей. Сделать это можно двумя способами.

1. Участие реальных пользователей. Предполагается, что нужно найти определенное количество людей, которые за вознаграждение будут вводить желаемые поисковые запросы. Такой метод требует навыков работы с фрилансерами и умения контролировать ход выполнения задачи. Другой вариант – обратиться за услугой в SMM — агентство. Но во втором случае, разумеется, и заплатить придется больше.

2. Привлечение высоких технологий. Если по какой — либо причине нет возможности прибегнуть к ручному труду наемных пользователей, можно подключить к делу программу, которая посредством скриптов запустит генерацию запросов с различных IP — адресов. Не каждый владелец сайта сумеет провернуть такой финт лично, но, как и любую другую, эту услугу можно заказать у специалиста.

 

Быть или не быть

С одной стороны, продвижение в поисковых подсказках сулит очевидные преимущества владельцу проекта, с другой – чревато негативными последствиями. Так или иначе, оно осуществляется искусственно, а это само по себе противоречит правилам поисковых систем. Кроме того, под вопросом и этичность метода. Многие владельцы сайтов ратуют за естественный ход продвижения, и форсированное попадание конкурентов в подсказки вызывает у них злость и заставляет их иногда принимать контрмеры.

Еще один минус метода – его ненадежность. «Яндекс» знает о таких накрутках, и вычислить ресурсы, попавшие в подсказки неестественным путем, ему не составляет труда. Более того, необходимо постоянно поддерживать актуальность запроса, и нужно иметь большой пул IP — адресов или регулярно нанимать разных пользователей, что абсолютно нецелесообразно, если цель мероприятия – лишь появиться в поисковых подсказках.

Таким образом, продвижение в подсказках дорого и не совсем надежно. Прибегнув к данному методу, положительного эффекта добиться можно, но на непродолжительный срок.

 

Выбор домена и хостинга

 

Домен для сайта – все равно что имя для компании. Образно говоря, он кодирует ДНК проекта, во многих аспектах предопределяя его будущее. Также необходима площадка, на которой будет храниться ресурс. Услугу по размещению данных, а именно файлов сайта, на дисковом пространстве мощных серверов называют хостингом.

Чтобы зарегистрировать домен и арендовать хостинг, не требуются глубокие технические знания. Современные регистраторы доменов и хостинг — провайдеры предельно упрощают процедуру приобретения и продления домена, размещения, а при необходимости и переноса файлов сайта с одного хостинга на другой. Под каждое действие они составляют подробные дотошные инструкции.

Выбор домена и его последующая регистрация зачастую вызывают трудности у тех, кто сталкивается с такой необходимостью впервые. Подыскать удачное имя для проекта – задача нетривиальная, но ее решение упрощают несколько советов.

 

Регистрация домена

В первую очередь необходимо определиться с доменной зоной. Если проект задуман для работы в Рунете, предпочтительно сделать выбор в пользу. ru. Домены типа. su, info, org также распространены, но в большей степени среди некоммерческих сайтов.

Регистрация подходящего доменного имени может развиваться по трем сценариям.

1. Присвоение свободного домена. Самый удачный вариант, когда по счастливой случайности имя еще никем не занято. Такое возможно, если домен дублирует уникальное, никем не используемое название компании, бренда или товара. Если желаемое доменное имя кто — то «застолбил» раньше вас, попробуйте обыграть исходное написание: использовать аббревиатуру или сокращенный вариант наименования, добавить тематическую приставку, дефис и т. д.

2. Попытка выкупа занятого домена. Перво — наперво нужно связаться с владельцем интересующего вас домена. Цена вопроса зависит от продавца. В расчете на выгодную сделку захватчики доменов (киберсквоттеры) регистрируют перспективные имена, стоимость которых бывает ошеломляющей. Самую высокую цену в истории продажи доменов заплатила компания Nations Luxury ransportation за домен PrivateJet.com. Сейчас она владеет самым дорогим адресом во Всемирной паутине, стоимостью $30,18 млн.

При попытке приобрести занятый кем — то домен следует учитывать один важный нюанс. Согласно российскому законодательству, зарегистрированная торговая марка имеет преимущество перед доменным именем. А значит, владельцу прав на нее по силам отвоевать совпадающий с нею в написании домен в судебном порядке.

3. Участие в аукционе доменов. Это другой способ приобрести подходящий вам, но занятый домен. Среди множества выставленных на торги имен есть шанс найти достойное по привлекательной цене. Аукционам, как правило, отводят отдельный раздел на своих сайтах регистраторы доменов (см. Nic.ru, Mastername.ru, R01.ru).

Как видно из примеров, наиболее приемлемо и малозатратно зарегистрировать новый, рожденный в ходе мозгового штурма домен. Официальные регистраторы, например Nic.ru, предлагают воспользоваться специальным вспомогательным сервисом подбора доменных имен.

Универсальных критериев в выборе имени нет, но короткие и звучные домены легче запоминаются. Учитывать следует в равной мере написание и произношение названия. Наилучший вариант – «как слышится, так и пишется». В таком случае, если вы продиктуете название сайта своему собеседнику, тот не ошибется, вбивая его в адресную строку браузера. Сверхзадача и высший пилотаж – отразить в названии сайта его тематику.

Наконец, определившись с выбором имени и приступив к регистрации, нужно учесть следующие моменты.

1. При оформлении домена на частное лицо официальные регистраторы требуют предъявить паспортные данные. Не пытайтесь выступать под псевдонимом или использовать чужие документы. Это будет чревато проблемами с переносом домена.

2. Для компании домен регистрируется на юридическое лицо.

3. Домен может регистрироваться непосредственно у хостинг — провайдера. В таком случае он сразу размещается на площадке. Прибегнув к услугам регистратора доменов, владелец имени получает доступ к NS — записям (name server), что позволяет управлять его размещением на любом хостинге, равно как и переносом домена с одной хостинг — площадки на другую.

 

Выбор хостинга

Хостинги различаются между собой ценой обслуживания, качеством и количеством оказываемых услуг. Бесплатные для серьезного коммерческого ресурса не годятся. Надежность и бесперебойность в работе – первое, на что необходимо обратить внимание при выборе хостинг — провайдера. Крупные компании заслуживают большего доверия, но нелишним будет почитать отзывы об их работе в Сети.

Делятся хостинги на несколько типов.

1. Виртуальный. На одном сервере запущено одновременно большое количество сайтов. Главная особенность виртуального хостинга заключается в том, что он не обеспечивает устойчивости при очень высоких нагрузках. При превышении максимально допустимого количества запросов к сайту, размещенному на виртуальном хостинге, его работа замедлится. В худшем случае ресурс «падает».

Устроить сайту искусственную встряску и проверить его «выносливость» в отношении нагрузок позволяют специальные сервисы, например Loadimpact.com или Loadstorm.com.

Такие тесты помогают решить, достаточно ли мощностей виртуального хостинга для стабильной работы сайта, или же требуется подыскать для него более «прочную» платформу.

2. Виртуальный выделенный сервер (VDS). По производительности на ступеньку выше виртуального хостинга. Отличается способностью принимать большее количество посетителей. На сервере размещаются не тысячи, а лишь десятки ресурсов. К плюсам VDS относятся оптимальная стоимость услуг и наличие выделенной площадки с доступом ко всем настройкам и программному обеспечению.

3. Выделенный сервер (dedicated). В пользование клиенту предоставляется отдельный мощный компьютер, который физически размещается в дата — центре хостера. Арендовать такой хостинг целесообразно крупным компаниям, имеющим серьезные проекты, незаменим он и когда сайт ежедневно претерпевает наплыв трафика, исчисляемый сотнями тысяч посетителей. При необходимости провайдер дает возможность вместо его сервера установить принадлежащий клиенту. Эта услуга носит название колокейшн (colocation).

4. «Облачный» (кластерный) хостинг. Оптимальное решение для средних и достаточно крупных проектов с переменной нагрузкой на сервер. Особенность «облачного» хостинга в том, что он может обеспечить бесперебойную работу сайта даже при резком увеличении аудитории, причем владелец площадки платит только за потребляемую процессорную мощность. Решение подходит ресурсам, для которых характерна периодически возрастающая активность посетителей.

 

Правила переноса сайта на другой хостинг

Каждый серьезный хостинг — провайдер предоставляет пользователям подробные рекомендации по переносу сайта на свою площадку. Отсутствие каких бы то ни было инструкций ставит под вопрос качество хостинга. Стандартная схема переноса сайта и домена состоит из следующих этапов.

1. Создается резервная копия всех файлов сайта и базы данных.

2. В аккаунт на новом хостинге копируются директории и файлы сайта. При необходимости создается база данных.

3. Проверяется работоспособность всех систем сайта.

4. Создаются ящики электронной почты на сервере нового хостера.

5. Вносятся изменения в NS — записи через панель управления регистратора (если домен регистрировался через него), или отправляется запрос на изменение записей в техподдержку хостинг — провайдера (если домен регистрировался через хостера).

6. Выполняется контрольная проверка работы сайта с акцентом на правильной отправке сообщений (путем заполнения формы на сайте, оформления товара через «Корзину» и т. д.) и корректной загрузке файлов. Также необходимо протестировать работу доменов третьего уровня и ниже при наличии таковых.

7. Делается резервная копия сайта с нового хостинга.

Подводя итоги, отметим, что основная работа по переносу сайта заключается в замене прежних NS — записей новыми, а также в сохранении контроля над управлением доменом после отключения аккаунта у старого хостинг — провайдера.

 

Проверка уникальности контента методом шинглов

 

Уникальный, качественный, ласкающий глаз и не взрывающий мозг контент – краеугольный камень SEO — продвижения. Контент должен быть представлен либо авторскими текстами, либо рерайтом, сделанным с чувством, с толком, с расстановкой. Обмануть поисковую машину и всучить ей чужой текст, перекроенный с помощью синонимайзера, вряд ли удастся, поскольку посредством специальных алгоритмов она умеет распознавать такую подмену.

Знание того, каким образом работают алгоритмы, проверяющие тексты на уникальность, полезно тем, кто занимается текстовым наполнением сайтов. Предупрежден – значит вооружен.

 

Метод шинглов

Ежедневно поисковый робот индексирует многие миллионы документов. Если бы для обнаружения дублей поисковой машине требовалось сопоставить между собой все существующие документы (каждый с каждым), ей пришлось бы произвести миллиарды миллиардов операций. Будь даже полнотекстовое сравнение одного документа со всеми прочими доступно, оно оказалось бы малоэффективным. Небольшая перестановка слов, знаков, предложений в тексте при сопоставлении с идентичным ему в остальном документе исключала бы совпадение.

На помощь поисковой машине были привлечены математика и лингвистика. Для сравнения огромного количества документов в базе поисковика применяется так называемый метод шинглов. Он крайне трудоемок, но современные компьютеры с ним справляются. Детально концепцию описывает опубликованная в апреле 1997 года статья «Синтаксическая кластеризация в Сети» (Syntactic clustering of he Web) авторства А. Бродера, С. Глассмана, М. Манассе и Г. Цвейга, которая вошла в сборник трудов Шестой международной конференции World Wide Web.

 

Алгоритм поиска дубликатов

В переводе с английского shingle означает «гонт». Яснее не стало? Гонт – это кровельный материал, а точнее, небольшие дощечки с пазами и выступами, которые собираются в один лист. Применительно к поисковым системам шинглы – это алгоритм для поиска дубликатов путем вычисления и сопоставления контрольных сумм выборки канонизированных (см. значение термина ниже) словосочетаний длиной от одной до десяти (приблизительно) единиц. Работает это следующим образом.

1. Все слова в тексте приводятся к исходным словоформам, стоп — слова (предлоги, союзы, частицы, знаки препинания и другие незначимые и не несущие смысловой нагрузки элементы) удаляются. Это называется канонизацией текста. Таким образом получается исходник для вычисления шинглов. Более жесткая канонизация может учитывать синонимы и, например, исходное слово «недомогать» заменять на «болеть». Это помогает выявлять тексты, где лишь некоторые исходные слова заменены близкими по смыслу

2. Канонизированный текст делится на фразы длиной от трех до десяти (примерно) слов. Разбивка осуществляется или встык, или внахлест, когда в последующую фразу включено одно или несколько последних слов из предыдущей. Малейшее изменение канонизированного текста – и возникают совсем другие шинглы. Чтобы конструкция не разрушилась как карточный домик, в тексте нужно задать четкие, но малоочевидные точки отсчета для членения на шинглы. В качестве примера приведем схожий алгоритм «Яндекса» под названием «Спамооборона», где устанавливаются границы, цитата: «от буквы “ю” до буквы “ю”; или от двухбуквия, сумма численных значений символов (букв) которого кратна 50, до следующего такого же».

3. Далее для каждого шингла вычисляется контрольная сумма (точнее, применяется хэш — функция). Проще говоря, последовательность слов превращается в последовательность цифр.

4. Затем формируется выборка шинглов, вернее, контрольных сумм и непосредственно сравнение и анализ документов. Из всех полученных контрольных сумм отбирается несколько десятков значений. Производится это путем случайной выборки, к примеру, 70 математических функций из заблаговременно составленного реестра, каждая из которых может описывать интересный для целей data mining параметр: пересечение, вложенность и т. д. Все шинглы документа пропускаются через каждое из 70 выражений, что дает на выходе значения, атрибутируемые тому или иному шинглу. Для каждой из 70 функций выбирается шингл с минимальным (возможны и иные критерии) значением контрольной суммы. В результате на базе анализируемого документа составляется сигнатура из 70 значений контрольных сумм. При сравнении с другим документом, который подвергся такой же операции, берутся шинглы, отобранные по совпадающим функциям. К примеру, если при отборе шинглов в обоих случаях было использовано 25 одинаковых функций из 70, то сравнение выполняется по 25 соответствующим контрольным суммам.

5. В результате анализа, если обнаружена высокая доля совпадения контрольных сумм двух документов, делается вывод о том, являются ли эти документы четкими (контент полностью совпадает) или нечеткими (контент претерпел некоторые изменения) дубликатами.

Конечно, алгоритм мы продемонстрировали лишь в общих чертах, чтобы дать представление о принципе поиска дубликатов методом шинглов.

Поисковики используют и другие сложные методы проверки текстов на уникальность. Среди них – статистический анализ частотности слов с использованием распределения Ципфа для поиска аномалий, наложение длинных пассажей (более длинных, чем шинглы, отрывков текста) для поиска совпадений в документах, которые подверглись ручному рерайту с разрушением шинглов, и другие методы.

Таким образом, избежать санкций поисковиков за использование чужого контента можно, лишь создавая оригинальный контент – самостоятельно ли, с привлечением ли копирайтера или рерайтера, способного качественно преобразовать заимствованный текст.

 

Семантическая разметка страниц

 

Индексируя страницы сайта, поисковый робот первым делом извлекает из них информацию. Чем более че\тко и организованно она подана «посланцу» Google или «Яндекса», тем быстрее и точнее он решит эту задачу.

На быстроту и корректность сбора данных для индексации влияет так называемая семантическая разметка страницы. Такое форматирование веб — документа призвано преподнести контент поисковику в предельно понятном, «съедобном» виде. Страница без семантической разметки будет так или иначе интерпретирована роботом, но ему придется самостоятельно структурировать извлеченную из нее информацию. А поскольку алгоритмы поисковых систем неидеальны, при отсутствии помощи со стороны сайтовладельца им не всегда удается безошибочно трактовать материалы и обеспечивать безупречный поиск по ключевым запросам.

Зато благодаря «семантической паутине», охватывающей все больше интернет — площадок, поисковики оказываются в состоянии давать пользователям точно и внятно сформулированные ответы на их запросы.

 

Микроформаты и микроданные

Семантическая разметка страницы осуществляется по специальным стандартам. Исторически сложилось так, что два гиганта поиска – Google и «Яндекс» изначально придерживались каждый своего формата. Разработчики из корпораций Google, Yahoo! и Microsof создали проект под названием Schema.org. Он основан на разметке с помощью тегов microdata («микроданные»). «Яндекс» присоединился к инициативе западных коллег осенью 2011 года, а до того начал продвигать в массы другую методологию – «микроформаты» (h p://microformats.org/wiki).

Очевидным образом веб — мастеров мягко подталкивают к тому, чтобы они прибегали к семантической разметке страниц. Администраторам сайтов в Рунете ради повышения привлекательности сайта для «Яндекса» и Google нужно учитывать оба формата и составлять две версии семантического описания контента.

Вот пример описания продукта с применением формата microdata:

(div itemscope itemtype="http://schema.org/Product")

(span itemprop="name")Микроволновая печь Samsung MW73VR(/span)

(img src="samsung — microwave — mw73vr.jpg" alt='Микроволновая печь Samsung MW73VR' />

(div itemprop="aggregateRating" itemscope itemprop="h p://schema.org/AggregateRating">

Средняя оценка покупателей (span itemprop="ratingValue">4(/ span>

на основе (span itemprop="reviewCount">11(/span>отзывов(/div>

(div itemprop="offers" itemscope itemtype="h p://schema.org/ Offer">

(span itemprop="price">2630 р.(/span>

(link itemprop="availability" href="h p://schema.org/ InStock" />В наличии

(/div>

(span itemprop="description">Отдельностоящая микроволновая печь объемом 20 л и мощностью 800 Вт(/span>

(div itemprop="reviews" itemscope itemtype="h p://schema.org/ Review">

(span itemprop="name">Отличная печка(/span> – от (span itemprop="author">Иван(/span>,

(meta itemprop="publishDate" content="2012 — 04 — 01">1 апреля 2012

(div itemprop="reviewRating" itemscope itemtype="h p:// schema.org/Rating">

(meta itemprop="worstRating" content = "1">

(span itemprop="ratingValue">4(/span>/

(span itemprop="bestRating">5(/span>stars

(/div>

(span itemprop="description">Легко чистить(/span>

(/div>

(/div>

Формат microformats hProduc «Яндекса» на текущий момент используется поисковиком для описания автомобилей в программе «Отзывы по автомобилям». Пример разметки микроформатами приведен на странице помощи в сервисе «Яндекс. Вебмастер» (h p:// help.yandex.ru/webmaster/?id=1113265).

Насколько верна семантическая разметка с использованием микроформатов на вашем сайте, легко проверить соответствующим валидатором в «Яндекс. Вебмастере» (h p:// webmaster.yandex.ru/microtest.xml).

 

CMS с поддержкой микроформатов

Для работы с большим количеством страниц рациональнее обеспечить семантическую разметку инструментами CMS. Среди готовых решений, которые поддерживают микроформаты, – Drupal, Wordpress, Movable ype. Под «самописную» CMS придется создавать специальный модуль со сходной функциональностью.

Важно помнить, что предназначение семантической разметки – помочь поисковику проанализировать и структурировать созданный для посетителя и видимый ему контент. Любое отклонение от курса (например, попытка упорядочить скрытый текст и другие сомнительные элементы) может быть расценено как нарушения правил поисковой системы и грозит наложением санкций на ресурс вплоть до «пессимизации».

Семантическая разметка – это мало того, что большой шаг к улучшению результатов поиска, но и средство, делающее прозрачнее отношения между сайтами и поисковыми системами. А значит, процедура в равной мере коммерчески и «гигиенически» значимая.

 

Трафиковое продвижение

 

В действиях оптимизатора главный вектор – вывод проекта в топ. Но по достижении желаемых позиций очень важно закрепиться на них и обеспечить сайту прочное положение в выдаче. Удерживать занятые высоты и противостоять конкурентам в «Топ — 10» по средне– и высокочастотным запросам достаточно сложно. А значит, необходимы средства, которые помогут наладить неослабевающий приток целевых посетителей на сайт, если стандартных методов SEO окажется недостаточно.

На сегодняшний день в системе SeoPul реализованы два способа такой подстраховочной стабилизации. Первый – подключение синхронизированной кампании контекстной рекламы. Второй – трафиковое продвижение. О нем мы и поговорим.

 

Что это такое

Название метода говорит само за себя: его целью являются не позиции в топе, а сам трафик, или поток целевых посетителей. Иначе говоря, не качественный показатель продвижения, а количественный. При запуске SEO — кампании SeoPul прогнозирует посещаемость для каждого ключевого слова, но это лишь приблизительные величины. В случае с трафиковым продвижением количество посетителей известно заранее. Через какое — то время после запуска такой кампании можно провести анализ посещаемости и вычислить коэффициент конверсии. В итоге владелец площадки имеет на руках данные о том, какое количество посетителей ему требуется привлечь, чтобы обеспечить определенный уровень продаж. Чтобы

«добыть» необходимое количество посетителей в SeoPult, достаточно пары кликов.

Технология трафикового продвижения – это три пункта:

• составление большого семантического ядра из тысяч ключевых запросов;

• создание тысяч целевых страниц с контентом, оптимизированным под эти ключевики;

• много дешевых ссылок.

Преимущества трафикового продвижения:

• дешевый целевой трафик;

• устойчивость к смене алгоритмов поисковых систем (например, что видимость сайта по НЧ — запросам достаточно стабильна при смене алгоритмов «Яндекса» и не опускается ниже 65 %);

• быстрый вывод сайта в топ;

• возможность более гибко управлять бюджетом.

Наряду с перечисленными преимуществами существует лишь один недостаток – огромная трудоемкость процесса. Подбор запросов и контроль продвижения тысяч страниц не по плечу одному человеку. Трафиковый модуль SeoPul как раз таки автоматизирует эти многочисленные рутинные операции.

 

Принцип работы трафикового модуля

В автоматизированном привлечении трафика задействуются следующие инструменты: подборщик слов для семантического ядра, система внутренней оптимизации, специальные каскады фильтров для закупки и съема ссылок с учетом сбора трафика, аналитический модуль коррекции параметров с обратной связью. Рассмотрим каждый из них детально.

1. Подборщик семантического ядра для трафикового продвижения SeoPul сканирует страницы сайта с целью определения их тематики. В систему заложены оптимальные списки НЧ– и СЧ — запросов по каждой тематике. Нужные слова группируются в семантическое ядро и проходят оценку важности по специальному алгоритму. Ядро анализируется: прогнозируется количество переходов и частотность, выполняется проверка геозависимости и просчет необходимого бюджета. Если спрогнозированного количества посетителей мало, семантическое ядро пополняется с помощью стандартного подборщика слов SeoPult. Наиболее важные среднечастотные запросы «усиливаются» связанными с ними низкочастотными.

Далее применяется один из простых или интеллектуальных фильтров для оптимизации семантического ядра.

• Параметровые фильтры задают стоимость посетителя, количество переходов, бюджет слова, допускают фильтрацию по части слова. Например, можно ограничить стоимость привлечения, указав необходимую сумму из расчета на одного посетителя. Таким образом, в семантическом ядре останутся только те слова, которые отвечают такому условию.

• Интеллектуальные фильтры позволяют привлечь максимально возможное количество посетителей при указанном размере бюджета или же фиксированное количество посетителей с минимально допустимым бюджетом.

• Ручные фильтры служат для визуальной оценки семантического ядра и использования стоп — слов. Эти фильтры не обязательные. а скорее дополнительные, применимые в том случае, если пользователь желает самостоятельно проверить ядро и убрать из него неподходящие, на его взгляд, запросы.

2. Внутренняя оптимизация. Напомним, что для трафикового продвижения необходимо наличие на сайте тысяч страниц с контентом, оптимизированных под все запросы из семантического ядра. Анализируя страницы на предмет внутренней оптимизации, система сообщает о слабых местах и дает рекомендации по устранению ошибок. Кроме того, для более тщательного и глубокого «зондирования» существует услуга «Персональный менеджер». Специалист по внутренней оптимизации составит подробный план доработки страниц. Например, если вопрос касается карточек товаров, то менеджер посоветует ряд инструментов, которые помогут с наименьшими потерями для качества страниц составить техническое описание продуктов. Специалист также проверит, например, корректность тегов itle, подскажет, как исключить из индекса дубли страниц, и даст много других полезных советов.

3. Работа с внешними факторами. Модуль закупки и съема ссылок выполняет следующие действия:

1) к каждому запросу из семантического ядра подбирается релевантная ему страница на сайте. Чем больше запросов участвует в продвижении одной страницы, тем хуже результат. В трафиковом продвижении необходимо соблюдать нехитрое правило: большое количество запросов – сопоставимое число страниц;

2) далее выполняется заключительная проверка на конкурентность запросов. Акцент делается на трафиковом продвижении по НЧ — запросам, способным привлечь наибольшее количество посетителей, с учетом минимального бюджета на покупку ссылок. Также допустимо использование в проекте ВЧ — запросов: они участвуют в «приманивании» трафика, но в топ не выходят.

Отметим, что минимальный ссылочный бюджет на одно слово для трафикового продвижения в SeoPul составляет всего 3 руб.

4. Аналитика и коррекция параметров. Для повышения эффективности трафикового продвижения необходимо предоставлять SeoPul доступ к аналитическим счетчикам, установленным на сайте. Система обрабатывает данные по посещаемости, благодаря чему помогает владельцу сайта более рационально использовать бюджет, выделенный на продвижение. Например, без труда настраивается автоматическое исключение наименее эффективных запросов. SeoPul анализирует конверсию по каждому слову из семантического ядра, отсеивает запросы — пустышки, показывает прогноз переходов по каждой позиции в выдаче. Порой небольшое увеличение бюджета (на 10 – 20 %) позволяет значительно усилить приток целевых посетителей.

Полученные из статистики данные обрабатываются специальным трафиковым «автопилотом» в режиме реального времени. Он отключает неэффективные запросы, заменяет их новыми и оптимизирует бюджет, отслеживая запросы, которые не вышли в топ. При необходимости он предложит запустить модуль PPC15, чтобы добрать недостающий трафик.

Трафиковое продвижение – это большой шаг вперед в «белом» SEO. В конце концов,

оно решает конечную задачу большинства владельцев сайтов и веб — мастеров – наладить регулярный приток посетителей и добиться от площадки той отдачи, которой от нее ждали. Ведь мало кто хочет находиться в топе лишь ради того, чтобы его ресурс видели на первых строках клиенты и конкуренты.

 

Зеркала и склейка

 

Понятия «зеркало» и «склейка» играют важную роль в поисковой оптимизации. Оптимизатор или владелец ресурса, который осуществляет продвижение своими силами, должен иметь представление об основных и дополнительных зеркалах сайта, знать, каким образом их задавать в настройках, а также быть осведомленным о том, что вызывает склейку, чем она грозит и как с ней бороться.

 

Что такое зеркало в SEO

Зеркало – это сайт, который является точной или почти точной копией основного. Но с зеркалом в данном значении владелец рядового ресурса сталкивается крайне редко. Потребность в создании нескольких копий сайта и размещении их на разных серверах возникает, когда нужно поддерживать работоспособность крупных «многолюдных» ресурсов. В таком случае зеркала помогают снять чрезмерную нагрузку с площадки и распределить ее.

Основное зеркало необходимо задать в файле robots.tx через директиву Host. Если редирект настроен, то эта директива предопределяет выбор необходимого зеркала. В противном случае, если речь идет о независимых друг от друга копиях сайта, данная директива служит важным фактором, влияющим на решение поисковой машины, но прямым указанием для нее не является.

Важное правило для зеркал в подлинном смысле: редирект 301 на основное зеркало обязателен. В файлах robots.tx на дополнительных зеркалах прописать основное совершенно необходимо.

Под термином «зеркало» в SEO тем не менее чаще понимают иное. Так называют один и тот же сайт, размещенный на разных доменах. Это доменное зеркало. Фактически каждый сайт в Сети имеет по меньшей мере одно зеркало – основной адрес сайта и второй, с префиксом www. Поисковые системы идентифицируют эти два адреса как два разных домена, принадлежащих разным сайтам.

Зная такую особенность поисковиков в отношении зеркал, важно своевременно прописать основное зеркало в файле robots.tx на всех доменных зеркалах. Иначе поисковик самостоятельно определит главное. Такой поворот событий бывает опасен. Внешние ссылки с анкорами, содержащими префикс www, могут вести на сайт без www, который поисковый робот определил как основное зеркало. Такие ссылки окажутся бесполезными и не будут передавать вес от донора напрямую. Косвенно они будут повышать авторитетность ресурса, но лишь из поиска. Решение одно — единственное. Со страниц неглавного зеркала прописывается редирект с кодом 301 на соответствующие страницы главного зеркала. Это позволяет сохранить передаваемый вес. Такой способ с использованием редиректа традиционно называют «подклейкой».

Клиентам SEO — компаний стоит знать о вышеописанном методе, так как оптимизаторы сомнительных моральных качеств могут использовать его на обслуживаемых ими сайтах в корыстных целях. Продвигая НЧ– и СЧ — запросы, такие «трюкачи» проставляют ссылки на нужный им ресурс, затем с его страниц ставят редирект на страницы сайта клиента.

В случае расторжения договора оптимизатор остается в выигрыше: у него на руках весомый авторитетный сайт с внешней ссылочной массой, а клиент разводит руками у разбитого корыта без единой внешней ссылки.

 

Подробнее о склейке

Склейка – это процесс идентификации поисковиком нескольких документов как копий, по итогам которого в выдаче остается только один из них (одна из страниц). При обнаружении копий поисковая машина может склеить страницы как одного сайта, так и с разных ресурсов. Как и в случае с зеркалами, склейка документов подразумевает определение главной копии, которой суждено выжить в выдаче. Причиной таких склеек является, как правило, наличие одинакового контента на разных страницах.

Склейка бывает внутренней и внешней.

• Внутренняя склейка – склейка страниц в пределах одного сайта. Может случиться из — за дублированного описания в тегах itle на разных страницах сайта. Подобное происходит по вине CMS, когда описания для itle генерируются автоматически и дублируются. Во избежание склейки необходимо создавать уникальные описания для тегов itle и метатегов на каждой странице. Кроме того, нельзя допускать полного повторения контента на разных страницах сайта.

Второй причиной внутренней склейки является возникновение дублей страниц, например создание страницы с версией для печати. Источником таких дублей также зачастую оказывается система управления контентом. Для предотвращения склеек необходимо корректно настраивать CMS или же прибегать к крайним мерам в виде подклейки дублированных страниц 301 — м редиректом к основным.

• Внешняя склейка – выпадение из выдачи одинаковых с точки зрения контента страниц разных сайтов. Чтобы не допустить такого недоразумения, перед размещением контента необходимо проверять его на уникальность и при условии, что сайт – первоисточник материалов, принимать меры по защите их уникальности. Если склейка успела произойти, для ее устранения требуется заменить контент и описание тегов itle склеенных страниц.

Склейка – явление малоприятное, поэтому важно контролировать техническую сторону сайта, правильно и своевременно указывать основные зеркала, проверять работу CMS, при необходимости прибегать к подклейке с помощью 301 — го редиректа. Выпадение страниц из выдачи – сигнал к проверке на наличие склейки со страницами других сайтов, владельцы которых могли прибегнуть к краже вашего контента.

 

Особенности продвижения молодого сайта

 

На продвижение ресурса в поисковых системах влияют многие факторы, в том числе его возраст. По ошибочному, однако распространенному мнению, возраст отсчитывается с даты регистрации домена. В действительности возраст сайта, с точки зрения «Яндекса» и Google, исчисляется с момента его первой индексации поисковым роботом.

Малый возраст сайта обуславливает трудности с выводом его в топ поисковой выдачи. Чем моложе площадка, тем меньше доверие, выказываемое ей поисковыми алгоритмами. Осторожный подход поисковиков к ранжированию новых ресурсов полностью оправдан. Зачастую не вполне порядочные веб — мастера с помощью «черных» методов оптимизации за короткий срок ухитряются вывести низкосортные ресурсы на первые позиции выдачи. Если бы не встречные меры со стороны поисковиков, качество SERP оставляло бы желать лучшего. Таким образом, поисковики накладывают ограничения на молодые ресурсы, применяя к ним фильтр класса «песочница». Это своего рода испытательный срок, период наблюдения за новичками.

Продвижения сайта на первых порах его жизни требует особого подхода. Базируется он на трех принципах.

1. Наиболее правильно начинать продвижение молодого сайта по низкочастотным запросам, постепенно подключая среднечастотные. Перспектива попадания в топ по высокочастотнику забрезжит перед ресурсом в большинстве случаев лишь по прошествии года.

2. Необходима проверка сайта на предмет технических ошибок, допущенных разработчиками.

3. Ссылочное продвижение должно быть максимально естественным. Это аксиома.

 

Работа над техническими ошибками

Сайт должен быть корректно построен с точки зрения его представления пользователю, равно как и отвечать требованиям SEO. О втором аспекте склонны забывать неопытные разработчики. Поэтому, когда сайт попадает в руки оптимизатора, необходимо провести его анализ, с тем чтобы прозондировать его на наличие технических ошибок.

1. Закрытие страниц от индексации. Файл robots.tx может быть составлен таким образом, что продвигаемые страницы становятся недоступными для индексации поисковым роботом. Это ставит крест на продвижении целевых страниц. Проверка файла robots.tx и метатегов robots на предмет наличия ошибок предотвратит такие проблемы.

2. Открытый доступ к административным разделам. Другая ошибка, часто допускаемая в файле robots.txt. В отличие от целевых продвигаемых страниц, все служебные разделы сайта, включая форму авторизации, должны быть закрыты от индексации и от просмотра.

3. Невалидный HTML — код. Огрехи в верстке также способны затруднить индексацию страниц и в целом ухудшить восприятие сайта поисковиками. Среди признаков невалидного кода: незакрытые теги, намеренно скрытый текст, злоупотребление заголовками одного уровня на странице. Все ошибки, допускаемые случайно или умышленно, перечислить затруднительно. Имейте в виду, что корректная верстка – одна из составляющих успешного продвижения.

4. Неправильная настройка CMS. Система управления контентом при неправильной настройке не в лучшем свете представит сайт в поисковых системах. Бич рассеянных веб — мастеров – дублирование страниц, когда контент одной страницы сайта копируется и становится доступным на другой (например, страница версии для печати). Подобного следует избегать на начальных этапах настройки CMS. Кроме дублей, от поисковиков надлежит скрывать страницы результатов поиска по сайту и служебные элементы.

Безразличие к виду URL страниц и настройке системы управления контентом иначе как халатностью не назовешь. Адреса намного лучше воспринимаются как пользователями, так и поисковыми машинами, если они хотя бы не представляют собой абракадабру из латинских букв, цифр и символов, а содержат транслитерированные ключевые слова, релевантные странице. Такие адреса по — русски называют ЧПУ (человекоподобными URL), а по — английски – SEF URL (Search Engines Friendly URL).

SEO — аудит – первое, что стоит сделать перед продвижением абсолютно любого сайта независимо от его возраста. Даже «взрослый» ресурс не застрахован от наличия разного рода недочетов. Работая с системой SeoPult, пользователи имеют возможность прибегнуть к услугам персонального менеджера, который разберет по косточкам нужный сайт и самым тщательным образом проведет его аудит.

 

Требования к контенту

Ни одна страница на сайте не должна остаться пустой. Уникальный, тематический и, что немаловажно, продающий контент – одно из условий успеха в SEO. Кроме того, качество и количество контента на странице отражается на поведенческих факторах и влияет на конверсию. На вопрос наполнения страниц поисковики пытаются смотреть с точки зрения пользователей. В первую очередь информация на сайте должна быть интересной тем, для кого она предназначена.

Крайне желательно, чтобы сайт был многостраничным. По уму, в тексте на каждой странице должно содержаться не менее 500 – 800 знаков.

Текстовое наполнение продвигаемых, или, другими словами, посадочных, страниц подразумевает вхождение ключевых слов и фраз, которые составляют семантическое ядро. При написании текстов главное – не переусердствовать с плотностью ключевиков. Оптимальная «тошнота» (показатель повторения ключевых слов и фраз в текстовом документе) составляет 4 – 6 % и определяется как доля всех вхождений ключевиков от общего количества слов в тексте.

Оптимизация страницы с точки зрения вхождения ключевых слов предполагает также их наличие в следующих элементах:

• в URL;

• в осмысленных заголовках itle, метатегах keywords и description;

• в атрибутах al у картинок;

• в заголовке H1.

Стоит отметить, что для непрофессионалов в SEO порой затруднительно определить,

достаточно ли вхождений ключевых слов на релевантной странице. Для решения такого рода задач разработчики системы SeoPul реализовали возможность осуществить проверку вхождения слов и при необходимости получить рекомендации относительно них. В соответствующей графе профиля даются подсказки по внесению или удалению слов из текста, в том числе из тегов itle и H1.

В целом работа над контентом должна проводиться регулярно, его требуется систематически обновлять. Приветствуется добавление новых статей, обзоров, новостей, фото в каталогах и т. д. Живой, динамично развивающийся проект находит «понимание» у поисковых систем.

 

Ссылочное продвижение

У молодого сайта процесс наращивания внешней ссылочной массы должен протекать настолько естественно, насколько только возможно. Тактика активного размещения обратных ссылок на донорах сомнительного качества грозит в корне загубить продвижение как таковое. Нет ничего проще, чем в течение первых двух — трех недель продвижения ресурса закупить ссылки на биржах. Но обмануть поисковые машины – задача, на которой и многие акулы SEO обламывали зубы. Резкий прирост ссылочной массы у нового сайта будет приравнен к «ссылочному взрыву», что повлечет за собой санкции со стороны поисковиков в виде «пессимизации» и исключения из выдачи.

Поиск авторитетных ресурсов для ссылочного продвижения – дело стоящее, но требующее колоссальных временных затрат и обильных денежных вливаний. Предпочтителен постепенный, органический прирост, и именно в качестве базовой стратегии. Запаситесь терпением и прилежно ищите качественных доноров: пишите письма владельцам трастовых ресурсов и авторитетным блогерам, проводите SMM — кампании, привлекайте внимание аудитории интересным контентом и полезными сервисами – одним словом, громко заявляйте о своем проекте, чтобы получить отклики, а вместе с ними и множество естественных обратных ссылок.

Безусловно, такая манера ведения кампании сыграет вам на руку в долгосрочной перспективе. Но в наше время важно уметь правильно управлять ресурсами. Это значит, что часть рутинной работы по приобретению ссылочной массы рационально доверить инновационным SEO — технологиям. Так, в SeoPul выполнима и автоматизируема даже самая непростая задача. Алгоритмы закупки системы настроены таким образом, чтобы динамика прироста внешних ссылок коррелировала с естественным ходом наращивания ссылочной массы.

 

Стратегия продвижения

Продвигать молодой сайт методами SEO на ранних стадиях сложно и долго, но это необходимо, чтобы достигнуть значительных успехов в дальнейшем и прочно «окопаться» в топе. В первые месяцы рекомендуется использовать только НЧ — запросы и продвигать главную и сравнительно малое количество релевантных внутренних страниц. При условии грамотной внутренней оптимизации для выхода в топ будет достаточно даже небольшого количества внешних ссылок с анкорами.

По достижении сайтом определенных результатов через несколько месяцев можно будет взять в оборот и СЧ — запросы, причем ссылки должны будут вести на качественные посадочные страницы. И наконец, зарекомендовав себя и достигнув высоких строчек в поисковой выдаче, сайт созреет для продвижения по ВЧ — запросам.

Учитывая потребность многих коммерческих проектов буквально с первых дней работы привлекать целевую аудиторию, параллельно с SEO имеет смысл прибегнуть к более действенным, но и более дорогим методам рекламы. Имеется в виду контекстная и таргетированная реклама, которая способна быстро решить задачу по «поставке» посетителей на сайт. При появлении ресурса в топе поисковой выдачи по ключевым запросам PPC — кампанию разумно будет приостановить, чтобы сэкономить средства на привлечении трафика.

 

Региональное продвижение: места силы

Конкуренция между коммерческими веб — проектами все жарче, но глотки друг другу мало кто грызет. Топы по популярным запросам во многих тематиках устаканились, и нужно искать не только новые возможности, но и новые просторы для продвижения. Дополнительным измерением SEO является региональный поиск, и о том, как выгадать за счет локальности, не допустив досадных ошибок, нам рассказывает Роман Клевцов, руководитель группы компаний «Элемент».

Начнем с основ. Как сообщить «Яндексу» и Google, к какому региону относится сайт? Какие методы существуют, что обязательно, а без чего можно обойтись?

Роман Клевцов: В «Яндексе» предусмотрено четыре способа инициировать учет региональности:

• выбрать регион в «Яндекс. Вебмастере»;

• внести сайт в «Яндекс. Каталог» и указать регион при регистрации;

• добавить сайт в «Яндекс. Адреса»;

• указать на сайте местные адреса и телефоны, полагаясь на автоматическое определение региона (здесь «Яндекс» учитывает язык текста, упоминание географических названий, IP — адрес сервера, с которого загружается сайт).

На мой взгляд, самый простой и верный способ для коммерческого сайта – добавить регион размещения в «Яндекс. Адресах». Сайт будет лучше ранжироваться во всех регионах, где есть адреса, привязанные к нему.

Если регион один, в случае с информационным сайтом больше подойдет привязка через панель «Яндекс. Вебмастера». Если несколько, оптимальный вариант – добавление в «Яндекс. Каталог».

Для площадок, продвигающих разный контент для различных регионов, лучший путь

– создать поддомен для каждого и указать все в «Яндекс. Вебмастере».

Чтобы регион сайта определялся в Google, нужно совершить следующие операции:

• отметить местонахождение в Google Places (почти то же, что в «Яндекс. Адресах»);

• указать регион на панели веб — мастеров (однако здесь можно выбрать только страну, привязка к городу не предусмотрена, вследствие чего способ полезен только для сайтов, не находящихся в национальных доменных зонах, и пригоден, например, если сайт в зоне. com ориентирован на российскую аудиторию);

• привести на сайте адрес и телефон компании (автоматическое определение региона примерно как в «Яндексе»).

Здесь можно дать аналогичную рекомендацию добавить адрес компании в Google Places. Но есть одна особенность: если по точному запросу сайт будет выводиться в результатах поиска Google, то в органической выдаче он не окажется. Посмотрите, например, на результаты запроса «заказ пиццы в Москве».

Серьезно ли отличается продвижение в регионе от Москвы? Если да, то чем?

Р. К.: В регионах естественным образом ниже конкуренция, чуть менее актуальна проблема «консервации топа». Чем меньше регион, тем проще продвигать в нем сайт. Порой достаточно привязки к региону и минимальной внутренней оптимизации, чтобы прочно закрепиться в локальном топе и добиться желаемых KPI.

Есть ли явные различия между ранжирующими формулами для Москвы и СанктПетербурга?

Р. К.: Явных различий нет. Как и везде, большую роль играет региональная принадлежность сайта.

Можно ли продвинуть сайт сразу в двух или более регионах? Каким образом?

Р. К.: Если запросы геонезависимые, не привязанные к конкретной местности, то они будут одинаково ранжироваться во всех регионах. Но это, как правило, некоммерческие запросы.

Для того чтобы коммерческие запросы хорошо ранжировались по региону, необходимо показать поисковой системе: сайт ориентирован на эти края – субъект Федерации, область, город и т. д. Нужно предпринять следующее:

• привязать сайт к необходимому региону (по одному из алгоритмов, описанных мной в ответе на первый вопрос);

• использовать местные топонимы в контенте сайта;

• обеспечить наличие входящих ссылок с географическими названиями в анкорах. Чем «конкурентнее» регион, тем больше действий по продвижению сайта понадобится. Для одних достаточно привязать ресурс на панели веб — мастеров, для других потребуются дополнительные манипуляции. Но применительно к большинству небольших регионов можно ограничиться добавлением сайта в «Яндекс. Адреса».

А если офис только один (в Москве, например), а представительства в нужном регионе нет? Насколько важно указывать реальные адреса и контакты?

Р. К.: Критически важно указывать настоящие адреса. Пусть это будут партнеры, магазины, продающие вашу продукцию, пункты выдачи товаров и прочее. Даже если получится обмануть модераторов и добавить «левые» адреса, их могут в любой момент проверить и удалить из базы. После такой «прополки» все позиции по регионам будут утрачены. Категорически не рекомендую размещать на сайте ложную информацию.

«Яндекс» прозванивает компании? А в офис может приехать?

Р. К.: Да, действительно прозванивает. Неподтвержденные адреса выкидываются из сервиса «Яндекс. Адреса», а при повторном добавлении отклоняются. По поводу посещений офисов ничего не могу сказать: не сталкивался с подобным.

Что лучше – делать для каждого региона отдельный сайт, поддомен или что — то еще?

Р. К.: Сам «Яндекс» рекомендует создавать поддомены. Мы следуем рекомендациям

«Яндекса». Однако создание поддомена оправданно только в том случае, когда для каждого региона на сайте размещается свой контент. Если контент одинаковый, лучше продвигать один сайт, добавляя региональные контактные данные в каталог «Яндекс. Адреса».

Важно ли, чтобы на региональных ресурсах был уникальный контент, или роботы поисковых систем понимают, что это не воровство?

Р. К.: Полной уникальности контента не требуется. Главное, чтобы были какие — либо значимые различия, обосновывающие создание конкретного поддомена.

Вообще, какая стратегия правильнее – постепенно добавлять новые регионы или лучше с самого начала продвигать сайт везде, где нужно, чтобы не терять времени?

Р. К.: Имеет смысл продвигаться в наиболее конкурентных регионах, а по остальным мониторить позиции, впоследствии дотягивая сайт до желаемого уровня.

Задача – продвинуть коммерческий сайт по всей России. По понятным причинам создавать поддомены или отдельные ресурсы не имеет смысла (их оказалось бы слишком много). Выполнима ли задача? И если да, то что нужно сделать?

Р. К.: В небольших городах, как правило, вполне выполнима: там выводятся сайты близлежащих городов — миллионеров. Поэтому достаточно охватить близрасположенные города с населением свыше миллиона человек. В целом такая задача несложна.

Сложнее ли продвинуть сайт с регионом «Россия» в Москве? Если да, то почему?

Р. К.: Перед тем как продвигать сайт по региону «Москва», необходимо убедиться в том, что у него есть «физическое» представительство в столице. В противном случае бюджет будет потрачен впустую. Такова особенность ранжирования «Яндекса»: на верхние позиции выходят сайты из региона пользователя.

Какой сайт с большей долей вероятности окажется в топе «Яндекса» – качественный ресурс с регионом «Россия» или региональный сайтик с парой страниц и переоптимизированными текстами?

Р. К.: Местные ресурсы имеют большое преимущество перед общероссийскими. Если сайт худо — бедно наполнен, имеет хотя бы немного входящих ссылок и не откровенно спамный, то он будет выводиться выше.

 

Аффилиаты: сидя на двух стульях

Если вы располагаете как минимум двумя сайтами одной тематики, вас наверняка стращали «геноцидом аффилиатов» – драконовскими мерами, которые якобы безоговорочно принимает «Яндекс» в отношении таких площадок. Мифы об аффилиатах развенчивает Роман Клевцов, руководитель группы компаний «Элемент», попутно уточняя, какое использование аффилированных сайтов является «белым и пушистым».

Что такое фильтр «Аффилиат» и для кого он опасен?

Роман Клевцов: Аффилиаты с точки зрения поисковых систем – это сайты, принадлежащие единому владельцу. Само по себе аффилирование не является чем — то постыдным и негативным, при условии что на сайтах представлены разные товары и услуги. Проблемы возникают в тех случаях, когда аффилированные сайты пересекаются тематически. В таких ситуациях по одинаковым запросам будет выводиться только один из сайтов.

Аффилирование, как следствие, чревато рисками для тех компаний, которые продвигают несколько сайтов по одинаковым или сходным запросам.

По каким показателям поисковые системы определяют сайты — аффилиаты?

Р. К.: В первую очередь аффилиаты определяются по совпадению контактных данных. Также возможны следующие критерии проверки:

• пересечение контента;

• похожий внешний вид;

• совпадение ассортимента и цен.

Сайт может быть отнесен к категории аффилированных такими способами, как:

• автоматически по указанным выше параметрам;

• асессорами «Яндекса» при оценке выдачи;

• модераторами сервиса «Яндекс. Каталог» при регистрации сайта на сервисе (по признаку совпадения юридических лиц зарегистрированного и регистрируемого сайтов);

• по сигналу «доброжелателей» — конкурентов.

Как поисковая система определяет, какой из группы сайтов окажется в результатах поиска?

Р. К.: Согласно наблюдениям оптимизаторов, поисковик отдает приоритет сайту по общей формуле релевантности. Какой сайт релевантнее, тот и выводится. Такой «поисковый дарвинизм». Допустим, если один из сайтов заспамлен, то будет выводиться менее замусоренный, что логично.

Компания оказывает два вида услуг, и исторически сложилось, что для каждого предназначен свой сайт. Стоит ли опасаться фильтра?

Р. К.: Не стоит опасаться в том случае, если контент продвигаемых сайтов не пересекается.

Цель – занять более одного места в «Топ — 10». Что нужно сделать, чтобы поисковые системы не определили два сайта как аффилированные?

Р. К.: Обязательны четыре шага:

• оформить домены на разные юридические лица;

• делать уникальный дизайн для каждого сайта;

• обеспечить различный ассортимент, цены и способы подачи товара;

• добавить на сайты различные контактные данные.

И в завершение для проверки следует добавить сайты в «Яндекс. Каталог» от имени различных юридических лиц. Если оба сайта будут добавлены, можно не опасаться аффилирования.

Однако в целом мы не приветствуем стремление клиентов к заполнению выдачи таким образом и всегда рекомендуем выбрать путь качественного развития одного сайта.

Так называемые прозвоны (когда «Яндекс» звонит в якобы разные компании и пытается обнаружить общий колл — центр или склад) – миф или реальность?

Р. К.: Точно не могу сказать: лично с таким не сталкивался. Полагаю, что реальность.

«Яндекс» занимает предельно жесткую позицию в вопросах недобросовестной конкуренции.

Конкурент все предусмотрел: указал на двух своих сайтах разные телефоны и адреса, и даже цены немного различаются. Как убедить «Яндекс» убрать из выдачи один из сайтов?

Р. К.: Написать в службу поддержки «Яндекса», представив все имеющиеся прямые и косвенные аргументы против конкурентов. Подсказку по аргументам смотрите выше.

Профессиональный оптимизатор без труда найдет пересечения в стратегии продвижения сайтов — аффилиатов, поскольку они с большой степенью вероятности продвигаются одним подрядчиком.

А может ли конкурент навредить моему сайту, специально создав псевдоаффилиат и указав на нем мой номер телефона?

Р. К.: Такая вероятность существует в случае, если ваш сайт относительно молод или вы используете спамные методы продвижения. Но если даже псевдосайт определится как аффилиат, вам не составит труда доказать «Яндексу» обратное в переписке со службой техподдержки.

Будут ли поддомены являться аффилиатами? Можно ли, к примеру, продвинуть в топ и site.ru, и статью в блоге, расположенном по адресу blog.site.ru?

Р. К.: Да, в общем случае поддомены будут считаться аффилиатами. Но есть и исключения. Например, по запросу «обучение в МГУ» выводятся как основной сайт, так и его поддомены.

 

Продвижение аффилированных интернет — магазинов

 

На заре Рунета поисковая выдача выглядела совсем не так, как в наши дни. До 2007 года

«Яндекс» не накладывал никаких ограничений на количество мест в топе, которые могла занять крупная компания, продвигавшая сразу несколько своих сайтов. С разгулом такого

«дикого права» менее удачливые фирмочки вытеснялись далеко за пределы первой страницы результатов поиска, и все лучшие места принадлежали монополисту. До тех пор пока конкуренция не стала нешуточно жесткой, «Яндекс» предпочитал не оказывать влияния на естественный ход событий.

В определенный момент поисковик вмешался в ситуацию, ограничив так называемые аффилиаты в их безудержной экспансии на SERP

 

Аффилиат — фильтр

Введенный в игру поисковыми системами аффилиат — фильтр призван очищать выдачу от монополистов, делая ее разнообразнее.

Принцип работы фильтра сводится к следующему: он не применяется к сайту в целом и не ведет к его «пессимизации» или тотальному изъятию из выдачи, а срабатывает при введении запроса и исключает аффилиаты из результатов поиска только по конкретному ключевому слову.

Если по одному и тому же запросу в выдаче претендуют «всплыть» сайты, принадлежащие одному владельцу, аффилиат — фильтр сработает и устранит их из SERP

 

Как «Яндекс» вычисляет аффилиаты

• Идентичность информации whois. Позволяет достаточно просто вычислить принадлежность ресурсов одному владельцу. Прибегнув к маленькой хитрости, фильтр можно обмануть. Достаточно лишь зарегистрировать домены на разных лиц (но обязательно существующих в действительности).

• Одинаковые IP — адреса. Проблема решается путем регистрации сайтов на площадках разных хостеров.

• Совпадающие данные в контактной информации на сайтах. Скрывать от поисковика ваши координаты не рекомендуется, поэтому желающим рискнуть следует позаботиться о разных телефонных номерах, а в идеале и о различных адресах.

• Одинаковые личные данные сотрудников. «Яндекс» скрупулезно подходит к анализу сайтов на предмет аффилированности. Ручная проверка способна выявить совпадения в именах и адресах электронной почты контактных лиц, указанных на сайтах.

• Идентичный контент. Он, к сожалению, характерен для интернет — магазинов. Как правило, описание товаров заимствуется у производителей и поставщиков, в редких случаях заказывается рерайт, тем более создание уникальных текстов. Одинаковые описания в карточках товаров, а также совпадения в описании тега itle и метатегов keywords и description позволяют легко установить связь между аффилиатами.

• Схожий дизайн. Поисковик проверяет дизайн с технической стороны, а именно оценивает изображения и код. Идентичность или разительное сходство в структуре дизайна у двух сайтов служит поводом для применения фильтра.

• Доносы конкурентов. Такое случается, и к людской подлости следует быть готовыми. Для подтверждения аффилированности необходимы доказательства, но многие согласны предпринять все возможное, чтобы их достать.

 

Решение для продвижения нескольких сайтов

Можно прикрыть вышеперечисленные слабые места, по которым «Яндекс» определяет аффилиаты, и разработать особую стратегию продвижения двух и более интернет — магазинов.

Выход в том, чтобы создать абсолютно разные сайты, принадлежащие, по всем данным, разным компаниям. Кроме того, основная торговая площадка должна содержать полный ассортимент товаров, а дополнительные – иметь более узкую направленность, иначе говоря, осуществлять продажу лишь одной из товарных групп. Это даст возможность в равной степени продвигать ресурсы в топ и обеспечить им нахождение в выдаче по одинаковым запросам без риска нарваться на санкции поисковой системы.

Плюсы такой стратегии для владельца таковы.

• Создать и поддерживать небольшие независимые сайты гораздо проще.

• Узкая направленность специализированного сайта при правильном формировании уникального торгового предложения с использованием качественного дизайна и контента может повысить доверие со стороны поисковиков к ресурсу и увеличить спрос на вашу продукцию.

• В крайнем случае, если стратегия все же потерпит фиаско, убытки будут куда более незначительными, чем при разработке и внедрении клона имеющегося интернет — магазина.

Подчеркнем, что вышеприведенная информация не является руководством к созданию сайтов — аффилиатов, способных вводить в заблуждение поисковые системы. К таким мерам можно прибегнуть в экстренных обстоятельствах, если потенциал продаж не исчерпан, а все доступные методы привлечения трафика используются на сто процентов.

Эти знания не будут лишними в общей бизнес — практике и могут пригодиться, например, при переезде на новый сайт. Часть предложенных нами советов позволит вам с наименьшими потерями сменить площадку и по основным запросам обеспечить место в выдаче новому, а не старому ресурсу.

Серьезному бизнесу нецелесообразно распыляться на множество клонированных низкосортных площадок, так как эффективность одного качественного, грамотно оптимизированного, проработанного до мелочей, ориентированного на клиента интернет — магазина может быть на порядки выше, чем у всех замаскированных аффилиатов, вместе взятых.

 

Создание эффективной посадочной страницы

 

Формула успеха в электронной коммерции включает три важные составляющие: цену транзакции, стоимость привлечения посетителя и конверсию. Как нетрудно догадаться, чем больше разрыв между ценой транзакции (покупки) и стоимостью привлечения посетителя в пользу первой величины, тем крупнее потенциальная прибыль владельца интернет — бизнеса.

Чтобы добиться успеха, интернет — маркетологу, которым зачастую является сам хозяин ресурса, необходимо организовать грамотную кампанию по привлечению клиентов, причем ограничившись минимальным бюджетом. Многие владельцы сайтов научились делать это методами SEO и контекстной рекламы. Часто, не прибегая к услугам профессиональных оптимизаторов, можно добиться притока целевой аудитории с помощью современных инструментов автоматизированного продвижения сайтов в топ поисковой выдачи.

Узкое место в формуле успеха – конверсия. Как ни странно, узловой пункт, который призван стать точкой роста для бизнеса, удручающе регулярно упускают из виду. Большинство маркетологов знают, как привлечь посетителей по невысокой цене. Но лишь некоторые из них владеют приемами превращения потенциального покупателя в реального. Достаточно сложно добиться низкой цены транзакции, если при невысокой стоимости привлечения посетителя коэффициент конверсии нещадно мал.

Главная причина низкой конверсии – в неудовлетворительном качестве сайта, а точнее, посадочных страниц. Большинство отказов от покупки происходит из — за неграмотно составленной landing page. К счастью, все поправимо. Нужно только провести работу над страницей, дабы она резонировала с потребностью посетителя и давала ему возможность с удобством совершить целевое действие.

 

Правила создания хорошей посадочной страницы

1. Правило первое: стопроцентное соответствие поисковому запросу

Целевая страница должна в точности соответствовать запросу пользователя и предлагать ему именно то, что он искал. Например, будет неправильно, если человеку в ответ на запрос «3D LED — телевизор Samsung UE40ES6100W» попытаются подсунуть страницу с перечнем всех имеющихся в ассортименте магазина телевизоров. Скорее всего, обескураженный посетитель сразу покинет сайт и затраченные на его привлечение средства улетят в трубу.

2. Правило второе: четкий конверсионный маршрут

Если посетитель попал на нужную страницу и предложение его устраивает, он принимает решение сделать покупку или заказать услугу. В таком случае совершение действия должно быть предельно простым, чтобы клиент не бросался рыскать по всей странице с целью найти заветную кнопку «Положить в “Корзину”», «Оформить заказ» и т. д. Зримый и очевидный призыв к действию – залог успеха. Размер кнопки, ее местоположение и даже цвет оказывают огромное влияние на конверсию. В одном из юзабилити — тестов изменение цвета кнопки с зеленого на красный привело к увеличению конверсии на 21 %.

3. Правило третье: минимум шагов до транзакции

От ознакомления с товаром на посадочной странице до совершения покупки клиент должен произвести наименьшее количество дополнительных, отвлекающих действий. Перед запуском проекта обязательно нужно провести тестирование маршрута «карточка товара – покупка». Любые лишние кнопки, ссылки, большие формы для заполнения информации способны запутать посетителя и снизить коэффициент конверсии. Чем проще путь,

тем больше транзакций. Медленная загрузка, «подглючивание» элементов страницы также неминуемо ведут к потере потенциального покупателя.

4. Правило четвертое: полное и детальное описание товара/услуги

Нехватка достоверной информации в карточке товара оставит многие вопросы клиента без ответов, вследствие чего он отправится «утешаться» к вашим конкурентам. Необходимо смотреть на продукт глазами потребителя и спрашивать себя, что в сопроводительном тексте остается непонятным, что еще хочется узнать о продукте. Нельзя составить общие критерии для всех товарных категорий и видов услуг. Тем не менее следует учитывать такие моменты, как:

• цена;

• название;

• идентификатор модели;

• артикул;

• изображения хорошего качества;

• характеристики производителя;

• указание размеров и веса;

• дополнительное описание (многие производители не указывают в характеристиках важные детали, о которых можно узнать лишь опытным путем; желательно подробно изучить товар перед продажей и дать ответ на очевидные вопросы покупателей);

• подробная комплектация;

• информация о гарантии;

• указание страны дизайна и страны — производителя;

• упоминание о наличии сертификатов РСТ;

• стоимость доставки и возможность самовывоза (как правило, стоимость доставки указывается в соответствующем разделе сайта, но будет большим плюсом, если клиенту не придется лишний раз щелкать кнопкой мыши и искать стоимость доставки для его города);

• достоверная информация о наличии товара и реальных сроках доставки (эту информацию покупатель должен получить на момент оформления заказа, а не в разговоре с оператором).

Соблюдение этих четырех несложных правил позволит вам в значительной степени повысить эффективность посадочной страницы и вместе с тем добиться более высокой конверсии.

 

Акцент на дизайне

Дизайн интернет — магазинов имеет свою специфику. Это тот случай, когда не рекомендуется исходить из ваших собственных представлений о прекрасном и лучше опираться на опыт успешных коммерческих проектов.

Серьезный дизайн недешев. При наличии достаточного бюджета можно заказать его создание в солидной, увенчанной лаврами веб — студии. Но если на счету каждый рубль и разработать индивидуальный дизайн — проект нет возможности, стоит присмотреться к чужим достижениям. Подразумевается ни в коем случае не копирование макетов, что абсолютно незаконно. Вся соль наблюдения за популярными проектами в том, чтобы разглядеть общие идеи и тенденции, которые сопутствуют успеху в продажах.

В качестве примера приведем два разных дизайна. Один из них – дорогой, что способствует увеличению продаж. Другой – более скромный, но тем не менее обеспечивающий хорошую конверсию. В первом случае речь идет о промостранице Google известного смартфона Galaxy Nexus (h p://www.google.ru/nexus/). Во втором – о продаже экстрима и развлечений для любителей полетать (h p://www.nebo — v — podarok.ru/). Как легко заметить, оба приведенных примера показывают грамотную, клиентоориентированную реализацию посадочных страниц.

Итоги таковы: коммерческий сайт даже с самым простым, но грамотно реализованным дизайном и оптимизированными под повышение конверсии посадочными страницами гарантирует своему владельцу уменьшение затрат на привлечение посетителей и увеличение чистой прибыли. Отличие хорошего продающего сайта от неэффективного заключается не в цене разработки, а в том, соответствует ли торговая площадка ожиданиям потенциальных покупателей и допущены ли при ее создании ошибки, которые заставляют несостоявшихся клиентов искать счастья в другом месте.

Несомненно, в значительной степени повлиять на качество посадочной страницы способны лишь специалисты, оказывающие услуги A/B — тестирования и eye — racking, проводящие консультации по юзабилити. Но эти дорогостоящие методы не всегда доступны на первых порах развития бизнеса. Профилактическое повышение конверсии своими руками с помощью несложных приемов – первый, но большой шаг к дальнейшему росту и «прокачке» ресурса ради выхода на качественно новый уровень продаж.

 

Возможности HTML5 при оптимизации

 

На смену HTML4, стандартизированному в 1997 году, пришла пятая версия языка гипертекстовой разметки. Многие специалисты, не сговариваясь, нарекли ее не продолжением прежних, а абсолютно новой платформой. Ее неоспоримое преимущество заключается в том, что в ней реализация различных технологий, которые ранее были доступны лишь через дополнения сторонних разработчиков (Java, Air, Flash), осуществляется средствами самого языка разметки. Отсюда возможность писать простой и удобный код для создания функциональных сайтов.

 

Эволюция HTML

Главный прорыв в пятой версии HTML произошел в области компактизации кода, что крайне значимо с точки зрения повышения качества страниц и ускорения их загрузки. Упрощенный код – гарантия того, что можно будет без помех загружать и просматривать страницы, в частности, на мобильных устройствах и на не самых мощных компьютерах.

Отказ от использования специальных надстроек сторонних разработчиков для внедрения дополнительной функциональности на сайте (например, просмотра видео) позволяет пользователям без установки плагинов получать доступ к любому типу контента. Между тем по части графических возможностей приложения, созданные на языке HTML5, ничуть не уступают в качестве другим популярным на сегодняшний день, включая Adobe Flash Player.

HTML5 совместим с большинством известных браузеров. Дело в том, что его разработчики не задавались целью получить на выходе революционный продукт. В его основе лежит привычный нам язык разметки HTML4, и он полностью поддерживает все элементы форм четвертой версии и в дополнение к ним включает новые. Даже если какой — то из наименее популярных старых интернет — обозревателей, например Interne Explorer 6, не будет способен адекватно отразить новые технологии пятой версии, он корректно отработает понятную ему гипертекстовую разметку четвертой версии. Специально для браузеров — «пенсионеров» обеспечена поддержка привычных технологий типа Flash или Java.

 

Структура страниц и SEO

Главным новшеством в HTML5 применительно к SEO стало изменение структуры страницы. Прежде для сегментации страницы использовался тег div, причем каждая отдельная часть не несла конкретной смысловой нагрузки. Отныне возможна разбивка страницы на элементы с определенным значением. Например, теги header, sidebar, article и footer служат для выделения хедера, навигационного блока, основного текстового блока и футера соответственно.

Для чего это нужно? Точнее будет сказать – для кого? В первую очередь для поискового робота, чтобы ему было легче воспринимать структуру сегментированной страницы. Тег article указывает роботу при индексации на основную контентную часть с наибольшей смысловой нагрузкой, в то время как header и footer говорят о второстепенной значимости соответствующих им элементов. Аналогично роботу дается наводка на контактную информацию, логотип компании, копирайт и т. д.

Каждый тег несет особую информационную нагрузку в расчете на поисковую машину:

• article указывает на главный контент страницы, акцент при индексации делается на данном элементе, ему придается первостепенное значение;

• header включает логотип, название, контактные сведения или навигационное меню, и прежде всего в данном блоке поисковый робот будет искать эту информацию;

• footer сигнализирует роботу о второстепенности информации, в футер заносятся социальные кнопки, информация о копирайте и пр.;

• section служит для более четкой и понятной структуризации страницы, позволяет разделить ее на секции, каждая из которых получает свое название, что помогает поисковику лучше ориентироваться на странице и присваивать уровень значимости той или иной информации;

• nav функционально подобен карте сайта, но действует в отношении одной страницы и не дает роботу потеряться в общей структуре индексируемой страницы.

 

Атрибуты для описания ссылок

С помощью ряда атрибутов в HTML5 задаются различные значения ссылок:

• alternate – переход на альтернативный адрес одной и той же страницы;

• author – ссылка на страницу с информацией об авторе;

• external – ссылка на внешний домен;

• help – ссылка на страницу помощи;

• license – ссылка на страницу с информацией об условиях лицензии;

• next, prev – ссылки на следующие и предыдущие части статьи, размещенной на

нескольких страницах (это говорит поисковику, что информация на страницах связана, с

целью обеспечить правильную индексацию);

• nofollow – указание поисковику на то, что ссылку не нужно учитывать при индексации.

Использование вышеперечисленных атрибутов положительно сказывается на индексации и способствует эффективному продвижению ресурса.

 

Описание медиафайлов

В новой версии языка гипертекстовой разметки реализовано добавление медиафайлов с помощью атрибутов video и audio. Это большой шаг вперед, так как они являются своего рода маячками для поисковика, который будет индексировать их содержимое и учитывать в поиске по видео. Последнее утверждение относится как к «Яндексу», так и к Google.

Таким образом, новые стандарты HTML5 открывают широкие возможности для создания и более эффективной оптимизации страниц. Это лишь первый шаг, и работа над возможностями пятой версии языка продолжается. Важно знать также, что стандарт семантической разметки микроформатов, распространенный в Рунете и поддерживаемый «Яндексом», также актуален в рамках развития HTML5.

 

Особенности мобильных версий сайтов

 

С каждым днем все больше людей, которые для выхода в Сеть используют компактные мобильные устройства – смартфоны и планшетные компьютеры. Согласно статистике сервиса LiveInternet, доля трафика с мобильных операционных систем в Рунете превысила в 2012 году 10 %. Заметный кусок рынка!

Эту тенденцию следует учитывать при создании сайтов. Большинство интернет — ресурсов, спроектированных в расчете на средние и большие мониторы, не оптимизированы под вывод на малые экраны гаджетов. Изменение конъюнктуры диктует потребность в новом технологическом решении. А оно существует, и давно. Мы имеем в виду создание мобильных версий сайтов и мобильных приложений.

 

Отличительные черты

Мобильная версия сайта должна быть полностью адаптирована под просмотр на устройствах с небольшим дисплеем. Владельцу сайта, желающему, чтобы его площадка в полной мере соответствовала требованиям аудитории, необходимо позаботиться о разработке «уменьшенной» версии основного сайта.

Фундаментальные отличия мобильного сайта от обычного сводятся к следующим пунктам.

1. Исполнение верстки ориентировано на экран с небольшим разрешением. Это обеспечивает удобный просмотр сайта с мобильного устройства.

2. Упрощенный код. В первую очередь код лишен скриптов, которые требуют больших процессорных мощностей (например, отказ от Flash, который не поддерживают некоторые мобильные операционные системы).

3. Меньшее количество страниц. Чем «легче» сайт, тем быстрее будет выполнена его загрузка на устройство. Это особенно актуально для глухих уголков нашей страны, так как пока не вся Россия – зона покрытия высокоскоростного мобильного Интернета. Кроме того, многие пользователи ведут строгий учет потребляемого ими трафика.

4. Удобная реализация ввода данных. В отсутствие мышки и при наличии одной лишь сенсорной панели экрана крайне важно, как реализована возможность ввода данных на странице.

 

Сервисы для создания мобильных версий сайтов

Создание мобильной версии сайта – процесс не менее сложный, чем разработка полноценного интернет — ресурса. Но, к счастью, на помощь тем, кому не по карману заказать мобильную версию в веб — студии, приходят сервисы, позволяющие обойтись своими силами. Часть из них бесплатна, часть требует небольших вложений, но куда более скромных, чем сумма, которая фигурировала бы в счете, выставленном профессионалами. Несколько таких решений мы и перечислим.

• Дополнение для WordPress под названием Mobilize (h p://wordpress.org/extend/ plugins/mobilize — by — mippin/) – удобный для пользователя, простой в работе бесплатный плагин, предназначенный для адаптации сайта под мобильные устройства.

• Сервис Wirenode (h p://www.wirenode.com/) – конструктор в виде мобильного приложения. Располагает большим набором инструментов и позволяет создавать качественные сайты для смартфонов. Ознакомительная версия бесплатна, основная функциональность доступна за плату от $7.

• Сервис MoFuse (h p://mofuse.com/) – очень популярный инструмент. Изобилует настройками, прост в работе. Бесплатная версия позволяет оценить его возможности и решить, подходит ли он для поставленной задачи.

Это далеко не полный список сервисов для создания мобильной версии сайта. Готовых решений для наиболее распространенных CMS немало. При скромном бюджете за помощью к профессионалу имеет смысл обращаться скорее на предмет того, какой сервис лучше использовать, исходя из специфики сайта.

 

Кросс — браузерность

Как с обычного компьютера, так и с гаджета пользователь может выходить в Интернет с помощью разных браузеров. Добиться полной совместимости сайта с каждым из них – та еще задачка. Так что желательно заранее решить, какие программы — просмотрщики предпочтительны, и добиваться корректного отображения сайта в трех — четырех наиболее популярных.

Для проверки адекватности представления сайта в разных браузерах сделано немало сервисов, которые помогают разработчикам наиболее простым способом протестировать ресурс на кросс — браузерность. Среди известных бесплатных – Adobe BrowserLab и Browsershots. Отдельно стоит упомянуть Multi — Browser Viewer – платный инструмент с более богатым арсеналом.

 

Мобильное приложение

Мобильная ипостась сайта не обязательно должна представлять собой сайт. В отдельных случаях оправданно создание мобильного приложения. Таковые в большинстве случаев пишут под две платформы – Android и iOS.

Приложение – это программа, требующая установки на мобильное устройство. Она позволяет более широко использовать технологии, которые не всегда реализуемы на вебсайте. Например, дающие возможность построить трехмерное изображение комнаты и «примерить» к ней многие предметы мебели.

Разработка такого продукта – удовольствие недешевое. Прежде чем «подписаться» на создание приложения вместо сайта или вместе с сайтом, необходимо тщательно проанализировать специфику бизнеса и просчитать, целесообразна ли эта мера.

 

Сервисы для тестирования мобильных версий сайтов

До того как открыть сайт, его необходимо протестировать. Проверить мобильные версии «ручками» на всех мыслимых смартфонах и планшетах – миссия невыполнимая. Но умельцы сумели найти выход из положения и создали онлайн — сервисы для тестирования мобильных версий сайтов в виртуальном режиме.

• Тестировщик W3C mobileOK Checker – широко распространенный инструмент. Нужно лишь ввести адрес сайта и получить отчет об ошибках на нем.

• MobiReady – аналогичный сервис. Эффективное и бесплатное тестирование.

• TestiPhone – средство для работы проверки сайта на iPhone. Для другого, не менее популярного «яблочного» гаджета iPad также реализована возможность протестировать сайт с помощью сервиса iPad Peek. Оба инструмента позволяют увидеть, как будет выглядеть страница сайта на экране устройства.

Создание мобильной версии сайта требует не менее серьезного подхода, чем разработка обычного интернет ресурса. Мобильные пользователи в большинстве своем – активные люди с передовыми взглядами, готовые получать информацию где угодно, а также приобретать товары и услуги в Сети оттуда, откуда им удобно (лишь бы Интернет был). Поэтому необходимо ориентироваться на эту целевую аудиторию и предоставлять ей качественный ресурс, причем в будущем важность работы с ней будет только возрастать.

 

SEO для специалиста

 

◆ Университет воды, огня и медных труб

◆ Работа не волк. Работа – вервольф

◆ SEO и алгоритмы поисковых систем: ключи, отмычки, кувалды

◆ Сгинь, нечистая! История и эволюция нечестных методов поисковой оптимизации

◆ Недобросовестные веб — мастера, или Как попасть в черный список

◆ Волшебство сеомантики, или Семантика в SEO

◆ года в доме. О внутренней оптимизации

◆ Письменное задание по SEO

◆ SeoPult: математика под капотом

◆ Естественная постановка вопроса

◆ Программируя термитник, или Собери свою SEO — армию

◆ SEO — войны: сахар в бензобак или жука в муравейник?

◆ Догнать и удержать: жизненный цикл клиента в SEO — агентстве

 

Университет воды, огня и медных труб

Чтобы понять, где и как учиться SEO, нужно определиться с тем, ради чего именно ты садишься за виртуальную парту. Все потому, что «сеошник» в Рунете – это не одна — единственная профессия с метриками из Палаты мер и весов, а совокупность ремесел, умений и знаний, из которой с течением времени выкристаллизовались отдельные специальности, различающиеся между собой не менее разительно, чем «инженер — мостостроитель», «инженер хостинг — провайдера» и «инженер по монтажу отопительных систем». Тот факт, что все трое почти наверняка грызли гранит науки в технических вузах, получили в мозг инъекцию высшей математики и, вероятно, умеют обращаться с AutoCAD, не делает их взаимозаменяемыми.

До сих пор SEO — индустрия живет вдали от магистрали академического образования, да и едва ли обратное необходимо. Мы практики. Мы сами куем себе и счастье и кадры. Наша отрасль сама по себе порождающая среда: на разбавление выдачи безанкорными ссылками и сборку семантических ядер вузы не сбрасывают нам десант линк — менеджеров и аналитиков с дипломными работами на тему «К вопросу о переобучении алгоритмов “Яндекса”» в зубах и нужные сотрудники воспитываются в бою за топ; все образовательные центры, приводящие в SEO дельных людей, так или иначе близки к отрасли. С одной стороны, жизнь вне парадигмы высшей школы, вне системообразующих институций обуславливает аморфность в процессах воспроизводства знаний, с другой – дает гуттаперчевую гибкость в формировании «кадрового набора». Как в рекламе: «Возможно все». Отличный рецепт: если ты не видишь на умственном радаре точки приложения твоих усилий, воткни вымпел рядом со своим креслом – создай себе профессию сам, а также рабочее место. На рынках наподобие нашего такой способ легко применим. Но прежде, чем прогибать мир под себя, надо всетаки разведать, что он предлагает в своем нынешнем состоянии. В нашем случае – какие «готовые» SEO — профессии существуют. Заодно заглянем с другого края, чтобы понять, кто записывается в оптимизаторы, каков их собирательный портрет. Итак, какая же рыба водится во все менее мутной воде поисковой оптимизации?

Мне и моим коллегам искать сотрудников доводилось неоднократно, так что, опираясь как на статистическую выборку на несколько сотен специалистов по SEO, прошедших через наше сито, я должен признать: львиная доля тех, кто сидел у нас на собеседовании, получила техническое образование, что, вне всякого сомнения, накладывает отпечаток на отрасль. Конечно, мало быть «мифистом» или «физтехом» и требование это не является алгебраически строгим, однако правополушарному «лирику» будет трудно в мире, где монотонное камлание над цифрами и интерфейсами и строгие изнурительные расчеты нежданно прорезаются вспышками творческой выдумки, где системное мышление необходимо в том числе для того, чтобы выбиваться из системы.

Как я заметил в самом начале, к «нашей эре» SEO разветвилось на несколько направлений – не то чтобы сепаратных, но разнящихся между собой по решаемым в них задачам, а следовательно, и по навыкам, которые требуются от работников. В большинстве компаний, с которыми я так или иначе имел дело, предусмотрена позиция SEO — специалиста. Эта формулировка наиболее распространена, и соответствующая вакансия встречается весьма часто. На мой взгляд, она сравнительно скучна хотя бы потому, что подразумевает работу по инструкции, по отстроенной (и обычно не тобою отстроенной) модели. Это конвейерное производство, которое требует присмотра, но в творческом переосмыслении не нуждается. Для того чтобы успешно занимать эту должность, в общем случае необходимо иметь стандартное техническое образование и минимальный набор навыков при каком — никаком опыте в SEO.

С моей точки зрения, интереснее возникшая считаные годы назад «междисциплинарная» позиция SEO — маркетолога. Вот где на нашей полянке свободное, да еще и теплое место для людей с гуманитарным образованием и соответствующим складом ума. Эта профессия набирает обороты, и все больше компаний ищет людей, способных адекватно трудиться в такой «амбивалентной» должности. Претендующему на нее требуется знание пиара и маркетинга, талант продавать, способность правильно доносить свои мысли, умение общаться с клиентами. Иначе говоря, набор навыков, в своем роде не менее системный, чем у оптимизаторов — технарей. Просто качественно другой.

Вкуснее плюшки и кэш зеленее у SEO — аналитиков. Занимать эту позицию под силу не каждому. Только человеку, чей мозг «спаян» по принципиальной схеме строго определенного типа. Часть навыков SEO — аналитика развивается обучением в вузе, но без природной предрасположенности здесь ловить нечего. Как работодатель я бы пристально рассматривал в качестве претендентов на эту вакансию тех, кто учились в таких вузах, как МФТИ, МГТУ им. Баумана и МИФИ, на физическом или математическом факультетах МГУ. По меткому наблюдению моего коллеги Алексея Чекушина, лучшие SEO — специалисты получаются из троечников, потому что они не встраиваются в систему, с маниакальным упорством ищут обходные пути, не желают выполнять все так, «как положено». Если вы не первый день в SEO, оглядитесь и посмотрите на коллег через призму вышеприведенного утверждения, и вы наверняка согласитесь с ним. Действительно, профессия SEO — специалиста подразумевает стремление к поиску лазеек, нестандартных путей решения, а в случае с SEО — аналитиком сказанное трижды верно. Так что, если вы не «работали на зачетку», возрадуйтесь: наличие или отсутствие красного диплома ни в коей мере не повлияет на ваше развитие в индустрии. Хотя еще один атрибут отличника – железная задница – вам пригодится.

Какие умения полезны для SEO — специалиста, желающего устроить свое будущее? В первую очередь владение современными языками программирования. Оптимизатор любого ранга и профиля, умеющий, помимо всего прочего, писать скрипты, небольшие программы, да и, в конце концов, составлять толковые техзадания веб — разработчикам, гораздо более привлекателен в глазах работодателя. А кроме того, он эффективнее как боевая единица сам по себе, поскольку способен делать все гораздо быстрее, вести большее количество проектов и лучше их анализировать. Жизненно необходимы владение HTML, CSS, базовое понимание JavaScript. Пусть не на уровне «мастера спорта», но как минимум в объеме «взрослого спортивного разряда». Так было всегда, и сегодня без перечисленных навыков браться за практическое SEO – все равно что пытаться работать в геологоразведочной экспедиции с помощью лозы.

Любому, чья профессия – SEO, нужно уметь работать с CMS, досконально понимать, как они устроены, знать как минимум основные системы управления контентом и быть способным вносить в них правки. Не столько для того, чтобы делать это самостоятельно, а скорее для того, чтобы контролировать изменения, производимые контент — менеджерами и программистами, и писать внятные техзадания, когда дело касается CMS. Безусловно, SEOспециалисту важно разбираться в протоколе H P, чтобы работать с кодами ответа, понимать, какие данные передаются при заходе на страницу, и уметь читать логи, оставляемые на сервере. Нелишним будет и знание систем веб — аналитики – того, как они функционируют и как с их помощью отслеживать эффективность сайта и повышать ее без лишних движений, оптимизировать конверсию и «тюнинговать» микроконверсии. Бал в поиске правят поведенческие факторы, и без навыков работы с конверсией в SEO у вас не так много путей развития.

По мере общего движения интернет — бизнеса в направлении комплексного маркетинга открываются новые области знания, тщательное изучение которых пристало скорее SEO маркетологу, чем SEO — аналитику. В числе прочего это юзабилити, работа над продающими текстами и пиар. Заострю внимание на последнем пункте. На текущий момент наше профессиональное сообщество знает немало успешных проектов, которые достигли выдающихся результатов не столько массовой закупкой линков, сколько привлечением дорогих и мощных PR — площадок, с которых размещались ссылки на продвигаемый сайт. Таким «дрифтом» удается добиться многого, но только при точечной филигранной работе. Если, слыша слово «пиар», вы думаете о массовой рассылке скроенного по шаблону пресс — релиза, то перед тем, как взять на вооружение «сеошный пиар», вам понадобится подучить науку Public Relations. Также великое множество стратегий, применяемых в SMM и пиаре, позволяет привлекать огромное количество ссылок с небольших сайтов, не продающих ссылок на биржах, но имеющих большой вес.

Честолюбивому SEO — профи, который не хочет останавливаться на достигнутом, очень полезно анализировать и сопоставлять сводные данные, зарываться в техническую информацию и не теряться в ней. Ему – охотно повторю еще раз – важно иметь хорошее математическое образование, чтобы глубоко разбираться в устройстве информационного поиска.

Если SEO — специалист имел опыт создания информационно — поисковых систем, работал в поисковых системах или же специализировался в вузе на информационном поиске (в МАИ такой предмет читает Андрей Калинин, руководитель «Поиска@Mail.ru», преподающий также в нашем учебном центре), то он обладает колоссальным конкурентным преимуществом, поскольку прекрасно осведомлен о том, как функционирует поиск, а значит, понимает, как тому «понравиться», а не «втереться в доверие» на какое — то время, и мыслит на много шагов вперед по сравнению с теми своими конкурентами, которые оперируют сугубо частными категориями и чаще полагаются на догадки, чем на подлинное знание.

Предположим, вы действующий, но не орденоносный SEO — специалист и вам, разумеется, нужно где — то получать новые знания, оттачивая свое мастерство. Начните с того, что лежит под ногами. Едва ли не самым важным источником ценнейшей профессиональной информации служат исследования и эксперименты, которые вы инициируете самолично: либо в ходе выполнения проектов по работе (помните о цеховой этике и никогда не забывайте о том, что нельзя подвергать риску сайт клиента), либо в свободное время – на тестовых площадках. Дам один незамысловато звучащий, но действенный совет, который помогал мне самому добиваться впечатляющих результатов: благодаря ему за очень короткий промежуток времени я сумел выйти на крупнейшие порталы и успешно продвигать их. Рекомендация проще некуда: вам необходимо отказаться от конвейерного, рутинного подхода к своей деятельности и всякий раз, берясь за продвижение нового сайта, вы должны делать это творчески, взбираться к цели по нехоженым тропам, использовать свежие решения, ставить себе на службу новые технологии. Открою секрет: последние два года, что я занимался SEO, я не сделал ни одного аудита по шаблону. Буквально ни одного. Каждый следующий проект я изучал как erra incognita, согласно выработанному только под него подходу, и упорно искал нестандартные интересные решения. Это позволяло мне с завидной регулярностью вскрывать множество полезных моментов при анализе сайта и давать очень хорошие рекомендации клиентам.

Второй мой личный совет: не пренебрегайте семинарами и конференциями. Посещение большого количества таких мероприятий позволит вам не только усваивать новые знания в живом общении, но и оставаться в тренде. Если вы пришли на конференцию и не услышали ничего, что заставило бы вас навострить уши, это не повод горестно покачать головой и поплакать над потраченными деньгами, а обратная связь: вы движетесь в правильном направлении, вы понимаете все процессы, улавливаете подводные течения индустрии, и это очень здорово. А узнаете нечто новое – тем лучше, потому что вы сможете применять это на практике. Кроме того, существуют курсы профессиональной подготовки, которые также очень важно посещать. Это касается как руководителей бизнеса и клиентов, так и специалистов, которые собственноручно и «собственноголовно» занимаются поисковым продвижением. Настоятельно рекомендую всем, особенно владельцам компаний и топ — менеджерам, не стесняться отправлять сотрудников на повышение квалификации, особенно если вы не SEO — компания, а, например, интернет — магазин, который решил открыть собственный оптимизаторский отдел. В таком случае регулярное повышение мастерства внутреннего специалиста необходимо вам как воздух.

Наконец, последний, внешне парадоксальный способ повышения квалификации – это когда ваш сотрудник или вы сами начинаете обучать других. Делать это в интеллектуальном отношении нисколько не сложнее, чем заниматься прикладным SEO: у страха глаза велики. Конечно, я не предлагаю вам организовывать на скорую руку какие — нибудь «курсы типа шарашка» или выступать на всех конференциях без разбора. Я всего лишь советую вам систематизировать знания, обучая коллег, или клиентов, или людей на профильных мероприятиях. Загодя готовясь выступить с докладом на конкретную тему, вы мало того, что заново структурируете давно известную вам информацию, но и в стремлении проявить себя достойно узнаете множество новых данных. Ораторский и методистский скиллы16, замечу, пригодятся вам и в других сферах жизни и бизнеса. А передавая свои знания другим, вы сумеете всесторонне оценить свои навыки и взглянуть новыми глазами на свои представления о SEO в принципе, расширив их и повысив качество своей работы.

В SEO мало, а то и вовсе нет тайн за семью печатями, до которых нельзя дойти самостоятельно благодаря волшебному сочетанию здравого смысла и работы «в поле». Экспериментируйте, не ломитесь в открытые двери, стучитесь в закрытые, общайтесь с коллегами и конкурентами, не пренебрегайте анализом открытых источников, и скоро вы начнете замечать, что мыслите не ретроспективно («Ох, можно ж было предвидеть внедрение чего — то вроде Google Penguin…»), а перспективно («Чувствую, скоро SEO изменится, и я даже готов предугадать, как именно»).

 

Работа не волк. Работа – вервольф

Недаром твердят, что SEO – это индустрия. Тяжелая или легкая промышленность? Скорее нелегкая. Зато рабочих мест она порождает порядочное количество – от горняка в линк — менеджерском забое до конторского инженера в обличии высоколобого SEO — аналитика. Выбирай не хочу. Однако по сравнению с производством эпохи индустриальной революции в нашем раскаленном бизнесе как горизонтальная, так и вертикальная мобильность кадров беспрецедентно высока. Года за полтора вам будет по силам сменить две, если не три специальности. Работа у нас не волк. Не в том смысле, что в лес не убежит: прощелкать раскиданные под вашими ногами возможности – дело нехитрое. Работа у нас вервольф, потому что превращения претерпевает на глазах буквально все: позиции, компетенции, оклады.

Куда же пойти работать SEO — специалисту, чтобы поймать за хвост острозубого «волка удачи», да не плешивого и мосластого, а волшебного да денежного? Сегодня на рынке щедрыми россыпями сверкают предложения одно другого заманчивее и, как верно заметил мой коллега Алексей Чекушин, сложилась уникальнейшая ситуация: уровень предлагаемых работодателями зарплат выше, чем уровень ожиданий от соискателей. Поэтому я пунктиром намечу пути между златыми горами, а выбирайте вы сами. Только учтите: вопреки расхожей присказке деньги в SEO есть, но добываются они потом и красными глазами.

Вы оптимизатор со стажем? Значит, у вас самого имеется карта нашего острова сокровищ и его ловушек. А если вы новобранец, что лучше – прибиться к SEO — агентству или же с низкого старта метнуться на сторону клиента? Начинающим я безоговорочно рекомендую направить стопы не куда — нибудь, а в SEO — компанию. Вам необходимо получать опыт и нужно учиться на головоломных проектах. Кроме того, лучше с самого начала быть в комьюнити, иметь умных и скорых на критику коллег, с которыми можно обсуждать интересные решения и трюки. Приличное агентство даст вам участие в аналитических процессах, в разработке методов оптимизации, в исследованиях отраслевой конъюнктуры, обеспечив вам развитие, перманентное повышение квалификации и, что даже важнее, поступательное, органичное усложнение деятельности.

На какую денежную компенсации пристойно претендовать неофиту от SEO? «Претендовать» не надо. Надо начинать с умеренных денег, умножая их вместе с профессионализмом. Средняя месячная ставка для человека без какого бы то ни было опыта, но с навыками составляет приблизительно 30 тыс. руб. По мере того как имярек обтесывается в индустрии, зарплата его постепенно растет вплоть до 500 тыс. руб.: именно таков экстремум, который мне удавалось зафиксировать на рынке. Зарплаты в сотни тысяч рублей нашему брату платят – при том условии, что мы исключаем из рассмотрения владельцев фирм и топ — менеджеров, – но это штучные примеры. После года в хардкорной раскрутке подающий надежды сеошник с легкостью выйдет на уровень дохода 80 тыс. руб. и выше. Поделюсь своими наблюдениями за выпускниками курсов «ТопЭксперт». Один мой подопечный по итогам удачного собеседования устроился на оклад величиной 80 тыс. руб., не имея до курса большого опыта в SEO. Конечно, это скорее исключение, чем правило, и человек обладал выдающимся интеллектом – и тем не менее он добился, чего хотел.

Если вы какое — то время поработали в оптимизации и за плечами у вас не разочарованные «раздачей слонов», а довольные клиенты, то вы наверняка имели на входе в бизнес или воспитали в себе навык самообучения, поэтому советую вам пойти в какой — нибудь проект штатным специалистом. «В проект» – значит «к потребителю услуг SEO». Заработки здесь солиднее. Как правило, именно штатным специалистам платят больше, потому что в таких компаниях вынуждены искать способы мотивировать сотрудников работать не спустя рукава. Совсем зеленый сеошник на стороне клиента рискует зачахнуть без питательной среды и, уж простите, удобрений в виде откровенной критики: вокруг нет коллег, проектов мало, отдел аналитики отсутствует как класс, процессы слабо автоматизированы. Идти работать в порталы или в интернет — магазины мало кто хочет, но материальный аргумент часто перевешивает. Если вы сам себе сатрап, наставник и тайм — менеджер, то это вариант для вас: вы не потеряете квалификацию и ваше знание не устареет. Зато, работая с одним — двумя, максимум тремя проектами, вы получите очень интересное преимущество, поскольку сумеете гораздо глубже погрузиться в выбранную вами нишу и показать куда более впечатляющие результаты, чем если бы вы «стаханили» в SEO — агентстве, где один специалист разрывается по меньшей мере между 20 – 30 проектами.

В мире SEO, само собой, больше двух красок. Есть точки приложения усилий и вне координат «агентство – клиентский бизнес». Например, окопаться в рекламном агентстве, у которого нет специализации на SEO, имеет смысл тому, кто хочет выстрогать из коры своего головного мозга ум SEO — маркетолога.

Могло сложиться впечатление, что до сих пор речь шла исключительно об офисной работе, причем преимущественно в столице России, где сосредоточены главные «мартеновские печи» нашей с вами индустрии. Однако для тех, кто живет за пределами Москвы, в SEO на удивление много вакансий, и часто компании согласны взаимодействовать с частью персонала дистанционно. Лично мне известны примеры благополучной работы таких сотрудников в компании «ВебПроекты». Я также слышал, что в компании «Ашманов и партнеры» удаленно трудится немало специалистов. Эта схема подразумевает двойную выгоду: можно получать очень высокий доход по меркам своего города, работая через Интернет на крупные московские компании. В свою очередь, серьезные столичные фирмы нашего профиля стремятся иметь дело с исполнителями не из Первопрестольной, потому что для них это экономически оправданно: в самой Москве очень высокие зарплаты и не все компании могут позволить себе их выплачивать.

Ну а куда же устроиться, держа в уме личностные перспективы? Если вы хотите бурно развиваться, то, вне всякого сомнения, оптимальное для вас – влиться в компанию, где это развитие будет для вас более или менее ясно очерчено. Перед тем как сделать выбор, вам следует вычислить, сколько времени в среднем проводят сотрудники, которые только устроились в эту организацию, до момента перевода на более высокую должность, на позицию с более интересными задачами. Вам важно быть осведомленным о том, как в компании построены процессы обучения, нужен ли на присмотренной вами позиции человек, который просто будет выполнять все инструкции, или ищут того, кого будут «прокачивать» до ранга специалиста, способного продвигать сложные проекты. Наконец, рекомендую вам изучить в подробностях оргструктуру компании. Если в фирме существует, к примеру, отдел аналитики, если она в полной мере задействует автоматизацию, то в ней априори куда больше возможностей для вашего роста, да и, вероятно, в ней гораздо более высокий уровень качества работы с клиентами, чем у компании без таких особенностей. Также заслуживает внимания сама модель накопления знаний, стратегия повышения квалификации сотрудников: откуда они черпают новые знания, есть ли какая — то внутренняя энциклопедия, наработаны ли компанией некие уникальные технологии продвижения. Изучив все эти данные, вы составите достаточно полное представление о том, способна ли эта конкретная компания послужить вам подходящей площадкой для развития. Ведь вас интересует развитие? Деньги — то, как я сказал в самом начале, приложатся. Есть они в SEO, есть.

 

SEO и алгоритмы поисковых систем: ключи, отмычки, кувалды

Их служба и опасна, и трудна, и бессонна. SEO — аналитики – белая кость и красные глаза оптимизации. Вопреки расхожему мнению, они не «взламывают “Яндекс”», а пробуют разгадать механизмы его работы, его «предпочтения». Они не пифии — предсказательницы, а кадровые разведчики, занимающиеся тяжелой исследовательской работой в поле чистой эмпирики. Из скудных данных им нужно выцедить ответы на тьму вопросов: какие факторы ранжирования сайтов доминируют сегодня и в какой пропорции, могут ли алгоритмы «Яндекса» выйти из — под контроля, что происходит с технологией машинного обучения MatrixNet, противоречат ли отдельные требования «Яндекса» и Google друг другу? Свою точку зрения на эти и прочие вопросы в дискуссии с авторами книги высказал Сергей Людкевич, начальник отдела аналитики системы WebEffector.

Как продвигать сайты при ныне действующем алгоритме «Яндекса» MatrixNet? Ведь если степень влияния того или иного фактора меняется в зависимости от региона и запроса, нельзя точно знать, как действовать. Неужели только методом проб и ошибок?

Сергей Людкевич: Нужно учитывать следующие свойства запроса:

• коммерческий или некоммерческий характер;

• регион;

• геозависимость или геонезависимость.

Именно по перечисленным параметрам алгоритмы существенно разнятся. Например, для коммерческих запросов все еще вполне неплохо работают коммерческие ссылки. Для некоммерческих они практически бесполезны. Но сайты все — таки, как правило, продвигаются именно по коммерческим запросам.

Гораздо острее ситуация в случае с региональностью запросов. В разных регионах

– различные алгоритмы (формулы) для геозависимых запросов. Отдельно для Москвы, отдельно для Санкт — Петербурга, отдельно для каждого из городов релиза «Арзамас+16», отдельно для всех остальных – так называемая общероссийская выдача с бонусом для сайтов из данного региона. А все геонезависимые запросы ранжируются общероссийским алгоритмом. Он очень сильно отличается от алгоритма для Москвы и от алгоритмов для городов релиза «Арзамас+16». Все это, естественно, вносит дополнительные сложности в продвижение. Ну а метод проб и ошибок всегда был на вооружении у оптимизаторов.

Формула для остальных регионов не учитывает множества факторов или их значимость очень мала, правильно? Это сделано скорее потому, что в регионах еще не настолько сильная конкуренция и сами сайты недостаточно хороши или же просто невозможно за всеми уследить?

С. Л.: Я не думаю, что формулы для регионов не учитывают каких — то факторов, которые, к примеру, есть в формуле для Москвы. Скорее всего, они строятся по другой обучающей выборке с преобладанием сайтов данного региона.

За несколько лет существования в MatrixNe добавилось множество новых факторов. А поменялся ли сам алгоритм? Если да, то как?

С. Л.: Суть текущего подхода «Яндекса» к построению алгоритма ранжирования – машинное обучение. MatrixNe был революционным в том смысле, что позволил без больших вычислительных затрат учитывать в ранжировании существенно больше факторов, чем предыдущий алгоритм машинного обучения. Вместе с тем факторы добавляются, но машинное обучение как таковое остается. Гораздо более значимая революция совершилась во времена релиза «Магадан» (или чуть раньше), когда произошел переход от аналитической формулы к машинному обучению.

Но, кроме построения формулы с помощью машинного обучения, есть куча предфильтров и постштрафов: создаются новые, модифицируются старые. Развитие алгоритма на текущий момент, с моей точки зрения, заключается преимущественно в создании «костылей» и «подпорок» к тому, что выдало машинное обучение. Дело в том, что в результате машинного обучения получается формула, не имеющая физического смысла. И трудно понять, что нужно подправить на входе, чтобы на выходе получались осмысленные результаты. Поэтому кое — что приходится править с помощью надстроек – фильтров и штрафов.

Оптимизаторы часто слышат о появлении новых факторов ранжирования сайтов. А какие факторы ушли в прошлое? На что «Яндекс» перестал обращать внимание?

С. Л.: Например, на содержимое метатега keywords, учет которого имел место в начале 2000 — х. А если серьезно, дело в том, что алгоритм машинного обучения может счесть часть факторов незначащими и присвоить им в конечной формуле нулевые веса. Сегодня набор незначащих факторов будет одним, завтра, после пересчета формулы по новой обучающей коллекции, другим. Наверняка разработчики отслеживают, какие факторы остаются незначащими на протяжении нескольких пересчетов, и впоследствии принимается решение об их физическом исключении из алгоритма. Но извне достоверно определить, с каким весом тот или иной фактор участвует в формуле, практически невозможно.

Предположим, наша задача – проверить влияние того или иного фактора. Как правильно поставить эксперимент, чтобы не принять совпадение за тенденцию? Каким должен быть объем выборки?

С. Л.: Многое зависит от того, какой именно фактор вы собираетесь исследовать. И есть ли вообще он в алгоритме. Увы, сейчас проверить влияние большинства факторов нельзя ввиду невозможности убрать шум, даже если вы наверняка знаете, что представляет собой тот или иной фактор. Дело в том, что для чистой проверки работы одного фактора необходимо зафиксировать все остальные, включая временные. Иначе говоря, создать достаточное количество одинаковых тестовых страниц, которые будут различаться между собой значением одного — единственного изучаемого фактора, практически полных копий. Но зачастую и этого мало, так как результат может зависеть от комбинации искомого фактора с каким — то другим, причем вам неизвестно каким. И при разных значениях второго фактора исследуемый будет вести себя по — разному. Также нужно понимать, что, изменяя значение проверяемого фактора, вы можете изменить значение других факторов, которые вы обязаны зафиксировать. Все это сильно зашумляет эксперимент, обычно приводя к недостоверности результатов. Те же факторы, которые поддаются проверке с достаточной степенью достоверности, должны быть настолько мощными, чтобы шум не мешал их анализу. Пример – кликовые факторы.

Значит, по вашим наблюдениям, кликовые факторы играют значительно большую роль, чем многие другие? А не преувеличивает ли «Яндекс» степень их влияния?

С. Л.: Да, они играют колоссальную роль по сравнению с прочими. По крайней мере, я не знаю другой группы факторов, которая в одиночку позволяла бы, несмотря на значения всех остальных, довольно быстро выводить сайты в топ из ниоткуда. И, на мой взгляд, здесь налицо явный дисбаланс, да еще эти факторы имеют положительную обратную связь. Происходит «консервация» топов, и это еще не худшее. Худшее – то, что кликовые факторы весьма уязвимы по отношению к внешнему искусственному влиянию.

Должен ли «Яндекс» использовать только действительно нужные факторы, или можно добавлять бесконечное количество даже, казалось бы, бесполезных метрик (условно говоря, «количество гласных букв в слове»). Может ли из — за этого алгоритм выйти из — под контроля?

С. Л.: Мне трудно судить, что «Яндекс» должен, а что не должен. Я не вижу их метрик, мне неизвестно, что с ними происходит при добавлении абсурдных факторов. Но мне представляется, что безграничная вера в машинное обучение, в то, что чем больше факторов, пусть самых нелепых, тем лучше, – это не совсем правильно. Как сказал сотрудник Google Владимир Офицеров, «если формулу понять нельзя, то ее нельзя и улучшить». Эта позиция мне больше импонирует. Получается, что сотрудники «Яндекса» пытаются улучшить свою формулу, жонглируя факторами, придумывая их новые комбинации, в надежде на то, что умный алгоритм обучения сам все разложит по полочкам. Но не всегда выходит так. Вообще, машинное обучение создает опасную иллюзию, что любую проблему можно решить легко и быстро, особо не вникая в физический смысл. Нужно только придумать побольше разнообразных факторов, собрать достаточно широкую обучающую выборку и засунуть все это в MatrixNet. Получили неважный результат? Надо поколдовать с факторами. Помножить количество латинских букв в тексте документа на количество запятых на сайте и засунуть внутрь. Ого, значение метрики увеличилось на две миллионные. Хороший фактор, оставляем. Пусть будет «фактор имени меня». Так, что бы нам еще эдакое придумать?

Развитие службы асессоров «Яндекса», расширение ее штата тоже следствие необходимости постоянно корректировать алгоритм? Убери сейчас асессоров, и выдача превратится в кромешный ад или не все так страшно?

С. Л.: Асессоры – это люди, которые размечают обучающую выборку для алгоритма ранжирования. Это неотъемлемая часть машинного обучения. Не будет асессоров – не будет обучающей выборки. Не будет обучения – не будет выдачи вообще. Часто асессоров путают с сотрудниками отдела анти — SEO, с теми, кто вручную накладывает санкции на сайты. Да, есть такие специалисты, которые глазами просматривают кучу сайтов и решают, для людей те или нет, учитывать ли с них ссылки и т. д. И они уже в том числе составляют обучающие выборки для антиспам — алгоритмов.

Нужны ли вообще «Яндексу» фильтры, если теоретически MatrixNe должен сам не пускать в топ «плохие» сайты?

С. Л.: Вот — вот, только теоретически. Но возрастающее количество штрафов и фильтров свидетельствует о том, что результат далек от идеала. И итог деятельности хитрого механизма приходится по старинке править кувалдой. Не исключено, что со временем все фильтры и штрафы сольются в настолько мощную надстройку над результатом машинного обучения, что тот не будет оказывать заметного влияния на конечную выдачу. И в итоге мы опять получим вместо машинного обучения аналитическую формулу.

С чем, по — вашему, связана разница в политике поисковых систем относительно апдейтов: у Google корректировки выдачи происходят ежедневно, а у «Яндекса» – раз в пятьдесять дней?

С. Л.: Может быть, дело в мощностях?

Кстати, а что с Google? Каков общий принцип работы его алгоритма?

С. Л.: Google более закрытый, чем «Яндекс», в плане освещения особенностей алгоритма ранжирования, но, судя по тем скудным обрывкам информации, что доходят до нас от его сотрудников, там имеет место аналитическая формула ранжирования. Какие — то ее параметры могут рассчитываться с помощью машинного обучения, но не вся формула, как это происходит в «Яндексе». Может быть, Google уже прошел путь обратной эволюции от полностью машинного обучения назад к аналитической формуле?

Есть ли у «Яндекса» и Google явно противоречащие факторы? Такие, что из — за них, делая страницу «хорошей» для одной поисковой системы (ПС), мы ухудшаем показатели для другой. Как тогда быть?

С. Л.: Возьмем, к примеру, один из последних штрафов «Яндекса» – за переоптимизацию. Штрафуются документы, которые имеют достаточно большое количество подзаголовков (h1)… (h6) и тегов логической и физической разметки (b), (strong), (i), (em). В Google за такое не штрафуют. Наоборот, это может сработать в плюс.

И как же поступить несчастному оптимизатору, чтобы угодить всем? Ведь не секрет, что среднестатистический сайт гораздо быстрее может оказаться в топе Google, но в перспективе «Яндекс» способен обеспечить больший трафик.

С. Л.: В русскоязычном поиске осталось всего два поисковых движка. Ситуация еще не самая плохая. Конечно, как и вообще в жизни, приходится искать разумные компромиссы.

Чего сейчас больше в SEO – математики или маркетинга? Ведь, с одной стороны, сами ПС действуют по математическим формулам и хорошо бы их разгадать, с другой же – по мнению ряда специалистов, если делать сайты для людей (полезные, интересные, юзабельные), ни к чему думать о формулах, сайт поднимется и так.

С. Л.: Без математики пока никуда. Полезные и интересные сайты, может, и поднимутся без специальных технических действий, но не очень быстро. Если вообще когданибудь поднимутся.

После того как оптимизаторы «разгадывают» какой — то фактор и начинают им злоупотреблять (поведенческие факторы, например), «Яндекс» усложняет его алгоритм. А усложняет ли он себе тем самым жизнь? Получается, вместо учета большого объема данных ему приходится отсеивать шум. С другой стороны, если бы не было оптимизаторов, алгоритмы ПС развивались бы значительно медленнее? Можно ли сказать, что SEO – двигатель прогресса в поиске?

С. Л.: Если бы не было оптимизаторов, поисковикам жилось бы много проще. Не нужно было бы расходовать колоссальное количество энергии на противодействие попыткам манипулировать результатами поиска. Так что двигателем прогресса я бы SEO не назвал. Впрочем, SEO – это не что иное, как поиск экстремума той формулы, которую создают поисковики. И SEO в конечном счете способствует тому, чтобы оптимальное решение не выглядело уродливым. Хотя, по идее, поисковикам следовало бы об этом заботиться загодя, а не после того, как оптимизаторы наглядно продемонстрируют уродливость оптимального решения для текущей формулы. У меня складывается впечатление, что разработчики поисковых систем заранее практически не учитывают возможности искусственного влияния на тот или иной фактор, не просчитывают ситуаций, к которым такое влияние способно привести, и в итоге мы получаем линкбомбинг, текстовые «портянки» или кликерские клубы.

Ну и напоследок: нужно ли «пить водку с “яндексоидами”», чтобы успешно продвигать сайты?

С. Л.: Питие водки с «яндексоидами», к сожалению, не является фактором ранжирования.

 

Сгинь, нечистая! История и эволюция нечестных методов поисковой оптимизации

В беседе с авторами книги Сергей Цыплаков, создатель и руководитель биржи MainLink (h p://www.mainlink.ru), и Алексей Жуков, известный как burunduk, руководитель аналитического отдела UnMedia (h p://www.unmedia.ru), накопившие большой опыт в SEO с первых лет его существования в российском Интернете, углубились в историю «пограничных» методов поискового продвижения – историю безответственных авантюр и тонкой аналитики единовременно. Вместе с ними мы постарались понять, что заставляло и заставляет веб — мастеров либо нарушать гласные и негласные требования поисковых систем, либо искать не до конца регламентированные способы SEO, прежде всего с точки зрения ссылочного продвижения.

Что, условно говоря, легитимно, с точки зрения поисковиков, где пролегает эта граница сегодня и как она менялась?

Сергей Цыплаков: До того как возникло ссылочное ранжирование, в продвижении преобладали ключи. Как только владельцы сайтов принялись поголовно употреблять ключи, и к тому же помногу, «Яндекс» принял меры. Позднее, в 2002 – 2003 годах, актуальными оказались SEO — методы, связанные с текстами.

В 2004 году «Яндекс» заявил, что для того, чтобы нормально ранжировать сайты, он станет учитывать ссылки. Вначале были обменные сети, которые плодились как грибы после дождя. Один веб — мастер обменивался с другим ссылками, и выигрывали оба. Чуть позже расцвели автоматические системы обмена с разными схемами: использовались перекрестные ссылки, задействовалось огромное количество страниц на тьме — тьмущей сайтов. Тогда «Яндекс» за это не банил, метод был действенным. В BDBD (h p://www.bdbd.ru/) даже создали систему автопродвижения: в нее вводился сайт и на него мигом автоматически ставилось множество ссылок, и эта механика какое — то время оправдывала себя.

Постепенно обмен перестал быть обменом в классическом понимании. Возобладала коммерческая составляющая: люди стали платить за ссылку. Это было выгодно как вебмастеру, так и оптимизатору. Веб — мастер зарабатывал деньги, оптимизатор добивался желаемого эффекта. Как раз в ту пору создавалась биржа MainLink, поначалу не имевшая никакого интерфейса: одна страничка, где фиксировалось, кто кому и сколько должен заплатить.

В 2005 – 2006 годах работало ссылочное продвижение через главные страницы. Ссылки размещались на титульной странице, обычно внизу. «Яндекс» на это никакого внимания не обращал год — два. Клиенты были счастливы. Но и гигантского трафика с «Яндекса» на площадки не шло.

Так, сайт VIP — eatr.ru продвигался 30 ссылками с главных страниц по запросам «билеты в театр», «билеты в ленком», «билеты в большой театр». Он по всем ключевым словам был первым в топе около полутора лет. Затем открылся Sape, приобрели значение внутренние страницы. Хватало $80 — 200 на раскрутку. Тогда внутренние страницы стали работать еще лучше, они были дешевле. Первая ссылка на внутренней странице у Sape стоила 3 руб. Действовал такой неписаный закон: ссылка должна стоить 3 руб. И тысяча таких ссылок в 2006 – 2007 годах вытягивала вверх любой запрос. В конце концов завелись ушлые веб — мастера, которые облапошивали рекламодателей, зарабатывая деньги, но не показывая ссылки. Обычно такое проворачивали на чужих ресурсах: сидит админ сайта, и ему надо подзаработать. Чтобы клиент не увидел, он изгалялся, придумывая, как закамуфлировать ссылку под цвет фона, сдвинуть вправо — влево, задействовать невидимый слой. Таких способов насчитывалось множество. Создавались даже мини — агентства – фирмы — посредники, которые выкупали сайт или доступ к нему, ставили на него свой скрипт и размещали на нем ссылки.

Поисковики не реагировали на эти ухищрения?

С. Ц.: Поисковая система, особенно «Яндекс», крайне инертна и неповоротлива в своих решениях. Если Google на заре своего становления продекларировал: «За ссылки я вас буду банить, вы нарушаете наши законы» (Google американский, с российским иначе), то у нас, вместо того чтобы соблюдать рекомендации «Яндекса», пытались обжулить его с удвоенными усилиями. «Яндекс» упустил время. Ему нужно было ссылки разбомбить в 2006 году, когда Sape открылся. Возможно, в ту пору его действия увенчались бы успехом.

Алексей Жуков: Впоследствии, когда поисковики начали наказывать за массовую продажу ссылок, веб — мастера пытались прятать эти ссылки. Доходы никто терять не хотел. Было придумано много вариантов клоакинга. Сначала пробовали не показывать эти ссылки только «Яндексу». Были, да и сегодня встречаются индивидуумы, которые обманывают клоакингом саму биржу: ей показывается, будто ссылка есть, а остальным – что ее нет. Очень жесткая форма обмана, но, к счастью, она хотя бы выявляется, пусть даже с наибольшей надежностью лишь ручными методами. Только с наступлением эпохи агрегаторов – SeoPult, Rookee и пр. – ссылки начали автоматизированно проверять на всевозможные виды клоакинга.

Маленькое отступление: в 2006 – 2007 годах я нашел забавный способ объегорить биржу – ставить ссылку в стандартном HMTL — комментарии. Робот биржи понимал, что ссылка стоит, но она же закомментирована. На странице не отображалась, и поисковая система ее не видела. Достаточно долго биржа на это никак не реагировала.

(! –(a href="h p://www/site.ru")анкор ссылки(/a)–)

С. Ц.: В 2006 – 2007 годы, когда ссылки стали «клоачить», по Интернету даже гуляли базы IP «Яндекса» и Google, которые подставлялись, притом обновляясь, чтобы все (рекламодатель, веб — мастер, оптимизатор) видели ссылки, а «Яндекс» в упор не замечал.

А. Ж.: «Яндекс» потом сам открыл, как проверять его IP, – обратным запросом. Не так давно, когда проблемы с клоакингом приобрели нешуточный масштаб, в «Яндексе» была найдена уязвимость. Можно было посмотреть, зайдя с IP «Яндекса», как отображается ресурс. На данный момент она доступна только из браузера. Но хитрые веб — мастера нашли выход. В общем, если стоит запрет на отображение донора в данном сервисе, то, скорее всего, что — то нечисто.

Много ли сейчас таких сайтов? Как менялась обстановка после 2007 года?

С. Ц.: Около 5 % всех ссылок имеют так или иначе выраженные нарушения, либо осознанные, либо неосознанные. На сегодняшний день все способы сокрытия известны. Раньше что — то еще было в диковинку: noindex, nofollow, robots.txt. Очень много ошибок в robots.tx веб — мастера делают из — за неправильного составления написания, не придерживаются формата. Зачастую не учитывают, что robots. xt нужно создавать отдельно под «Яндекс» и под Google. А они делают один: мол, под «Яндекс» – значит «под все».

На 5 % впору рукой махнуть – отклонения в пределах допустимого. Но это сдерживающая сила: если хоть биржа, хоть оптимизатор, хоть агрегатор, хоть конечный клиент опустит руки и не будет выявлять нарушения, все будет куда хуже.

А. Ж.: Что до 2007 года, как раз тогда, по — моему, был популярен запрет индексации ссылок через sitemap. Указывалось, что страница важная, но переиндексировать ее не надо. Тогда много площадок с Sape улетело.

С. Ц.: Следуем дальше. 2008 год. АГС. Что это означает? Был сайт с хорошим, да пусть даже с не очень хорошим контентом, включавший множество страниц. И «Яндекс» издал указ, по которому все такие сайты автоматически понижались в рейтинге. Не очень правильное решение. Если раньше у сайта было в индексе около 1000 страниц, то осталось 10 – 15. Но ссылки, которые ранее были куплены на тех тысячах страниц, остались. Ведь оптимизаторы не имеют возможности проверять каждую ссылку ежедневно. Ссылка остается висеть, страницы в индексе «Яндекса» нет, но работает ссылка или нет, большой вопрос.

А. Ж.: У меня сайт одним из первых попал под АГС, причем не под тот, что до десяти страниц индекс сайта сворачивал, а под другой, который был намного раньше включен. Страницы на том ресурсе были следующими: одна большая фотография, несколько маленьких да одна подпись. Плюс ссылки на другие страницы с фотографиями. Никакого контента. Картинки в индексе были, картиночный трафик был, а сами страницы – удалены из индекса. Причем у сайта оставалось на тот момент около 300 – 400 страниц в индексе. Потом, когда АГС включили, их количество еще подсократилось, хотя реально на сайте было около 2000 страниц. И с них внутренние ссылки работали, перелинковка работала. С НПС и внешними тоже порядок был.

Слегка отойду от заданной темы: сейчас у «Яндекса» с индексом тоже проблемы, когда под новую дату кэша выставляется старая страница, причем может быть выведена несуществующая, которой нет добрых полгода. Несмотря на обилие дата — центров в «Яндексе», все равно база грязная и не так часто обновляется, как хотелось бы. Хотя, насколько я понимаю, они хранят вообще всю информацию по сайту, которая когда — либо появлялась.

С. Ц.: Вернемся в 2008 год. Тогда Константин Каширин сделал сервис проверки на непот. Это была золотая жила – якобы проверка работоспособности ссылок с донора посредством языка запросов. Чтобы понять, участвует ли в поиске данная страница по тому или иному анкору с некоего донора, может ли она попасть в поиск.

Потом отключили операторы #link и ancor. Это был болезненный удар по оптимизаторам. Да что там – одна из ядерных бомб на SEO. Дальше операторы начали отключать один за другим. Были какие — то недокументированные. Порой до сих пор оператор существует, но показывает белиберду. Одно время в BDBD хотели запустить биржу Indexoid. Они фиксировали дату индексации ссылки с помощью языка запросов «Яндекса». Завязались на один запрос. Но это их не спасло.

Ссылочные базы бирж все приохотились парсить, стали свои белые списки формировать. Но эта волна быстро спала.

Поисковики начали закручивать гайки. То, что работало для одного, могло не работать для другого. Одно время ходила хохма: мол, если ссылка с точкой на конце, значит, она работает. А без точки – нет. Был еще экзотический способ: в конце ссылки ставили /n, перевод на следующую строку. Мне один клиент прислал ссылку со словами: «А если взять простую ссылку, без этой каретки, то донор находится под непотом. А когда ее добавляешь, донор работает». Ссылки стали разнообразиться. Их начали делать с разными ухищрениями (абракадабра, текстовые простановки и пр.), чтобы узнать, работают ли они. Это вошло в моду. Перед тем как закупаться, большой оптимизатор ставил несколько ссылок на сайт, смотрел, работают они или нет, анализировал обстановку.

2008 год был переломным для оптимизации?

С. Ц.: Он точно был переломным для «Яндекса». Именно тогда он объявил войну SEOссылкам. Биржам, между прочим, войну не объявляли. Если бы объявили, то, наверное, сразу бы их забанили.

Положа руку на сердце, Россия – уникальная страна с точки зрения ссылочного ранжирования. В Рунете на 2009 – 2010 годы «живых», активных сайтов был миллион, из них биржи заняли 60 %. Сравним с Google. Это несколько триллионов сайтов, и из них участвующих в линкоторговле, наверное, 0,5 %. Упомянутые наши 60 % надо было, возможно, сразу срубить под корень, но тогда осталась бы абсолютная помойка – всякие дорвеи и иже с ними. «Яндекс» упустил момент. Не знаю, жалеет он или нет. Процент ГС сохраняется, и ситуация необратима. Даже «публичные порки» ее не изменят. Если отменить ссылочное ранжирование, в топе останется шлак.

А. Ж.: Кроме ссылочных, нет других факторов, которые позволяли бы достаточно хорошо отранжировать сайты. «Яндекс» постепенно снижает влияние ссылочного ранжирования, но полностью от него никогда не откажется. Это невозможно.

Какие способы обмана со ссылочным продвижением использовались позднее, вплоть до настоящего времени?

А. Ж.: Последнее веяние – это когда ссылка… есть. Заходишь на страницу – ссылка вроде стоит. По ней переходишь – все чисто. Ведь как проверяется ссылка? Проиндексирована – не проиндексирована. Что ищется? Анкор ссылки на конкретной странице. Итак, анкор наличествует. Но это не ссылка. Это может быть кусок текста. А биржа «клоачится». Отследить такой финт сложно. Выполняется клоакинг робота биржи, чтобы тот видел ссылку, либо она в комментарии вставляется.

С. Ц.: Проверки, естественно, проводятся у всех, но вот если, например, есть каскад (комментарии) или вложенность, то структура документа нарушается и ничего нельзя отследить. Когда имеется вложенный документ – один в другой, другой в третий, – а тег берется из другого и эти области накладываются друг на друга, робот не понимает, что это за страница и что с ней происходит. Удастся ли его провести – фифти — фифти.

(noindex)

(table)

(tr)

(td)какой — то текст(/td)

(/noindex)

(td)какой — то текст(/td)

(/tr)

(tr)

(td)(a href="h p://www/site.ru">анкор ссылки(/a>(/td>

(td>какой — то текст(/td>

(/tr>

(/table>

А. Ж.: Было дело, «Яндекс» не вполне корректно обрабатывал тег noindex. Можно было закрыть с помощью noindex одну часть таблицы, а после (/noindex> в тот же блок ставилась ссылка, и она попадала в noindex. Разрыв тега нарушал структуру. Например, начинается таблица, тег noindex стоит перед ней, а закрывающий тег – внутри нее, после какой — то строки. А на следующей строке – ссылка. Вроде как она не закрыта noindex, а поисковик всю таблицу забирал. Формально нарушений нет, с точки зрения веб — мастера.

Предъявить ему нечего, но ссылка не индексировалась.

Одно время веб — мастера очень любили использовать для ссылок «бегущие строки». Они индексируются, но очень долго. «Бегущая строка» шла по сайту обычным тегом, и в него вставлялись ссылки. «Яндекс» почему — то не хотел индексировать его содержимое – индексировал с изрядной задержкой. Проиндексировал он страницу – и ты тотчас добавил ссылочку в «бегущую строку». А появлялась она в индексе только через три месяца. Вебмастер три месяца получает деньги, избегая кары. Потом ему надоедало, он снимал эту ссылку. А в кэше ничего криминального не оказывалось, санкций не было.

Когда начали предъявляться более строгие требования к площадкам: «Статья должна быть уникальной» и т. д., возникла мода генерировать кучу бредотекста. В индекс он влетал на ура. Но если оптимизатор заходил на такую площадку и начинал ее изучать, то, естественно, он плевался. Значит, посетителю сайта нужно было показать что — то более или менее нормальное. Что делали? Брали какой — то сайт из «Яндекс. Каталога» и подсовывали его пользователю. (До сих пор работает.) А поисковику показывался бред полнейший. Причем если оптимизатор был неопытный, пытался скопировать часть текста со страницы вроде бы хорошего сайта, вставлял в какую — то программу, чтобы с помощью поиска проверить фрагмент на уникальность, то получал подтверждение, что текст абсолютно уникальный, в индексе нигде ни фразы, кроме как на рассматриваемом сайте.

С. Ц.: Отдельная тема – создание ГС. До сих пор эта индустрия процветает. Конечно, есть мнение, что хороший сателлит стоит от $500. Но именно хороший. У многих умельцев процесс автоматизирован. Они пишут свои программы, скачивают сайты, что — то видоизменяют, выкладывают в Сеть, ждут, когда это загонится в индекс хоть как — то, и сразу на биржу бегут.

А. Ж.: Есть более продвинутые, которые ничего не пишут. Просто в онлайн — режиме парсят контент с другого сайта и бирже это показывают. Единственное, добавляются ссылки. На хостинге находится только данный скрипт и фрагмент кода, скрипт с Sape например. Сайт выглядит прилично, его принимают в биржу. Ну почему не принять — то? Иные площадки такого сорта существуют очень долго. Мне известен сайт с бредом в коде (посетителям и роботам подсовывается сравнительно приемлемый контент), существующий больше года. Там 3000 страниц, и через Sape на него продано приблизительно 1700 ссылок. Даже если одна ссылка стоит рубль – средняя цена составляет 3 руб., но там показатели никакие, – выходит 1700 руб. в месяц. Ни с чего. Веб — мастеру в карман. Ну и биржа получает свой процент. Такие ссылки, конечно, все менее действенны. Раньше эффект приносила любая.

С. Ц.: Все больше и больше фильтров вводится, все меньше и меньше ссылок работает. Но не работать совсем они, наверное, не могут. У «Яндекса» есть вероятность срабатывания, вот что хорошо. Не «0 или 1», а какое — то промежуточное значение.

А может ли ссылка работать в минус?

С. Ц.: Да. Кстати, это один из большущих недостатков любого поисковика. Неоднократно в порядке эксперимента брали сайт, прогоняли по форумам, как — то еще гадили – и он валился. Даже в 2012 году целая индустрия существует – заплюй конкурента и вылези в топ. Или скопируй сайт конкурента и насоли ему. Новомодное направление – исправление репутации в Интернете. Создаешь сайт «Вася Пупкин – дегенерат», он попадает в топ, а потом Васе Пупкину сам же и предлагаешь услугу «ассенизатора» за хорошие деньги.

А. Ж.: В свою очередь, купив некачественные ссылки на бирже самостоятельно, веб — мастер сегодня рискует ухудшить свои показатели. Часто ругают SeoPult, Rookee, WebEffector, но самостоятельно многие вещи человек малознающий не сумеет сделать с той же эффективностью, что и любой из агрегаторов.

Чаще встречается обратное мнение, что агрегаторы покупают такие ссылки, которые заводятся под фильтры. Насколько это обоснованно?

А. Ж.: Я вправе говорить только с точки зрения SeoPult. Да, мусор встречается, любой автомат дает какой — то процент брака. У SeoPul сложная проверка доноров, вплоть до того, что все будто бы хорошо, но на сайте 30 – 40 % ссылок не индексируется. Донор в таком случае будет просто — напросто выкинут из системы. Ссылки переиндексируются, но примерно через полгода. Даже если я сам буду закупать, многие вещи в ручном режиме не замечу.

Человек не может проверить качество донора, закупаясь в SeoPult?

А. Ж.: Что — то он проверяет. При ручном отборе можно что — то просмотреть, но любой агрегатор, любая биржа обладает большей информацией. У них статистики больше. Я сам оптимизатор, у меня два проекта. Сколько я на них могу ссылок купить? На скольких донорах? Нужно перебрать достаточно большое их количество. У агрегатора эти данные есть. Он знает, что с такого — то донора ссылки не работают, хотя все индексируется. Закупка ведется, а роста позиций нет. У фрилансеров таких данных нет – им неоткуда взяться. Но чтобы оценивать площадки по другим параметрам самостоятельно, нужно быть опытным оптимизатором, каких единицы.

С. Ц.: С другой стороны, здесь можно применить концепцию «Яндекса» – «сайт для людей». Если ты будешь каждого донора проверять вручную, визуально, и хотя бы ставить себя на место поисковой машины, и открывать страницы «в режиме робота», это будет объемная работа. Для одного проекта ее можно выполнить за неделю.

А. Ж.: Одного — двух. А если у тебя пять — шесть проектов? А если у офлайнового бизнеса делается сайт, кто будет анализом заниматься? Генеральный директор сам примется выбирать ссылки? Оно ему надо? Да и надо в предмете разбираться все — таки.

Агрегаторы дают погрешность. Кто — то считает, что большую, кто — то – что маленькую. Вместе с тем у агрегаторов уйма режимов.

Пришел один: «Ба, агрегатор! Замечательно!» Запрос «реклама», или «ксерокс», или «Sony». Агрегатор ему показал бюджет. Он залил в систему деньги, неделю ждет. Топа не достиг. Уходит. Но, извините, такие вещи сейчас не проходят. Это раньше, еще в старые времена выстреливало. Система не может предугадать все выкрутасы владельцев сайтов. Вот имярек начитался умных форумов, стал твердить, что нужно продвигаться по куче слов. Спарсил эту кучу слов, составил семантическое ядро. Реальный пример: «готовые фирмы»,

«Готовые фирмы», «фирмы готовые» – тьма вариантов. SeoPul реально показал ему по каждому слову бюджет. Он закупился по каждому запросу. Превысив бюджет фактически в семь — восемь раз. Был ссылочный взрыв. В интерфейсе ведь тоже надо разобраться. Там написано: «Закупать плавно». А все хотят сразу, быстро. Мораль: агрегатором тоже нужно уметь пользоваться.

А если посмотреть на текущие способы заработка на сайте глазами веб — мастера?

С. Ц.: Для веб — мастера биржи скорее благо. Но если он единовременно начинает сразу много зарабатывать на площадке, это сказывается на ее качестве. Его банят, или он под всевозможные ссылочные санкции попадает, одна из них – «ссылочный взрыв». Это зло как для веб — мастера, так и для оптимизатора. Вроде владелец сайта хочет заработать, рекламодатель купить ссылки. Но когда рекламодателей много, возникает угроза. Взять хотя бы агрегатор, где 10 тыс. проектов. Он берет новый сайт – и на том сразу 1 – 2 тыс. ссылок появляется. Это опасность для сайта. Учитывая, что сайт может участвовать не в одной бирже, а сразу в нескольких, да еще и размещать вечные ссылки, статьи, есть о чем задуматься.

Последние несколько лет все актуальнее проблема: нормальных сайтов не хватает. Если один раз веб — мастер узнал, что можно заработать на сайте с помощью ссылок, пиши пропало. Веб — мастеру никогда не объяснишь, что зарабатывать на сайте нужно постепенно.

А. Ж.: Подходы разнятся. Есть те, кто создает ГС с целью по — быстрому отбить вложения, и они что угодно вешают. Например, в домен, хостинг, сайт вложили 400 руб. Им нужно эти 400 руб. максимально быстро окупить. Отбили за полмесяца, а дальше работаем в плюс? Чудесно. Убили его – и пусть. Они на автомате это делают.

Кстати, к разговору о фильтрах. Были фильтры, которые отключали исходящее ссылочное с сайта. Ссылка была в индексе, но она никак не работала. Раньше это проверялось, теперь сложнее. Причем сайт мог находиться в топе по своим запросам. Сайт хороший, трастовый, но на нем решили заработать. Поисковик решил его не выкидывать, а просто отключить ему исходящее ссылочное. Под фильтром томились и КП17, и «Аргументы и факты».

Там были люди, которые пользовались своим положением?

С. Ц.: Да. Даже редакция добро давала. Одна ссылка на Regions.ru – тИЦ 15 000 или около того – стоила $800. А у МК18 и КП всю жизнь выкупали по $270. Мы даже ссылки закупали у МК на MainLink, у нас переходы были оттуда. Но не работали эти ссылки. Они если и работают, то на новые факторы больше, поведенческие.

А. Ж.: Сайтов перестало хватать, а желание заработать все усиливалось и усиливалось. Стоимость ссылки как прежде всего оценивается? По PR, тИЦ, DMOZ, ЯК. Научились «клеить» домены – в биржу фейк добавлять. Берется любой домен, «подклеивается» к какомуто хосту – тИЦ 300, помнится, какое — то время часто встречался, – туда кладется какой — то контент. Сайт добавляется в биржу. Параметры есть, все нормально. Поставили – и в путь. Да и сейчас таких сайтов предостаточно. Когда неопытный человек закупается напрямую на бирже, он на эту удочку рискует попасться.

С. Ц.: Но мы давно такой тИЦ научились «отклеивать». Как проверить? Открывается тИЦ сайта, и смотришь, чей сайт. Пользователь, который никогда не покупал ссылок, на глазок не заметит разницы. Откроет сайт, увидит, что тот в «Яндекс. Каталоге» находится – вот его кнопочка с большим тИЦ, – и обрадуется. Купит ссылку в десять раз дороже. А там нет ничего. «Подклейка» что тИЦ, что PageRank действует и сейчас.

Есть даже сайты, на которых выкладываются «зеркальные» базы. Тот же Peterhos «подклеивается» по нескольку тысяч раз за месяц. Появляются новые сайты с «подклеенным» тИЦ, которые успевают добавляться в биржу.

Проверяется тИЦ тремя способами: по «Яндекс. Бару», по «Яндекс. Каталогу» и по самой кнопке. «Яндекс. Каталог» может три разных значения выдавать под каждый из них. У нас даже есть свой алгоритм, как отделить «клей» от «неклея». Если два из них хотя бы не имеют URL, на который ссылаешься, то вероятность «склейки» высока. И полно сайтов – они входят в 5 % погрешностей и нарушений, – которые даже из этих алгоритмов выпадают. Например, «Яндекс. Каталог» и тулбар говорят, что сайт есть в «Яндекс. Каталоге», только кнопка выдает тИЦ 0. Баг это или фича? Думаю, «багофича». С нарушениями веб — мастеров «Яндекс» борется. Все борются. Но веб — мастера изобретают новые хитрости, пытаются использовать все средства для заработка. Поэтому у «Яндекса» даже на уровне обновления базы тИЦ имеет место погрешность, рассинхронизация. Бывает, десять раз нажал кнопку – тИЦ 40. Потом еще раз – тИЦ 50. А после – снова 40. Для нас это головная боль. Вроде обновляешь, но жалобы постоянно: «У меня такой тИЦ, а вы рассчитали другой». Открываем скриншот страницы, откуда взята информация, и тИЦ действительно такой.

А. Ж.: Раньше был еще какой обман? У вас URL страницы написан в нижнем регистре. Настроить сервер так, чтобы отдавать эту страницу в верхнем регистре, не составляет труда. А многие серверы настроили как раз наоборот. Для сервера это разные страницы. Для CMS очень часто это одна и та же страница, на чем нередко играли. Есть страница в индексе, например, в нижнем регистре. А на биржу добавлялась в верхнем. И при проверке индексации страницы биржей показывалось, что страница есть в поиске. Если даже сейчас ввести запрос, он регистронезависимый получается с точки зрения «Яндекса». И при автоматической проверке плагинами (плагином Винка и т. д.) видно, что страница в индекса, а ссылка никак в индекс не попадает. И ссылка размещена. Кэш свежий. А в кэше ее нет. Начинаешь смотреть внимательно, а разница – в регистре URL. Кэш от разных страниц.

С. Ц.: Да, о проверке русскоязычных доменов рф. Они же в базе хранятся как энкодированные. Берешь URL с русскими буквами либо в домене, либо после слэша. И страница вроде есть в «Яндексе», но ссылка все равно в индекс никак не идет. Обычно из — за обмана.

А. Ж.: Иногда такое бывает из — за неправильных настроек сервера. Но бывает и впрямь внаглую совершается обман биржи. Запрос регистронезависимый, и «Яндекс» не может показать две страницы с разным регистром в таком случае, он покажет только одну.

Биржи могут с подобным бороться?

А. Ж.: Давайте откровенно: а зачем бирже с подобным бороться? Агрегатор – другое дело. Бирже все равно, что продавать. А агрегатор за что — то свои 10 % берет: подбор и прочее. Агрегаторы пытаются бороться с этим, но немножко на другом уровне. Они видят, что ссылка на площадке не индексируется, и просто — напросто эту площадку выкидывают.

Способы обмана оптимизаторов, бирж, агрегаторов развиваются, но сила действия все равно будет равна силе противодействия?

С. Ц.: Будем на это надеяться, по крайней мере. Стараться, чтобы у нас процент погрешностей и отклонений вдруг не подскочил. Потому что, если все вольются в атмосферу обмана, нам будет совсем несладко. Пока как таковой проблемы не существует. Она есть, но маленькая.

А. Ж.: С другой стороны, у клиента месячный ссылочный бюджет – порядка 250 тыс. руб. Здесь 5 % – это сколько? Неплохие деньги. Там 5 %, там 10 % нерабочих ссылок. Я утрирую.

С. Ц.: Мы в MainLink постоянно пополняем глобальный черный список. Вебмастера регулярно растягивают целые «портянки» с просьбами, чтобы их снова включили. Когда находится нарушение, мы отправляем сообщение о нем вебмастеру. Обычно первая реакция:

«Я ничего не нарушал, включите меня». После разъяснения редко кто — то признается: «Да, это действительно так, спасите меня, верните мои доходы». В основном либо не понимают, либо «включают дурака». Но процент непонимания очень высок. Говоришь им о вышеописанном случае с верхним и нижним регистром, а люди не знают, что, где и как исправить, потому что у них даже знаний и опыта в настройке CMS и сервера не хватает.

Исправляются ли веб — мастера?

С. Ц.: Отдельные. Процент исправления невысок. Обычно веб — мастер, который совершает нарушения, регистрирует новый аккаунт специально и смотрит: получится – не получится.

А. Ж.: Или по той же технологии новый сайт добавляет.

А если веб — мастер в другую биржу просто уйдет?

С. Ц.: А сколько у нас бирж? Раз, два, три. Из одной выгонят, из второй – и он лишится дохода. Агрегатор у него больше не купит эту ссылку. Выбор узкий. Либо ты решаешь проблему, либо перестаешь зарабатывать на сайте. Если один раз веб — мастер «склоачит», это будет его первый и последний раз.

 

Недобросовестные веб — мастера, или как попасть в черный список

В сравнении с обстановкой десяти– и даже пятилетней давности заработок дается вебмастерам меньшей кровью. Казалось бы, делай сайты для людей (СДЛ), наполняй их толковым контентом, занимайся SEO и юзабилити – и хоть продавай ссылки с них сам, хоть сотрудничай с агрегаторами и биржами. Однако даже при наличии короткой дороги к благоденствию находятся те, кто ищет обходной, энергетически, интеллектуально и финансово менее затратный путь вне зависимости от того, насколько он этичен и приемлем в современной экосистеме поиска. Тактически они даже выгодны системам, стремящимся собрать под своим крылом максимум площадок, однако стратегически они балласт индустрии. О противодействии махинациям веб — мастеров со стороны бирж, о типовых и неклассических, почти безобидных и безусловно вредных хитростях в продаже ссылок мы побеседовали с Сергеем Федюниным, руководителем проектов ссылочной биржи MainLink.

Что нужно делать рекламодателям или тем, кто покупает ссылки, чтобы выявить недобросовестных веб — мастеров?

Сергей Федюнин: Веб — мастер может допускать как явные, так и неявные нарушения. Неявные сложно назвать нарушениями в полной мере. Например, когда веб — мастер размещает ссылку, а она через некоторое время пропадает. Такая ситуация может быть вызвана тем, что у него не работает сайт, возможны проблемы с хостингом, или по IP что — то не пропускает. Его вины как таковой нет, и роботы биржи контролируют подобные вещи – видят, что ссылки нет, и включается «счетчик недоступности». У нас обычно по достижении 15 суток «нахождения в ауте» ссылка списывается автоматически. В течение периода недоступности рекламодатель денег за нее не платит, а веб — мастер не получает платы. Как он разберется со своими проблемами, захочет ли разобраться – его дело.

Другой вопрос – нарушения, которые веб — мастер делает осознанно. Во — первых, сюда относится закрытие ссылок от индексации. Чаще всего используется тег noindex или атрибут rel = "nofollow". Во — вторых, бывает, веб — мастер после добавления сайта в биржу начинает в robots.tx скрывать определенные разделы. Первые два случая – noindex или rel="nofollow" – даже в автоматическом режиме выявляются достаточно просто. Ну а в случае с robots.tx только вручную сам рекламодатель при проверке ссылок может обнаружить.

Но может быть и так, что веб — мастер что — то закрывает на сайте, в том числе через robots.txt, с помощью JavaScrip не из злого умысла, а, например, для улучшения весов страниц? Что делается в таком случае?

С. Ф.: Если рекламодатель обнаружил такую вещь, веб — мастеру, естественно, будет отправлено письмо: «Вам это необходимо исправить». Если веб — мастер вменяемый, не из злого умысла это сделал, то с ним получается договориться. Случается, закрывают что — то, потому что попутно продают сайт.

Это общая практика бирж? Принято сначала делать предупреждение?

С. Ф.: Да. Что касается robots.txt, если веб — мастер говорит, что ему нужно закрыть какие — то страницы, мы отвечаем: «Хорошо, но не продавайте ссылки с этих страниц!» Он:

«Все, без проблем!» И вопрос исчерпан. Деньги, естественно, рекламодателю возвращаются, потому что налицо прямое нарушение.

Наша биржа возвращает деньги рекламодателям за ссылки, которые были скрыты визуально либо закрыты от индексации умышленно. Визуальное сокрытие ссылок – классический вариант. Что делает веб — мастер, когда гонится за доходом? Он, к примеру, на нескольких биржах продает очень большое количество ссылок со страницы и пытается их закрыть так, чтобы и сайт приносил посетителей, и можно было зарабатывать на ссылках. Выявление всех видов нарушений, к сожалению, в автоматическом режиме не представляется возможным. Есть общепринятые способы, которые детектируются автоматически с помощью плагинов и средств самой биржи: применение средств HTML и CSS, клоакинг и т. д. Классика жанра – это (div style ='display none'>. Просто блок ссылок помещается в контейнер div, прописывается вышеуказанный атрибут, и получается, что ссылки на странице не видны, а роботам биржи они доступны. Таким образом, деньги капают, а фактически ссылок нет. Другой вариант – "position:absolute; left:", иначе говоря, применение абсолютного позиционирования. В рейтинге наиболее широко употребляемых способов он занимает второе место. Прописываются lef или op – что угодно, причем совершенно разные значения. Почему — то часто делают именно 500 пикселов. Но я даже видел

-1000000px. Или -5532px. Может быть, это сродни «магическим» приемам?

Делается div шириной в пиксел, и запрещается выход элемента внутри контейнера за границы контейнера – overflow:hidden. Если бы такого свойства не было, ссылка стандартным шрифтом из div просто показывалась бы, а таким образом запрещается показ и получается ссылка маленькая — маленькая, которой не видно.

Распространено применение visibility:hidden – он достаточно просто реализуется тем же самым контейнером div. Размещение ссылки цветом фона страницы также относится к методам HTML и CSS.

Можно еще указать размещение очень мелким шрифтом, но отнести это к полному сокрытию нельзя, хотя нарушением оно является. В подобном случае мы делаем предупреждение веб — мастеру: «У вас ссылки размещены слишком мелко, увеличьте шрифт». Если требование не выполняется, то ссылки списываются и сайту закрывается возможность дальнейшей продажи. Раньше мы просто отписывали веб — мастеру: «У вас скрытые ссылки, вам нужно устранить нарушение в течение такого — то срока, иначе сайт будет забанен». Вебмастер чаще всего исправлялся. В противном случае рекламодателю возвращали деньги и сайту дальнейшие продажи блокировали.

На что вы реагируете жестче – есть ли градация? Бывает, что по нескольку раз «последнее китайское предупреждение» делаете?

С. Ф.: Самая жесткая реакция – на сокрытые ссылки. Как только к нам поступает жалоба, ссылка списывается с возвратом средств, сайт блокируется. Бывает, даже без предупреждения: у веб — мастера в интерфейсе отображается, что за нарушение сайт закрыт от дальнейших продаж. Если он хочет в дальнейшем работать с нами, то обращается к нам. Если нет, то все равно никто у него ссылки больше купить не сможет. Обычно код ставится на все страницы сразу, «сквозняком» – либо в шаблон, либо в случае с ASP. NE с помощью Master Page. Если код прячется в div, то на всех страницах будет одинаково. Где бы у него ни купили ссылку, все равно получат скрытую.

Иначе мы реагируем на неверную кодировку. По данному вопросу у нас есть специальная инструкция, но, к сожалению, не все смотрят, как настроить кодировку вывода ссылок в самом коде. В итоге либо рекламодатели жалуются, либо сами веб — мастера пишут: «У меня что — то непонятное вылезает вместо нормальных ссылок». Если веб — мастер написал, то скидываем ему ссылку на инструкцию, в худшем случае наш технический специалист объясняет ему по телефону, а если недовольство выказал рекламодатель, то веб — мастеру делается предупреждение о том, что ему нужно в течение такого — то срока исправить кодировку ссылок. За размещение ссылок мелким шрифтом тоже полагается предупреждение. Если веб — мастер, будучи уведомлен, не исправляет кодировку или оставляет мелкий шрифт ссылки, точно так же сайт закрывается, а деньги возвращаются рекламодателю. У веб — мастеров, которые допускают нарушения не в первый раз, аккаунт банится, и они больше не могут работать на бирже.

Они могут когда — нибудь реабилитироваться? Допустим, сменился владелец сайта и через полгода он обращается к вам?

С. Ф.: В таком случае могут. Чаще всего либо по телефону звонят, либо пишут на [email protected] лично руководителю службы поддержки. Бывает, что вебмастера ставят на особый контроль и если замечают его в жульничестве повторно, то «отказывают ему от дома» раз и навсегда. Год — два назад у нас менее жестко было, целые эпопеи разворачивались: забанен – разбанен, забанен – разбанен! Как правило, банили сразу аккаунт. Сейчас — то мы сайты определенные закрываем. Но за некоторыми веб — мастерами такой шлейф нарушений тянулся, что мы перестали церемониться. Когда перед нами оправдываются: «У меня ссылка хоть и вынесена за кодом left: — 500px, но я же ее не закрыл и поисковики ее видят», мы объясняем, что поисковики к таким ссылкам относятся негативно. Вопрос сразу исчерпывается, как правило.

Второй вид нарушений, который связан с полным сокрытием ссылок, – это клоакинг. Тоже классика жанра. Здесь примерно 60 % приходится на средства HTML и CSS, а другие способы, в том числе связанные с применением JavaScript, какие — то суперхитрые, составляют 4 – 5 % (встречал своего рода «трехмерное» сокрытие с использование z — index, однако это единичные случаи). Как осуществляется клоакинг? Веб — мастер настраивает все таким образом, что сайт доступен. Прежде всего вычисляются IP, по которым ходят наши роботы – проверяльщики ссылок, и берется два разных контента: один содержит ссылку, другой – нет. И нашим роботам подсовывается контент со ссылкой, а браузерам пользователей и поисковым индексаторам – совершенно другой. Если по IP робота заходить, то ссылку видно, а если своими глазами смотреть, то ссылки нет, и в коде тоже. Отдельные рекламодатели, хорошо разбирающиеся в предмете, сразу присылают нам жалобу на клоакинг, что избавляет нас от необходимости докапываться до того, в чем проблема.

Небольшая ремарка. После того как мы сказали, что возвращаем деньги за скрытые ссылки, многие рекламодатели начинали копаться в своих ссылках и присылали иногда по 30 – 40 страниц сайта, где ссылки якобы нет. Причем с «наездами», с жесткими формулировками: «Это что? Вы обманываете!» По случайности одна — две ссылки могут действительно оказаться скрытыми. В нашей справке даже один раздел называется «Если купленной ссылки нет на сайте» и содержит призыв пользоваться браузерным поиском: просто текст ссылки вводите в поиск, и отлично все находится. Да и то одной — двух ссылок, может быть, нет на сайте потому, что они только куплены и еще не успели проставиться. В ответ на клоакинг мы принимаем жесткие меры. Естественно, допустивший обман веб — мастер лишается той части дохода, которую он с такой ссылки получил. Неважно, сколько времени прошло: месяц, два, полгода. Вся эта часть списывается, и рекламодателю возвращается полная стоимость ссылки, которую он внес. Мы в таком случае даже не берем 20 %-ную комиссию как биржа.

Помню пару примеров, полученных с помощью дополнения FireBug к Firefox. В случае с (ul.style.display ='none') он даже подсвечивает, что эта область скрытая. В ней ссылки расположены, даже разделители есть. Следующий вариант: что — то в CSS прописали, проставили id, указали display:none или еще что — нибудь. Ну и в (div style="position: absolute; op: — 500px"> контейнер содержит весь блок ссылок – он скрыт. В коде это легко видно, а на сайте – нет.

(strong>Что еще в действиях веб — мастеров ведет к тому, что они в конечном счете попадают в черный список?(/strong>

С. Ф.: Что веб — мастера делают в погоне за наживой? Например, постоянно повышают цены на уже купленные ссылки. Подобная ситуация возникает часто. Бывает так, что сайт продает очень много ссылок, но вдруг попадает под фильтр и веб — мастер начинает резко повышать цены, чтобы хоть что — то с него срубить.

Сюда же относится ранее обсужденное нами недобросовестное размещение ссылок: сокрытие, маскировка с использованием цвета фона, закрытие от индексации. Размещение ссылок, которые приводят к выпадению в Error, но в таких случаях веб — мастер зачастую оказывается не виноват: у него какие — то проблемы с сайтом возникают, он даже может о них и не знать. Размещение слишком большого количества ссылок на странице тоже делается в погоне за прибылью. Такие сайты чаще всего оказываются под фильтрами, в черном списке у рекламодателей.

Какими средствами можно обнаружить скрытую от индексации ссылку?

С. Ф.: В первую очередь посредством автоматического контроля – средствами самой биржи, которые позволяют обнаруживать ссылки в Error или те, что находятся в тегах noindex и имеют атрибуты rel='nofollow', то есть неиндексируемые. В случае с визуально скрытыми ссылками нам приходит на помощь полуавтоматический контроль – использование тулбаров и сервисов. У нас существует MainLink oolbar, который видит display none и другие классические варианты. Если на странице явно выставлено (div style ='display none'>, он это распознает, ну или в CSS может увидеть.

SEO — специалисты не зря рекомендуют перед покупкой ссылки воспользоваться специальными плагинами, которые, например, позволяют обнаружить на сайте абсолютное позиционирование. Оно очень редко применяется, чаще всего именно для того, чтобы скрыть ссылки.

Проверка ссылок на индексацию тоже осуществляется. Если сайт сам по себе плохо индексируется, это не очень хорошо: значит, ссылка не будет индексироваться, она будет стоять втупую и «кушать» бюджет, поэтому она тоже удаляется. Мы советуем в случае с «Яндексом», если ссылка не индексируется за 20 – 30 дней, от нее избавляться.

Самым надежным, к сожалению, остается ручной контроль, поскольку только так на текущий момент можно выявить действительно все. Все ссылки проверяются только руками.

Можно ли все проверить вручную?

С. Ф.: Каждую ссылку, в принципе, можно проверить руками, но зависит от того, кто сколько покупает. Если продвижение не требует большой ссылочной массы, прекрасно можно руками все проверить даже на предмет того, есть ссылка на сайте или нет. А с помощью тулбара можно выполнить проверку на индексацию.

Но если ссылок много, невозможно будет вручную все проверять. Каков в среднем по системе процент ссылок неработающих, не приносящих пользу?

С. Ф.: В среднем по системе на каждый миллион ссылок, проданных ежедневно, скрытых ссылок около тысячи (это те, что обнаруживаются), закрытых в noindex – 600 – 700, с rel='nofollow' – около 150. Скрытых может быть и больше, потому что не все удается выявить. В базе у нас больше 640 тыс. сайтов, и вручную проверить все нереально.

Стоит ли овчинка выделки – обман биржи? Предположим, веб — мастер обладает навыками, чтобы устроить хитрое сокрытие ссылки, используя тот же JavaScript. Сколько он может заработать дополнительно на таких «подлых» способах, раз уж решился ими воспользоваться?

С. Ф.: Как гипотетически заработать на продаже ссылок? Нужно, во — первых, их как можно больше ставить на страницу, а во — вторых, чтобы их все — таки покупали. Все данные сайта в бирже прописываются, роботы определяют, сколько страниц в индексе у сайта. Если сайт под фильтром, с него просто никто покупать не будет. Приходится искать компромисс. Кто — то предпочитает скрывать все ссылки (блоки по десять штук на странице), попутно повышая на них цену, а на то, что с сайтом будет с точки зрения поисковика, махнуть рукой. Однако рекламодатель имеет возможность настроить процент повышения: на 20, на 10, на 5 %. Даже сейчас по умолчанию 1 % стоит. Это значит, что если веб — мастер повышает цену больше чем на 1 % от текущей, то она попадает у рекламодателя в специальный раздел «Измененные цены». Там она висит две недели до принятия решения рекламодателем. Если его новая цена устраивает, то он ее одобряет, а если нет, то либо сам списывает, либо она через две недели автоматически снимается. На таком способе много заработать не получится: потом только хуже будет.

Случается, что хитрый веб — мастер поступает следующим образом. Был у него сайт, но аккаунт забанен и с того сайта невозможно продавать ссылки. Он начинает писать с другого аккаунта с подтверждением прав доступа к сайту: «Пожалуйста, перенесите мне те сайты». Мы смотрим: все сайты отключены, аккаунт забанен – и пометку делаем, что просит перевести с другого аккаунта. Происходит разбирательство, и бывает, что мы все — таки идем человеку навстречу, но пометка все равно стоит, и при следующем нарушении полностью его блокируем. Но мало ли: вдруг он осознал и исправился? Чаще всего, к счастью, либо склонные к мухлежу веб — мастера сами уходят, либо они исправляются и продолжают работать нормально. Бывает, конечно, и так: «А почему? Все индексируется. А, все. Я от вас ухожу!» Пожалуйста. Нам не нужны, извините, сайты, которые скрывают ссылки.

Каких сайтов больше в системе – тех, что сделаны для людей, или все — таки ГС, каждый из которых приносит по $10, но делаются они массированно? И какие из них приносят больше денег?

С. Ф.: И те и другие присутствуют. Больше все — таки зарабатывают владельцы достаточно хороших сайтов, у которых высокие показатели тИЦ. На нашей бирже сайты — «нулевики» практически ничего не зарабатывают, потому что у них почти никто не покупает. При покупке ссылок у нас чаще всего используются автоматические фильтры, которые настроены на тИЦ 30 минимум. Как показывает практика, те сайты, которые наличествуют в «Яндекс. Каталоге», есть и в каталоге DMOZ. Чаще берут входящие в «Яндекс. Каталог» сайты с тИЦ выше 30: обычно ссылки с таких сайтов оказываются хорошими и работают. Да, человек может добавить скопом тысячу «нулевых» сайтов, но это нами контролируется. Если некто добавляет очень много сайтов, это отмечается. В сентябре 2011 года был случай, когда при мне мигом забанили веб — мастера, который пытался добавить пачкой сайты, сгенерированные автоматом. Таким сайтам путь на биржу закрыт.

Владелец даже одного хорошего сайта (СДЛ) с высокими показателями зарабатывает больше, чем хозяин 20 – 30 ГС. Можно, конечно, заморочиться, сделать тысячу сайтов руками, чтобы они походили на нормальные, даже чтобы они какую — то посещаемость имели. Но каждые полгода база очищается и от сайтов. Да и сами рекламодатели отсекают «пустышки»: они выбирают аккуратно, вручную, стремясь купить, может быть, поменьше, но покачественнее.

Стало быть, биржи, в частности MainLink, идут тем путем, который недавно декларировал «Яндекс». Вспомним сентенцию Александра Садовского, произнесенную на круглом столе в марте 2012 года: «Мы за ссылки, которые ставятся по любви на сайтах для людей!»

С. Ф.: В целом тенденция именно такая. А кроме того, рекламодатели могут покупать у нас не только ссылки, но и другие форматы рекламы, которые тоже для PR в Интернете подходят: это и пресс — релизы, и SEO — объявления, по виду напоминающие блок контекстной рекламы. В эти сервисы – «SEO — объявления» и «Пресс — релизы» – поступают сайты. Они на входе подвергаются жесткой ручной модерации по различным параметрам: по содержанию, по наличию текста на странице и т. д. Естественно, сайты, нарушающие действующие законы, содержащие порно, сразу отклоняются. Посещаемость (не меньше 100 человек в сутки) учитывается, количество страниц в индексе, возраст сайта можно примать во внимание. Если сайт достаточно давно существует и мы не знаем, сколько реально у него страниц, но не меньше 300, значит, он действительно развивается и нам подходит. Причем объявления размещаются по принципу «одно на страницу», и запрещается продавать биржевые ссылки со страницы. Таким образом, мы идем на компромисс: и рекламный эффект, и SEO — эффект достигаются. Плюс это «вечный» формат. По крайней мере в течение полугода мы контролируем процесс вручную. Ручной контроль проходит каждое объявление (то, как оно размещено). Это идет на пользу как рекламодателю, так и веб — мастеру, потому что веб — мастер таким образом тоже может хорошие деньги выручить: у нас даже специальный калькулятор дохода есть. Конечно, кто — то недоумевает: «Это же “вечное” размещение. А как быть, когда мы все страницы забьем?» Отвечаем мы так: «Предположим, у вас очень хороший сайт, на нем не одна тысяча страниц. Продав со 100 страниц только объявления, вы заработаете гораздо больше, чем если бы по три ссылки со всех продавали». Цена, помимо всего прочего, от показателей зависит. И рекламодателю удобно: он в рассрочку платит эти полгода по 1/180 от стоимости объявления в сутки. Выплатив всю сумму (она не такая уж крупная), он получает вечную ссылку или даже две на хорошем ресурсе, который контролируется вручную.

Ну а пресс — релизы используются скорее для повышения известности бренда и в других целях. Это больше PR-, а не SEO — формат. Тем не менее ссылки туда можно вставить, и от них тоже будет эффект.

А с SEO — объявлениями веб — мастера хитрят? Какие меры вы принимаете?

С. Ф.: В случае с объявлениями, если у веб — мастера они выпадают в недоступные, система через какое — то время автоматически заблокирует дальнейшие продажи с его сайта. Если он скрывает объявления, сайт тоже блокируется. Терпим один раз. После второго предупреждения сразу баним, и все сайты из продажи объявлений удаляются. Но случаев сокрытия с момента запуска сервиса было обнаружено всего пять, причем еще вначале.

Вдобавок требования к объявлениям другие. Мы стараемся, чтобы они ближе к верху страницы были, оказывались видны пользователю – либо после основного контента, либо над статьей, либо после статьи (пользователь почитал материал – увидел объявление). Таргетированное размещение, если можно так выразиться. Пару раз в noindex запихивали объявления, но это тоже достаточно быстро выявляется, даже автоматически.

Но все — таки наша биржа выступает скорее как посредник, а «SEO — объявления» – небольшой бонус для рекламодателей. В остальном работа по покупке качественных ссылок ложится на плечи оптимизатора. Мы же, если имеет место сокрытие ссылок, списываем таковые, на вопросы – отвечаем. По поводу объявлений нам писали: «Объявление слишком низко! Мне не нравится». И мы специально связывались с веб — мастерами, чтобы они подняли блок объявлений; блок тоже можно вручную выводить, но чаще кодом. Владельцы хороших площадок много в них вложили, поэтому стараются больше заработать, но не подставляясь под удар. Они не будут свой сайт под фильтры загонять размещением кучи ссылок, они предпочтут дополнительно заняться продажей других форматов рекламы, на которых можно заработать больше, чем на ссылках.

 

Волшебство сеомантики, или Семантика в SEO

Даже тот, кого оптимизация затрагивала хотя бы по касательной, знаком с термином «семантическое ядро», а о профессионалах и говорить нечего. Однако с годами это удачное словосочетание закаменело, из него, как из карстовой породы, вымыло порядочную часть исконного смысла, и редкий оптимизатор в наши просвещенные дни «белого» SEO всерьез задумывается о семантике применительно к поисковому продвижению. Между тем задуматься надо бы, пусть даже из чисто меркантильных соображений: к моему величайшему сожалению, в отрасли широко распространено ошибочное представление о семантике, порождающее тупиковые стратегии раскрутки, а стало быть, влекущие за собой аутодафе бюджетов и посыпание оптимизаторской головы их пеплом.

Назидательное занудство мне претит, но давайте плясать от печки – от определения. Согласно «Лингвистическому энциклопедическому словарю» (Советская энциклопедия / Под ред. В. Н. Ярцевой. – М., 1990), семантика – это раздел языкознания, который изучает информацию, передаваемую языком или какой — либо его единицей. В поисковой оптимизации мы имеем дело с семантикой в более узком понимании – с интерпретацией тех смыслов, которые люди вербализуют в форме поисковых запросов, и тех, которые сайт транслирует поисковой системе. Если удается перевести пользовательский интент (намерение) и предложение площадки в общую плоскость, это успех.

Для того чтобы подступиться к пониманию семантики в прагматическом разрезе, вспомним, как бизнес считывал запрос аудитории, когда Интернет не был доминирующим инструментом инновационного маркетинга. Наверное, те из вас, кто занимается бизнесом или работает в маркетинге с веселых 1990 — х, помнят, что был период, когда рекламные агентства ринулись проводить всевозможные исследования и опросы «на фокус — группе». Такие мероприятия не редкость и сегодня, но, по счастью, на их результаты не молятся, как на священных коров. Как это происходило? В комнату загонялись люди с определенным «соцдемом»19 – как не преминул бы сказать современный интернет — маркетолог, – которым показывали картинки и задавали вопросы с целью зафиксировать по возможности их естественную реакцию на продемонстрированное. На основании собранной информации агентства формулировали клиентам маркетинговую стратегию: какие продукты развивать, на что есть спрос, на что спроса нет и т. д. Сегодня фокус — группы применительно к поиску заменяет уникальнейший инструмент – Wordsta «Яндекса», который дает вам ответы на все мыслимые вопросы касаемо чаяния аудитории, с редкостной точностью показывает, сколько человек искало те или иные товары, у каких людей на что есть спрос, как он колеблется на протяжении заданного временного интервала, как он распределен по городам. Инструмент, подчеркну, уникальнейший, но им, как ни печально, мало кто пользуется в полной мере, даже зная о нем.

Обратимся к другой стороне процесса – к сайту. Что такое сайт? Понимаю, что часть SEO — сообщества считает его аналогом мясомолочной коровы: хочешь – подои сколько — то месяцев, хочешь – зарежь, продай. Но, вообще говоря, это площадка, которая содержит, вернее, должна содержать ответы на вопросы пользователей, обеспечивать решение их проблем. Если вы хотите продавать что — либо через сайт, вам нужно узнать, какие проблемы заботят ваших потенциальных клиентов, и под каждую создать отдельную страницу, которая будет идеально решать эту узкую проблему. Эдакий огромный сервис из разнокалиберных блюдечек с голубой каемочкой. В такой системе отношений «человек – сайт» семантическое ядро сегодня представляет собой не что иное, как итог анализа спроса, осуществленного на основе реальных данных, которыми располагает «Яндекс». Подобное исследование включает классификацию запросов, отсеивание мусора и финальное дробление их на группы таким образом, чтобы одна группа решала одну проблему. Иначе говоря, чтобы каждый человек, который заходит на сайт, получал максимально точный, удовлетворяющий его ответ. Следствием такой подготовки будет не только высокая конверсия, но и упрощение создания контента, в том числе у вас будет подспорье для его автоматической генерации. Мало того, ваш сайт будет не только «втягивать» в себя пользователей с их запросами, вы еще и будете выше ранжироваться по «крупным» запросам. Объясню почему.

Сегодня «Яндекс» и Google, когда человек вводит какой — то большой, высокочастотный запрос, например «ноутбуки», смотрят, какие группы ноутбуков присутствуют на сайте. Чем больше групп ноутбуков представлено на сайте, тем выше он окажется в выдаче. Но как же «Яндекс» определяет группы ноутбуков? Да очень просто. Он анализирует, какие запросы вводили пользователи, смотрит, как эти запросы можно категоризировать, и если на вашем сайте представлены группы, которые связаны, по оценке «Яндекса», с запросами пользователей, то чем больше таких групп у вас окажется, тем выше вы взлетите в SERP.

Ну а теперь самый главный вопрос, ответ на который мало кто знает. Сравним два сайта. У одного – 10 тыс. товаров, у другого – 1 тыс., но у первого нет градации по группам, нет разделения на «синие зонты», «синие зонты — автоматы», «зонты — трости», «зонты полуавтоматические», «зонты прикольные», «зонты для него», «зонты для нее», «квадратные зонты», «зонты с бантом», «прозрачные зонты», «зонты — хамелеоны», которые меняют цвет в дождь, и т. д. Я рассуждаю не голословно и не теоретизирую. Когда мы продвигали интернет — магазин, который продавал зонты, у нас получилось свыше 40 групп. Так вот, сайт, на котором эти группы созданы, с точки зрения поисковой системы гораздо более релевантен запросу пользователя, чем не предусматривающий такой категоризации, потому что имеет больше вариаций и может ответить на любой вопрос человека, вводящего расплывчатый высокочастотный запрос. Потому что тот, кто вбивает в строку поиска подобный запрос, хочет получить широкий выбор, а выбор шире на том сайте, где охвачено… Правильно. Больше групп.

Щепотка цифр. Интернет — магазин мебельных товаров – это 15 тыс. запросов. Крупный портал туристической тематики – это 200 тыс. запросов. Сайт о недвижимости – это более 70 тыс. запросов. Выводы лежат на поверхности и подтверждаются практическими наблюдениями. Большая часть сайтов продвигается неэффективно по двум причинам. Первая: когда сайт разрабатывается, никто не обращает внимания на семантику, никто не смотрит, какие запросы вводили пользователи. А смотреть нужно, да во все глаза. Не посмотрели или не имели такой возможности? Тогда, если вы SEO — оптимизатор и сайт поступает к вам на продвижение, необходимо его переделывать под эти запросы, точнее, под целую структуру запросов так, чтобы он был под нее подогнан тютелька в тютельку. И вторая причина: сайты часто раскручиваются по малому количеству запросов, что удручающе неэффективно. Тогда как продвижение должно быть основано на огромном — преогромном шлейфе запросов, и продвигаться должны, как ни удивительно, не запросы, а страницы по отдельности и сайт в целом. Почему? Продвигая весь сайт, вы увеличиваете вес, который на него приходит и позже распределяется между его страницами, а продвигая конкретные страницы, вы повышаете их ранжирование, что положительно сказывается на продвижении всех запросов, ведущих на ту или иную страницу.

Всем, кто хочет (а хотеть нужно!) заниматься семантикой в поисковой оптимизации, я советую воспользоваться моим советом относительно того, каких сотрудников выделять на это направление. Мы пришли к выводу, что лучше других со «смыслами» справляются люди, которые занимаются маркетингом, не имеют опыта в SEO и притом живут не в Москве, а в регионах. Подключение к проекту семантиков, которые трудятся дистанционно, и необременительно и действенно.

На текущий момент существует более 20 сервисов по сбору семантики, каждый хорош по — своему, и я советую вам опробовать как можно больше из них. Наши сотрудники посвятили им целый сводный обзор и подробно охарактеризовали преимущества, недостатки и возможности каждого, так что, если вам будет интересно, поищите электронный сборник исследований «ТопЭксперт», куда была включена эта сводка.

 

Погода в доме. О внутренней оптимизации

Внутренняя оптимизация (ВО) сайта, как ее видим я и, надеюсь, не так уж мало моих коллег, сродни сплаву архитектуры, психологии, логики и дипломатии. В широком смысле это подгонка «эксплуатационных характеристик» сайта под нужды живых людей, с тем чтобы он без помех сигнализировал поисковой машине о своей репрезентативности, а не только приведение площадки в соответствие неким нормам, обеспечивающим его «читаемость» поисковиками. Второе – низовой ярус реализации первого, разрозненные частности, каковые, впрочем, обычно и преподносятся скороспелыми экспертами как «секреты внутрянки». Рассуждать о внутренней оптимизации, не затрагивая удобство пользования ресурсом, его юзабилити и конверсионные сценарии, – занятие беспочвенное. Сегодня внутренняя оптимизация – это, высокопарно говоря, полифоническое, красивое, совершенно уникальное для отрасли явление. Раньше при «заточке» сайта приходилось балансировать на грани мерзопакостного спама, который закономерно бил по продажам и лежал вне плоскости маркетинга. Зато сейчас в руки SEO — специалистам просятся инструменты, способные сделать SEO таким, чтобы оно повышало продажи, а значит, получить неиллюзорное уважение клиентов и снискать на новых путях новые бюджеты. Безусловно, и с руководителя бизнеса продуманно внедренные методы внутренней оптимизации снимают докучные обязанности, что делает его труд гораздо продуктивнее и креативнее. Удивительно, но факт: простейшие в исполнении советы взять на вооружение тем труднее, чем они бесхитростнее. Я намеренно даю вам лишь несколько рекомендаций на тему «Как нам обустроить сайт», дабы вы в полной мере оценили отдачу от следования им. Маленькие шажки для сайта – большой шаг для вас как профессионала.

Все просто настолько, что требует не перебирания дедуктивных цепочек, а толькото умения видеть лес за деревьями. Возьмем в качестве первого примера модуль перелинковки. Как вы считаете, каким его следует делать в свете непреложной необходимости заручиться «расположением» поисковиков? Да таким, чтобы по ссылкам, которые вы размещаете, было приятно и полезно ходить людям, для чего нужно использовать таргетинг. Берясь за внутреннюю перелинковку, вы составляете список всех типов страниц и всех разделов сайта, анализируете зависимости между ними, и с такой матрицей на руках вы способны прослеживать связи, сопрягая между собой те или иные типы страниц и определяя, допустим, что с неким товаром посетители, вероятно, согласятся покупать другие, – и выяснять, какие именно. Те, кто ищет однокомнатные квартиры, могут также искать двухкомнатные, и не исключено, что те, кто присматривает квартиры на некоей улице, заинтересованы в жилье на соседней. Таким образом, вам по силам построить очень интересные взаимосвязи, которые позволят вам делать правильную перелинковку, учитывающую не только прикладные SEO — аспекты оптимизации, но и требования «нового SEO», юзабилити, удобства пользования сайтом, повышения конверсии и, как следствие, продаж.

Из — за следующего утверждения вы наверняка сочтете меня непоследовательным, и напрасно. Мое умозаключение по — хорошему категорично: крупным вебпроектам на сегодняшний день доступна модель генерирования контента, и им надо ее использовать в хвост и в гриву. Только что я распинался о «человеколюбии» в перелинковке, и на тебе – ратую за бездушную автоматизацию. Ратую, но не за бездушную. Верно, долгое время в профессиональном SEO — сообществе не признавали, что на постоянной основе осуществима генерация контента, который был бы читаемым, удобным, продающим, да попросту нормальным, но на текущий момент такая возможность реализована.

В сущности, весь процесс генерации хорошего, «живого», не «зомбячьего» контента сводится к следующему. По каждому товару, который у вас есть, по каждой услуге, если вы оказываете большое количество услуг, вам надлежит выписать определенные технические характеристики, которые критически важны для пользователя при выборе того или иного товара. Например, если вы продаете кулер, то – говорю навскидку – можете указывать объем нагревательных элементов, объем охладительных элементов, материал, из которого выполнен корпус, высоту, наличие или отсутствие холодильника, наличие или отсутствие подставки для стаканчиков и т. д. Как делается генерация контента? Не знаю, в который раз повторяю эти слова, но очень просто. Вам необходимо привлечь к процессу копирайтера, чтобы он составил формулы и подготовил для них разные вариации переменных, обозначающих текст. Вот что у вас получится. Например, если у кулера большой бак для нагретой воды, то при генерации контента будет подставлен текст из ячейки с соответствующим значением, и он будет звучать примерно так: «Вместимость бака для горячей воды – более пяти литров, что делает этот кулер незаменимым инструментом для крупных мероприятий, таких как конференции, семинары и курсы». Если бы тот же показатель составлял 1 – 2 л, то было бы написано совсем другое: «Кулер оптимален для офисов или для дома, для умеренно активного пользования и имеет ряд ценовых преимуществ». В первом случае мы опираемся на одни значения переменных, во втором – на другие. Не будут ли торчать из карточек товаров «автоматизаторские» уши? Нет. Используя большое количество вариаций переменных под каждое значение, вы добиваетесь уникальности контента, что достигается во многом талантом копирайтера, его хорошими продающими способностями. Эти же правила справедливы и для тега itle, и для заголовка Н1. Микроскопическое, но актуальное уточнение: не пытайтесь в формулах для генерации контента использовать отдельные слова, генерируйте тексты на основе цельных предложений, задействовав огромное количество комбинаций, чтобы все описания были оригинальными.

Хотел было пожелать вам сотен единиц тИЦ под килем, но эту метрику вы и без меня вытянете на достойный уровень. Я же говорил вам о маркетинговых рычагах в SEO — механике. Так что мой наказ другой: будьте маркетологами и делайте успешное, эффективное, продающее SEO. Это, в конце концов, увлекательно.

 

Письменное задание по SEO

Как проплыть между Сциллой человеколюбия и Харибдой формальных требований поисковика, если речь идет о текстовом контексте? Как найти хорошего копирайтера для работы над сайтом и что от него требовать, а что ему запрещать? Это мы обсудили с Елизаветой Трибунской, создателем отраслевого форума SearchEngines.ru и руководителем компании WebAdvance.

Что вообще сегодня означает словосочетание «хороший SEO — текст»? Возможно ли обеспечить понятность текста в равной мере для человека и для поисковой машины?

Елизавета Трибунская: То, что утверждают в настоящее время представители поисковиков, они декларировали с самого начала. Но, подозреваю, даже в 2013 году нельзя будет забыть о том, что поисковая машина нам нужна и важна и что если мы хотим получать по СЧ — запросу трафик не очень дорого, то заголовок у нас должен быть не метафорическим, а с включением нашего запроса, пусть даже метафорический звучит лучше. Ясно, что поисковые системы ранжируют и будут ранжировать нас с учетом формальных параметров.

Понятность для человека? Я как — то слушала очень хороший доклад о поиске в переводе. Вообще, неудивительно, что именно поисковые системы быстро продвигаются в направлении машинного перевода, передающего смысл текста. После того доклада мне сразу стало понятно, почему не работает автоматический синонимайз, вернее даже, почему он просто не может работать.

Что касается хорошего SEO — текста, был период, когда моя компания активно писала тексты для коммерческих сайтов и развлекалась выполнением задачи а — ля «18 раз употребить какое — то слово на главной странице, где основное место занято Flash — роликом». Мы куда только его не вставляли, причем оно не бросалось в глаза, смотрелось по — человечески. После чего приключался апдейт «Яндекса», все эти фильтры «Ты спамный» и т. д., и надо было срочно сделать в несколько раз меньше вхождений. Случалось, хорошим SEO — текстом считался такой, в котором выражение употреблялось, допустим, 18 раз, а через месяц – такой, в котором три раза употребляется само слово и, например, семь раз его синонимы. Сегодня я наблюдаю требования не столько к количеству употребляемых слов, сколько к структурированию информации. Поисковая система лучше относится к текстам со структурированной информацией. Если вставить небольшой список, сделать заголовки, это будет плюсом. Такой период тоже был, сейчас к подобным критериям вернулись, но вот эта понятность, определяемая в том числе визуально, очень заметна: поменяешь какой — нибудь текст, ничего умопомрачительного не делаешь, и вдруг поисковики начинают его горячо любить. Но, конечно, если вы сделали текст без единого вхождения, то у поисковой системы будет мало шансов понять, о чем он. Машина умная, но она лишь машина. В целом же, если мы хотим, чтобы наш текст был признан хорошим, нам надо думать не о том, сколько раз употребить ключевое слово, а о том, какова наша мысль и как мы ее хотим донести.

Если владелец сайта или оптимизатор пишет техническое задание (ТЗ) копирайтеру, стоит ли сейчас указывать, сколько вхождений слова должно быть в тексте, или же правильнее заказать хороший продающий текст, а потом, если что, самому добавить ключевое слово где надо?

Е. Т.: В наши дни чаще приходится убирать, чем добавлять. Возможно, потому, что копирайтеры, наоборот, привыкли вставлять много ключевых слов, да и, когда человек пишет текст на сложную промышленную тему, его словарный запас не очень велик.

Можете выделить качества текста, которые с точки зрения SEO ему должны быть присущи безоговорочно, если задача – сделать сайт максимально качественным для поисковика?

Е. Т.: Во — первых, структурированность. Во — вторых, важно, чтобы текст хорошо читался с экрана. Средняя длина абзаца, количество предложений, длина фразы – все это здорово влияет на восприятие, поисковые системы это учитывают. И точно так же перечисленное влияет на поведенческие метрики. Если огромную «простыню» 90 % читателей закрывает моментально, пусть даже половина из них ее сохраняет, чтобы прочитать потом, это не очень хорошо. Что делать с большими текстами? Не делать больших текстов. Отправляйте их в качестве рассылок или делите на части, попутно предлагая скачать материал целиком тем, кому так удобнее. Как быть с большими абзацами? Дробить на более мелкие. То же самое с длинными предложениями. Хороший текст для Веба, точно так же, как хороший текст для поисковой машины, – это простой текст. Такой, в котором нет толстовских периодов, огромных абзацев. При несоблюдении названных условий вне зависимости от смысла написанного вкладку закрывают и пишут комментарий: «Много букв, не осилил». Поисковая система осилит, но не полюбит.

Может быть, если пофантазировать, поисковикам больше нравятся сайты, на которых используют шрифты без засечек, потому что, говорят, их читать удобнее?

Е. Т.: Конкретно такого я не видела ни разу. Пару лет назад интересные были графики зависимости CTR20 у рекламной сети «Яндекса», у «Яндекс. Директа» на сайтах в зависимости от того, какой шрифт выбран у рекламного блока, и, по — моему, у Verdana кликабельность была выше. Можно найти картиночку из презентации Евгения Ломизе, если я не ошибаюсь, с eTarget. Можно, наверное, на сайте и «поиграться со шрифтами». Зависимость маленькая, не как в случае с размером или цветом, но разница в кликабельности, возможно, будет.

Кому лучше писать тексты для сайта – сидящему на стороне клиента копирайтеру, которому требуется поставить задачу «освой азы SEO», или кому — то на аутсорсе?

Е. Т.: Если мы говорим о коммерческом сайте, где критична не стоимость тысячи знаков, а качество текста на выходе, то писать надо вдвоем. Первым за дело берется человек, который разбирается в предмете. На стороне клиента это может быть либо менеджер по продажам, либо даже кто — то из руководителей, иногда аккаунт — менеджер. В общем, тот, кто знает, что для клиента важно, о чем обычно клиент спрашивает. А дальше сырье надо отдавать на литературную обработку, потому что знающие люди далеко не всегда обладают качествами, необходимыми для выполнения таких процедур: у клиента могут быть любимые смешные словечки, он может быть не знаком с правилами пунктуации. Как свидетельствует мой личный опыт, проще натаскать того, кто разбирается в теме, хотя бы выдавать приличного уровня полуфабрикат под обработку, чем научить человека, который умеет хорошо гнать строку на женско — психологические темы, писать про поисковую оптимизацию. Слова будут сложены красиво, но по существу окажется полная ерунда. Нужен тот, кого в старые времена называли литературным редактором. Ценность таких людей восстанавливается, вновь востребованы специалисты, способные делать из полуфабриката хороший текст.

С одной стороны, мы твердим, что уникальные описания к товарам нужны, иначе либо товары окажутся между собой «склеенными», либо сайт «склеится» с сайтом производителя, либо еще что — нибудь неприятное случится. С другой стороны, никто не мешает нагнать трафик, «затариться» ссылками, заказать контекстную рекламу. Но мы же хотим, чтобы ктото что — то купил. А если посетитель не получит ответа на свой вопрос, если, разбираясь в теме, он увидит, что на сайте написана туфта с практической точки зрения, он уйдет оттуда: мол, раз люди даже на сайте не могут правильно характеристику дать, значит, в продаваемой ими продукции мало смыслят.

Приемлемо ли использование текстовых бирж хоть в каком — то случае при необходимости сделать контент действительно продающим и вместе с тем правильным с позиций SEO? Насколько разумно искать исполнителей через Free — lance.ru и иже с ним?

Е. Т.: Мне лично проще, потому что я нуждаюсь в текстах различного качества. Знакомлюсь с авторами я в очень разных местах, включая текстовые биржи, и даю им задание, которое для меня с точки зрения качества некритично. Например, размножить что — то или подготовить к публикации статьи со ссылками через статейную биржу, сделать контент для какого — нибудь простенького или экспериментального сайта, текст с ответом для форума и т. д. На основании тестового задания выбирается какой — то исполнитель, с которым продолжается серьезная работа. Мне кажется, это оптимальный вариант. Кстати, я прекрасно понимаю людей, которые хотят общаться именно через биржу: это надежно, это удобно, там единый понятный интерфейс, все клиенты в одном месте. А то одному привычно по Skype, другому – по ICQ, третьему – по Google alk, четвертому – по почте.

С Free — lance.ru у меня был опыт. Я искала расшифровщиков аудиозаписей и сразу в явном виде писала: «В ответе присылайте, пожалуйста, свой электронный адрес». Дальше связывалась по почте. Но, бывало, человек мне отвечал: «Свяжитесь со мной по ICQ». Для меня это маркер вменяемости, вернее, невменяемости.

По каждому из направлений Free — lance.ru ввиду изменений в сервисе, думаю, альтернатива будет обязательно21. А те, кому был удобен тот способ, который предлагается администрацией проекта, изменений и не заметят. Полностью они свою базу не убьют, но я лично под выполнение каких — то локальных задач начинаю искать новых исполнителей раз в полгода, а там все поменялось: то нельзя, это нельзя, программисту сайт показать не разрешается. Положим, мне надо перенести контент из одной CMS в другую, контент находится на таком — то сайте. И что мне делать? То же самое с текстами. Я обычно пишу: «Мне нужен текст для сайта такого — то», что гораздо проще, чем в двух тысячах знаков объяснять, тексты на какие темы мне требуются. Есть задачи, где это безразлично, и такие, наверное, останутся [на Free — lance.ru].

Какие основные ошибки может допустить человек со стороны клиента или сам клиент при написании текста касаемо SEO или читаемости, если он не копирайтер, но профессионал в своей области?

Е. Т.: Первая и, с моей точки зрения, главная ошибка заключается в том, что он смотрит на свою продукцию глазами продавца, а не глазами покупателя. Взять хотя бы поисковую оптимизацию. О чем мы будем писать? О том, что мы подготовим для сайта тексты, поправим HTML — верстку, купим статей, разошлем пресс — релизы. А надо нам написать о том, что у клиента будет счастье: больше продаж, больше посетителей. Не «внешние факторы», «внутренние факторы», «перелинковка», «поведенческие», «написание текстов», а «продвижение интернет — магазинов», «продвижение туристических сайтов». Продавцы делят свои товары на группы не так, как покупатели, стало быть, придумывают разделы на сайте в соответствии со своим внутренним делением, а так нельзя. Скорее всего, профессионал в своей области не посмотрит на то, что вообще ищут клиенты. Будучи еще и экспертом в маркетинге, вероятно, клиент таких оплошностей не допустит. На моей памяти отдельные клиенты не совершали подобных фундаментальных ошибок, только если на своем рынке работали много лет, много продавали и это у них был не первый сайт как минимум. Да и кое — какие навыки в SEO у них были. Когда грамотные клиенты из сферы маркетинга делают тексты для своих сайтов, проблем не возникает. Смотреть за ними, само собой, надо, пусть даже чтобы увидеть, что все получается, но обычно можно и не лезть. Другое дело, что в России клиентов, грамотных с точки зрения маркетинга, не так уж много.

Собственно о SEO. Конечно, возникают трудности с теми самыми метафорами: кажется, хорошо бы сделать какой — нибудь смешной заголовок, но пока это не очень — то уместно в связи с логикой поисковых машин. Часто встречается и переспам. Человек, когда пишет на какую — то тему, либо употребляет ключевое слово, либо пишет «это». Считает, что должен употреблять. У меня ребенок, не имея никакого представления об оптимизации, писал сочинение на один абзац в пятом классе, и в каждом предложении упоминалось название сочинения. Я ей сказала: «Таня, это спам». Начали придумывать синонимы. То же самое у клиента: если ему не сказать, что надо придумать синонимы, он так и напишет название своего продукта в каждом предложении.

Какие инструменты было бы полезно применять малосведущему в SEO человеку, который пишет тексты для своего коммерческого сайта?

Е. Т.: Словарь синонимов, орфографический словарь. Часто люди начинают использовать свой сленг, а не сленг своих покупателей. Такого допускать нельзя. Вас не поймут. А так уникальность контента проверять смысла нет, если человек сам пишет. Нет, иногда человек, несведущий в SEO, думает: «Не знаю, что здесь писать, возьму — ка у конкурента». Ему даже мысль переписать в голову не приходит. Он делает Ctrl+C, Ctrl+V, картинка – тоже с сайта конкурента. Но если уж он пишет сам, то обычно не «копипастит».

Как добиться компромисса между SEO — необходимостью и бизнес — желаниями, то есть сохранить текст читаемым, насытив его ключевиками и т. д.?

Е. Т.: Были забавные времена, когда для того, чтобы было хорошо, приходилось накатать длинный текст и сделать много вхождений. Шли на всякие ухищрения. Например, сделать длинный текст под красивой картинкой или подать его в боковых колонках как сноску или выноску: вот контакты нашей фирмы, которая продает пластиковые окна, а здесь, обратите внимание, форма связи, через нее вы можете написать нашему менеджеру по продажам окон ПВХ. Технические штуки, которые, наверное, все прекрасно умели делать. К счастью, больше необходимости в них нет. Хватает естественного текста. Возможно, я дую на воду, после того как послетало все и пришлось наработанное удалять, после того как мне пришлось активно участвовать в переписывании десятков текстов, устраняя из них прямые вхождения, но сейчас, когда передо мной поставлена задача сделать так, чтобы сайт хорошо индексировался и хорошо ранжировался, я скорее недокручу, чем буду перекручивать. С тех пор периодически возникают диалоги:

– А давайте мы проверим, не начали ли вдруг работать сквозные ссылки.

– Нет, давайте не будем проверять, потому что мы помним, как мы их снимали.

По вашим наблюдениям, существуют ли способы гарантированно обезопасить свой контент в Рунете от воровства (например, заявить об уникальности материала с помощью соответствующего функционала в «Яндекс. Вебмастере»)?

Е. Т.: Такого способа, к сожалению, нет. Ни добавление в «Яндекс. Вебмастер», ни участие в «Яндекс. Новостях» в случае с информационными сайтами, ни выпуск своего RSS буквально в момент написания контента, ни покупка ссылок на себя с правильными вхождениями абсолютной гарантии не дает. Переписывать свои тексты из — за того, что их слишком много растащили, очень обидно, но приходится.

Защита, однако, не помешает. Все — таки важно представление поисковой системы о том, что более трастовый сайт скорее будет первоисточником. Трастовый, грубо говоря, не обязательно тот, у которого тИЦ больше или домен старше, но наращивать общий вес сайта дело полезное, в том числе для того, чтобы чаще оказываться первоисточником. Не надо забывать и про аптайм хостинга. Пришла поисковая система за текстом, но не смогла его получить по той или иной причине и взяла его у того, кто перепечатал, или, бывает, считала она некий сайт первоисточником, потом тот два дня лежал и за это время первоисточником стал другой сайт. Это безумно обидно. Мало того, что хостинг упал, все ходят с дымящимися ушами, пытаются спасти, так еще и после следующего апдейта обнаруживается, что сайт перестал быть первоисточником своих материалов. Приходится как — то перестраховываться, придумывать обходные пути: просить при перепечатке не забывать сохранять имя автора и ссылку на первоисточник, делать внутреннюю перелинковку, чтобы внутренние ссылки на другие страницы вашего сайта могли попасть в перепечатку. Но это тоже вероятностные вещи, не гарантирующие полного спокойствия.

А имеет ли смысл обращаться к сайту, своровавшему контент, или к хостеру?

Е. Т.: Да. Наверное, в 30 % случаев люди ставят ссылки на первоисточник. Некоторые снимают материалы по просьбе. Но нужно быть внимательными. Была у меня забавная ситуация. Редакции моего сайта другой портал прислал письмо с требованием снять якобы его материал. У нас была статья о законе, следовательно, с цитатами из него, с каким — то списком, взятым из информационного письма. Иначе говоря, мы упоминали первоисточник, который и рерайтить — то не будешь: законодательство! Мы посмеялись и отправили администратору того портала ссылку на то, что мы реально использовали. Сперва думайте хорошенько: если у вас показывается в CopyScape, что кто — то на вас похож, возможно, это не потому, что ктото что — то у вас украл, а потому, что источник общий.

Кстати, а что лучше требовать у сайта, который контент своровал: убрать статью или поставить ссылку на вас?

Е. Т.: Если вдруг у меня такая ситуация возникает, я требую поставить ссылку Не гарантировано на сто процентов, что при перепечатке ваш сайт останется первоисточником: всякое бывает. Но статья редко бывает жизненно важна применительно к какому — то запросу. Ссылка будет полезнее, а если нет, значит, плагиаторская площадка долго не проживет, и по причине ее естественной смерти мы опять станем первоисточником. Я очень давно занимаюсь информационными проектами, и я еще лет пять назад говорила: «Что вы переживаете? Я трупы проектов, которые тырили у меня контент, видела не раз». Сейчас такие тоже существуют, я сижу, смотрю на них – они плывут мимо меня по реке.

Вновь посмотрим глазами клиента: «Следует ли ориентироваться в моей тематике на то, какие тексты пишут конкуренты? Что следует извлечь из анализа сайтов с точки зрения контента?» Дилемма: возможно, у всех тексты плохие и если написать другой, продающий и структурированный, то сайт получит шанс занять лучшую позицию только за счет контента; вместе с тем всегда рекомендуют ориентироваться на конкурентов.

Е. Т.: Возьмем главную страницу. Если у нас новый сайт, вопрос такой: а что вообще важно? Чтобы к нам пришли 50 человек и десять из них сделали покупку или чтобы к нам пришли 70 человек, а купили из них только семь? Поэтому на главной странице я бы ориентировалась на эксперименты с конверсией и отталкивалась от нее, тем более что влияние текстового фактора здесь далеко не так важно. Говоря о том, что в работе с текстами надо ориентироваться на конкурентов, следует сделать оговорку: при прочих равных. Если в топе пять сайтов с примерно одинаковыми текстами, но все они с 2003 года наверху выдачи, точно нет никакого смысла пытаться их копировать. Надо стараться сделать лучше. Если ты приходишь на занятую поляну шестым, то, наверное, надо придумывать что — то свое, иначе ты их никогда не догонишь, они далеко ушли.

Предположим, тексты пишут внутри компании, а SEO — специалист дает по ним рекомендации. Как понять, когда он перегибает палку («Эту метафору убрать, на ее место – ключевик под СЧ — запрос»)?

Е. Т.: За последние два года я насмотрелась на страшные истории и убедилась в том, что количество вхождений не всегда работает в плюс, а SEO — специалисты по привычке требуют все поменять и убрать, чтобы показать клиенту, что они работают. Эффекта ведь еще нет, а клиент уже заплатил. Что такое «ссылок купили», клиенту не очень понятно, а какуюто работу с сайтом ему надо продемонстрировать, и начинается «психотерапевтическая»

работа. Как понять, что SEO — исполнитель перегибает палку? Единственный вариант – спрашивать: «Зачем?» С SEO — агентством, с фрилансером надо разговаривать. Им часто бывает скучно общаться с клиентами, потому что вопросы у всех одни и те же, хочется быстрее домой, и лучше «ВКонтакте» потрепаться с друзьями или почитать форум, чем клиенту в тридцатый раз что — то растолковывать. Но в интересах компании клиента все — таки получать эти объяснения от подрядчика, приглашать его на встречу и понимать, что это будет стоить денег. Понятно, что если у аккаунта ваш проект занимает десять часов в месяц, а средний проект – три часа в месяц, то эти деньги, так или иначе, вы заплатите. В противном случае агентство давно бы разорилось. Но общаться надо обязательно, нужно стремиться понимать, что происходит с сайтом. Это слишком важный, слишком серьезный канал для привлечения клиентов.

Возвращаясь к исполнителям: как же все — таки выбрать хорошего копирайтера?

Е. Т.: Дать не очень ценное задание, результаты выполнения которого не жалко оплатить и выкинуть, никак не использовав их. Если я дала задание и человек его выполнил, но меня не устраивает результат, проще заплатить, чем тратить силы и нервы, объясняя, почему я не хочу давать за это деньги. Тем более что сейчас даже самые невообразимые тексты можно как — то использовать. Образцы текста могут быть какими угодно. Человек мог пять лет назад гореть темой, желать прославиться и писать от души, а сейчас ему все надоело, и, даже если понравившиеся вам тексты правда писал человек, представившийся их автором, совершенно не факт, что вы получите от него то же качество. Да и пытаться найти человека, который ранее работал с вашей тематикой, – не лучший вариант, особенно в случае с промышленными тематиками, с описанием разных моделей колясок для детей и т. д. Наоборот, надо искать людей, которые об этом еще не писали, и они что — нибудь оригинальное и хорошее придумают.

Общий совет – тестировать? Возможно, сразу находить нескольких исполнителей и смотреть, кто из них лучше напишет?

Е. Т.: Прежде всего, очень многие люди после получения тестового задания пропадают, даже если им говорят, что работа будет оплачена. Далее, бывает, копирайтер вроде написал хорошо, но взаимодействовать с ним неудобно. Кому — то со мной неудобно взаимодействовать, с кем — то – мне. Поэтому большая, серьезная тестовая работа дает возможность прощупать комфортность сотрудничества. Еще один этап отсева. Кто — то по срокам катастрофически со мной не совпадает, потому что если я работаю по ночам, то мне удобно получать от исполнителей результаты вечером: я их ночью обработаю. А если я тружусь днем, с 9:00 до 18:00, мне неудобно, когда мне все присылают тексты, которых я ждала в этот день, к 22:00. Нужно пробовать, иначе таких нюансов никогда не поймешь.

 

SeoPult: математика под капотом

Значительную часть конкурентных преимуществ системы SeoPul обеспечивает направление -. «Конструкторская» ветвь укрыта внутри самого холдинга, а научноисследовательская частично представлена собственными специалистами, частично – лучшими умами извне. Интеллектуально емкие алгоритмы сервиса рождались не только из опыта его разработчиков, но и из сложных математических моделей. Как математика встречается с SEO, как смелые гипотезы трансформируются в действенные модули для коммерческого продвижения, трудно ли воспроизвести «мозг» SeoPult, мы обсудили с Ильей Зябревым, гендиректором компании AlterTrade Research, чьими силами была создана беспрецедентная технология SeoPul MAX.

Что представляет собой лаборатория AlterTrader Research? Кто в ней работает?

Илья Зябрев: Это научно — исследовательская лаборатория, небольшой коллектив единомышленников из разных стран, объединившихся на почве изысканий в финансовой математике. Костяк коллектива сегодня – семь человек, над отдельными проектами может работать от трех до двадцати специалистов. Сейчас в сферу наших интересов входят не только финансовая математика, но и, например, задачи в области информационного поиска.

Какое место у вас занимают SEO — исследования по уделяемому им времени и по приоритетности?

И. З.: В нашей компании сотрудники уже несколько лет могут себе позволить заниматься только тем, что им интересно. Приоритеты каждый для себя расставляет самостоятельно. Информационным поиском занимаются три человека. Они же проводят SEO — исследования, если имеются достойные задачи. На такие исследования уходит от 0 до 100 % рабочего времени, но в среднем немного.

Опишите схему вашей работы – от гипотезы до работающего алгоритма.

И. З.: Гипотезы неизменно возникают случайно – в ходе исследования свойств объектов. Хотя само исследование часто проводится намеренно, по заказу. Если гипотеза показалась интересной, она может быть подвергнута дальнейшему изучению. Это происходит далеко не всегда, так как гипотез, как правило, слишком много. Методы проверки гипотез зависят от того, что проверяется. В результате могут быть найдены некие новые свойства, даже если гипотеза не подтвердится. Многие наши исследования на том и заканчиваются: разработка готовых алгоритмов не наш профиль, профессиональным кодингом мы стараемся не заниматься.

Какие математические дисциплины являются определяющими для вашей работы в SEO?

И. З.: Многие. Дело скорее не в знании математических дисциплин, за начальный список которых можно взять, например, двухлетнюю программу «Школы анализа данных “Яндекса”»23, а в умении их применять в конкретных задачах.

Пытались ли вас перекупить или переманить сами поисковые системы? Они обращались к вам с предложениями о сотрудничестве?

И. З.: Мы заработали достаточно денег для того, чтобы никогда не работать на окладах, какими бы они ни были. Представители поисковых систем об этом знают, поэтому переманивать нас никогда не пытались. Официальных договоров с поисковыми системами у нас нет, но на неофициальном уровне мы сотрудничаем активно, делимся в одностороннем порядке своими наработками, иногда просим что — то просчитать на больших индексах. Мы не стараемся монетизировать свои исследования в информационном поиске, чем и пользуются некоторые поисковые компании. Пока только западные. С разработчиками из «Яндекса» и Mail.ru рабочих обсуждений на сегодняшний день нет, хотя иногда мы общаемся.

Как производилось тестирование алгоритма SeoPul MAX? На ком исследовали, насколько долго? Какова минимальная выборка сайтов для того, чтобы получить на таком проекте репрезентативные результаты?

И. З.: Про тестирование SeoPul MAX была написана статья «Алгоритм отбора максимально эффективного множества доноров для продвижения сайта в поисковых системах». Для экспериментов мы взяли 80 пар «запрос – документ», которые предоставила компания SeoPult. Выборка была достаточной для того, чтобы сделать какие — то выводы. Через четыре месяца стало очевидно, что технология работает, и было принято решение о ее реализации в качестве сервиса.

SeoPul MAX работает больше года. Как удается поддерживать актуальность технологии? Назовите хотя бы часть из факторов, которые учитывает технология при анализе ссылочной выдачи.

И. З.: Свойства ранжирования «Яндекса», найденные для SeoPul MAX, будут актуальны до тех пор, пока «Яндекс» не проведет кардинальную смену своих технологий. В настоящий момент не видно достойной замены алгоритмам MatrixNet, поэтому SeoPul MAX останется эффективным еще долгое время. Часть факторов была подробно описана в нашей статье «О частотных паттернах в SeoPul MAX. Для нематематиков».

Что в современном SEO еще поддается измерению математическими методами? Например, можно ли на большом пуле сайтов понять хотя бы частично алгоритмы учета поведенческих факторов «Яндекса»?

И. З.: В современном SEO измерению поддается многое, хотя отличия от «старого» SEO существенны. Дело в том, что после перехода всех крупных поисковых систем на построение функции ранжирования методом машинного обучения старые методы перестали работать. Привычные для оптимизаторов параметры, например количество и плотность ключевых слов в тексте или количество ссылок с анкором определенного вида, больше не имеют сильной корреляции с «Топ — 10» поисковиков.

Другими словами, даже небольшое увеличение таких параметров или подгонка «под лидера топа» может иметь произвольные последствия для позиции вашей страницы по запросу, от минуса до плюса. Такая ситуация возникла не только для факторов, которые использовало «старое» SEO, но и почти для всех из тех многих сотен факторов, которые используют для ранжирования поисковые системы. Даже если вы будете иметь формулы таких факторов, это вам не сильно поможет.

Но это не значит, что «шеф, усе пропало». Любая сложная функция, в том числе MatrixNe от «Яндекса», может иметь достаточно много стабильных свойств. Осталось их найти, для чего удобно прибегать к современным математическим методам. Хорошим примером найденных таким образом свойств являются частотные паттерны на анкор — файлах топовых сайтов, которые успешно используются в технологии SeoPul MAX.

Что касается поведенческих факторов «Яндекса», то для их исследования нужно заниматься накрутками выдачи, чего делать не стоит, так как все ваши неестественные клики остаются в логах поисковика навсегда и рано или поздно будут найдены, а это чревато «пессимизацией» сайта.

Собственно, SEO сегодня – это сплошная математика? Все, вплоть до оптимальных схем перелинковки, определяется формулами?

И. З.: По факту, естественно, нет. Большинство SEO — компаний и оптимизаторов — фрилансеров работают по старинке, что бы они ни говорили своим клиентам. Хотя привлечение сторонних прикладных математиков могло бы значительно повысить эффективность продвижения. Рассмотрим для примера упомянутую вами оптимальную схему перелинковки. Для ее максимальной эффективности необходимо распределить статический вес сайта по нужным страницам, добавив дополнительные ссылки. Если сайт достаточно большой, например на 100 тыс. страниц, а продвигается 10 тыс. из них, причем вес должен наилучшим образом распределяться в зависимости от сложности продвигаемых запросов, то ручными методами решить задачу не получится. С другой стороны, для математика эта задача несложная, хотя я пока не встречал ее решений для SEO.

Математические методы могут быть эффективно применены для того, чтобы фиксировать «крены» в работе поисковых систем в интервалах между масштабными апдейтами, то есть распознавать, когда поисковик что — то тестирует? Если да, как это делается?

И. З.: Наверняка могут, но мы не думали на эту тему. Это неинтересная задача. Какая разница, масштабный апдейт у поисковика или нет? Ваши страницы в любом случае должны оставаться в топе. Поэтому нужно находить такие свойства поисковой ранжирующей функции, которые при самых масштабных апдейтах меняются слабо, и оптимизировать свои сайты с учетом этих свойств. Например, так, как сделано в SeoPul MAX.

Участи SEO — экспертов полухобби — полудело – пытаться самостоятельно выяснить или прийти к консенсусу с коллегами на предмет того, какие SEO — факторы имеют больший вес для поисковых машин. Эмпирический метод (он же метод тыка) – единственно возможный в таких расчетах?

И. З.: Есть еще метод «в лоб» – спросить у разработчиков в «Яндексе» или Google. Если говорить о факторах, которые используют для ранжирования поисковики, то вычислить их силу методом тыка невозможно в принципе, даже если «тыкать» очень долго. Поэтому не стоит доверять SEO — экспертам, которые получают свои выводы относительно силы факторов экспериментальным путем. Но метод «в лоб» в России иногда работает.

Какие шаги со стороны «Яндекса» и Google упростили бы вам жизнь?

И. З.: Простые – повышение качества поиска. Если серьезно, нам хочется задавать поисковикам сложные вопросы и получать на них хорошие ответы, что сегодня случается далеко не всегда. Что же касается SEO, то нам упрощения неинтересны, нас привлекают только сложные задачи. Поэтому чем сложнее будут алгоритмы поисковиков, тем лучше.

Какой в недалеком будущем будет роль математического моделирования в SEO, до какой степени она возрастет? Есть ли на рынке, помимо вас, адекватные команды математиков с пониманием SEO — отрасли?

И. З.: Роль математического моделирования будет возрастать, но небыстро. Пока конкуренция в SEO еще слабая, и по многим запросам, особенно по низкочастотным, соревнуется явно меньше десяти сайтов, поэтому все они в топе и получают свой поисковый трафик. С развитием Интернета и ростом количества коммерческих сайтов, оплачивающих SEOуслуги, роль математики в отрасли вырастет прилично: конкуренция заставит.

Адекватных команд математиков в отрасли пока не наблюдается, к нашему сожалению.

 

Естественная постановка вопроса

Ссылки с бирж – это огромный наемный легион, который способен обеспечить рывок в топ. Однако в SEO — армии нужны и верные боевые части, остающиеся с полководцем надолго без преобладания корыстных мотивов. Это естественные ссылки. Как они работают и как добиваться их простановки, особенно в случае с информационными площадками, прекрасно знает Елизавета Трибунская, создатель отраслевого форума SearchEngines.ru и руководитель компании WebAdvance.

На круглом столе «Яндекса» в марте 2012 года представители данного поисковика неоднократно замечали, что ссылка должна быть проставлена «с любовью». Ценность естественной ссылки для поисковой машины высока. Один из способов сделать так, чтобы на тебя ссылались, – добиться публикации на других сайтах, желательно с хорошими показателями. Вопрос один: как? Бывают ли вообще сегодня бесплатные ссылки?

Елизавета Трибунская: Разговоры о том, что естественных ссылок не бывает, несколько преувеличены. За много лет работы с контентом я наблюдала ссылки на свои сайты в крайне неожиданных местах. Например, на какие — то мои проекты стоит ссылка на «Яндексе», на какие — то – на Wikipedia, притом что мне было неизвестно, что кто — то их поставил. Просто обнаруживалось, что на площадку, который месяц от роду, внезапно полился трафик, и не поисковый, а из Wikipedia. Сегодня на фоне нового трафика это не так заметно, но, когда сайт только увидел свет и его никто толком не продвигал, вдруг на него откуда — то начало каждый день приходить 20 человек. Это удивляет. Можно сидеть и делать спокойно свое дело, чувствуя, что все остальное приложится. Ключевое слово – «спокойно». Если начинаешь нервничать и ждать: «Ну когда же?» – совершаешь ошибки. А если ведешь себя спокойно, то оно и «прикладывается». Проблема в том, что времени, как правило, у людей нет. Есть задачи, есть показатели, выйти на которые желательно побыстрее.

С точки зрения поисковой системы любое побуждение к получению обратной ссылки на себя – те же самые действия по оптимизации, и неважно, хорошие или плохие. Если я как автор сайта узнала о чем — то «клевом» и написала о нем со ссылкой на это «клевое», это точно не продажная ссылка. Если со мной связались представители «клевого», предложили мне деньги, я их взяла и ссылку опубликовала, это точно продажная ссылка. А где грань? Например, мне прислали пресс — релиз с предложением провести конкурс и отправить в качестве приза вот то «клевое», о чем надо написать, поставив ссылку. Продажная ли это ссылка? Задачка.

Гораздо важнее понять, что меня способно заинтересовать. Маленькие сайтики периодически предлагают: «А давайте мы у вас купим статью». Я отвечаю: «Издержки на получение 100 руб. за статью больше, чем те 100 руб., которые я получу. Лень. А если бы вы мне предложили действительно интересный материал, я бы его поставила бесплатно». Иногда, наоборот, говорят: «А давайте вы опубликуете наш замечательный пресс — релиз». Я говорю:

«Извините, я не настолько исполнилась самомнения, чтобы оказывать благотворительную помощь транснациональной корпорации». Тот, кто хочет, чтобы его ссылка была опубликована, должен что — то понять даже не про человека, потому что в обоих вышеприведенных случаях это я, а про проект, с которым надеется сотрудничать. Случается, присылают новости и интересуются: «Появится ли у вас наша новость?» – между тем на сайте нет новостной ленты. Или на SearchEngines очень любят присылать новости под партнерские программы (CPA и т. д.), которые мы не ставим. Партнерские программы не являются предметом нашего интереса, если это не партнерские программы поисковой системы – рекламная сеть «Яндекса» и Google AdSense. Сейчас сделает Mail.ru что — то похожее, про них тоже будем писать. Зайдите на сайт, посмотрите, кто туда попал. Это же просто! Хочешь попасть в топ, проанализируй тех, кто уже там. Хочешь попасть со своей ссылкой на какой — то сайт, изучи, кто и по каким причинам ухитрился туда забраться.

Насколько реально получить на новостном ресурсе или портале ссылку на явно коммерческий сайт, который продает, например, пластиковые окна или хостинг?

Е. Т.: Что касается пластиковых окон, то же спонсирование конкурсов на портале, проведение совместного мероприятия c сайтом. Грубо говоря, все спонсоры ко дню рождения нашего форума получили ссылку и с сайта, и с форума, и из социалок, и из разных других мест, где мы анонсировали день рождения форума.

Какой контент со ссылками на первоисточники вы публикуете, даже если понимаете, что материал вам отправлен во многом ради решения SEO — задач? Как не попасть к вам в спам?

Е. Т.: Многие вещи у нас не формализованы. Но если посмотреть на публикации за последнюю неделю, то все становится на свои места. Железный способ не просто попасть ко мне в спам, а добиться моратория на публикацию материалов – это, если мы информацию не опубликовали сразу, прислать нам пресс — релиз о том же самом как о новости месяц спустя. Ладно еще, если мы писали о том, что нам сейчас повторно подсовывают, а если это что — то не очень важное, то, опубликуй я «тухляк», надо мной смеялись бы все посетители. А поскольку я, как всякий человек, не очень люблю, когда надо мной потешается моя аудитория, я из проштрафившегося таким образом источника тексты принимать не буду, даже свежие.

Были случаи, когда размещался пресс — релиз и владелец сайта обращался с просьбой добавить ссылку или какое — то ключевое слово в анкоре ссылки, хотя ее изначально там не было?

Е. Т.: Если релиз размещен, но речь в нем шла о чем — то интересном и приятном и не пришлось текст многажды переписывать, почему бы и нет. Но при необоснованности и назойливости таких просьб можно и на снятие материала спровоцировать. Все зависит от истории взаимоотношений с автором конкретного текста и от самого текста.

Что следует учитывать, чтобы не пустить по ветру эффект от размещения на трастовом, заслуживающем доверия сайте? Как необходимо оформлять текст со ссылками на мой ресурс?

Е. Т.: Вы сами должны понимать, чего хотите получить от размещения новости, текста. В некоторых ситуациях выгоднее получить ссылки с упоминанием бренда, чем пытаться ввернуть свой любимый анкор «пластиковые окна». Свой любимый анкор «пластиковые окна» дешевле потом продвинуть через биржевые ссылки, которые обойдутся значительно дешевле, чем эта «условно бесплатная». Я бы не зацикливалась на правильной подаче ссылки, на хитростях оформления, на том, какие ключевые слова уместнее ввернуть. Конечно, очень обидно, когда с главной была размещена ссылка на страницу акции, но акция закончилась, и ссылку удалили. Не надо думать, что это долгосрочно, что это навсегда.

Следует ли общаться в индивидуальном порядке с каждым журналистом или редактором, может быть даже мягко нажимая на него, или сделать ставку на массовость рассылки пресс — релиза?

Е. Т.: Грубо говоря, если мы берем некий тематический пул площадок, например

«Топ — 5» новостных ресурсов, то с их редакторами надо общаться все — таки индивидуально. Стоит ли на них нажимать, сложный вопрос, потому что деликатным давлением можно добиться публикации, но она будет сделана так, что никакой пользы не принесет. Редакторы ресурса имеют возможность сделать именно так. Надо общаться, надо понимать, какие именно интересы у того или иного человека. Например, случилась новость и журналисты всех отраслевых изданий обратились к ньюсмейкеру за комментарием, а он дал в качестве своего экспертного мнения один и тот же текст. Все эти СМИ его опубликовали, после чего стали между собой грызться в «аське» из — за того, кто у кого комментарий увел. В общем, все между собой перессорились, все друг другу предъявили письма, подтверждающие, что они комментарий получили сами. А разобравшись, дружно обиделись на ньюсмейкера. Потому что редакция испытывает потребность именно в уникальном комментарии.

Условно говоря, есть еще «Топ — 50» сайтов. Может быть, это порталы более крупной отрасли, которые будут писать только о самых значимых событиях вашей субиндустрии. С ними тоже надо общаться индивидуально, наверное, приглашать на праздники и поздравлять с Новым годом, но с акцентом комментария и SEO — хитростями лучше не заморачиваться именно потому, что люди дороже, чем ссылки. А десяткам тысяч каталогов и иже с ними не стыдно и массовый пресс — релиз отправить. Кто — то опубликует – хорошо, благо рассылка пресс — релиза недорога. Важно осознавать ценность контакта для себя и то, насколько он трудозатратный.

Еще одна забавная штука. Мне иногда жалуются: «Пока я был в должности, со мной все дружили, меня все звали, а пока я полгода был без работы, клиента два продолжали дружить, приглашать на мероприятия, что — то присылать, зато когда я через полгода опять стал работать в отраслевом издании, все возобновили контакт». Но человеку — то в душу запало, что вот эти его помнили, а все прочие даже с Новым годом забыли поздравить, потому что у него не было видной должности. С одной стороны, смотреть надо на издание, с другой – отношения необходимо поддерживать с людьми.

Насколько действенными в настоящее время являются естественные ссылки в блогах?

Е. Т.: По моим наблюдениям, на улучшение позиций сайта в топах работают даже ссылки через редирект в wi er, которые не индексируются. Хорошо действуют именно ссылки в блогах или даже в социалках. Люди по ним ходят, люди там остаются. Все поисковики делают свои тулбары, браузеры, метрики – что угодно, чтобы смотреть за тем, что делают люди, как ведут себя, откуда переходят на площадку. С радаров поисковика человек никуда не пропадает, и значимость социальных сигналов будет увеличиваться.

Каким сайтам и бизнесам подходит продвижение с помощью рассылки пресс — релизов в расчете на естественные ссылки, а каким все — таки нет?

Е. Т.: Грубо говоря, даже скучный производитель пластиковых окон может делать какие — то интересные игры, придумывать какие — то клевые штуки: кто — то создал калькулятор расчета толщины пластиковых окон в зависимости от январской изотермы. Такого, чтобы кому — то категорически не подходило, не припомню. Но что — то бывает неоправданно дорого. Массовая рассылка пресс — релизов эффекта не дает, потому что ее публикуют только сборники пресс — релизов, а действительно сделать что — то интересное, сделать какой — то event26, придумать какую — то штуку, которая всех привлекла бы, – это дорого. Якобы бесплатный способ продвижения – вирусное видео. Ссылки, конечно, на него все будут ставить бесплатно, но сделать вирусное видео – это деньги.

Есть мнение, что временные «биржевые» ссылки для информационных сайтов гораздо хуже работают. Верно ли это?

Е. Т.: Не согласна как человек, который занимается информационными сайтами. Единственное, в данном случае требуется вовсе не скупка тысяч, тем более десятков тысяч анкорных ссылок с низкочастоткой. Речь идет о брендовых ссылках для улучшения траста главной страницы и сайта в целом, а также о ссылках вида URL. В принципе, если информационный сайт по важному для себя запросу полгода стоит на 14 — м месте, то резонно прикупить пару ссылок со страницы, у которой схожий PR, схожая тематика. Правда, ссылки с бирж приходится покупать практически в ручном режиме. В случае с информационным сайтом надо понимать и видеть, что ты делаешь. Когда я тестирую очередную систему автопродвижения и смотрю, какие способы мне предлагаются для информационных сайтов, хочется плакать. А так – вполне. Но следует отдавать себе отчет в том, что через полгода такого — то запроса не будет, ради него нет смысла покупать дорогую вечную ссылку, потому что эта модель коммуникатора окажется никому не интересной. Кто сейчас ищет iPhone 1? Биржа – это инструмент, которым следует пользоваться в соответствии со своей задачей, а не нажимать большую красную кнопку «Сделайте мне счастье».

Можете привести несколько примеров «цепляющих» пресс — релизов, которые вы разместили благодаря умной работе над текстом?

Е. Т.: Сейчас гораздо лучше пресс — релизов работает размещение экспертных статей. Проблема в том, что большинство PR — агентств, предлагая экспертную статью, под видом ее проталкивают рекламу. А рекламную статью бесплатно никто брать не будет. Только тот, кому совсем нечего делать. Если материал действительно качественный, то поставить ссылку на автора – в порядке вещей. Да и когда мы делаем обзор, доклад о мероприятии, мы стараемся ставить ссылки на докладчиков. Это информация, которая нужна читателям: что это за человек, который высказывает некую спорную идею, какой у него опыт, откуда он пришел. Поэтому очень хороший способ получения естественных ссылок на себя – побольше посещать разные мероприятия.

А эти ссылки случайно не закрыты по умолчанию в rel="nofollow", noindex, через какие — нибудь редиректы? Насколько это принципиально для самой площадки?

Е. Т.: Прежде всего, ссылки в rel="nofollow" или с редиректом поисковыми системами обрабатываются. Мы чего хотим — то? Это же не биржевая ссылка, которая не находится через три месяца по уникальному анкору реципиента. Мы эту ссылку снимаем, и площадка не работает. А здесь очень вероятностно все. Может быть, на нас поставят ссылку, а может быть, она будет такая, что еще десять площадок ее перепечатают. Если попасть с хорошим текстом на хорошую площадку, дальше пойдет волна и часть перепечаток окажется с rel="nofollow", часть – еще как — то, а кто — то поставит по — честному. В исходнике был rel="nofollow", а при перепечатке о нем забыли. Кто боится лишнюю исходящую ссылку поставить? Тот, кто подписал какое — то обязательство с агентством, что с его сайта не должно быть чужих внешних ссылок, кроме тех, которые дает агентство. Вот они начинают:

«Мы счетчики закрыли, то да се сделали, чтобы только PR не утек». Да и, в конце концов, чем больше ресурс, тем выгоднее для него условия, на которых он договаривается со своими рекламодателями, даже со ссылочными.

Нужны ли все — таки статейные ссылки, ссылки, размещенные в пресс — релизах, и не растворяются ли они в общей массе ссылок, купленных на биржах, когда их там сотни, тысячи, а иногда даже десятки тысяч?

Е. Т.: Если вдруг ссылки на бирже закуплены так, что приобретший их ресурс пал жертвой ссылочного взрыва, и если ровно в тот момент он проводил еще какую — то естественную работу, то это, конечно, очень обидно, но, скорее всего, судьба статейной ли, прессрелизной ли ссылки будет такой же, как и у остальных. А если человек, который занимается формированием ссылочной картины сайта, понимает, для чего он покупает ссылки на биржах, где ему нужно разбавление, где ему требуются точные вхождения, а где, наоборот, синонимы, где он работает на то, чтобы у него сам сайт считался более весомым и хорошим, – другое дело. У нас же все удлиняется и удлиняется период, в течение которого надо работать с сайтом. С естественными ссылками по мере взросления сайта в общем ничего не случается, если заблаговременно позаботиться о том, чтобы их разместить на хорошем ресурсе, с которым тоже ничего не планируют делать его владельцы.

Нужно комбинировать разные методы, включая биржевые и не биржевые ссылки и пресс — релизы, если только мы нацелены на долгосрочный результат. Пытаться получать долгосрочный результат каким — то одним способом, особенно наиболее дешевым, бесполезно. Я не видела таких примеров. Чтобы взлетело и две недели продержалось, видела, и многократно, а чтобы взлетело и через пять лет никуда не делось – ни разу.

 

Программируя термитник, или Собери свою SEO — армию

Сыграем в ассоциации? Мы называем слово – «делегировать». Что пришло вам в голову? Если только «домен», то поздравляем: вы точно не первый год в Рунете хлебаете SEO — кашу. «Полномочия»? Поздравляем двукратно: едва ли вы манимейкер — кустарь. Во всяком случае, соприкоснулись с деловым миром за пределами уютных интернет — форумов. Делегировать полномочия жизненно необходимо, пусть даже вы не герой книг Сета Година. Раз вы отвечаете за оптимизацию как целый кусок бизнеса, то вне зависимости от того, трудитесь ли вы на стороне клиента или у вас собственный свечной SEO — заводик, работать в две руки и одну голову – дело безблагодатное: никакого масштабирования, зато монотонность эталонная (впрочем, подметать улицы тоже кому — то нравится; писатель Андрей Платонов, например, метлой владел не хуже, чем пером). Народной пословицей оптимизаторов должно быть анатомически абсурдное, но справедливое: «Без чужих рук дальше своего носа не посмотришь». Куда приятнее, да и действеннее взять воображаемый маршальский жезл и сосредоточиться на постановке задач и решении той их части, что требует интенсивной мозговой деятельности.

Для перевода деятельности на новые, подлинно предпринимательские рельсы вам потребуется команда, и команда дистанционная. Координировать «удаленщиков» проще, выгоднее, действеннее. Перед тем, кто решился сколотить такой коллектив, перво — наперво встанет вопрос: откуда рекрутировать подручных, ведь логично было бы предположить, что в нашей отрасли каждый второй – умник — разумник и видит себя во главе армии линк — менеджеров и младших аналитиков. Однако в том — то и соль, что не обязательно собирать команду из оптимизаторов. Ваши работники могут даже не понимать, ради какой именно великой цели они выполняют ту или иную узкопрофильную задачу. Парадокс, но большинству так даже спокойнее. Нисколько не унижая достоинство исполнителей, мы будем недалеки от истины, если сравним их с термитами, каждый из которых, возводя наряду с собратьями строения сложнейшей архитектуры и безумной красоты, не ведает, что ваяет.

За рекламу портал Free — lance.ru нам не заплатил, но путь будущего SEO — полководца… ладно, пока SEO — прораба лежит именно сюда. Это объективно крупнейшая в российском Интернете площадка для поиска и координации работы фрилансеров и заказчиков, и на ней найдется исполнитель под любую задачу. Главное – четко описать, чего вы от него хотите. Или даже в блицрежиме научить нужным приемам, если кандидат сообразителен, но ранее ничем подобным не занимался. Обычно на откуп «вольным кирпичникам» («вольный каменщик» – это парочкой уровней выше по иерархии) резонно отдавать рутинные операции, лишь отнимающие у вас время: составление большого количества семантических ядер, написание текстов ссылок и, более того, масштабную, но тривиальную PR — активность. Часто в отсутствие штатного пиарщика его функции с гораздо более ощутимым результатом выполнит грозный рой из нескольких десятков ваших помощников со скромным, но устраивающим их гонораром.

На практике эта «человекомашина» работает следующим образом. У вас есть некий товар или сервис, который требуется прорекламировать, в том числе с точки зрения SEO. К примеру, онлайн — кинотеатр. Вы бросаете клич в своей команде: «Ребята, найдите все многолюдные сообщества выбранной мною тематики. И сделайте так, чтобы о моем продукте эти сообщества узнали и на информацию о нем отреагировали положительно». Наемники ваши загодя обучены нехитрой, но действенной методологии: регистрируются на форуме (само собой, каждый – не на одном и не на двух) и принимаются растить на нем двух — трех виртуалов – эдакое SMM — SEO в действии. Эта стелс — пехота живо участвует в дискуссиях по теме, объединяющей то или иное сообщество. Сидят на женском форуме две девочки, болтают, набирают авторитетность в пределах местного комьюнити, их начинают узнавать. Пообтесаться, приноровиться к аудитории занимает месяц — два. В определенный момент по вашей отмашке резиденты заводят на форуме тему с просьбой о содействии в решении проблемы: «Девочки, помогите! Люблю кино, но хочу, чтоб по — честному, не пиратское смотреть. Как назло, денег в семье мало сейчас, хнык». В игру вступают второй и третий виртуалы:

«А попробуй такой — то сайт. Каждую неделю смотрим с МЧ по вечерам кино здесь, и все бесплатно, но на все сто легально – они за счет рекламы окупаются», «Женечка, согласна! Чудесненький портал. Оформление мне не очень нравится, зато фильмы все — все свежие». С таким подходом вы «окучите» какое угодно комьюнити, поскольку на любой площадке завязываются беседы на отвлеченные темы. Женщины обсуждают не только дамские штучки – они говорят обо всем. Таким образом, благодаря сети «микроагентов влияния» вы получите не только SEO — ссылку, но и живых клиентов, посетителей, покупателей. Профит? Профит.

В делах контентных труд фриланс — команд также незаменим. «Заряженные» правильной инструкцией, они способны, без преувеличения, преобразить ресурс в кратчайшие сроки. Представьте себе: сидите вы и расписываете контентную стратегию портала для своего клиента. Здесь будет раздел «Вопрос – ответ», там – «Статьи», сям – «Википедия». Допустим, полтора десятка модулей. Составили план, налюбовались на него и, вместо того чтобы со вздохом засучить рукава, подаете сигнал своему звену пионеров — копирайтеров, которые

«всегда готовы», и по данным вами лекалам они наполняют сайт текстами в считаные дни.

Из SEO — задач «термитник» хорошо выполняет, в частности, рутинные операции со ссылками. Есть от него зримая польза и в контекстной рекламе, особенно когда необходимо написать десятки тысяч объявлений человеческим языком. Нужен навык? Если однажды их научить, они справляются успешно, и это проверено на практике.

К типовому фрилансу не грех привлекать и специалистов сравнительно высокой квалификации. Пусть у вас в контакт — листе ICQ заведется подраздел «Аутсорс», где будут собраны пять верстальщиков, пять программистов разного уровня, семь дизайнеров. Наконец, если проект долгосрочный, сходным образом можно организовать удаленную службу поддержки пользователей: прецеденты нам известны.

Слаженность – залог успеха таких бригад. Как следствие, организация работы должна быть на высоте. Например, вы по одному человеку собираете команду пиарщиков, назначаете среди них управляющего (самого толкового), и некую повторяющуюся процедуру они будут раз за разом выполнять на благо десяткам ваших клиентов.

С первых дней задумывайтесь о масштабировании своей сети исполнителей. Одна независимая команда пиарщиков из четырех — пяти человек в идеале должна дублироваться другой. Если в первой все вдруг оказались заняты по горло или она развалилась, у вас в запасе будет вторая, которая подхватит падающее знамя и решит задачу. Сегодня многие фрилансеры предложение поработать в команде понимают с полуслова. Более того, зачастую они кооперируются сами.

Кто — то из ваших подрядчиков задействует подмастерьев? Не спешите репрессировать его. В настоящее время, лично наняв десять человек, вы, случается, даете работу двум, а то и трем десяткам. Но ведь вам важен результат, не так ли? Платите людям, с которыми вы договорились напрямую, ту сумму, которая вас устраивает, и пусть даже они положат себе в карман третью ее часть, лишь бы работа была сделана качественно и в срок. Да и забавное это чувство – оказаться во главе своеобразного микрохолдинга.

Держите команды при себе. Они ваше конкурентное преимущество. Расквартировав в виртуальной Skype — казарме несколько десятков бойцов с разными умениями, вы всегда обгоните даже сметливого оптимизатора — конкурента, который предпочитает обходиться своими силами. Возьмете количеством: получите больше ссылок, сгенерируете больше контента, внедрите больше функций. Добьете качеством: повторимся, у вас будет заметно больше времени на креативные направления деятельности.

Забираясь на ступеньку выше, вы перестаете искать каждого конечного исполнителя своими силами. Ваша задача – найти, образно говоря, прораба, который сколотит бригаду под себя, но ради вашего обслуживания. А вот прораба следует выбирать тщательно и осторожно. Прежде чем ударить по рукам, проведите с ним интервью. Не поленитесь и уделите ему хотя бы полчаса, поговорите с ним голосом по Skype. Поскольку вашему наместнику, скорее всего, предстоит искать людей одного ремесла, то, исходя из его умений в том самом ремесле, вам и нужно делать выводы о его профпригодности. Так, контент – это всенепременнейше коммуникабельность и знание русского. Если в ICQ человек пишет с ошибками, притом не нарочитыми, едва ли от него будет толк на ниве копирайтерства. А раз задает к месту наводящие вопросы: «А это как? А это?» – значит, он толковый, обучаемый и готов перенять инициативу. В случае с техническим специалистом все просто: вы смотрите его портфолио и даете ему необременительное тестовое задание, при успешном выполнении приглашаете к личной беседе.

Дальнейшие рокировки и ротация в команде – дело прораба. Занимались пиаром на форумах одни люди и вдруг их сменили другие? Пусть. Главное, чтобы задача была решена точно и вовремя. Ваш зам нанял субподрядчиков по цене в два раза ниже той, по которой платите ему вы? То же самое: первичен результат. Наоборот, для рачительного бригадира это лишь стимул остаться с вами в связке на сколько возможно длительный срок: зачем ему резать курицу, несущую золотые яйца?

Нельзя наверняка исключить вероятность того, что прораб, ошалевший от заработков под вашим началом, решит отколоться и уведет за собой всю мини — команду. Такое случалось неоднократно и до того, как вы решили освоить использование удаленных коллективов. В конечном счете все те, кто формировал такие рабочие группы, сманивал их, укрупнял и дробил, поработали на благо отрасли в целом и ваше в частности: сегодня очень многие фрилансеры умеют трудиться бригадным методом.

Чтобы свести риск внезапной потери команды к минимуму, мотивируйте ее. Предпочтительно регулярными заказами. Кроме того, рекомендуйте своих фрилансеров друзьям. Прямым конкурентам, разумеется, их уступать не след, а вот вменяемым коллегам по цеху, партнерам по команде – даже желательно. Если вы отдаете на неделю команду в чье — то пользование, то ее не купят «под ключ» на полный рабочий день – овчинка выделки не стоит. Зато повышение лояльности со стороны самих исполнителей и облагодетельствованных коллег вам гарантировано.

Благодаря «сетевому фрилансу» вы обеспечите выполнение ощутимого объема работ и раз и навсегда предупредите обвинения в том, что лишь даете клиенту советы, между тем как внедрение заявленных идей остается его головной болью. А возможно, управление малыми группами еще и откроет вам тернистую, но богатую приключениями тропу в большой бизнес.

 

SEO — войны: сахар в бензобак или жука в муравейник?

В поисковом продвижении были свои «девяностые» с настоящими SEO — войнами. Сумевшие выжить в топе поумнели, и борьба в цивилизованной части рынка приобрела позиционный характер. Однако кто — то по — прежнему со злостью «засыпает ссылочного сахару в бензобак», провоцируя недруга на ответные меры, а кто — то предпочитает запустить конкуренту «жука в муравейник» так, чтобы тот был не в силах парировать скрытую атаку. Беседу с SEO — экспертом Андреем Шипиловым мы предлагаем вам исключительно в ознакомительных целях, чтобы вы знали, как организовать оборону от злонамеренных конкурентов.

Работает ли на текущий момент такой нечистый метод конкурентной борьбы, как создание негативного ссылочного окружения сайту оппонента?

Андрей Шипилов: Холивар затих, но до сих пор на форумах периодически вспыхивают дискуссии: влияют ли так называемые внешние факторы на позиции сайта? Возможно ли «завалить» сайт, закупив «плохие» ссылки на него? Ответ вроде бы очевиден: нет, иначе бы все друг друга «гасили». Поэтому, наверное, «Яндекс» и Google сообразно здравому смыслу не должны принимать во внимание «плохие» ссылки. Это один из немногих случаев, когда математика вступает в противоречие с интуицией, когда интуитивное решение неверное. У «Яндекса» и у Google не всегда есть способ определить, «валят» сайт или нет.

Выделяются два способа «SEO — боя» – симметричный и несимметричный. Симметричный – это когда вы, принимая какие — то меры против конкурента, рискуете получить в ответ то же самое и развязывается гонка вооружений. Побеждает тот, кто вложит больше денег. Во всяком случае, так подсказывает интуиция. Математика говорит, что не побеждает никто, поскольку это ведет в конце концов к так называемому равновесию Нэша, то бишь оба противника оказываются в одной глубокой — преглубокой дыре. Ну, это было популярно лет семьдесять назад, однако и сегодня такие конфликты возникают.

Как бывает? Вы оказываете транспортные услуги, ваш конкурент тоже. Вы заводите на форумах кучу виртуалов, или покупаете авторитетные аккаунты, или подкупаете их владельцев на форумах, в социальных сетях. Они начинают строчить, какая скверная фирма у вашего конкурента, как его водители при перевозке перебили всю посуду, а грузчики украли кошелек и как директор Иван Иваныч Иванов нахамил в ответ на жалобу, а его охранники набили морду (протокол прилагается). И все это дело накручивается в SEO — сетях так, что по запросу с упоминанием вашего конкурента человек получает один негатив. Это не очень хороший способ. Во — первых, не факт, что, получив негативную информацию о вашем конкуренте, потенциальный клиент пойдет к вам. Во — вторых, если Иван Иваныч Иванов глуп и бросится искать того, кто бы вычистил негативную информацию из Сети, то он разорится: такое возможно, но за кругленькую сумму. Поэтому, если Иван Иваныч умный, он наймет умельца, который точно таким же образом «опылит» рынок. Даже не возникнет вопроса: «У кого больше денег?» Просто обе противоборствующие фирмы покинут рынок, освободив его для тех, кто в схватке не участвовал. Как следствие, подобные методы распространения не получили. Правда, сейчас появляются новые, и довольно интересные. Есть фирма «Рога», и есть фирма «Копыта», обе продают пластиковые окна. Я выбираю «купить пластиковые окна у фирмы “Рога”», а мне на первой позиции вываливается «купить пластиковые окна у фирмы “Копыта”», потому что это контекстная реклама, я закупаю задорого по названию конкурента спецразмещение на первой позиции. Работает на ура. Но мой прогноз: и «Рога» и «Копыта» уйдут с рынка, останется какая — нибудь полумертвая фирмочка, которая находилась в стороне от «сражения». В случае с контекстной рекламой есть шанс задавить конкурента деньгами. А в области SEO – нет.

А что представляют собой несимметричные бои?

А. Ш.: Вы делаете гадость конкуренту, а он не в силах вам ответить, потому что априори лишил себя такой технической возможности, на начальном этапе допустив ошибки. Вот захожу я в интернет — магазин и вижу у него страницы поиска, открытые для индексации. (Очень частый случай, надо их закрывать.) Более того, я замечаю, что параметры в поиск попадают через GET — запрос. Что я делаю? Я набираю в адресной строке «проститутки Москвы» и получаю нормальную выдачу: «Цена проститутки Москвы – 0 результатов», «Проститутки Москвы на складе не обнаружены». Все, я не закупаю «плохие» ссылки. У сайта, где всего 5 тыс. страниц товаров, в индексе оказывается 5 млн страниц с чудесной «продукцией»: «Проститутки Москвы», «Резиновые члены», «Сурков идиот», «Да здравствует Pussy Riot». «Яндекс» не накажет сайт за то, что на него ведут запутанные ссылки, но не потерпит ситуации, когда на сайте 5 млн мусорных страниц, и он не станет разбираться, какие валидные, какие нет: он просто их все вычистит, наказывая владельца сайта за глупость, неосмотрительность, неграмотность. А ответный удар исключен, потому что у васто поиск закрыт.

Единственный способ защищаться при несимметричном бое – закрывать всевозможные дыры. Другой пример, более продвинутый. Вы видите, что ваш конкурент достаточно грамотен, вложил немаленькую сумму в свое продвижение, да так грамотно, что занимает все ведущие позиции. И вам, чтобы выбить его с занятых высот, надо потратить гораздо больше. Но вам не хочется, а возможно, у вас нет таких денег. Вы делаете сайт, который

«Яндекс» сочтет аффилиатом сайта вашего конкурента. Указываете те же контактные данные, тот же телефон, а в случае с интернет — магазином и ту же товарную номенклатуру. Вы в безопасности, конкурент ничего не обнаружит. В его фирму будут звонить по телефону с вашего сайта, а если посетитель «подменной» площадки закажет товар, который у конкурента закончится, ему скажут: «Извините, сейчас на складе нет». Таким образом, появляются два сайта вашего конкурента. А уж коли конкурент по глупости сэкономил и не купил себе отдельную виртуальную машину, то вы выкладываете сайт на тот же самый хостинг, это хорошо. Если он воспользовался бесплатным движком Joomla или WordPress, еще лучше: ваш сайт тоже будет на Joomla или WordPress. Итого два очевидных аффилиата. Проверить легко: на обоих адрес правильный, на обоих один и тот же телефон, а если у конкурента несколько телефонов, можно внести разнообразие. Будут проверять и звонить – говорите:

«Да — да, это наш сайт». Дальше вы принимаетесь потихонечку, полегонечку по методике, описанной в предыдущем случае, понижать релевантность.

Замусоривать сайт конкурента?

А. Ш.: Даже не замусоривать. По ту сторону грамотные специалисты: они закрыли поиск и все — все — все. Но вы дописываете амперсанд, какую — то несуществующую переменную, и в 99 % случаев PHP — движок, увидев несущес