Ответы на вопросы

Слушатель: Нужно ли учитывать ссылочную массу конкурентов при оценке сложности продвижения?
На самом деле – да. Мы оцениваем и смотрим на ссылочную массу (правда, это происходит отдельной работой) при составлении ссылочной стратегии. Т.е. мы смотрим, какая ссылочная масса – это первое. Вообще объем в целом. Смотрим соотношение разных доноров, доменов к количеству страниц. Мы смотрим, есть ли сквозные ссылки, какого они типа и т.д.

Далее мы смотрим, какая структура ссылочной массы у конкурентов: смотрим форумы, доски объявлений, арендные ли это ссылки, статьи, отзовики и т.д. Смотрим, есть ли пересечения – некий обязательный набор.

Допустим, выгружаем 10 сайтов с максимальной видимостью в тематике, кроме монстров, естественно, и смотрим, есть ли у них пересекающиеся доноры. Если они есть, то в первую очередь будем делать это.

И, исходя из анализа, мы принимаем решение: какая структура ссылочной массы нам нужна, примерно какой объем ссылочной массы нам нужен, и третье – какие анкоры, и что мы будем делать в первую очередь.

Слушатель: По скольким кластерам может продвигаться одна коммерческая страница?

По факту – по одному. Если получилось так, что у нас несколько кластеров и под них выбирается одна релевантная страница, то мы объединяем эти кластера в один.

И в этом и суть, я рассказывал – проверить, когда у нас после кластеризации получилось много кластеров, возможно ли их объединить в один. И наоборот, если у вас мало кластеров, или просто какие-то крупные кластеры, можно или нужно ли разъединять запросы.

Как правило, это делается уже опытным оптимизатором. Не только опираясь на опыт, но и на ряд сопутствующих факторов. Например, возможно ли оптимизировать с точки зрения текстовой оптимизации всю страницу под кластер вопросов без какого-то переспама. Все ли зоны (title, H1, фрагменты, плентинг, зона А) можно ли насытить вхождениями слов. И просто опираясь на здравую логику, возможно ли в раках одной страницы объединить кластера.

На примере было про маникюр: «цена», «салон красоты», «сделать» — все было объединено в один кластер с точки зрения логики. Там никакого шаманства, опыта – просто с точки зрения здравой логики, что это один и тот же интент пользователя. Было объединено, и одна страница продвинулась спокойно в поисковой системе.

Слушатель: Посоветуйте бесплатный сервис кластеризации.
Я могу отправить к Арсенкину и к Кулакову.

Слушатель: Может ли распределение SEO-текста на блоки (например, на отдельной html элементы) и разбавление страниц дополнительным контентом (картинками, графиками, видео) восприниматься поисковой системой положительно? Как минимум, без санкций? Или в текущих условиях нужно ориентироваться только на смысл запроса и текста?

Глобально – да. Если текст описывает ту проблему пользователя, с которой он пришел на страницу, то гораздо лучше он будет ранжироваться, если его снабдить инфографикой, разбить на блоки, добавить видео, таблицы – т.е. хорошо его отверстать. Это будет гораздо лучше, чем просто полотно текста, естественно.

Но если контент – не о чем, бессмысленный, текст ради текста – конечно, каким-то плюсом будет его разбитие на блоки, добавление картинок, чего-то еще. Но если он бессмысленный, то он в принципе не нужен все равно.

Слушатель: Как можно рассчитать видимость сайта отдельно по коммерческим и по информационным запросам? Например, отдельно для блога и для каталога.

Мы делаем следующим образом. Это непростая задача в целом. Мы считаем сначала общую видимость по запросам. Т.е. мы берем видимость в тематике и смотрим, какие сайты там хорошо ранжируются. Дальше мы смотрим на тип сайтов. Бывают просто сайты о чем-то (информационный сайт) – в этом  случае мы подразумеваем, что вся его видимость, даже если по коммерческим запросам, то все равно сайт информационный, и мы, скорее всего, вообще с ним себя ассоциировать не будем.

У коммерческих сайтов мы смотрим популярные URL. Практически любой сервис позволяет это делать. На том же Мегаиндексе можно посмотреть, какие урлы наиболее популярны на сайте, с точки зрения органических переходов. И какие запросы на этих урлах ведут. Т.е. мы не считаем с точностью до каждого запроса, но примерно в процентах объем трафика (информационного или коммерческого), исходя из того, сколько страниц и сколько на себя процентов трафика они, с точки зрения сервисов, забирают — мы смотрим и получаем примерную картину. Например, что 10 сайтов, с которыми мы себя сравниваем, у первого сайта – 70% информационный трафик, 30 – коммерческий. У следующего – 40/60 и т.д.

Т.е. мы в итоге понимаем, нужно ли нам в итоге делать какой-то информационный кластер на сайте: статейный, блоговый или какой-то еще.

Слушатель: Может ли наличие сайта сателлита понижать позиции основного сайта в Гугл?

Абстрактный вопрос. Гугл, если именно с точки зрения аффилирования, то такого, как в Яндексе, у него нет. Там проблемы могут быть с уникальностью контента, если там один и тот же контент, или если он очень схож. Просто сайт будет релевантнее и проблемы будут у основного сайта. И вторконтент в Гугле в принципе нормально живет, и копипаст контент тоже в Гугле нормально живет. Главное, чтобы сайт в целом был ничего. А по поводу того, что сателлит будет мешать в Гугле – вряд ли. Скорее всего, если это коммерческие ресурсы, то проблемы будут в Яндексе.

Слушатель: Как называется инструмент для чистки ссылок?
Disavow-links, который доступен в инструментах для вебмастеров Гугл. Ссылочку непросто найти в Google Webmaster Tools, но можно, если покопаться. А проще всего, кстати, просто в Гугле забить «Disavow-links», и он выдаст прямо ссылку на инструмент. Он позволяет отклонять ссылки.

Допустим, у нас есть 100 ссылок, и мы не хотим, чтобы 50 из них участвовали в расчете ссылочного ранжа нашего сайта. Мы можем отправить их списком в этот инструмент, и они не будут учитываться. А если там были какие-то санкции, то они снимутся, если они были именно из-за этих ссылок.

Слушатель: Имеется группа запросов. При проверке данной группы на текстовый фильтр, 3 запроса из 10 показывают переоптимизацию. При расширенном поиске наш сайт выше конкурентов. Если же это переоптимизация, то она накладывается на всю группу запросов, т.е. на 10 из 10? Может быть исключение, но явно более, чем 3 из 10. Вопрос: какие выводы необходимо делать? Данная страница находится под фильтром переспам или переоптимизация?

На самом деле характерно именно для переоптимизации понижение позиций всей группы запросов. Т.е. даже НЧ. Если диагностируется 3 из 10 – скорее всего, это не переоптимизация. Просто по каким-то причинам методика проверки показывает, что по этим запросам ситуация выглядит, как переоптимизация.

Скорее всего, это даже не переспам. Тут нужно смотреть, как ранжируются другие запросы. Если всего 3 из 10 ранжируются плохо, а остальные прям хорошо, и эти 3 из 10 ранжируются в ТОП-20 (максимум в ТОП-30), то, возможно, это переспам. Если же эти 3 запроса ранжируются за Топ-40,
ТОП-50 – это не переспам, и нужно смотреть ситуацию более подробно.

Может быть, вообще проблемы с ранжированием. Может быть, недостаточно вклада каких-то факторов.

Слушатель: А кому нужен текст для категорий? Кто его читает? Что там можно написать полезного, чтобы раскрыть тему?

К сожалению, тут вопрос не в том, нужен ли текст или нет. Вопрос в том, чтобы нам выиграть у конкурентов. В том числе по НЧ запросам. И методика, которая предполагает сбор трафика, она предполагает написание (ранее, по крайней мере, предполагала) хоть какой-то «генережки» или небольшого абзаца текста, чтобы увеличить текстовый ранж по НЧ запросам.

И когда мы писали большие портянки, суть была та же самая: мы хотели как можно сильнее насытить текстовое ранжирование. По факту мы понимаем, что тексты, скорее всего, не читают, и вряд ли их будут читать. Поэтому тексты стараемся размещать как можно выше, писать как можно проще и то, что нужно людям, и не писать портянки. И Яндекс как раз направил свои силы на борьбу с беспощадными текстами ради текстов.

Но, я думаю, что полностью убить тексты… Они, скорее всего, будут присутствовать. Ну, портянки-то умерли уже давно. Т.е. в любом случае – да, тексты не читают, но текстовое ранжирование никто не отменял.

Слушатель: Может быть связано непопадание в ТОПы с низкой индексацией сайта Гуглом? Например, с 12 тысяч страниц проиндексировано только 4 тысячи?

Т.е. те страницы, которые проиндексированы, они в ТОП не попадают? Проблемы с индексацией вообще характеризуют, что с сайтом есть какие-то проблемы. Т.е. робот не хочет брать в индекс страницы. Они могут быть некачественными, с точки зрения робота. Они могут быть не уникальными.

И, соответственно, может быть так, что и про другие страницы так же считает алгоритм, что с ними тоже все плохо. И поэтому стоит обратить внимание на качество сайта. Второе – попробовать доиндексировать страницы. Например, подкидывать на страницах список не проиндексированных ссылок. По нескольку ссылок (по 2-3-4 ссылки) подкидывать на разных страницах, куда заходит робот – посмотреть, будут 24 ли индексироваться эти страницы. Если они в индекс принципиально не заходят – значит, проблема глобально с качеством сайта. И нужно смотреть, в чем именно: дублирование, техническое состояние, уникальный контент, вообще качество контента, попадание в интент запросов. Может быть, там вторконтент, который не несет никакой ценности – т.е. еще один сайт.

Возможно, в этом случае проблемы. А не то, что нет в индексе столько-то страниц, а другие поэтому плохо ранжируются. Нет, это не прямая взаимосвязь.

Ведущий: И первым пунктом, чтобы проверять, очень часто забывают – начните с robots.txt. Возможно, там какая-то ошибка. Вот зачастую лезут в глубины, а все на поверхности. У нас наоборот есть. Из последнего: нужно убрать сайт из индекса – все сделано, но сайт локомотивом стоит, идет и индексируется. Ему пофиг на роботс, на метатеги… Осталось только под пароль его закрыть, чтобы совсем не индексировался.

Ведущий: Я предлагаю сжечь сервер. — Это надежно.

Слушатель: Что делать, если в анализаторе показывает, что вхождения не нужны, а, пробегаясь по ТОПу, в пяти сайтах вхождение присутствует.

Тут вопрос в анализаторе. Поэтому в любом случае проверяем еще вхождение слов в те зоны. Это первое. Второе – если мы говорим про любой другой анализатор (платный или бесплатный), нужно понимать, что это механизм, это скрипт, который может ошибаться. Т.е. если он не раскладывает на разные вариации запросов, если он не лимонитизизует, или может быть произошла ошибка в лимонитизации – это всего лишь инструмент, который нужно проверять. На самом деле это так. И проверять приходится. У себя мы это видим, и у ребят. Это нормально, и поэтому перепроверка тоже достаточно важна.

Один из примеров – это запросы с тире. Как их считать? Без тире или всетаки правильно учитывать с тире? А если человеку нужно, чтобы именно с тире? Или без тире? Есть такие нюансы.

Слушатель: Есть ли смысл покупать ссылки у крупных СМИ за очень много денег? Или размазать бюджет на множество ссылок подешевле?

Вопрос необходимости. Если мы говорим о крупных СМИ и больших деньгах, это вообще в SEO особо не относится. Ну, относится, но косвенно. Это больше относится к пиару. Получение качественной ссылки с большим количеством переходов, с пиар-эффектом, с маркетинговой целью, чтобы были заказы и заявки. С точки зрения SEO, лучше немножко размазать и 25 получить ссылки попроще, но побольше. Но также, чтобы были какие-то переходы, и чтобы люди пришли.
Но если говорить 1 – за 100 тысяч или 5 – за 20, то я выберу, как сеошник, 5 – за 20. Но, опять же, тут еще вопрос в пиаре и в маркетинге еще.

Слушатель: Если по тематике сайтов в выдаче полностью преобладают агрегаторы. Например, по тематике «квартиры посуточно название города», то как продвигать специализированный сайт по этой услуге этого города?

Тут прям хочется сказать – никак.

Ведущий: Я вспомнил одного нашего общего с тобой знакомого. Он по тематике эвакуаторов нашел выход. Он сделал свой агреготор, лучший, чем там стояли, и просто продавал лиды.

Это не так просто, хочу сказать. Я знаю эту подноготную, не только нашего общего знакомого. Привет, Денис. — Но в целом, зная подноготную построения агрегаторов, это непросто. Если у кого-то заказывать – это дорого, если делать самому – это долго. И там есть ряд проблем. Все, что я рассказывал, это и максимизация индекса, и текстовый ранж, и запросы.

Пример, который я показывал, про маникюр и педикюр, он достаточно старый – это про салон красоты, у которого 1 или 2 отделения в Москве. И вот по запросам он прошел в ТОПы, где не были салоны красоты. Там были по запросу: маникюр, шеллак, примеры, фотографии, отзывы. Т.е. нужно в любом случае брать страницу, оптимизировать ее. Делать вхождение, делать оптимизацию, давать годный контент для пользователя. И, собственно, по тем запросам, где в ТОПе одни агрегаторы, понимать, что, скорее всего,

ТОПа не будет, но оптимизировать необходимо. Это первое. Второе – искать те запросы, где нет заселья агрегаторов. Это могут быть НЧ. Т.е. нужно искать там, где нужно пролезть и по ним пролезать обязательно. Далее — сами агрегаторы. Никто не мешает продвигаться в агрегаторах:
добавляться, там работать, пытаться встать на первое место. Почему нет?

Четвертое – моделирование. Т.е. пытаться не сделать агрегатор, а сначала попытаться его смоделировать, попробовать перестроить тип сайта под агрегатор. Потому что построить полностью агрегатор сложно, но немножко перестроить под нужный тип. И посмотреть, что будет.

И уже пятое – разозлиться и сделать свой агрегатор. Всех победить и там быть в ТОПе.

Слушатель: Что будет, если просто писать тексты, как я умею, не вдаваясь в подробности SEO и всего такого подобного? Как научиться писать нормальные, интересные и читабельные тексты? Желательно читать для этого классические тексты из старой прессы, которая была до интернета, или можно просто писать?

Я честно не знаю, что ответить. Из меня писать не очень. Я, когда делаю статьи, пишу, мне сложно. Как писать легко и много – наверное, нужно искать соответствующую литературу тех практиков, кто пишет, смотреть. Читать классическую литературу – я считаю, это полезно всем. По поводу
качества текстов – можно ли писать, не вдаваясь в подробности SEO.

Смотрите, если на странице требуется объем текста, то на самом деле можно подготовить контент, не опираясь на сео-требования текстовых анализаторов. Т.е. если вы раскроете своим текстом, там, где он требуется (например, в какой-нибудь услуге), проблематику (то, что действительно важно пользователю), и это действительно окажется раскрытием, то этот текст будет ранжироваться. Единственно, сеошнику, с точки зрения сео, нужно будет проверить на переспам, чтобы не было слишком много вхождений. А так такие тексты могут ранжироваться. Есть примеры, когда текст был написан без указания количество символов, вхождений – просто раскрыт интент. И эти тексты хорошо ранжируются с точки зрения Яндекс. Но, опять же – там, где этот текст принципиально нужен. Например, на странице листинга «купить телевизор Самсунг», но текст может быть в принципе не нужен. Зачем он там? Вот у нас есть листинг, есть список товаров, куча страниц, вот их краткие характеристики и пара ссылок как выбрать, чем отличаются – все. Зачем там текст? Какой бы супер качественный он не был, он там не нужен. А вот «генережечка» для низкочастотки будет нужна.

Слушатель: Как узнать, есть ли сейчас санкции со стороны Гугла?
Да, проблематично. Раньше мы знали даты апдейтов, приходили письма счастья. Сейчас мы просто наблюдаем за трафиком в Гугле, смотрим на вебмастер, на проблемы с индексацией. И принимаем какое-то решение, исходя из того, упал трафик, что находится в веб-мастере, индекс упал или
какие-то проблемы обозначаются. Если упал трафик, и проблем нет, то ищется причина, что может быть. Закупали ссылки – значит, это могут быть ссылки. Знаем, что что-то не очень с сайтом – соответственно, на это обращаем внимание.

Определить сейчас все, что встроено в алгоритм, уже достаточно сложно.

Слушатель: Как быть, если есть два кластера маникюр и педикюр, но запрос «салоны красоты» подходит в принципе к обоим кластерам? Как по нему продвигаться?

Запрос «салон красоты» — это вообще отдельной группы запрос. Потому что помимо салона красоты, они есть в разных районах, на разных улицах, разных классов, услуги помимо маникюра. И поэтому это вообще отдельные кластера запросов. По запросу «салон красоты» — это другой кластер. Это первое. Скорее всего, это будет главная страница, если мы имеем в виду сеть салонов или какой-то салон. И, скорее всего, вы по нему не продвинетесь.

Обычная история: есть салон красоты, он один, у него одна площадь, он в Медведково и запрос «салон красоты» — скорее всего, вы просто не пройдете. Наша история по этому запросу: мы зашли в ТОП на 2 недели, там постояли, потом он вышел, и больше никогда в ТОП не возвращался. Т.е. там
агрегаторы, там сети салонов – обычному салону эконом-класса из Медведкого делать особо нечего. Но это отдельный кластер. Это не относится ни к маникюру, ни к педикюру. Это отдельная страница (скорее всего, главная), которая будет продвигаться по этому запросу.

Ведущий: Да и какой смысл салону красоты из Медведково ставить в ТОП по всей Москве? Маловероятно, что к вам поедут с другого конца, если вы не какой-то супер топовый, раскрученный салон где-нибудь в центре. Вам интересней будет тот же запрос «салон красоты в Медведково». Проблема в том, что люди приходят, и они этого хотят. Вот запрос стоял с ТОПе 2 недели – не было ни одной записи. Т.е. люди заходили и уходили, потому что – смысл?

Ведущий: Ну, да, заодно испортить поведенческие на сайте.

Слушатель: Разбавление контента инфографикой более выгодно со стороны ранжирования, как более юзабельное, на взгляд пользователя?

Коротко – да.

Слушатель: Если все сделать правильно, в течение какого времени обычно сайты выходят в ТОПы?

Разграничу так: есть НЧ запросы – они могут выйти сразу после апдейта на дату внедрения изменений (неделя-две-три). Внедрили – переиндексация – сайт сразу же растет.

Среднечастотные запросы: там чуть подольше. Там если все сделано корректно, прямо сразу и на всем сайте, то возможен выстрел, как по НЧ, а возможно придется подождать, пока чуть-чуть подкопятся ПФ и пересчитаются другие факторы – от нескольких недель до 1,5-2 месяцев.

По ВЧ – бывает по-разному. Бывают резкие взлеты, а вообще требуется какое-то время, чтобы сайт накопил ПФ, пересчиталась ссылочная, все коммерческие факторы отыграли – это обычно 2,5-3,5-4 месяца. Т.е. тоже все достаточно быстро, если не подкинуло.

Но, как правило, для СЧ и ВЧ запросов приходится что-то докручивать. Т.е. сделали, получили какой-то результат, докручиваем. Особенно, если страница новая, она только создалась.

Слушатель: Столкнулся со странной реакцией Яндекса на тексты. Часть текста, идущего подряд, Яндекс считает уникальным, и по запросу с этим текстом в выдаче мой сайт на 1 месте. А часть текста – не видит вообще. Т.е. при запросе с этой частью текста мой сайт не выдает. От чего это может быть?

Наверное, этот вопрос нужно адресовать к Яндексу.

Объективно, что может быть на первый взгляд, не зная ситуацию:
а) одинаковые сниппеиы. Т.е. он скрывает сайты, группирует выдачу за одинаковые сниппеты. Сайт на самом деле в выдаче есть, просто он сруппирован с каким-то другим сайтом.
б) аффилиат. Т.е. возможно есть некие признаки аффилирования по тому, что было рассказано.
в) какая-то ошибка со стороны Яндекса. Имеет смысл отписать в техподдержку и задать прямой вопрос почему.

Вряд ли тут какие-то проблемы с первоисточником или с уникальностью. Тут нужно копать вообще в другую сторону. Сложно сказать. Приходят на ум две вещи, про которые я рассказал.

Ведущий: По опыту сколько можно будет ждать ответа от техподдержки? Сейчас отвечают быстро по поводу адеквата. Если вам отвечают шаблонно, то банально нужно просто искать в коде, искать на самой странице, искать в сторону того, что я рассказал. Аффилирование же как бы не признается Яндексом. Группировку выдачи, по-моему, они тоже не признают.

Еще может быть взрослый контент. Но, опять же, если по остальным запросам все ок, то вряд ли. У нас были странные случаи наказания за взрослый контент сайтов наших клиентов. У нас был случай. У клиента стояла внешняя не закрытая ссылка, и ее нельзя было закрыть. На сайт конференция. А конференция прошла, и домен, соответственно, бросили. После того как домен бросили, его выкупили порнушники и открыли там порносайт. Там были видимо еще другие проблемы, конкуренты проспамили порноссылками. И все сложилось как бы. Причем, мы про эту ссылку знали, мы про нее говорили, а он: нет, закрывать нельзя, это конференция… И фильтр за взрослый контент. Т.е. сайт просто исчезает из поиска. Причем, в эксемельке мы его видим, что у нас там определенные настройки, а в обычном поиске – нет.

Сразу определили, в чем тема, и долго не могли разобраться, думали, что проблема в спаме ссылок, а потом прошлись по всем внешним ссылкам. Оказалось, что одна из них ведет на порно ресурс – та самая, которая вела на конференцию. Мы ее убрали, прямо написали в поддержку. Нами был быстро получен ответ, что ок, ждите, и через 1 или 2 апдейта все вернулось. Вот такие бывают случаи очень странного характера.