|
|
|
Ни для кого не секрет, что в компании Гугл трудится много людей, которые в ручную проверяют поисковую выдачу и сайты, которые в ней находятся. Существуют определенные правила, которым должен следовать владелец сайта. Асессоры Гугла следят за их выполнение и вручную банят сайты, которые нарушают эти правила.
Если однажды вы не находите свой сайт в выдаче по нужным ключевым словам и нет никаких заявления о новых апдейтах Панды или Пингвина, то ваш сайт определенно попал под ручной фильтр. Что произошло? Очевидно, модератор Гугла наткнулся на ваш сайт и подумал «Еще один спамный сайт, барыжащий ссылками. Отправляйся в бан!».
Недавно ко мне обратились за консультацией по поводу одного сайта. Данные по SEOPanel показали следующее:
Меня смутили цифры в в четвертой, пятой и шестой колонке, в первой и последней строке (внимание: ключевые слова скрыты по соображениям безопасности): сайт абсолютно не ранжировался в Гугле, но занимал хорошие позиции в других поисковых системах (Яху и Бинг, для примера). И такая картина продолжалась на протяжении 8 месяцев!
Совет: ручной фильтр можно заподозрить, если вы наблюдаете подобную картину на протяжении 6-8 месяцев. Т.е. сайт хорошо ранжируется во всех поисковых системах кроме Гугла.
Шаг 1. Находим плохие ссылки.
Открываем Webmaster Tools и просматриваем обратные ссылки. Этот этап был очень трудоемкими, поэтому я решил сгруппировать обратные ссылки следующим образом:
- Цитирование сайта на блогах (некоторые из них были хорошие, некоторые откровенные ГС).
- Закладки (за небольшим исключением, все они оказались качественными).
- Партнерские обратные ссылки
- Остальные ссылки (поставленные недавно и не рассматриваемые в этом анализе).
Шаг 2. Построение обратных ссылок из закладок.
После мониторинга существующих обратных ссылок, я решил увеличить количество хороших (частота: 6-8 в день, продолжительностью около двух месяцев), используя:
- Продвижение ссылок на форумах IT тематики (первый этап — создание аккаунта и общение с комьюнити, второй этап — продвижение бренда).
- Новые закладки (социальные новости, социальные сети).
- Гостевой блогинг.
- Отдельные каталоги статей с качественным контентом (принадлежащие коллегам или старым друзьям).
Шаг 3. Отрекаемся от плохих ссылок и пишем Гуглу.
В конце концов я нашел причину фильтра — просматривая ссылки с * blogspot.it я обнаружил на Blogger целую кучу копипастных статей с идентичными анкорами и одинаковыми ключевыми словами, за которые нас и наказали. Это была работа предыдущего сеошника и мы до сих пор ее расхлебывали.
Для нейтрализации эффекта плохих ссылок я использовал Google disavow tool. К таким ссылкам я отнес:
- Обратные ссылки бесполезные для пользователей (за исключение закладок вроде Digg, Slashdot и т.п.).
- Обратные ссылки не связанные с контентом сайта.
После этого, я обратился с письмом в Гугл. Вот примерная схема письма:
Представление (я новый SEO консультант...);
Бла-бла-бла про анализ ссылок;
Примеры плохих ссылок. (в данном случае - *.blogspot.it);
Соображения по поводу возможных причин (плохая работа предыдущего сеошника)
Письмо было послано 31 января. Ответ я получил 22 февраля.
Шаг 4. Внутренняя оптимизация.
Ожидая ответа Гугла я занялся контентом сайта. Многие вебмастера недооценивают его важность, ограничиваясь заголовками/описаниями. Запомните одну вещь - мета-описания не являются основной целью SEO по одной простой причине: они зависят от технологий Гугла.
Там любят создавать описания самостоятельно, смешивая, в лучшем случае:
- Значения запроса (синонимы и т.д.);
- Содержание страницы, соответствующее запросу;
- Мета-описания, отвечающих запросу.
Так что, не слишком заморачивайтесь по поводу последних. Лучше, сосредоточьтесь на простых принципах, которых я сам придерживаюсь при работе с сайтами.
1. Создавайте простые заголовки (описывающие 1 страницу).
2. Описания максимум 1-2 предложения.
3. Сделайте рерайт всех продуктовых страниц или, по крайней мере, наиболее посещаемых.
4. Избегайте использования в заголовке страницы названия сайта (если только это не домашняя страница), особенно если речь идет об оптимизации блога.
5. Убедитесь, что заголовки не содержат ключевых слов (повторение n-раз ключевого слова — это не оптимизация).
Шаг 5. Выход из под фильтра!
Через 20 дней после подачи заявки на пересмотр, я получил ответ: «Мы получили ваш запрос на пересмотр и он был одобрен. Ручной анти спам фильтр был снят, возможно потребуется несколько недель для восстановление позиций. Благодарим за помощь в улучшении поисковой выдачи.
Можно выдохнуть! Наконец моя борьба с Гуглом закончена. Надеюсь, вы оцените мой небольшой вклад в копилку SEO знаний.
Оригинал статьи на английском языке: http://www.searchenginejournal.com/escape-from-google-manual-penalties/62723/ |
|
|
|
|
|
Неужели гугл начал отвечать на письма, попробовать что-ли и себе с одним из зафильтрованных сайтов эксперимент провести. |
|
|
|
|
|
А по каким признакам можно отличить ручной фильтр от попадания под алгоритм? |
|
|
|
|
|
|
Модераторы Гугла чрезвычайно придирчивы, по причине того, что если из выдачи убрать хороший сайт, то на его место поднимется другой. А если в топе оставить ГС, то это сразу испортит выдачу. |
|
|
|
|
|
|
|