|
|
|
Недавно Гугл объявил о начале очередной кампании по борьбе с низкокачественными сайтами. Вскоре последовали первые санкции — тысячи доменов были удалены из индекса в результате того, что сотни миллионов ссылок потеряли свой вес и судя по всему, это только начало. В связи с последними заявлениями Гугла о том, что любое количество низкокачественных ссылок может нанести вред сайту, провести тщательный аудит обратных ссылок желательно каждому вебмастеру. Это позволит:
1.Составить общее представление о количестве и качестве ссылок ведущих на сайт.
2.Оценить вероятность потери некоторых из этих ссылок.
3.В случае выявления неблагоприятной тенденции, своевременно прореагировать.
4.Составить прогноз насчет возможного улучшения ранжирования и роста трафика.
Подготовка данных.
В первую очередь нам нужно собрать как можно больше данных об обратных ссылках. Данные можно экспортировать из следующих источников, они вполне надежные.
Majestic SEO Data
Это один из наиболее мощных и полезных инструментов для анализа ссылок. Majestic SEO может быть полезен для поиска влиятельных ссылок на заданный урл, а ещё для того, чтобы посмотреть, с каких социальных сервисов больше всего ссылаются на ваш сайт, или сайт конкурентов.
Open Site Explorer Data
Скачайте файл CSV, содержащий все входящие ссылки.
Google Webmaster Tools
1.Перейдите к ‘Under Your site on the web’ -> ссылки на ваш сайт.
2.Найдите ‘Who links the most’ слева и кликните ‘More>>’
3.Скачайте все ссылки, нажав на ‘Download more sample links’
Находим уникальные ссылающиеся домены.
Введите все найденные урлы в электронную таблицу, но вам нужны только уникальные. Для этого используем следующую формулу:
=LEFT(A2,FIND(“/”,A2,8 )) где А2 ячейки с исходными ‘Full-URL’ данными.
Примечание: Эта формула работает только с http доменами, в отличие от https. С более подробной формулой написанной Джеймсом Тейлором можно ознакомиться здесь.
После этого все повторяющиеся субдомены должны быть удалены. Для этого выделите столбец ‘Linking Root Domain’ и нажмите на кнопку ‘Data->Remove Duplicates’. Затем выберите ‘Expand the selection’ и нажмите на кнопку ‘Remove Duplicates…’.
Проверьте только столбец Linking Root Domain и кликните на ‘Remove Duplicates…’
После этого в таблице останутся только уникальные домены.
К сожалению, собранные данные могут быть уже устаревшими. На iCrossing мы используем наш собственный инструмент для фильтрации «мертвых» ссылок, что значительно позволяет повысить качество работы.
Обработка данных.
Получив таким образом значительное число уникальных ссылающихся доменов, мы можем продолжить наше исследование и получить следующие данные:
-Определить PR.
- Проверить ссылающиеся домены на индексацию.
- Проверить наличие социальных сигналов.
При использование NetPeak Checker проверка 100 урлов занимает примерно минуту. Для достижения оптимальной производительности убедитесь, что следующие показатели были проверены:
1.Основной PR (PR основного домена).
2.PR страницы (PR заданного URL ).
3.Индекс Гугла (количество страниц проиндексированных Гуглом).
4.Сервер – > статус кода (не найден (404), 200, 301, 302, 303 и т.д.)
Загрузите ранее полученные уникальные урлы доменов и и нажмите кнопку ‘Start Check’.
Полученные данные вы можете экспортировать для дальнейшей обработки в Excel. Полученные результаты означают:
PR Page 0, n/f низкокачественный субдомен
PR Main 0, n/f низкокачественный домен
Google Index n/f не проиндексированный домен
Google Index >0 проиндексированный домен
Status Code 200, 301, 302 активный домен
Status Code n/f домен не существует или не работает
Используя фильтры Excel очень легко выявить домены, которые могут негативно повлиять на ранжирование. Они имеют следующие характеристики:
Status codes 200, 301 или 302.
Google Index = n/f (страницы не проиндексированы Гуглом).
PR основной или PR страницы 0 или n/f.
Примечание: поскольку значение PR обновляется редко, домен может быть уже удален из индекса, сохраняя при этом высокое значение PR.
Проверяем PR.
Следующим шагом будет определение PageRank для каждого домена из этого списка, для выявления обратных ссылок низкого качества.
Для этого в Excel открываем .xlsx, экспортированный из Netpeak.
1.Включим фильтр в верхнем ряду.
2.В столбце ‘status code’ отфильтруем все значения n/f. Этот фильтр удалит все домены, которые больше не существуют.
3.Затем создаем сводную диаграмму и выбираем:
Названия строк -> PR основной
Значения → посчитать PR основной.
На картинке ниже изображен график с оптимальным распределением PR
Если среди них много с PR 0, то это повод для беспокойства.
В этом случае необходимо изменить стратегию и направить все усилия для привлечения ссылок с авторитетных и надежных сайтов. Вы так же можете попытаться удалить обратные ссылки, если они, на ваш взгляд, вредят сайту. Но зачастую, это не в ваших силах. Тогда нужно сконцентрироваться на повышение качества обратных ссылок, так что бы значение PR стало более сбалансированным.
Проверяем ссылающиеся домены на наличие в индексе.
Такую проверку следует устраивать время от времени, т.к. слишком большое количество ссылок с не проиндексированных доменов может отрицательно сказаться на ранжировании.
На рисунке, приведенном ниже, число таких ссылок значительно возросло за последние 3 недели, что не может не вызывать опасения.
Периодическая проверка этого параметра дает возможность заранее выявить негативную тенденцию и предпринять шаги по ее предотвращению.
Проверяем наличие социальных сигналов.
Используя сервис SEO Tools for Excel очень легко проверить ссылающиеся сайты на наличие следующих параметров:
Количество shares в Фейсбуке
Количество ретвитов в Твиттере
Количество + 1 в Гугл+
Наличие на сайте социальных сигналов (лайки, твиты, +1) говорит о том, что пользователи находят их полезными и ссылки с таких сайтов принесут больше пользы.
Оригинал статьи на английском языке: http://connect.icrossing.co.uk/monitor-website-link-equity-loss_8347 |
|
|
|
|
|
|
Цитата: |
На iCrossing мы используем наш собственный инструмент для фильтрации «мертвых» ссылок, что значительно позволяет повысить качество работы.
|
Интересно, что это за инструмент и какие у него есть аналоги в открытом доступе. |
|
|
|
|
|
у меня старые сайты просели в выдаче, по многим запросам вылетели - хотя висели в топе долго, да и запросы не особо конкурентные. в чем причина? |
|
|
|
|
|
Советы о том, как бороться с негативным SEO от Кейт Моррис.
1. Получение уведомлений по Email: установите переадресацию сообщений из Google Webmaster Tools и обновите свой профиль в Bing Webmaster Center, чтобы просматривать уведомления оперативно. Можно настроитьполучение таких уведомлений ежедневно и ежемесячно.
Ознакомьтесь с этим руководством по настройке уведомлений в Google Analytics.
2. Проверка сайта. Проверьте сайт вручную или наймите недорогих тестеров со стороны, которые будут периодически проверять его на юзабилити и доступность в поиске по важным для вас ключевикам.
3. Отслеживайте показатели по ссылкам через сервисы OpenSiteExplorer, Majestic SEO, AHREF. Проверяйте общее количество ссылок и количество сайтов-доноров. При возникновении значительных изменений нужно тщательно разбираться, с чем они связаны.
4. Выявляйте новые ссылающиеся домены. Загрузите список ссылающихся сайтов за последние 2 месяца и за последний месяц. Выделите все сайты, которые упоминаются дважды. Все что осталось – новые домены. Посмотрите, нет ли среди них подозрительных сайтов. |
|
|
|
|
|
Слышал истории о том, как некоторые вебмастера пытаются нажиться на удаление ссылок и просят деньги за их удаление. Новый способ монетизации? Сбор за удаление ссылок. |
|
|
|
|
|
По-моему, все куда проще, просто удалите сапа ссылки, причем не все, а только откровенные ГС и все наладится! |
|
|
|
|
|
|
|