Дубли страниц в Яндексе
Новая тема Написать ответ
# Ср Фев 11, 2015 8:42 amБаяс Зарег.: 25.08.2014 ; Сообщ.: 35Ответить с цитатой
Уважаемые знатоки! Помогите советом! Яндекс неожиданно проиндексировал огромное количество дублей только одной моей статьи. Как их закрыть в роботсе или другим образом? Все дубли с цифрами на конце. Вот такого вида:


Как вывести популярные статьи в сайдбар | Блог Баяса Батуева - Part 760
bbseo.ru/kak-vyvesti-populyarnye-stati-v-sajdbar.html/760
Как вывести популярные статьи в сайдбар | Блог Баяса Батуева - Part 771
bbseo.ru/kak-vyvesti-populyarnye-stati-v-sajdbar.html/771
# Ср Фев 11, 2015 3:38 pmblogmatic Зарег.: 10.08.2010 ; Сообщ.: 4775Ответить с цитатой
Удалить дубли можно несколькими способами:

- вручную (при малом числе)
- склеивание страниц-дублей с помощью 301 редиректа
- с помощью тега canonical (всем копиям присваивается атрибут rel=”canonical”)
- закрыть доступ поисковым роботам с помощью robots.txt
# Ср Фев 11, 2015 7:58 pmБаяс Зарег.: 25.08.2014 ; Сообщ.: 35Ответить с цитатой
-вручную удалять не советуют ( чревато )
-редирект тоже не подходит, слишком много дублей
-каноникал присвоен ( сео плагин )
Интересует именно, как закрыть в роботсе, что именно прописать туда. И еще один момент: если избавиться от rel=’shortlink’, поможет ли это? Ведь именно этот атрибут формирует дубли с цифрами на конце?
# Чт Фев 12, 2015 3:19 pmblogmatic Зарег.: 10.08.2010 ; Сообщ.: 4775Ответить с цитатой
Цитата:
Интересует именно, как закрыть в роботсе, что именно прописать туда.



Подробнее об этом можно прочитать здесь: Руководство по использованию robots.txt
Новая тема Написать ответ    ГЛАВНАЯ ~ ПОИСКОВЫЕ СИСТЕМЫ
 
Любое использование материалов, размещенных на ArmadaBoard.com, без разрешения владельцев ArmadaBoard.com запрещено.