На страницу 1, 2 След. |
|
|
Всем привет!
Делается ру сайт чистой эротики с уникальным контентом, дизайном.
Шаблон темы по типу фотосайта.
Вопрос по созданию тайтлов постов.
Допустим основной вч запрос "японки" (заголовок сайта Н1) сайт поделен на категории ( это сч) молодые, красивые, грудастые и т.д.
Как лучше создавать названия постов. Например:
1. сайт.сом/molodie/aki.html
2. сайт.сом/teens/aki.html
3. сайт.сом/molodie/molodaya-yaponka-aki.html
4. сайт.сом/teens/molodaya-yaponka-aki.html
Думаю что 3 или 4 вариант, но тогда названия всех постов вот такого вида:
Молодая японка аки
Молодая японка миу
Красивая японка аки
Грудастые японка аки
Грудастая японка аки2
Грудастая японка миу
И так далее....
Как поисковики будут относится к такому сайту с такими заголовками постов? Тем более если их будет много! На спам не будет похоже, все будут вроде разные. |
|
|
|
|
|
|
Если 500 постов будут с подобными заголовками то это нормально?!?!?! |
|
|
|
|
|
Плотность клучевика лучше будет |
|
|
|
|
|
leito25 писал(а): |
Если 500 постов будут с подобными заголовками то это нормально?!?!?!
|
нормально, не очень конечно если на одной странице, а так ну и че)) |
|
|
|
|
|
Посмотрите пож. вот на этот сайт pornopokaz. com что в нем не так?! Сайту месяц
После индексации робот загрузил 140 в поиске всего было около 40 (спустя неделю примерно страниц в поиске ноль) это бан? |
|
|
|
|
|
leito25 писал(а): |
Посмотрите пож. вот на этот сайт pornopokaz. com что в нем не так?! Сайту месяц
После индексации робот загрузил 140 в поиске всего было около 40 (спустя неделю примерно страниц в поиске ноль) это бан?
|
морда в индексе а значит еще не бан , все остальные паги в соплях , смотрел для гугла |
|
|
|
|
|
сайтик яндексу определенно не понравился за раз выкинул все страницы, вот только чем именно?  |
|
|
|
|
|
|
adamant писал(а): |
позвони и спроси
|
Спасибо за совет
Одни догадки! Если убрать то по какой причине это могло произойти, ничего от сайта не останется  |
|
|
|
|
|
тайтл = продвигаемый кей.
пару-тройку раз еще в посте употребил и все, нормально на страницу плотности. |
|
|
|
|
|
кто подскажет как в robots.txt запретить кучу страниц
1. сайт.сом/aki
2. сайт.сом/teens/aki.html
добавил в текст ссылки категорию!, как сделать запрет первого варианта? |
|
|
|
|
|
User-agent: *
Disallow: /aki
Disallow: /teens
запрещаем все что начинается с этих путей
т.е. если убрать вторую строку "Disallow: /teens", то второй вариант индексироватся будет (очень неуверен и правильно, читай ниже)
User-agent: *
Disallow: aki
запрещаем все что содержит в пути aki.. т.е. запретит и 1 и 2
для твоего случая, разумней первый вариант, т.к. второй будет запрещать и такой путь: /lalalaakilalala
в выше сказанном конечно на 100% неуверен, но собственно можно как и сказал адамант, тут тоже позвонить и спросить
более того, СЕ не одна, и правила у них на обработку роботсов могут быть различны.
но можно всеравно из выше сказанного, сделать оптимально универсальное решение,
это первый сказанный вариант, когда прописываем первичный фолдер со слешем.
т.е. не будем использовать пони ereg-и, только строгие указания на каждый фолдер отдельной строкой.
_______
тут и непоймешь то что надо
поэтому на второй твой вопрос отдельный ответ:
Цитата: |
как сделать запрет первого варианта?
|
User-agent: *
Disallow: /aki |
|
|
|
|
|
Это запрет на пост с адресом сайт.сом/aki
У меня на сайте примерно 600 постов с адресом как выше проиндексировано, и примерно столько же проиндексировано постов с адресом сайт.сом/teens/aki.html
По перовому варианту страниц нет они все 404!!!!!
Т.е. надо все адреса по первому варианту списком в запрет robots?
Других вариантов нет!!!??? |
|
|
|
|
|
Не спрашивайте меня зачем так сделал
Блин а потом еще по одной ссылке в delurl yandex
Низя запрет в роботс одной, двумя строчками, а потом списком на удаление?  |
|
|
|
|
|