На страницу 1, 2 След. |
|
|
Здравствуйте.
Никак не могу понять как поставить пароль на html страницу.
Сайт сделан в Adobe Muse. На данный момент есть три страницы, одну из которых надо запаролить.
Все три страницы располагаются в основной директории сайта, то есть нету никаких папок(директорий) с вложенными страницами.
На страницу alexgr.html надо поставить пароль.
Мои действия:
1. создал файл .htaccess
с содержимым
Код: |
<Files alexgr.html>
AuthType Basic
AuthName "Thats protected Area!"
AuthUserFile /.htpasswd
Require valid-user
</Files>
|
2. создал файл .htpasswd
с содержимым
В результате при попытке открыть страницу http://имясайта/alexgr.html выскакивает окно с просьбой ввести логин и пароль.
Я ввожу логин admin, пароль 123, но страница не открывается, снова появляется это окно. Такое ощущение что пароль не верный или что-то еще. |
|
|
|
|
|
|
Пробовал этот генератор и несколько других.
Вместо 123 вставлял сгенерированный $apr1$85MQW6QD$6fRMqJCcTJaHQ4zhnrLMl0
Но результат в итоге тот же. |
|
|
|
|
|
|
Голова уже кругом. Перепробовал все что можно перепробовать и с путями и с хэшами.
Ерунда какая-то. Ничего не получается(
Вообще моя изначальная цель была спрятать от любопытных файл роботс.
Что бы никто не видел какие страницы я прячу на сайте. Вот я и решил не прятать робот,
а поставить пароль на страницу. Мне так же посоветовали удалить вообще роботс файл,
и страницы которые нужны для индексации записать в ситемап. Только вот не знаю
правильно это будет или нет. |
|
|
|
|
|
Если ты поставишь basic авторизацию на robots, то он станет недоступен для роботов яндекса и гугла. Тогда нет смысле его вообще создавать. Ведь роботы поисковых систем не смогут его получить. Для них он не будет существовать. |
|
|
|
|
|
Не нужно скрывать robots.txt. Скрывайте тот контент, который не хотите индексировать. Для этого можно держать все в директории /private/ и уже на нее ставит запрет индексации:
Код: |
User-Agent: *
Disallow: /private/
|
Это проще и эффективнее, чем собирать в robots все пути. |
|
|
|
|
|
Glueon писал(а): |
.. /private/..
|
Вы правы, как вариант можно делать так. Но тут есть один нюанс. Как я писал выше, делаю сайт в Adobe Muse, который напрочь отказывается создавать директории самостоятельно. Поэтому я и спрашивал выше - если совсем удалить роботс файл, и все страницы которые мне нужны для индексации прописать в сайтмап(в Adobe Muse это реализовывается очень просто и удобно). Роботы в таком случае будут действовать как? Они будут понимать, что им нужно обращать внимание на сайтмап, а не на роботс файл которого вовсе нет? Вот мой сайтмап
http://alexgrachev.ru/sitemap.xml |
|
|
|
|
|
Sitemap указывает какие страницы нужно индексировать. Но он не указывает страницы, которые не нужно индексировать.
Роботы понимают это так: если страницы нет в sitemap, это еще не значит, что ее нельзя индексировать.
PS. покажи супер-заголовки |
|
|
|
|
|
Правильно.
Но если роботу не показывать то что ему не надо индексировать, так он и не будет этого делать, просто не будет знать о таких страницах.
В сайтмап указать конкретно что я хочу что бы было проиндексировано. Не показывать остальные страницы - робот и не будет о них знать.
Или я опять мимо?) |
|
|
|
|
|
Не очень надежный метод. Даже если ты не сослешься на эту страница с других страниц сата Яндекс (как и гугл) найдут способы найти эту страницу.
Яндекс индексирует все что плохо лежит
Варианты:
1. На другом сайте появится ссылка на страницу.
2. Пользователь получает ссылку по почте.
3. На странице стоит Яндекс метрика.
4. Пользователь заходит с Яндекс.Браузера или в браузере установлены элементы яндекса.
и т.д. |
|
|
|
|
|
Значит оптимальный вариант это:
Glueon писал(а): |
Не нужно скрывать robots.txt. Скрывайте тот контент, который не хотите индексировать. Для этого можно держать все в директории /private/ и уже на нее ставит запрет индексации:
Код: |
User-Agent: *
Disallow: /private/
|
Это проще и эффективнее, чем собирать в robots все пути.
|
|
|
|
|
|
|
AlexGr, да.
Особо любопытные посмотрят в robots.txt и узнают, что есть такая папка с секретами Но точное имя секретных файлов они узнать не смогут
Если muse не дает делать папки, то попробуй, например, отдавать секретные пдф с заголовками с поддомена files.site.ru. А в корне поддомена robots.txt c Disallow: / |
|
|
|
|
|
Если я пропишу в роботс вот эту одну строку
То сайт(поддомен) не будет индексироваться полностью(директории файлы)? |
|
|
|
|
|
Да. 2 строчки.
Код: |
User-agent: *
Disallow: /
|
|
|
|
|
|
|