Краткое изложение ответов на вопросы от Мэтта Катса
Новая тема Написать ответ
# Пт Авг 11, 2006 1:50 amRabbit Зарег.: 01.08.2005 ; Сообщ.: 19787Ответить с цитатой
На Threadwatch я натолкнулся на видео, в котором Мэтт Катс отвечал на вопросы, полученные через комментарии на блоге. Мне стало очень интересно посмотреть видео, я думал, что там будут демонстрации или ролики, однако, просмотрев первые три клипа, я разочаровался - Мэтт стоял под стенкой и отвечал на вопросы, глядя в камеру. Я не могу сказать, что его ответы были неинтересны, но я не вижу необходимости отвечать на вопросы на видео, если ты просто отвечаешь на вопросы.

И я взял на себя вольность, переписал вопросы и ответы. И, по моему мнению, легче читать вопрос-ответ, чем прислушиваться и перематывать видео.

1. Обновления Google Sitemaps зависят от просмотра страниц на сайте?

Нет, количество просмотров не имеет отношения к обновлению. В Sitemaps собираются разные данные. Здесь Мэтт Катс называет для примера пять пунктов, которые могут обновляться в разное время с разной частотой (обычно в течение нескольких дней, в худшем случае в течение нескольких недель), но просмотр страниц туда не входит.

2. Что можно посоветовать для увеличения присутствия сайта в результатах поиска в Google?

    • Сделайте сайт, по которому удобно ходить. Посмотрите на сайт глазами поискового механизма. Мэтт советует «вернуться в 1994 и использовать lynx», он также говорит о необходимости использования текстового браузера. Он добавляет: «Хорошо, если вы можете пройтись по сайту, используя только текстовый браузер». Также необходима карта сайта.
    • Продвигайте и оптимизируйте свой сайт. Контент должен быть хорошим и интересным. Подумайте об авторитетных людях в вашей области и обращайтесь к ним.
    • Постарайтесь выделиться (слышали о linkbait?). Предложите что-нибудь интересное, рассылку или уроки, и разместите свою ссылку на социальных сайтах.

3. Что заставляет Google использовать сниппеты DMOZ, когда на странице уже есть рабочий тэг описания?

Мэтт задал этот вопрос специалистам по сниппетам (я серьезно). Все сводится к тому, какой сниппет больше подходит под фразу, заданную в поиск. Если сниппет DMOZ больше подходит под запрос, тогда Google покажет его. Если вам не нравится сниппет директории, используйте тэг meta="NOODP”, и вместо него появится ваш тэг описания.

4. Google предпочитает тэг <b> тэгу <strong>?

Вообще Google отдает чуть большее предпочтение <b>, но разница настолько мизерная, что не стоит беспокоиться по этому поводу. Мэтт советует просто использовать то, что лучше для вашего сайта и пользователей.

5. Вы можете положить конец мифам о том, что нельзя иметь много сайтов на одном сервере/сайты с IP адресами одной подсети/сайты с одинаковым Ява скриптом?

    • Если вы средний вебмастер, вам не следует об этом беспокоиться.
    • Если у вас несколько сайтов (2-5) с разной тематикой, вам не надо об этом беспокоиться. Если у вас около 2,000 сайтов, подумайте, достаточно ли у вас хорошего контента, чтобы поддерживать все эти сайты (Мэтт добавляет, что, вероятно, нет).
    • Многие люди используют программы для отслеживания Ява скриптов, и Google AdSense сделан на Ява скрипте другого сайта. Этим занимаются многие сайты в Интернете. Вам стоит беспокоиться, однако, если у вас около 5,000 сайтов на одном Ява скрипте, который является редиректом.

6. Мне тяжело разобраться с проблемами, с которыми мы сталкиваемся, когда запускаем новый сайт.. новый сайт с миллионами страниц одновременно (это был длинный вопрос; одним словом, последний раз парень потерпел неудачу).

    • Ответ Мэтта на этот вопрос изменился. Раньше он отвечал: «Вперед, не волнуйтесь! Возможно, у вас возникнут проблемы, но в целом все будет нормально».
    • Теперь он думает, что, запуская сайт с миллионами страниц, надо быть осторожней. В общем, запускать сайт с таким количеством страниц надо медленно (например, запустить несколько тысяч страниц, а потом постепенно добавлять еще по нескольку тысяч).

7. Хотелось бы знать, какой статус у Google Images, и следует ли нам ожидать усовершенствования технологии индексирования в будущем.

Мэтт признает, что недавно индекс обновили. И многие функции, которые вы не можете увидеть, вероятно, внесли в новую структуру главного веб индекса. Ведется постоянная работа над улучшением Google Images.

8. Что, по-вашему, более важно при создании и поддержании сайта: SEO или оптимизация под конечного пользователя?

    • Важно и то, и другое. Если вы не обеспечите оба элемента, у вас не будет такого успеха. Если вы не обращаете внимания на SEO, вас будет сложно найти, если вы не заботитесь об оптимизации под конечного пользователя, у вас будет низкое ратио, люди не будут задерживаться на вашем сайте, не будут писать на форумах, покупать продукты и т.д.
    • Нужно постараться обеспечить и одно, и второе одновременно; нужно по возможности согласовать интересы пользователя с интересами поискового механизма. В идеале, то, что хорошо для одного, должно быть хорошо и для другого. Нужен баланс.

9. Вы можете назвать несколько инструментов для выявления спама? Я бы хотел проверить свои сайты, чтобы убедиться в том, что они чистые и могут оторваться от моих конкурентов-спаммеров?

    • Google использует много инструментов для выявления и борьбы со спамом, но большинство из них не используются за пределами Google.
    • Yahoo! показывает бэклинки как для отдельно взятой страницы, так и для домена в целом.
    • Есть инструменты, которые показывают все, что находится на одном IP адресе. Если вы пользуетесь коллективным виртуальным хостингом, у вас может быть много нормальных сайтов, но иногда человек может оставить много сайтов на одном IP адресе. Если один из них спамовый, то вы сможете по IP найти все остальные сайты. Но всегда остается вероятность, что это сайты не одного а разных людей.
    • Google Sitemaps могут сказать вам, есть ли у вас ошибки и выявят другие проблемы в случае, если вы захотите проверить сайт и убедиться в том, что он чистый.

10. А как насчет чистоты кода (например, W3C)? Существует ли вероятность, что работа по обеспечению доступности сайта людям с нарушением зрения войдет в главный алгоритм?

    • Обычные люди пишут коды с ошибками. Мэтт сослался на статистику Эрика Бьюера, согласно которой 40% всех HTML страниц имеют синтаксические ошибки. Безусловно, поисковый механизм не может удалить 40% контента по той причине, что кто-то не проверил код. Там много качественного контента (особенно сделанного вручную), который возможно не проверяется.
    • Мэтт сказал, что если бы ему раньше задали этот вопрос, он бы ответил: «У наших алгоритмов нет такой команды, и на то, наверное, есть причина». Однако теперь, когда проделана работа, чтобы обеспечить поиск для людей с нарушением зрения, кто-нибудь может проверить ее, используя невыполнимую команду; но любая команда, используемая для улучшения качества, должна пройти суровую оценку.
    • Он считает, что в целом неплохо было бы проверить сайт, но не следует ставить эту задачу на первое место. Мэтт советует для начала сделать хороший сайт с привлекательным контентом, а потом уже заняться факторами, обеспечивающими доступность (например, простота документа, умеренное количество графики, возможность клавиатурной навигации, отсутствие вторичных элементов).


Переведено: Viktoria M.
Источник: seomoz.org
Новая тема Написать ответ    ГЛАВНАЯ ~ ПОЛЕЗНЫЕ СТАТЬИ
 
Любое использование материалов, размещенных на ArmadaBoard.com, без разрешения владельцев ArmadaBoard.com запрещено.