На страницу Пред. 1, 2, 3 След. |
|
|
Цитата: |
в основном время пребывания на сайте и количество просмотренных страниц
|
Так это ведь легко накрутить. |
|
|
|
|
|
Doff писал(а): |
Цитата: |
в основном время пребывания на сайте и количество просмотренных страниц
|
Так это ведь легко накрутить.
|
да нет
это базовые требования
под ними скрывается куча таких факторов, которые накрутить невозможно
к тому же накручивать надо большой кучей разных пользователей, причем достаточно долго
в одиночку с этим не справиться, а нанимать кликальщиков - нерентабельно |
|
|
|
|
|
Накрутка тоже может быть разной...
|
|
|
|
|
|
А разве фильтры пропускают такие накрутки? |
|
|
|
|
|
John Doe писал(а): |
А разве фильтры пропускают такие накрутки?
|
Фильтры могут и пропустить, но прода и покупательская способность у такого траффа все равно будет никакая |
|
|
|
|
|
Поднимать ПФ необходимо гармонично, накручивая один фактор забивая на остальные это бесполезная трата времени. ПС все равно ранжировать их не будут |
|
|
|
|
|
Можно прогнать сайте через Labrika ru , в разделе SEO оптимизация будет видно является ли плагиатом контент который размещен, еще в разделе текстовая оптимизация можно подогнать скрытую семантику и (или) увеличить или уменьшить плотность ключей в загловке описании и непосредственно в самом тексте. Это хорошо работает особенно если сайт продвигается по коммерческой тематике. А в целом тексты никак не защищенны от плагиата, но само по себе его наличие не есть хорошо. |
|
|
|
|
|
Был пример как спизженный текст выше в выдаче оригинала был из-за ПФ |
|
|
|
|
|
Цитата: |
Алгоритмы Google не учитывают объем и частоту размещения нового контента. Такой вывод следует из ответа Джона Мюллера (Google) на вопрос вебмастера.
Специалист спросил у Джона, принимают ли алгоритмы Google во внимание частоту, объем или график публикуемого контента на сайте и изменится ли как-то отношение Google к ресурсу, который сначала генерировал пять новых URL в день, а затем сократил их количество до двух–трех.
На оба вопроса Мюллер ответил отрицательно и отметил, что сайт – не машина, выдающая контент с фиксированной скоростью.
|
Из этого следует, что внешние ссылки для гугла более важный фактор в ранжировании |
|
|
|
|
|
Гугл тоже ПФ сильно учитывает, это более надежный для них способ определять "полезность" и релевантность сайтов, но по НЧ в топах такое гуано часто бывает, что иногда сильно сомневаешься, что их алгоритмы работают нормально |
|
|
|
|
|
Yabuti, гугл публично заявлял, что релевантный контент для их поисковой системы является самым важным фактором в ранжировании. Но что они не обращают внимания на частоту обновления контента это конечно странно. Думаю это появится в очередном апдейте их алгоритмов раз вопросы уже такие начали задавать. |
|
|
|
|
|
rownong писал(а): |
Здравствуйте. Знаю что в продвижении сайта большое значение имеет уникальность контента, связи с этим есть нект вопросы.
1. Если на нашем сайте текст1 (100% уник) был на URL1 (проиндекс Яндексом), затем URL1 сменился на URL2, и туда был помещен текст1. Яндекс сочтет текст1 на URL2 также уник100% или не уник дублем?
2. Если на нашем сайте текст1 (100% уник) публикуется сначала на URL1 (индексируется Яндексом) и затем на URL2 (URL1 и URL2 продолж раб одновременно). То для URL1 текст1 продолжит считаться 100% уник а для URL2 не уник дублем?
3. В Вебмастере Яндекс есть инструмент «Оригинальные тексты». Ничего если один текст насколько раз добавить туда? Это не на что не повлияет?
(т.к. я мог забыть какие текста уже добавлял и доб их повторно)
|
Semrush недавно объявил, что по его данным 65.88% текстов в интернете плагиат. https://www.semrush.com/blog/technical-seo-mistakes-semrush-study-2017/
Да и кроме уникальности, есть еще куча показателей текста: плотность, релевантость, читабельнось.
И еще куча разных.. Вот можно посмотреть часть патентов, по которым он чекает https://patents.google.com/?q=gunning&q=readability&q=fog
А что касается уникальности страниц, то можно глянуть справку гугла https://support.google.com/webmasters/answer/66359?hl=ru
rownong, если есть страница с повторяющимся контентом можно попробовать использовать rel="canonical"
Для Яндекса не знаю. |
|
|
|
|
|
Tosik писал(а): |
Самое главное, чтобы в статье были слова которые ищут люди в поиске.
|
Это называется проще- релевантная страница. Если текст релевантный и полностью расскрывает(проблемму/тему) то без разницы уник это или нет. |
|
|
|
|
|
Коляныч, для ПС есть разница, если это 100% копипаст, то это не хорошо. Контент нужно брать с нескольких источников. Можно использовать заимствованный контен, но тогда нужно иметь возрастной трастовый домен, иначе получишь фильтр. |
|
|
|
|
|
Что будет, если сайты с информацией по лекарствам начнут сильно переживать об уникальности?
Сам лично предпочитаю начинать с 100% уникальности |
|
|
|
|
|