|
|
|
Статью Вацлава про выход из саплементала прочитал с удовольствием. Понятно что ссылки рулят и чем их больше на внутренние страницы тем выше шанс вылезти из сапли. Но если гугля положила все страницы под фильтр content duplication, несмотря на уникальность контента. Скорее всего только за наличие одинаковых элементов(меню и т.д.) на страницах. Как нужно действовать с такой проблемой? |
|
|
|
|
|
|
Не совсем так, Чин. Входящие ссылки, увы, не решают проблему "склейки" по duplicate. В данном случае, помогает скорее минимизация повторяющихся элементов и увеличение объемов текстового контента на конкретно взятой странице. Я вовсе не зря уже год как твержу всем, что пост должен содержать не менее 100-200 слов, чтобы страница отдельного поста не уходила в склейку.
Как рецепт:
На блогах, где у меня используется контент от партнерок (с их rss) я предпочитаю пихать в один пост сразу 3-5 постов (схожих) из чужой RSS, а не 1 к 1. |
|
|
|
|
|
dr.Greg писал(а): |
Скорее всего только за наличие одинаковых элементов(меню и т.д.) на страницах. Как нужно действовать с такой проблемой?
|
Так убери(измени) эти элементы, тута третьего не дано КМК, либо элементы сносим, либо контент увеличиваем. |
|
|
|
|
|
Вацлав, я с тобой кардинально не согласен. Чем меньше текста, тем сложнее его в дубли по текстовым признакам положить (в разумных пределах, разумеется).
Повторяющиеся элементы это вообще из области мистики Не влияют они. Вообще. Это конечно лично мое имхо и я его никому не навязываю. Чего то вообще как-то все странно прицепились к меню, например. Люди, глаза разуйте, в гугле куча не склееных сайтов у которых дохуа повторяющихся элеметнов на страницах. И ничего, живут и трафик собирают.
Суплементал - это болезнь:
1) ухода в дубли по текстовой составляющей (либо надо меньше текста, либо миксить по другому). Не так давно очень много инфы по текстовым алгоритмам обсуждалось на умаксе, и чуть меньше - на клике. Там очень не мало пользительной инфы по возможным алгоритмам
2) недостатка ссылочного ранжирования
Если не можете рулить обоими факторами - ну хоть одним попробуйте порулить. Только лучше сразу, потому как если попал в яму - вылезти можно только несоизмеримыми усилиями, проще сразу процесс рулить.
А если уже ушла страница в сапы - меняй там что хочешь, хоть "i love Серёга Брин" пиши, пока ссылками не накормишь - сдвигов можешь пол года ждать.
Li-Hua, да как раз третье и дано и им и надо рулить чтобы процесс пошел - это ссылочное ранжирование |
|
|
|
|
|
Не, я неудачно выразился, в данной проблеме если принимать во внимание что у человека нет возможности проставиться жирными бэками, то ему остается рулить контентом: убирать повторяющиеся элементы или работать с текстом. Но мое имхо в том что все еще в данный момент 90% успеха дают ссылки мать их.
Раз пошла такая пьянка, вобпе я бы все СЕО разделил на два момента которые обязательно надо соблюдать, на остальное можно забить хуй очень глубоко.
1. Ссылки, дохуя ссылок, и постоянный рост их числа.
2. Уникальный контент, так как фильтр за дубли реально работает. |
|
|
|
|
|
Chin писал(а): |
Чем меньше текста, тем сложнее его в дубли по текстовым признакам положить (в разумных пределах, разумеется).
|
Эту часть я не понял, обсудим? |
|
|
|
|
|
Понимаешь в чем дело, можно в течение года каждый день контент менять, но гугль на него не будет реагировать. Из за недостатка веса. Я в суплементалах потерял не одну сотню тысяч страниц дорвейных У меня очень многое попадает не в бан а в сапплименталы, так что меня этот вопрос сильно интересует уже длительное время и есть некоторые наблюдения
Цитата: |
Эту часть я не понял, обсудим?
|
Блин, мне лень очень много писать, скажу вкратце - любой текст можно представить сочетаниями типа "слово-слово", разбив на такие двойки (тройки и т.д.)
Чем больше текста, тем больше "двоек-троек..." которые могут совпасть с другими двойками-тройками. Путано наверное объясняю, поищи на умаксфоруме в топиках про фрейз-ранк, там разжовано очень четко почему меньшее кол-во текста сложнее в саппы загнать (в разумных пределах конечно). И поэтому же примитивный марков мало полезен, особенно на небольшом входящем тексте и сравнительно большом "выходящем". Грубо говоря из метра текста можно нагенерить 10 000 доров по 10 килобайт текста (но лучше - меньше текста), а вот из 50к текста сделать 100 доров по 10 к уже нереально. Точнее реально, но результат будет плохой. |
|
|
|
|
|
|
|
|
|