На страницу 1, 2 След. |
|
|
Всем привет!
Выкладываю свои проекты для замечательного парсера ContentDownloader (http://sbfactory.ru/?p=600). Также, при наличии у меня свободного времени или интересного проекта - делаю на заказ.
За сложные и индивидуальные проекты возьму скромную оплату, за простые и интересные проекты оплату не беру. Занимаюсь в своё удовольствие и для повышения квалификации.
Из готовых, которые успел проверить и готов выложить следующие: (список будет пополняться)
1. Парсер сервиса проксей xroxy (http://seo2all.ru/cd/xroxy.cdp)
2. Парсер превьюх-картиночек банка-стока webstockpro (http://seo2all.ru/cd/webstockpro.cdp)
В проекте нужно заменить ключи на свои. Ссылки парсить не нужно, пользуйтесь размноживателем ссылок {num} со своими ключами. Отлично подойдут в качестве дополнения к вашим постам в дорах, либо в дополнение к белым постам с тематическими картинками.
3. Yahoo-сниппеты (http://seo2all.ru/cd/yahoo-snippet.cdp)
В сканере сайтов заменить в ссылках и фильтрах свои ключевики
4. Парсер ezinearticles (http://seo2all.ru/cd/ezinearticles.cdp)
Метод такой:
а) Сначала используем свои ключи как в примере и размножаем ссылки
б) Потом добавляем эти ссылки в сканер и парсим уже их. Получаем тематические статьи.
5. парсер ответов Майл.Ру со всеми ответами, картинками и видео. (http://seo2all.ru/cd/mail-otvet.cdp)
6. Парсер контента ifehacker.ru (http://seo2all.ru/cd/lifehacker_ru.cdp)
7. Парсер контента siliconrus.com (http://seo2all.ru/cd/siliconrus_com.cdp) |
|
|
|
|
|
Монстр. |
|
|
|
|
|
круто! |
|
|
|
|
|
|
А есть возможность выкачать весь сайт из вебархива за определенную дату? |
|
|
|
|
|
excl писал(а): |
А есть возможность выкачать весь сайт из вебархива за определенную дату?
|
как вы себе это представляете? ) есть же софт под это дело. С КД не пробовал так извращаться, но посмотрю на досуге |
|
|
|
|
|
Fester, какой-то конкретный софт рабочий на данный момент тебе известен под это дело? Мне непринципиально чем именно, главное чтобы работало и не паблик сервис, так как домены я светить не хочу. |
|
|
|
|
|
Скрытый пост. Для просмотра требуется 950 сообщений. |
|
|
|
|
|
Структуры на регулярных выражениях очень не стабильны, стоит чему то измениться в html сорцах, или алгоритмы в php при обновление, и они начинают работать подхватывая еще и всякий мусор, как это бывает. |
|
|
|
|
|
Shkiff, спасибо, попробую его запустить.
IseeDeadPeople, да пофиг с мусором. Просто не на все страницы ссылки в вебархиве ссылки остаются. Если там, например, стоял скрипт каталога статей, который на каждой странице отображает по 5-10 ссылок на статьи, а страница то одна лишь в вебархиве, скрипт то больше не работает и остальных страниц не видно, но они есть. |
|
|
|
|
|
|
Shkiff, там могут вестись логи, и есть риск, что твои 9000 страниц уника станут не уником |
|
|
|
|
|
так отзывы можно почитать |
|
|
|
|
|
Shkiff, тот скрипт, что ты дал, - работает кстати. Если что, то попробую под свои нужды его исправить. |
|
|
|
|
|
Еще так интересно получается, что я его в архиве нашел )))) |
|
|
|
|
|