Вытягиваем сайты из Вебархива и делаем приличные сателлиты под Google.

Пост опубликован в категории Сателлиты 27 комментариев

В прошлой статье я объявил о том, что буду периодически выкладывать домены, которые свободны для регистрации и находятся в каталоге DMOZ.

Вытаскиваем сайты из Вебархива с помощью Robotools

Сегодня я расскажу о том, как сделать из такого домена отличный сателлит под Google.

При продвижении под Google.com и Google.co.uk, одним словом – под буржундию, под Google очень хорошо работают дропы, которые были восстановлены из Вебархива.

Еще бы, вытянуть сайт, который был год назад, с сохранением всех урлов в первоначальном виде – не этого ли хочет каждый вебмастер, который желает прокачать свой seo блог? При восстановлении прежних урлов, восстанавливается также  и вся ссылочная масса, которая шла на сайт и еще не отвалилась. При этом все ссылки остаются релевантными и достаточно хорошо передают PR.

А PR, как известно – единственный показатель хорошего донора в буржундии, так как ТИЦки там нет и больше, в принципе, сравнивать не чем.

Сервис ROBOTOOLS.

Сервис Robotools позволит вам вытянуть сайты из вебархива за считанные секунды, при этом сохранит все файлы, которые сохранил вебархив, упакует каждую страницу сайта и сделает из неё html вариант, раскидает всё по папкам и предоставит вам готовый архив, который осталось только распаковать и закинуть на хостинг.

Вуаля – сайт полностью рабочий.

Если вы решили сделать сателлит на дропнутом домене, расположенном в DMOZ – этот сервис подойдет вам как нельзя кстати.

Цены сервиса формируются в зависимости от количества страниц, которые вы собираетесь сохранять. Среднее количество страниц, которые сохранены у среднего домена – около 10-20. Но попадаются такие, количество страниц в Вебархиве которых превышает и 3000…

Тарифы:

  • Пакет «Lite» (250 стр) 1 у.е.
  • Пакет «Pro» (2000 стр) 5 у.е.
  • Пакет «Extra» (4000 стр) 8 у.е.
  • Пакет «Ultra» (9000 стр) 15 у.е.

Для тех, кто желает попробовать сервис в деле – хватит тарифа за 5 у.е. 2000 страниц – это примерно 100 сайтов средней паршивости.

Плюсики и фишечки сервиса:

  1. Всем внешним ссылкам автоматом прописывает rel=”nofollow”
  2. После вытаскивания сайта из вебархива, вы можете сразу посмотреть на результат. Если он вас не устроит – отменяете задание, не качая архива сайта. При этом ваш баланс не уменьшается.
  3. Можно пополнять баланс через вебмани (сервис наши делали).
  4. И еще… Можно автоматически вставить код Сапы на все страницы сохраненного сайта.

Исходя из всего вышеперечисленного – у вас будет настоящий сателлит, как для прокачки своего основного сайта, так и для продажи ссылок в сапе.

Кому что. :)

Твит дня: « — Что нужно убрать из секса, чтобы он перестал быть банальным? — Букву Б»

Спасибо за ретвит!
Автор: Sickboy

Подписаться на обновления блога:

Обсуждение:

  1. Seolawyer says:

    Увас всегда столько полезной информации :) Ума не приложу — где вы все это берете, что бы нас радовать?!

    А если в вебархиве только одна страница числится и та — морда? Стоит ли ее вытягивать или будет непринципиальным залить новый сайт на такой домен? Ссылки то все равно на морду ведут. Спасибо

  2. Дмитрий says:

    Да, Диман радует. Вот что значит быть в теме.

  3. Sickboy says:

    Если одна страница -то не стоит заморачиваться. Я паршу архив только тогда, когда там 10+ страниц есть. :)

  4. Виктор says:

    martinchia.com же на флеше.

  5. Sickboy says:

    Виктор — и?
    Я вообще-то для примера взял 2 сайта :)

  6. Виктор says:

    Как сайт на флеше может быть хорошим саттелитом?

  7. Саня says:

    А почему он не может быть хорошим?Если на домен много ссылок то будет хорошим.

  8. Sickboy says:

    Витя сегодня решил потроллить? )

  9. Роман says:

    Отличная статья и сайт! много полезного.

  10. Виктор says:

    Пацаны, вы чего.

    Флеш сайт же гораздо хуже индексируется.
    И совершенно не юзабелен для людей.

  11. Sickboy says:

    Ви, а что, сателлит должен быть обязательно юзабельный и для людей? :)

    Восстанавливаешь сайт с прежними урлами, учитывается ссылочное, Гугл присваивает PR=1-2-3, ставишь сквозняк на свой продвигаемый сайт и всего делов)

    + к этому, сайт не выкинут из ДМОЗа при перепроверке, так как он остался прежним.

  12. Виктор says:

    Какие ссылки у флешевого сайта?

    Пришли мне ссылку на раздел «Services» этого сайта: martinchia.com.

  13. Sickboy says:

    Виктор, а на морду ссылки уже отменили?

  14. Илья says:

    тема уже давно спалена, найти что-то стоящее там маловероятно.

  15. Виктор says:

    Хороший одностраничный саттелит?

  16. Sickboy says:

    Да, одностраничник тоже хорошо работает.

  17. Sickboy says:

    Илья, а никто и не писал, что она палится :)

  18. KoXa says:

    Случайно обнаружил ваш обзор. Очень приятно :)

  19. Sickboy says:

    КоХа, сервис хороший) Если бы еще не nofollow ставил, а вырезал вообще ссылки на внешние ресурсы — цены не было бы ему. ;)

  20. KoXa says:

    а если ссылка привязана к контексту? может быть просто конвертнуть href в *text*-element

  21. Sickboy says:

    KoXa, Лучше всего — просто вырезать a_hrеf_…__/a

    Весь код ссылки вырезать, а анкор самой ссылки оставлять. Т.е. весь текст останется на месте, а внешние ссылки с домена просто пропадут.

  22. KoXa says:

    Привет всем, кто пользуется сервисом! :)
    (или еще только собирается)

    Внешние ссылки теперь можно преобразовывать в простой текст, вырезать или ставить им атрибут «nofollow».

    PS. Обычные сайты теперь можно тоже скачивать через сервис и производить над ними все стандартные операции

  23. Sickboy says:

    КоХа, у меня есть предложение по сервису — сделать так, чтобы можно было одновременно давать задание для скачки вебархива для нескольких лет.

    Сейчас, к примеру, нужно вписать урл, => восстановить из архива.
    Там показывает, к примеру 2011, 2010, 2009 года. И ты можешь выбрать только 1 год, что неудобно, так как архивы для каждого гора разные по качеству.

    Можно ли ввести функцию, чтобы можно было сразу поствить для сайта 2011, 2010, 2009 года? А то каждый раз вводить — теряется много времени на однотипные операции, а когда тебе 300 сайтов нужно проверить — вообще, пол дня на ненужные клики…

  24. Роман says:

    Если он вас не устроит – отменяете задание, не качая архива сайта. При этом ваш баланс не уменьшается.

    Вранье, баланс уменьшается

  25. Sickboy says:

    Насколько я помню — баланс уменьшался на время работы. Но если вы не скачали архив и отменили его — он возвращался на место через 1-2 минуты. Может быть сейчас что-то изменилось, но год назад было именно так.

  26. Андрей says:

    Очень помогла информация,купил домен,как оказалось владелец забыл его продлить,с помощью вашей статьи сайт восстановил.

  27. Feminine says:

    Спасибо большое! Не подскажете, где можно найти анализатор количества страниц сайта в вебархиве?

Оставить комментарий

*** Правила комментирования блога ***