Вытягиваем сайты из Вебархива и делаем приличные сателлиты под Google.

23.01.2012 Пост опубликован в категории Сателлиты 27 комментариев

В прошлой статье я объявил о том, что буду периодически выкладывать домены, которые свободны для регистрации и находятся в каталоге DMOZ.

Вытаскиваем сайты из Вебархива с помощью Robotools

Сегодня я расскажу о том, как сделать из такого домена отличный сателлит под Google.

При продвижении под Google.com и Google.co.uk, одним словом – под буржундию, под Google очень хорошо работают дропы, которые были восстановлены из Вебархива.

Еще бы, вытянуть сайт, который был год назад, с сохранением всех урлов в первоначальном виде – не этого ли хочет каждый вебмастер, который желает прокачать свой seo блог? При восстановлении прежних урлов, восстанавливается также  и вся ссылочная масса, которая шла на сайт и еще не отвалилась. При этом все ссылки остаются релевантными и достаточно хорошо передают PR.

А PR, как известно – единственный показатель хорошего донора в буржундии, так как ТИЦки там нет и больше, в принципе, сравнивать не чем.

Сервис ROBOTOOLS.

Сервис Robotools позволит вам вытянуть сайты из вебархива за считанные секунды, при этом сохранит все файлы, которые сохранил вебархив, упакует каждую страницу сайта и сделает из неё html вариант, раскидает всё по папкам и предоставит вам готовый архив, который осталось только распаковать и закинуть на хостинг.

Вуаля – сайт полностью рабочий.

Если вы решили сделать сателлит на дропнутом домене, расположенном в DMOZ – этот сервис подойдет вам как нельзя кстати.

Цены сервиса формируются в зависимости от количества страниц, которые вы собираетесь сохранять. Среднее количество страниц, которые сохранены у среднего домена – около 10-20. Но попадаются такие, количество страниц в Вебархиве которых превышает и 3000…

Тарифы:

  • Пакет «Lite» (250 стр) 1 у.е.
  • Пакет «Pro» (2000 стр) 5 у.е.
  • Пакет «Extra» (4000 стр) 8 у.е.
  • Пакет «Ultra» (9000 стр) 15 у.е.

Для тех, кто желает попробовать сервис в деле – хватит тарифа за 5 у.е. 2000 страниц – это примерно 100 сайтов средней паршивости.

Плюсики и фишечки сервиса:

  1. Всем внешним ссылкам автоматом прописывает rel=”nofollow”
  2. После вытаскивания сайта из вебархива, вы можете сразу посмотреть на результат. Если он вас не устроит – отменяете задание, не качая архива сайта. При этом ваш баланс не уменьшается.
  3. Можно пополнять баланс через вебмани (сервис наши делали).
  4. И еще… Можно автоматически вставить код Сапы на все страницы сохраненного сайта.

Исходя из всего вышеперечисленного – у вас будет настоящий сателлит, как для прокачки своего основного сайта, так и для продажи ссылок в сапе.

Кому что. :)

Твит дня: « — Что нужно убрать из секса, чтобы он перестал быть банальным? — Букву Б»