Вытягиваем сайты из Вебархива и делаем приличные сателлиты под Google.
В прошлой статье я объявил о том, что буду периодически выкладывать домены, которые свободны для регистрации и находятся в каталоге DMOZ.
Сегодня я расскажу о том, как сделать из такого домена отличный сателлит под Google.
При продвижении под Google.com и Google.co.uk, одним словом – под буржундию, под Google очень хорошо работают дропы, которые были восстановлены из Вебархива.
Еще бы, вытянуть сайт, который был год назад, с сохранением всех урлов в первоначальном виде – не этого ли хочет каждый вебмастер, который желает прокачать свой seo блог? При восстановлении прежних урлов, восстанавливается также и вся ссылочная масса, которая шла на сайт и еще не отвалилась. При этом все ссылки остаются релевантными и достаточно хорошо передают PR.
А PR, как известно – единственный показатель хорошего донора в буржундии, так как ТИЦки там нет и больше, в принципе, сравнивать не чем.
Сервис ROBOTOOLS.
Сервис Robotools позволит вам вытянуть сайты из вебархива за считанные секунды, при этом сохранит все файлы, которые сохранил вебархив, упакует каждую страницу сайта и сделает из неё html вариант, раскидает всё по папкам и предоставит вам готовый архив, который осталось только распаковать и закинуть на хостинг.
Вуаля – сайт полностью рабочий.
Если вы решили сделать сателлит на дропнутом домене, расположенном в DMOZ – этот сервис подойдет вам как нельзя кстати.
Цены сервиса формируются в зависимости от количества страниц, которые вы собираетесь сохранять. Среднее количество страниц, которые сохранены у среднего домена – около 10-20. Но попадаются такие, количество страниц в Вебархиве которых превышает и 3000…
Тарифы:
- Пакет «Lite» (250 стр) 1 у.е.
- Пакет «Pro» (2000 стр) 5 у.е.
- Пакет «Extra» (4000 стр) 8 у.е.
- Пакет «Ultra» (9000 стр) 15 у.е.
Для тех, кто желает попробовать сервис в деле – хватит тарифа за 5 у.е. 2000 страниц – это примерно 100 сайтов средней паршивости.
Плюсики и фишечки сервиса:
- Всем внешним ссылкам автоматом прописывает rel=”nofollow”
- После вытаскивания сайта из вебархива, вы можете сразу посмотреть на результат. Если он вас не устроит – отменяете задание, не качая архива сайта. При этом ваш баланс не уменьшается.
- Можно пополнять баланс через вебмани (сервис наши делали).
- И еще… Можно автоматически вставить код Сапы на все страницы сохраненного сайта.
Исходя из всего вышеперечисленного – у вас будет настоящий сателлит, как для прокачки своего основного сайта, так и для продажи ссылок в сапе.
Кому что. :)
Твит дня: « — Что нужно убрать из секса, чтобы он перестал быть банальным? — Букву Б»
Увас всегда столько полезной информации :) Ума не приложу — где вы все это берете, что бы нас радовать?!
А если в вебархиве только одна страница числится и та — морда? Стоит ли ее вытягивать или будет непринципиальным залить новый сайт на такой домен? Ссылки то все равно на морду ведут. Спасибо
Да, Диман радует. Вот что значит быть в теме.
Если одна страница -то не стоит заморачиваться. Я паршу архив только тогда, когда там 10+ страниц есть. :)
martinchia.com же на флеше.
Виктор — и?
Я вообще-то для примера взял 2 сайта :)
Как сайт на флеше может быть хорошим саттелитом?
А почему он не может быть хорошим?Если на домен много ссылок то будет хорошим.
Витя сегодня решил потроллить? )
Отличная статья и сайт! много полезного.
Пацаны, вы чего.
Флеш сайт же гораздо хуже индексируется.
И совершенно не юзабелен для людей.
Ви, а что, сателлит должен быть обязательно юзабельный и для людей? :)
Восстанавливаешь сайт с прежними урлами, учитывается ссылочное, Гугл присваивает PR=1-2-3, ставишь сквозняк на свой продвигаемый сайт и всего делов)
+ к этому, сайт не выкинут из ДМОЗа при перепроверке, так как он остался прежним.
Какие ссылки у флешевого сайта?
Пришли мне ссылку на раздел «Services» этого сайта: martinchia.com.
Виктор, а на морду ссылки уже отменили?
тема уже давно спалена, найти что-то стоящее там маловероятно.
Хороший одностраничный саттелит?
Да, одностраничник тоже хорошо работает.
Илья, а никто и не писал, что она палится :)
Случайно обнаружил ваш обзор. Очень приятно :)
КоХа, сервис хороший) Если бы еще не nofollow ставил, а вырезал вообще ссылки на внешние ресурсы — цены не было бы ему. ;)
а если ссылка привязана к контексту? может быть просто конвертнуть href в *text*-element
KoXa, Лучше всего — просто вырезать a_hrеf_…__/a
Весь код ссылки вырезать, а анкор самой ссылки оставлять. Т.е. весь текст останется на месте, а внешние ссылки с домена просто пропадут.
Привет всем, кто пользуется сервисом! :)
(или еще только собирается)
Внешние ссылки теперь можно преобразовывать в простой текст, вырезать или ставить им атрибут «nofollow».
PS. Обычные сайты теперь можно тоже скачивать через сервис и производить над ними все стандартные операции
КоХа, у меня есть предложение по сервису — сделать так, чтобы можно было одновременно давать задание для скачки вебархива для нескольких лет.
Сейчас, к примеру, нужно вписать урл, => восстановить из архива.
Там показывает, к примеру 2011, 2010, 2009 года. И ты можешь выбрать только 1 год, что неудобно, так как архивы для каждого гора разные по качеству.
Можно ли ввести функцию, чтобы можно было сразу поствить для сайта 2011, 2010, 2009 года? А то каждый раз вводить — теряется много времени на однотипные операции, а когда тебе 300 сайтов нужно проверить — вообще, пол дня на ненужные клики…
Если он вас не устроит – отменяете задание, не качая архива сайта. При этом ваш баланс не уменьшается.
Вранье, баланс уменьшается
Насколько я помню — баланс уменьшался на время работы. Но если вы не скачали архив и отменили его — он возвращался на место через 1-2 минуты. Может быть сейчас что-то изменилось, но год назад было именно так.
Очень помогла информация,купил домен,как оказалось владелец забыл его продлить,с помощью вашей статьи сайт восстановил.
Спасибо большое! Не подскажете, где можно найти анализатор количества страниц сайта в вебархиве?