СДЛ шаг за шагом. Часть 1.1 — Внутренняя оптимизация.
Как я упоминал во введении, будет серия из статей о том, как сделать качественный и хороший ресурс (или сайт, как удобнее), который можно будет легко использовать как средство повышения своего дохода на продаже ссылок. Эта статья является первой из данной серии, сколько их будет – не знаю, как уж выйдет. После недельного отпуска и рассуждений я пришел к выводу, что сайт, который я буду делать в рамках данного мероприятия, будет не только под продажу ссылок, но и под трафик. Ссылки ссылками, но продвижение по трафику меня больше привлекает. ;) Что ни говори, а трафик монетизируется гораздо лучше, чем ссылки и он никогда не заспамит ваш сайт.
В качестве подопытного я взял один из своих нулевых сайтов: http://nogti.by (UPD домен уже не мой). Домен свосем молодой, еще нет и полугода, самому сайту нет и 2 месяцев – первая статья написана и размещена в конце июня.
Сайт никак не продвигался, кроме 1 покупной ссылки в GGL со статьи на морду, только ради забавы. В данный момент там висит 6 статей, которые благополучно проиндексированы ПСами. Шкурка взята стандартная, новостная, под названием Chanell Pro, которая в процессе развития самого сайта будет сильно видоизменяться и дорабатываться. Работы еще много, поэтому будем делать все постепенно. На данный момент на сайте посещалка из поиска – 40 человек в сутки.
Вот скрин аналитика: (кликабельно)
Почему именно женская тематика и именно ногтей? Отвечу просто – я люблю работать с женским трафиком и мне понравился этот свободный домен.
Дано: Nogti.by
Дата регистрации: 13.04.2011 (Почти 4 месяца)
Первая статья: 27.06.2011 (Почти 1,5 месяца)
Внешних ссылок: 1 (По Я. Вебмастеру)
ТИЦ=0
PR=3 (Гугл в последнее время в конец спятил – давать нулевому сайту троечку ;)
Цель: Сделать качественный сайт, который с легкостью примут в GGL. Я буду делать сайт не для того, чтобы продавать с него ссылки, это не есть моя цель. Я буду поднимать трафик и делать портал по ногтям, который в последствии как-нибудь да монетизируется. Но я сделаю так, чтобы его легко приняли в ГГЛ.
Если у вас есть какой-нибудь нулевой или не очень проект, и вы желаете проделать весь этот путь вместе со мной – милости прошу. Вы будете делать сайт, повторяя все мои шаги, его примут в GGL, и после этого вы будете спокойно продавать ссылки и зарабатывать денежку. Плюс к этому – получите бесценный опыт и практику. Мне даже веселее будет ;)
Дополнительная цель: Поднять трафик до 2000 чел/сутки.
Начнем сначала.
1. Настройка ЧПУ.
ЧПУ (Человеко Понятные Урлы). Чтобы было понятнее – вместо http://nogti.by/123/123 в адресе страницы будет написано http://nogti.by/uroki/naraschivanie-nogtei.html.
Есть несколько самых распространенных вариантов урлов:
1. http://nogti.by/?p54
2. http://nogti.by/наращивание-ногтей
3. http://nogti.by/наращивание_ногтей
4. http://nogti.by/naraschivanie-nogtei
5. http://nogti.by/naraschivanie_nogtei
6. http://nogti.by/наращиваниеногтей
7. http://nogti.by/naraschivanienogtei
8. http://nogti.by/uslugi/naraschivanie-nogtei
9. http://nogti.by/uslugi /naraschivanie-nogtei.html
Каждый своему блогу хозяин и каждый сам решает, какой вариант лучше выбрать. Меня больше всего привлекает вариант номер 9. Хотя, с точки зрения SEO, хороши также 4 и 8. Но мне нравится, когда в конце стоит частичка html. ;)
ЧПУ сильно влияет на ранжирование, вхождение ключа в адрес страницы – большой и жирный плюс со стороны поисковых систем. Не стоит им пренебрегать. Я выбрал номер девять также потому, что в урл входит название категории, в которой находится статья. Яндекс по урлам распознает структуру сайта и, когда вы на топовых позициях, может показывать быстрые ссылки. Плюс к тому, когда есть нечто общее в урлах – можно легко манипулировать сайтом и, к примеру, закрыть ненужный вам раздел в файле robots.txt, использовав всего 1 директиву.
Как настроить данный вид урлов:
1. Идем в админку вордпресса.
2. Настройки => Постоянные ссылки (ЧПУ). И пишем там в поле вот эту строчку:
/%category%/%postname%.html
которая преобразует урлы в вид:
категория/название статьи/ и в конце прибавляет .html
Скрин прилагается:
2. Настройка robots.txt.
Для тех, кто не знает, что такое роботс – маленький файлик, который лежит на хостинге и указывает поисковым роботам, какой контент на сайте можно индексировать, а какой нельзя. Перед тем, как приступить к индексации, роботы читают то, что там написано и кушают только те страницы, которые не запрещены в этом файле. Для вордпресса есть стандартный шаблонный роботс, который можно просто скопировать. Далее – в зависимости от вашей темы, вида ваших урлов и ваших особых пожеланий – можно дополнять его и видоизменять.
Вот этот шаблонный вариант:
User-agent: *
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /webstat/
Disallow: /feed/
Disallow: /trackback
Disallow: */trackback
Disallow: */feed
Disallow: /*?*
Disallow: /wp-content/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /page/*
Disallow: /author/*
User-agent: Yandex
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /webstat/
Disallow: /feed/
Disallow: /trackback
Disallow: */trackback
Disallow: */feed
Disallow: /*?*
Disallow: /wp-content/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /page/*
Disallow: /author/*
Host: nogti.by
Sitemap: http://nogti.by/sitemap.xml
*Вместо nogti.by поставьте название своего сайта.
Коротко:
- Disallow: — запретить к индексации раздел, подраздел, страницу…
- Sitemap: — путь к карте сайта в формате xml. (Создается плагином, до него еще дойдем)
- Host: — директива для Яндекса – здесь указывается главное зеркало сайта (с www или без).
Мой роботс сейчас настроен так, чтобы в индекс попадали только отдельные записи и статические страницы. Чуть позже я его немного видоизменю и подкорректирую.
Если у вас на хостинге не будет подобного файлика, роботы будут индексировать все подряд, что чревато плохими последствиями. В поиске будет много страниц, которые не несут никакой пользы для посетителя и куча дублированного контента внутри домена. А нам он нисколько не нужен, он мешает продвижению.
Помните о том, что при настройке robots.txt главным является следующее:
- В поиске должны остаться только страницы отдельных записей, статические страницы и страницы категорий (последние — по желанию).
- Страницы архивов, постраничная навигация, страницы сортировок и т.д. – это все мусор, который не стоит держать в поиске.
- Правильно пишите команды для роботов.
На этом, я думаю, первый выпуск серии статей закончится.
Если у вас есть какие-нибудь вопросы, я буду рад на них ответить в комментариях.
Продолжение следует. ;)
Твит дня: «- Ты изменяла? — Ну, было разок… с соседом… — Я спрашиваю: ты пароль для входа в твиттер изменяла?»


- Что выгоднее, монетизировать сайт сразу, или подождать?
- Нововведение на сайте. Сначала докажите, потом действуйте.
- #100DaysForChanges – Итоги третьей недели, цели на четвертую
- Как пользоваться плагином Key CAPTCHA, чтобы сохранить себе нервы.
- Рисуем красивые графики заработка от Google Chart на своих блогах (манимейкерам)
Интересная статья, буду следить за продолжением.
Да, Дима! Отлично! По поводу трафика согласен! Его монетизировать гораздо легче! Бери НЧ запросы и вперед:)
C НЧ начнем только) ВЧ — обязаточное условие тоже ;)
Молодцом, Дима! Тематика выбраного подопечного очень актуальная… по своему сайту вижу. Буду следить за успехами твоего портала, заодно в конкуренции дополнительный стимул к развитию своего блога)))
Ром, у нас с тобой немного разные цели ;)
спасибо, попробуем подредактировать robots.txt
А я еще закрываю в роботсе Disallow: /tag/, чтобы лишних дублей не появлялось.
Нашел много интересного на сайте, спасибо -)
Сейчас как раз пробую раскрутить сдл под контекст, воспользуюсь вашими советами. И спасибо за подкаст по ГГЛ ;-)
у меня вопросик по поводу ссылок в вп, поставил как описывается здесь, но ссылки все равно формируются на русском, как сделать, чтобы это было на английском? Спасибо!
Алексей: читать СДЛ шаг за шагом часть 1.2
А стоит ли закрывать wp-content, в котором могут лежать картинки?
нет, картинки нужно открывать от индексации
Это я к тому, что в вашем примере wp-content закрыт. :)
У меня картинки открыты.
Я не пойму, а как Вам удается получать трафик 40 уников в день с нулевого сайта у которого 6 страниц? Или это трафик не с поиска?
Правильная оптимизация, как же еще)
На кулинарии, к примеру, 5 правильно оптимизированных страниц с рецептами дают стабильно 120-140 уников в сутки из поиска.
Заинтриговали, правильной оптимизацией))) Очень интересно что именно Вы имеете ввиду, правильное семантическое трафиковое ядро, внутреннюю перелинковку или что то еще? Просто те запросы в которых есть трафик вряд ли получится молодому сайту получить в ТОП, тогда возникает вопрос как Вам это удается? Или вы знаете как находить микро НЧ у которых высокий трафик? Если это так, то где у вас можно почитать на блоге такую инфу, как их находить? Если вы конечно захотите рассказать такую ценную информацию))) Я бы многое отдал за эти знания.
А сайтик то ваш не доступен, видать не пошла тема или забыли проплаттьь хост аль домен?) Гляньте мой сайтик в чем его ошибки?) Спс)
На блоге этого нет, я про это рассказываю на платном обучении.
День добрый, у меня проиндексировались теги (страницы с поиском по тегам). Нужно ли их закрывать от индексации?
Да, если вы их не продвигаете. Я всегда закрываю.