СДЛ шаг за шагом. Часть 1.1 — Внутренняя оптимизация.

Пост опубликован в категории СДЛ шаг за шагом 21 комментарий

Как я упоминал во введении, будет серия из статей о том, как сделать качественный и хороший ресурс (или сайт, как удобнее), который можно будет легко использовать как средство повышения своего дохода на продаже ссылок. Эта статья является первой из данной серии, сколько их будет – не знаю, как уж выйдет. После недельного отпуска и рассуждений я пришел к выводу, что сайт, который я буду делать в рамках данного мероприятия, будет не только под продажу ссылок, но и под трафик. Ссылки ссылками, но продвижение по трафику меня больше привлекает. ;) Что ни говори, а трафик монетизируется гораздо лучше, чем ссылки и он никогда не заспамит ваш сайт.

СДЛ Шаг за Шагом. Часть 1.1. Внутренняя оптимизация.

В качестве подопытного я взял один из своих нулевых сайтов:  http://nogti.by (UPD домен уже не мой). Домен свосем молодой, еще нет и полугода, самому сайту нет и 2 месяцев – первая статья написана и размещена в конце июня.

Сайт никак не продвигался, кроме 1 покупной ссылки в GGL со статьи на морду, только ради забавы. В данный момент там висит 6 статей, которые благополучно проиндексированы ПСами. Шкурка взята стандартная, новостная, под названием Chanell Pro, которая в процессе развития самого сайта будет сильно видоизменяться и дорабатываться. Работы еще много, поэтому будем делать все постепенно. На данный момент на сайте посещалка из поиска – 40 человек в сутки.

Вот скрин аналитика: (кликабельно)

Ногти.бай - статистика Google Analytics

Почему именно женская тематика и именно ногтей? Отвечу просто – я люблю работать с женским трафиком и мне понравился этот свободный домен.

Дано: Nogti.by

Дата регистрации: 13.04.2011 (Почти 4 месяца)

Первая статья: 27.06.2011 (Почти 1,5 месяца)

Внешних ссылок: 1 (По Я. Вебмастеру)

ТИЦ=0

PR=3 (Гугл в последнее время в конец спятил – давать нулевому сайту троечку ;)

Цель: Сделать качественный сайт, который с легкостью примут в GGL. Я буду делать сайт не для того, чтобы продавать с него ссылки, это не есть моя цель. Я буду поднимать трафик и делать портал по ногтям, который в последствии как-нибудь да монетизируется. Но я сделаю так, чтобы его легко приняли в ГГЛ.

Если у вас есть какой-нибудь нулевой или не очень проект, и вы желаете проделать весь этот путь вместе со мной – милости прошу. Вы будете делать сайт, повторяя все мои шаги, его примут в GGL, и после этого вы будете спокойно продавать ссылки и зарабатывать денежку. Плюс к этому – получите бесценный опыт и практику. Мне даже веселее будет ;)

Дополнительная цель: Поднять трафик до 2000 чел/сутки.

Начнем сначала.

1. Настройка ЧПУ.

ЧПУ (Человеко Понятные Урлы). Чтобы было  понятнее – вместо http://nogti.by/123/123 в адресе страницы будет написано http://nogti.by/uroki/naraschivanie-nogtei.html.

Есть несколько самых распространенных вариантов урлов:

1. http://nogti.by/?p54

2. http://nogti.by/наращивание-ногтей

3. http://nogti.by/наращивание_ногтей

4. http://nogti.by/naraschivanie-nogtei

5. http://nogti.by/naraschivanie_nogtei

6. http://nogti.by/наращиваниеногтей

7. http://nogti.by/naraschivanienogtei

8. http://nogti.by/uslugi/naraschivanie-nogtei

9. http://nogti.by/uslugi /naraschivanie-nogtei.html

Каждый своему блогу хозяин и каждый сам решает, какой вариант лучше выбрать. Меня больше всего привлекает вариант номер 9. Хотя, с точки зрения SEO, хороши также 4 и 8. Но мне нравится, когда в конце стоит частичка html. ;)

ЧПУ сильно влияет на ранжирование, вхождение ключа в адрес страницы – большой и жирный плюс со стороны поисковых систем. Не стоит им пренебрегать. Я выбрал номер девять также потому, что в урл входит название категории, в которой находится статья. Яндекс по урлам распознает структуру сайта и, когда вы на топовых позициях, может показывать быстрые ссылки. Плюс к тому, когда есть нечто общее в урлах – можно легко манипулировать сайтом и, к примеру, закрыть ненужный вам раздел в файле robots.txt, использовав всего 1 директиву.

Как настроить данный вид урлов:

1. Идем в админку вордпресса.

2. Настройки => Постоянные ссылки (ЧПУ). И пишем там в поле вот эту строчку:

/%category%/%postname%.html

которая преобразует урлы в вид:

категория/название статьи/ и в конце прибавляет .html

Скрин прилагается:

Настройка ЧПУ на WordPress блоге

2. Настройка robots.txt.

Для тех, кто не знает, что такое роботс – маленький файлик, который лежит на хостинге и указывает поисковым роботам, какой контент на сайте можно индексировать, а какой нельзя. Перед тем, как приступить к индексации, роботы читают то, что там написано и кушают только те страницы, которые не запрещены в этом файле. Для вордпресса есть стандартный шаблонный роботс, который можно просто скопировать. Далее – в зависимости от вашей темы, вида ваших урлов и ваших особых пожеланий – можно дополнять его и видоизменять.

Вот этот шаблонный вариант:

User-agent: *

Disallow: /wp-login.php

Disallow: /wp-register.php

Disallow: /webstat/

Disallow: /feed/

Disallow: /trackback

Disallow: */trackback

Disallow: */feed

Disallow: /*?*

Disallow: /wp-content/

Disallow: /wp-admin/

Disallow: /wp-includes/

Disallow: /page/*

Disallow: /author/*

 

User-agent: Yandex

Disallow: /wp-login.php

Disallow: /wp-register.php

Disallow: /webstat/

Disallow: /feed/

Disallow: /trackback

Disallow: */trackback

Disallow: */feed

Disallow: /*?*

Disallow: /wp-content/

Disallow: /wp-admin/

Disallow: /wp-includes/

Disallow: /page/*

Disallow: /author/*

Host: nogti.by

Sitemap: http://nogti.by/sitemap.xml

*Вместо nogti.by поставьте название своего сайта.

Коротко:

  • Disallow: — запретить к индексации раздел, подраздел, страницу…
  • Sitemap: — путь к карте сайта в формате xml. (Создается плагином, до него еще дойдем)
  • Host: — директива для Яндекса – здесь указывается главное зеркало сайта (с www или без).

Мой роботс сейчас настроен так, чтобы в индекс попадали только отдельные записи и статические страницы. Чуть позже я его немного видоизменю и подкорректирую.

Если у вас на хостинге не будет подобного файлика, роботы будут индексировать все подряд, что чревато плохими последствиями. В поиске будет много страниц, которые не несут никакой пользы для посетителя и куча дублированного контента внутри домена. А нам он нисколько не нужен, он мешает продвижению.

Помните о том, что при настройке robots.txt главным является следующее:

  • В поиске должны остаться только страницы отдельных записей, статические страницы и страницы категорий (последние — по желанию).
  • Страницы архивов, постраничная навигация, страницы сортировок и т.д. – это все мусор, который не стоит держать в поиске.
  • Правильно пишите команды для роботов.

На этом, я думаю, первый выпуск серии статей закончится.

Если у вас есть какие-нибудь вопросы, я буду рад на них ответить в комментариях.

Продолжение следует. ;)

Твит дня: «- Ты изменяла? — Ну, было разок… с соседом… — Я спрашиваю: ты пароль для входа в твиттер изменяла?»

Спасибо за ретвит!
Автор: Sickboy

Подписаться на обновления блога:

Обсуждение:

  1. Дмитрий:

    Интересная статья, буду следить за продолжением.

  2. Юрий:

    Да, Дима! Отлично! По поводу трафика согласен! Его монетизировать гораздо легче! Бери НЧ запросы и вперед:)

  3. Sickboy:

    C НЧ начнем только) ВЧ — обязаточное условие тоже ;)

  4. Роман:

    Молодцом, Дима! Тематика выбраного подопечного очень актуальная… по своему сайту вижу. Буду следить за успехами твоего портала, заодно в конкуренции дополнительный стимул к развитию своего блога)))

  5. Sickboy:

    Ром, у нас с тобой немного разные цели ;)

  6. zelberg:

    спасибо, попробуем подредактировать robots.txt

  7. Ника:

    А я еще закрываю в роботсе Disallow: /tag/, чтобы лишних дублей не появлялось.

  8. rem:

    Нашел много интересного на сайте, спасибо -)

    Сейчас как раз пробую раскрутить сдл под контекст, воспользуюсь вашими советами. И спасибо за подкаст по ГГЛ ;-)

  9. Алексей:

    у меня вопросик по поводу ссылок в вп, поставил как описывается здесь, но ссылки все равно формируются на русском, как сделать, чтобы это было на английском? Спасибо!

  10. Sickboy:

    Алексей: читать СДЛ шаг за шагом часть 1.2

  11. qwerty:

    А стоит ли закрывать wp-content, в котором могут лежать картинки?

  12. Sickboy:

    нет, картинки нужно открывать от индексации

  13. qwerty:

    Это я к тому, что в вашем примере wp-content закрыт. :)

  14. Sickboy:

    У меня картинки открыты.

  15. Андрей:

    Я не пойму, а как Вам удается получать трафик 40 уников в день с нулевого сайта у которого 6 страниц? Или это трафик не с поиска?

  16. Sickboy:

    Правильная оптимизация, как же еще)
    На кулинарии, к примеру, 5 правильно оптимизированных страниц с рецептами дают стабильно 120-140 уников в сутки из поиска.

  17. Андрей:

    Заинтриговали, правильной оптимизацией))) Очень интересно что именно Вы имеете ввиду, правильное семантическое трафиковое ядро, внутреннюю перелинковку или что то еще? Просто те запросы в которых есть трафик вряд ли получится молодому сайту получить в ТОП, тогда возникает вопрос как Вам это удается? Или вы знаете как находить микро НЧ у которых высокий трафик? Если это так, то где у вас можно почитать на блоге такую инфу, как их находить? Если вы конечно захотите рассказать такую ценную информацию))) Я бы многое отдал за эти знания.

  18. Алексей:

    А сайтик то ваш не доступен, видать не пошла тема или забыли проплаттьь хост аль домен?) Гляньте мой сайтик в чем его ошибки?) Спс)

  19. Sickboy:

    На блоге этого нет, я про это рассказываю на платном обучении.

  20. Evily:

    День добрый, у меня проиндексировались теги (страницы с поиском по тегам). Нужно ли их закрывать от индексации?

  21. Sickboy:

    Да, если вы их не продвигаете. Я всегда закрываю.

Оставить комментарий

*** Правила комментирования блога ***