СДЛ шаг за шагом. Часть 1.1 — Внутренняя оптимизация.

11.08.2011 Пост опубликован в категории СДЛ шаг за шагом 21 комментарий

Как я упоминал во введении, будет серия из статей о том, как сделать качественный и хороший ресурс (или сайт, как удобнее), который можно будет легко использовать как средство повышения своего дохода на продаже ссылок. Эта статья является первой из данной серии, сколько их будет – не знаю, как уж выйдет. После недельного отпуска и рассуждений я пришел к выводу, что сайт, который я буду делать в рамках данного мероприятия, будет не только под продажу ссылок, но и под трафик. Ссылки ссылками, но продвижение по трафику меня больше привлекает. ;) Что ни говори, а трафик монетизируется гораздо лучше, чем ссылки и он никогда не заспамит ваш сайт.

СДЛ Шаг за Шагом. Часть 1.1. Внутренняя оптимизация.

В качестве подопытного я взял один из своих нулевых сайтов:  http://nogti.by (UPD домен уже не мой). Домен свосем молодой, еще нет и полугода, самому сайту нет и 2 месяцев – первая статья написана и размещена в конце июня.

Сайт никак не продвигался, кроме 1 покупной ссылки в GGL со статьи на морду, только ради забавы. В данный момент там висит 6 статей, которые благополучно проиндексированы ПСами. Шкурка взята стандартная, новостная, под названием Chanell Pro, которая в процессе развития самого сайта будет сильно видоизменяться и дорабатываться. Работы еще много, поэтому будем делать все постепенно. На данный момент на сайте посещалка из поиска – 40 человек в сутки.

Вот скрин аналитика: (кликабельно)

Ногти.бай - статистика Google Analytics

Почему именно женская тематика и именно ногтей? Отвечу просто – я люблю работать с женским трафиком и мне понравился этот свободный домен.

Дано: Nogti.by

Дата регистрации: 13.04.2011 (Почти 4 месяца)

Первая статья: 27.06.2011 (Почти 1,5 месяца)

Внешних ссылок: 1 (По Я. Вебмастеру)

ТИЦ=0

PR=3 (Гугл в последнее время в конец спятил – давать нулевому сайту троечку ;)

Цель: Сделать качественный сайт, который с легкостью примут в GGL. Я буду делать сайт не для того, чтобы продавать с него ссылки, это не есть моя цель. Я буду поднимать трафик и делать портал по ногтям, который в последствии как-нибудь да монетизируется. Но я сделаю так, чтобы его легко приняли в ГГЛ.

Если у вас есть какой-нибудь нулевой или не очень проект, и вы желаете проделать весь этот путь вместе со мной – милости прошу. Вы будете делать сайт, повторяя все мои шаги, его примут в GGL, и после этого вы будете спокойно продавать ссылки и зарабатывать денежку. Плюс к этому – получите бесценный опыт и практику. Мне даже веселее будет ;)

Дополнительная цель: Поднять трафик до 2000 чел/сутки.

Начнем сначала.

1. Настройка ЧПУ.

ЧПУ (Человеко Понятные Урлы). Чтобы было  понятнее – вместо http://nogti.by/123/123 в адресе страницы будет написано http://nogti.by/uroki/naraschivanie-nogtei.html.

Есть несколько самых распространенных вариантов урлов:

1. http://nogti.by/?p54

2. http://nogti.by/наращивание-ногтей

3. http://nogti.by/наращивание_ногтей

4. http://nogti.by/naraschivanie-nogtei

5. http://nogti.by/naraschivanie_nogtei

6. http://nogti.by/наращиваниеногтей

7. http://nogti.by/naraschivanienogtei

8. http://nogti.by/uslugi/naraschivanie-nogtei

9. http://nogti.by/uslugi /naraschivanie-nogtei.html

Каждый своему блогу хозяин и каждый сам решает, какой вариант лучше выбрать. Меня больше всего привлекает вариант номер 9. Хотя, с точки зрения SEO, хороши также 4 и 8. Но мне нравится, когда в конце стоит частичка html. ;)

ЧПУ сильно влияет на ранжирование, вхождение ключа в адрес страницы – большой и жирный плюс со стороны поисковых систем. Не стоит им пренебрегать. Я выбрал номер девять также потому, что в урл входит название категории, в которой находится статья. Яндекс по урлам распознает структуру сайта и, когда вы на топовых позициях, может показывать быстрые ссылки. Плюс к тому, когда есть нечто общее в урлах – можно легко манипулировать сайтом и, к примеру, закрыть ненужный вам раздел в файле robots.txt, использовав всего 1 директиву.

Как настроить данный вид урлов:

1. Идем в админку вордпресса.

2. Настройки => Постоянные ссылки (ЧПУ). И пишем там в поле вот эту строчку:

/%category%/%postname%.html

которая преобразует урлы в вид:

категория/название статьи/ и в конце прибавляет .html

Скрин прилагается:

Настройка ЧПУ на WordPress блоге

2. Настройка robots.txt.

Для тех, кто не знает, что такое роботс – маленький файлик, который лежит на хостинге и указывает поисковым роботам, какой контент на сайте можно индексировать, а какой нельзя. Перед тем, как приступить к индексации, роботы читают то, что там написано и кушают только те страницы, которые не запрещены в этом файле. Для вордпресса есть стандартный шаблонный роботс, который можно просто скопировать. Далее – в зависимости от вашей темы, вида ваших урлов и ваших особых пожеланий – можно дополнять его и видоизменять.

Вот этот шаблонный вариант:

User-agent: *

Disallow: /wp-login.php

Disallow: /wp-register.php

Disallow: /webstat/

Disallow: /feed/

Disallow: /trackback

Disallow: */trackback

Disallow: */feed

Disallow: /*?*

Disallow: /wp-content/

Disallow: /wp-admin/

Disallow: /wp-includes/

Disallow: /page/*

Disallow: /author/*

 

User-agent: Yandex

Disallow: /wp-login.php

Disallow: /wp-register.php

Disallow: /webstat/

Disallow: /feed/

Disallow: /trackback

Disallow: */trackback

Disallow: */feed

Disallow: /*?*

Disallow: /wp-content/

Disallow: /wp-admin/

Disallow: /wp-includes/

Disallow: /page/*

Disallow: /author/*

Host: nogti.by

Sitemap: http://nogti.by/sitemap.xml

*Вместо nogti.by поставьте название своего сайта.

Коротко:

  • Disallow: — запретить к индексации раздел, подраздел, страницу…
  • Sitemap: — путь к карте сайта в формате xml. (Создается плагином, до него еще дойдем)
  • Host: — директива для Яндекса – здесь указывается главное зеркало сайта (с www или без).

Мой роботс сейчас настроен так, чтобы в индекс попадали только отдельные записи и статические страницы. Чуть позже я его немного видоизменю и подкорректирую.

Если у вас на хостинге не будет подобного файлика, роботы будут индексировать все подряд, что чревато плохими последствиями. В поиске будет много страниц, которые не несут никакой пользы для посетителя и куча дублированного контента внутри домена. А нам он нисколько не нужен, он мешает продвижению.

Помните о том, что при настройке robots.txt главным является следующее:

  • В поиске должны остаться только страницы отдельных записей, статические страницы и страницы категорий (последние — по желанию).
  • Страницы архивов, постраничная навигация, страницы сортировок и т.д. – это все мусор, который не стоит держать в поиске.
  • Правильно пишите команды для роботов.

На этом, я думаю, первый выпуск серии статей закончится.

Если у вас есть какие-нибудь вопросы, я буду рад на них ответить в комментариях.

Продолжение следует. ;)

Твит дня: «- Ты изменяла? — Ну, было разок… с соседом… — Я спрашиваю: ты пароль для входа в твиттер изменяла?»