Seoloh.ru - жажду критики и советов.

Здравствуйте уважаемые.
Блог http://seoloh.ru создан недавно, позиционируется как полезное чтиво для таких же новичков.

Был бы рад услышать объективную критику по тому что есть. И советы по тому что делать дальше.
Заранее спасибо.

Если вам помогла или просто понравилась статья - плюсаните/поделитесь, пожалуйста.

Вопрос контента - всегда спорный, потому пока (сначала) ограничусь лишь "техническими" замечаниями.

ROBOTS.TXT

User-Agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: /feed
Disallow: */trackback
Disallow: */feed
Disallow: /wp-login.php
Disallow: /xmlrpc.php
Allow: /wp-content/uploads
Allow: /tag/feedburner
Host: seoloh.ru

User-Agent: Yandex
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: /feed
Disallow: */trackback
Disallow: */feed
Disallow: /wp-login.php
Disallow: /xmlrpc.php
Allow: /wp-content/uploads
Allow: /tag/feedburner
Host: seoloh.ru

User-agent: YandexBlog

Disallow:

User-agent: Yandex
Crawl-delay: 2

Sitemap: http://seoloh.ru/sitemap.xml

User-agent: MSNBot
Crawl-delay: 120
Disallow: /

User-agent: Slurp
Crawl-delay: 120
Disallow: /

Если вы не слишком разбираетесь в тонкостях работы директив robots.txt - банально избегайте сложностей и потенциально различных толкований. Дело в том, что robots.txt - один из очень важных моментов для продвижения, потому любые "попытки улучшить" чаще дают лишь (очень) отрицательный эффект.
Рекомендация новичкам: использовать лишь один блок директив (т.е. только "User-agent: *"). Никаких пустых строчек между директивами. Директива начинается с большой буквы, все остальные - маленькие. Никаких русских букв. Комментарии (текст после символа #) допустима, но, всё же - тоже лучше избегать. Короче - максимум аскетизма, только нужное.

Соответственно, я бы порекомендовал следующую версию robots.txt (на основе вашего варианта):
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: /feed
Disallow: /wp-login.php
Disallow: /xmlrpc.php
Disallow: */trackback
Disallow: */feed
Sitemap: http://seoloh.ru/sitemap.xml
Host: seoloh.ru

Правило следующее - вверху перечисляем "заведомо всеми поддерживаемые директивы". После те, что, возможно -  не всеми. Отдельными - в самом конце. Например, поэтому директиву  Host: - располагаем в самом конце, т.к. её "знает" лишь Яндекс.
Точней, кстати, её "знает" и тот же Google - но ("нормально") не учитывает (заметьте, что при анализе robots.txt в его админке он на неё "не ругается").

Спасибо, исправил на рекомендованный вами.

Итак, далее. Обычная ситуация - есть запал в (самом) начале, посты пишутся каждый день (а то и по нескольку в день), спустя неделю - через несколько дней, а спустя месяц - вовсе на это забивается под предлогом "ничего не получилось"/"что-то никто не ходит"/"я понял, что ошибался"/итп.
Есть некоторый "критичный период" у молодых проектов. Некоторым очень тяжело продолжать писать, когда тебя никто не читает. Другим становится не интересно, когда они поймут то, в чём раньше не разбирались, а значит и писать уже не так интересно по этой теме. И тому подобное. В то время, как для того, чтобы "прикормить роботов" (индексирующих сайт пауков различных ПС) - нужна некоторая стабильность. В идеале - чтобы каждый день они приходили на сайт. А для этого нужно выкладывать каждый день новый материал как минимум.
Конечно, это достаточно условно, однако весьма важно для удачного старта. Кроме того, зашедший новый посетитель, увидев, что блог обновляется каждый день - с много большей вероятностью либо зайдёт ещё раз либо даже подпишется в читатели (тут уже зависит и от качества контента). Это не значит, что нужно грызть локти, ежели пару дней не удастся написать в блог. Но это значит, что, всё же, нужно спланировать и максимально строго придерживаться выбранной периодичности написания. В том числе используя вариант "отложенной публикации" - когда с помощью специальных модулей для движка вашего сайта можно "накидать статей" и задать даты (периодичность), когда они будут опубликованы. Чаще такой метод используют "сателлитчики", однако это не значит, что он плох - наоборот, он используется как раз потому, что (весьма) хорош (и эффективен).


Итого, мораль сего поста такова: коль взялся за блог - не говори, что давече написать не смог...

Да, лажанул я :( Был с четверга по сегодня на даче. Про авто-посстинг как то не задумался, да и статей "про запас" нету. Будет мне урок -)

А ежели сделать рубрику "Новости", и добавлять туда каждый день рерайтинг каких-нибудь новостей по теме - прокатит такое для прикормки роботов?

Вполне. Кроме того, если находить интересные новости - вполне прокатит и "для людей". :)

Добрый вечер. С недавнего времени решил продолжить сие дело. Пока в планах получить 10 тиц, набрать контента и монетезировать две свои площадки с помощью постовых в ГГЛ.

Хотел бы посоветоваться с Вами как это лучше сделать. На данные моммент закупил постовых в ггл на 60$ (по 30$ на площадку). Покупаю рерайты тематических новостей по 0.3$ за новость, и стараюсь сам что-нибудь писать. В планах вложить еще 80-100$ в закупку постовых на ггл. Что можете сказать по этому поводу ? :) Рационально ли расходую ресурсы?

GGL на данный момент - моя основная рекомендация. Как для продвижения своих проектов, так и клиентских. Так что подход верный. Он, конечно, затратный, но с точки зрения средне-/долгосрочной перспективы - правильный. Конечно - при должном отборе доноров.

Добавить комментарий

Подписка на Комментарии к "Seoloh.ru - жажду критики и советов." Подписка на NOINDEX.by - Все комментарии