Скорость сайта и Яндекс

Скорость загрузки страниц сайта влияет на его позиции не только в Google (о чём официально было объявлено весной 2010-го года), но также и на положение в Яндексе. Раньше я относился к данному "временному" фактору достаточно скептически, однако сейчас всё больше стал замечать прямую и косвенную корреляцию между условной "скоростью загрузки сайта" и позициями в основных поиковиках (и как результат - трафиком). И если "с Google понятно", то сейчас вижу (по своим сайтам) зависимость "скоростных характеристик хостинга" и последующим трафиком с Яндекса.
Целью сей заметки не есть представление доказательств "лабораторного эксперимента", а лишь умозаключения, к которым пришёл после анализа "относительно стабильных" сайтов - где хоть как-то можно отделить "продвигающую составляющую" и "периодический фактор" от текущих показателей сайта. Вы вполне можете повторить сие на своих сайтах и поделиться наблюдениями.

Эффективность сайта

В качестве "измеряющего параметра" очень удобно использовать данный параметр из гуглоадминки, который отражает "условное среднее время", необходимое "условному среднему пользователю" для загрузки "условной средней страницы сайта".

Средняя длительность пребывания на сайте и среднее количество просмотров на посетителя

Кроме "обычных" параметров в плане Ливинтернетовских "Посещаемость за день/неделю/месяц" и "С поисковых систем", обязательно стоит использовать и данные два параметра ("Средняя длительность (мин.)" и "Просмотров на посетителя"), отражающие юзеровскую активность на сайте.

Зависимости

Чем больше посетителей (трафик, "Посещаемость за день/неделю/месяц") - тем лучше. Кто бы что ни говорил, но ежели у вас не дор, то большее  количество посетителей сайта указывают поисковым системам лишь на то, что это популярный, а значит "хороший" сайт со всеми втекающими и вытекающими.
Чем больше просмотренных страниц на посетителя - тем лучше. Влияние "пользовательской составляющей" на результаты уже не раз напрямую и косвенно оглашали представители поисковых систем - именно это скрывается за их частыми дипломатическими выражениями типа "Мы используем все доступные средства для улучшения качества поиска". Если у вас этот показатель стремится к единице - остаётся посочувствовать (и/или вам и/или сайту). Если к десятке - с одной стороны можно позавидовать, с другой стороны - скорей всего сайт ещё толком не продвигался. ;) Итого, в среднем будет среднее 3-5 страниц.
Чем больше пользовательское время пребывания на сайте - тем лучше. Если меньше минуты - радости мало, а если десять - см. предыдущий абзац.
Чем меньше скорость загрузки страницы - тем лучше. Экспериментально можно (самому - на своих сайтах) убедиться, что оптимизировав скорость загрузки страниц - наверняка получите увеличение количества просмотренных страниц (хитов) вообще и среднее количество (на одного посетителя) в частности. А данный параметр поисковыми системами вполне логично рассматривается как "положительный", потому с некоторым лагом (2-4 недели) можно рассчитывать на положительный эффект от сего действия. По крайней мере в моих случаях такая картина вырисовывалась: радикальная оптимизация -> уменьшение скорости загрузки страниц в разы -> увеличение хитов на десятки процентов -> увеличение просмотренных страниц на посетителя на десятки процентов -> спустя 2-4 недели улучшение показателей и в Яндексе и в Google (достаточно синхронное, без выраженного "SEO-продвижения" другими классическими методами). И наоборот, на сайтах с хостингом "оставляющем желать", обнаружилась аналогичная картинка лишь "в противофазе": отсутствие оптимизации скорости сайта - хостинг тормозит по любой причине длительный промежуток времени (дни-недели) - уменьшение времени и количества просмотренных страниц - с лагом в те же 2-4 недели падение позиций и трафика с обоих ПС. Речь о "немолодых" сайтах, повторюсь, без "выраженного SEO-фактора" (точней - его изменения).

Итого

Банально и в очередной раз: оптимизация скорости загрузки страниц и качество хостинга - играют всё большую роль как "SEO-фактор". В случае Google это есть "официально прямой" влияющий на ранжирование фактор, в случае Яндекса - это "неофициально-косвенный" фактор, точно также влияющий на ранжирование.

Комментарии

Полностью согласен с тобой, есть свои наблюдения по этому поводу к Google. Думаю что и Яндекс далеко не отстал в этом от Google, так как этот параметр не требует огромного алгоритма.

Неплохо бы дополнить статью обзором инструментов для оптимизации скорости загрузки.
В Google Page Speed, например, представлено больше возможностей, чем в упомянутой Вами гуглоадминке. Может, еще какие-нибудь инструменты существуют.

Google Page Speed предназначена для оценки скорости загрузки страницы и выявления проблемных моментов (источников "тормозов"). А "Гуглоадминка=>Эффективность сайта" используется как (единственный - есть ещё?) источник информации о "скорости сайта во времени" (на протяжении некоторого периода наблюдений), что позволяет связать последующую через некоторое время реакцию ПС на проблемы (или наоборот) со скоростью загрузки страниц в конкретный момент времени. Чутка заумно получилось :) , короче, это (принципиально) разные вещи, хоть и "про одно и то же" (скорость сайта).

Статью можно было бы озаглавить "О поголовном переходе на tar и gzip".
P.S. А количество информеров 88х31 пиксель, которые затрудняют окончательную загрузку страницы - влияют на эффективность сайта в гуглоадминке и, как следствие, в ПС? Тот же вопрос и по бороздерам интернета: если эксплорер не закрывает сессию загрузки страницы, то это как? Если плохо - значит имеет значение аудитория визитеров. У кого львиная доля на фоксах и операх - тот эффективнее?

Проще изначально задаться такими параметрами, как быстрая загрузка, грамотная перелинковка и т.д. Потому что эти вещи очевидны, даже не требуется доказывать их влияние на выдачу - просто они сами по себе являются хорошим тоном и обязательны при создании сайтов для людей.

У Вас в посте упоминается момент, что большое кол-во просмотров на посетителя положительно влияет на позиции. Большое кол-во это сколько? 5,10 или чем больше, тем, соответственно, лучше и нет потолка?

Опять же - как ПС узнает, что на сайте много посетителей?

Зависит от специфики сайта, но в любом случае, понятно, что "чем больше - тем лучше". Цифры были указаны, если у вас "обычный сайт" и кол-во просмотров больше, чем 3-5 на пользователя - это хорошо.

Касаемо определения таких параметров как посещаемость - посмотрите в админках Google, Яндекс и Bing - все они выдадут вам данные и по показам, и по кликам, из которых, как несложно догадаться - они всегда получат посещаемость. Правда, лишь по "одному поисковику" (хотя, вдруг - кто-то тоже парсит Ливинтернет ;) ), однако с посещаемостью у них точно проблем нет. А вот данные про "дальнейшее" поведение пользователя на сайте, которые могут быть получены с помощью Google Analytics и/или Яндекс.Метрика, точнее их использование ПС в ранжировании - это уже дискуссионный вопрос. Однако моё мнение, повторюсь, постоянно декларируемая Александром Садовским фраза: "Яндекс старается использовать любые доступные данные для ранжирования" однозначно обозначает, что эти данные используются. Да и иначе зачем бы так настойчиво продвигался бы данный бесплатный (и при этом весьма богато-функциональный) продукт. Аналогично и по Google.

Как раз на разговор о метрике и аналитиксе и хотелось выйти. =) Я тоже считаю, что надо ставить их обе(-оих). Просто интересно - можно ли повлиять на позиции сайта, нагнав трафика не из поисковиков (точнее - просто не могу найти конкретного примера)? Без счетчиков, ясное дело, ПС даже ничего и не узнает. А ведь хочется, чтобы ПС учитывали, что у сайта появляется постоянная аудитория, естественные ссылки, которые дают траффик и т.п.

И еще такой вопрос, раз уж речь пошла о количестве просмотров на посетителей и проценте отказов. Можно ли с ними в один ряд по важности поставить такие показатели как процент новых посетителей и среднее время проведенное на сайте?

Нагнав трафика нецелевого - вы увеличите посещаемость, но однозначно уменьшите другие "логично-важные" параметры типа того же количества просмотров на душу сайтонаселения. Потому в результате получите "один фиг" (т.е. "без изменений").
А вот получив увеличение целевого трафика, когда с увеличением посещаемости также будут увеличиваться (или просто не будут ухудшаться) другие "качественные" параметры (кол-во просмотров, время на сайте и т.п.) - вот тогда и получите плюс. Хотя это уже ситуация из разряда "и рамблеру понятно" (т.е. сайт популярен в "своей области" - что обозначает его качество).
Касаемо учёта-важности параметров "юзеровского поведения на сайте" - повторюсь, всё это из "весьма дискуссионной области". Потому разделять "кто-кому-сколько" я бы не стал, лишь подтвердив, что считаю их важными, просто потому, что они логично отображают качество сайта (в "хорошем смысле").

Добавить комментарий