Найдётся всё!

дубли страниц

3 рабочих способа избавления от дублей и почему среди них нет robots.txt

3 рабочих способа избавления от дублей и почему среди них нет robots.txt

Про дубли и robots.txt писалось многократно. Однако нужно понимать тонкости работы этих вещей и то, как с ними работают поисковики. Если для Яндекса содержание файла robots.txt - прямое руководство к действию, то для Google это не более чем ваша рекомендация, которой он совершенно не обязан "подчиняться". В результате такое отношение "в народе" характеризуется выражением "Google забивает на роботов". И это именно так, но лишь в том, что мы (по недопониманию) ожидаем от него, предполагая (надеясь), что он будет действовать "как Яндекс".

Операция "убить дубли навсегда" (в Друпале)

Операция убить дубли

Устал бороться с постоянно появляющимися дублями типа:

http://noindex.by/drupal/yandeks-poisk-dlya-drupala?page=62

Жирным подчёркнуто "добавленное" к реальной странице, что порождает дубль.

Дубли в Гугле из-за комментариев

Дубли страниц в Google могут быть и "из-за комментариев", как видно на картинке. Для того, чтобы увидеть подобные проблемы - заглядывайте в гуглоадминку в раздел "Диагностика"-"Предложения HTML" и прошерстить "Повторяющиеся заголовки (теги title)".

Анти-АГС или боремся с дублями, часть первая - проверяем параметры URL-ов индекса

Настройка параметров URL в Google
Продолжаем оптимизировать свой сайт (на примере данного). Ранее мы уже (с)делали:
Теперь, чтобы не загреметь под АГС - проверим и настроим параметры URL-ов на сайте.
Подписка на RSS - дубли страниц Подписка на NOINDEX.by - Все комментарии