Как убрать дубли главной страницы

голоса: 0
Здравствуйте, скажите, как правильно запретить от индексации страницы пагинации главной сайта, но не трогать при этом остальные? Например, /?page1 и выше - запретить, а скажем страницы /news/?page1 и выше - не трогать. Директива Disallow: /*?page, как я понял запрещает к индексации всю пагинацию, а не выборочно.
| Автор: | Категория: SEO
Изменение категории | | Автор: Yuri_Geruk

Ответов: 1

голоса: 0
Для какого конкретно модуля вам нужно? Больше подробностей опишите и сайт пример уточните, после будем смотреть как вам помочь.
| Автор:
Хорошо, более подробно.  Раньше на главной выводило каталог файлов, и там дублей не было технически. То есть на 2-й стр. например, приписывалось к тайтлу и дескрипшену "Страница 2" и т.д. Потом купил шаблон новый на utemplate.pro, доработал его, и теперь на главной открывается главная, и там информером все выводит. Все продумано. А пагинации на главной больше нет - уже не нужна. Но в индексе много страниц старых, типа - https://мой-сайт.ru/?page1,2,3,4 и т.д. И теперь они идут уже, как дубли главной со 100% сходством. Хорошо что сразу поставил каноникал на главную временно, перед сменой структуры сайта, хотя туда его обычно не ставят. Яндекс тот же не спешит пока выкидывать дубли из индекса, а вчера еще и пару новых добавил откуда-то (/?page32, /?page33, /?page34). На каконикал ему походу плевать. Через вебмаестер почему-то не могу удалить дубли, пишет "Отклонено". Адрес сайта скинул на почту Вам.
Gfox,

Для отдельных модулей проблемно разрешить. В роботсе удалить директиву:

Allow: /*?page

после на всем сайте пагинация будет запрещена и дубли (ненужный мусор подобно страница 1 - страница 2) начнут очищаться с индекса. Смысла от таких страниц нет, лишь мусорная выдача, сайт в выдаче в итоге будет чисто отображаться без хлама.

  • Добавлю, то что мы удалим эту директиву и запретим индексацию пагинации, мусора в виде переключателей, мы не запрещаем роботу сканировать сайт и ходить по страницам, он имеет доступ к всем ссылкам сайта и будет индексировать все успешно.
Yuri_Geruk,

Да, спасибо, наверно так и сделаю потом, если Яндекс будет продолжать игнорировать каноникал, и не выкинет дубли сам. Я просто думал, что можно отдельно запретить. Еще, как вариант, думаю через Сео-модуль редиректы просто поставить со всех дублей на главную. Их где-то сейчас около 40 страниц проиндексировано, а новые все-равно не должны появится потом, раз пагинации нет больше на главной.


И еще, если я скажем поставлю на главную - <?ifnot($REQUEST_URI$ = "/")?><meta name="robots" content="noindex, follow"/><?endif?> оно будет корректно работать? Не опасно это? А то обычно решишь одну проблему, а на её месте еще две появются, и посерьёзней.

Gfox,
Нет на главную ничего такого ставить не нужно, сделайте как говорил, этого достаточно.
...