У меня дублируются страницы /?page2, /?page3, и так далее , стоит ли запрещать индексировать это в robots.txt и как ?

голоса: 0
У меня дублируются страницы /?page2, /?page3, и так далее , стоит ли запрещать индексировать это в robots.txt и как. Не навредит ли это сайту ?
Адрес сайта festkino.net
| Автор: | Категория: SEO

Ответов: 2

Голоса: +1
 
Лучший ответ

Добавьте номера страниц в титл модуля Каталог файлов

страница <?(substr($CURRENT_PAGE$,(strpos($CURRENT_PAGE$,'">')+2))*1)?>

и дублироваться не будет

| Автор:
Выбор ответа лучшим | | Автор: Yuri_Geruk

дно у меня дублируется много  /?page2  /?page3  /?page4 и так далее. Тогда что ?

что такое дублируются?
webanet,
много выбивает главной страце в поиске попробуйте например http://festkino.net/?page2 или http://festkino.net/?page3 нет разницы
голоса: 0
Поведенческим факторам навредит и на статистике сайта это скажется, запрещать не стоит так как роботы ходят по этим страницам и индексируют материалы.

Если все страницы проиндексированы, то не стоит запрещать, можно запретить лишь перед тем как добавляли сайт в поисковые системы, а после уже поздно и вредно.
| Автор:

Юрий у меня есть например страница статтей и регистрации я их тепер запретил она мне не нужна я ее запреттил в роботс txt говорят что это мусор и так можно делать. И еще одно что сделать чтобы /?page2 не дублировались ?

...