Следите за новостями любимого конструктора сайтов uCoz в социальных сетях!
Здравствуйте. Не уверен, что правильно выбрал подкатегорию "seo модуль", но тем не менее. Как известно, несколько лет назад в каталогах контент модулей на ucoz изменились параметры при переходе с первой страницы на вторую, пятую. десятую и т.д. Сейчас это выглядит так: https://www.uchportal.ru/load/?page3 или https://www.uchportal.ru/load/?page12 и так далее. Раньше выглядело как то с помощью цифр без слова "page" Есть несколько вопросов.
Никак не избавиться. В вашем случае рекомендовал бы отредактировать файл роботс: https://www.uchportal.ru/robots.txt и удалить директиву:
Allow: /*?page
в результате все дубли будут запрещены к индексации директивой Disallow: /*? и большая часть ненужного мусора вылетит с поиска.
Но тогда вылетят и нормальные страницы каталога фалов типа https://www.uchportal.ru/load/?page3 или https://www.uchportal.ru/load/?page12
Подумаю, попробую, спасибо.
Еще тогда вопрос по robots.txt
Есть в стандартном robots.txt такая строка Disallow: /*-0-0- Запрещает индексацию страниц с различными фильтры (с дублями) и т.д.
Вот у меня делема. С одной стороны я убрал эту строку давно и настроил через условные операторы, чтобы для кадого из значений фильтра выводилтсь уникальные title и description
С другой стороны не уменьшает ли это вест страницы категории. Например страница с фильтром, которая доступна для индексации:
https://www.uchportal.ru/load/25-1-2-0-0-8-0 и вот основная страница https://www.uchportal.ru/load/25
Как считаете, стоит ставить ограничение на страницы с фильтрами в robots.txt?