Удаление дублей страниц с помощью мета-тегов и robots.txt

голоса: 0
Здравствуйте! Яндекс.вебмастер выдает мне список страниц-дублей. Скажите, пожалуйста, можно ли убрать дубли если прописать в robots.txt такие строки как Disallow: /*&*  и Disallow: /?ssid=  А так же, если добавить на страницы мета-тег <link rel="canonical" href="quaer.ru"> Спасибо!
Адрес сайта masterica.ucoz.org
| Автор: | Категория: Вопросы новичков

Ответов: 1

Голоса: +1
 
Лучший ответ
Директиву Disallow: /?ssid= замените на Disallow: /*? так как это более универсальная директива для блокирования мусора, чтобы советовать что-то более конкретное по дублям и как их избежать, нужны конкретные примеры, что именно пишет яндекс, увидеть ссылки на примеры дублей итд.
| Автор:
Выбор ответа лучшим | | Автор: Ксю
...