Как убрать грубую ошибку директива Host в файле robots.txt

голоса: 0

У меня при проверке сайта встегда выдатаёт одну из грубых ошибок 

Директива Host в файле robots.txt помогает поисковым системам правильно распознавать основной домен сайта, тем самым защититься от случайного возникновения зеркал сайта.

Директива 'Host' не гарантирует выбор указанного главного зеркала, тем не менее, алгоритм при принятии решения учитывает ее с высоким приоритетом. Пример:

User-Agent: *
Host: www.glavnoye-zerkalo.ru


помогите что нужно сделать ?как убрать эту дерективу

Адрес сайта www.privatepaty.ru
Закрыто с пометкой: Вопрос решен!
| Автор: | Категория: Яндекс Вебмастер
Закрыт | | Автор: Yuri_Geruk

Ответов: 1

голоса: 0

Ее и так нет http://www.privatepaty.ru/robots.txt а по рекомендациям яндекса ее добавить нужно, а не убрать так как яндекс никогда убрать ее не советует, лишь добавить:

Host: privatepaty.ru

| Автор:
Что сделать то ,так и непонял -где куда  это добавить?
Артём Александров,

Перейти в файловый менеджер http://www.privatepaty.ru/panel/?a=fm найти файл robots.txt напротив файла жмем иконку ключика / карандаша, файл откроется на редактирование, в самый низ файла пропишите директиву:

Host: privatepaty.ru

сохраните изменения и готово.

Yuri_Geruk,

Да изменил получилось ,но меня смущает что у меня два файла  robots.txt  

robot.txt 46 bytes 2017/08/25
robots.txt 605 bytes 2017/08/25
Артём Александров,
Первый удалите так как он неправильный, второй что называется robots.txt это правильный, его оставьте.
Yuri_Geruk,
Спасибо навели порядок)
Артём Александров,

Чуть исправьте хост, замените:

Host: privatepaty.ru

на:

Host: www.privatepaty.ru

так более правильно.

...