Файл Sitemap содержит URL, доступ к которым заблокирован в файле robots.txt.

голоса: 0

При добавлении в гугл. Система пишет. Вот robots

 User-agent: * Allow: /*.js Allow: /*.css Allow: /*.jpg Allow: /*.png Allow: /*.gif Allow: /*?page Allow: /*?ref= Disallow: /*? Disallow: /stat/ Disallow: /index/1 Disallow: /index/3 Disallow: /register Disallow: /index/5 Disallow: /index/7 Disallow: /index/8 Disallow: /index/9 Disallow: /index/sub/ Disallow: /panel/ Disallow: /admin/ Disallow: /informer/ Disallow: /secure/ Disallow: /poll/ Disallow: /search/ Disallow: /abnl/ Disallow: /*_escaped_fragment_= Disallow: /*-*-*-*-987$ Disallow: /shop/order/ Disallow: /shop/printorder/ Disallow: /shop/checkout/ Disallow: /shop/user/ Disallow: /*0-*-0-17$ Disallow: /*-0-0-  Sitemap: http://.smp3s.ru/sitemap.xml Sitemap: http://.ru/sitemap-forum.xml


Например http://www.domuzika.smp3s.ru/publ/trans_muzyka/va_addictive_sounds_addictive_sounds_podcast_172_2018_0_06_mp3_mixed/10-1-0-17

| Автор: | Категория: SEO

Ответов: 1

голоса: 0

Данный материал просто совпал по айди в конце 10-1-0-17 под директиву:

Disallow: /*0-*-0-17$

как вариант решения, пропишите в роботс директиву:

Allow: /publ/*0-*-0-17$

| Автор:
а конфликта не будет если у меня индексируются страницы в яндексе?
Андрей Рыбаков #2,
не будет. строчкаразрешает индексацию указвнного адреса для всех поисковиков
webanet,

Всё равно ошибка выходит! Что делать?

Может это убрать? Disallow: /*0-*-0-17$

Андрей Рыбаков #2,
Ошибки нет http://joxi.ru/eAOzqXJTxvRvp2 теперь лишь ждать переиндексацию со стороны поисковиков, моментально ничего не происходит.
Yuri_Geruk,
я прогугл говорю!
Андрей Рыбаков #2,
Ждать нужно, робот моментально не индексирует все изменения.
...