Яндекс.Вебмастер - дубли

голоса: 0
Приветствую. Вопрос таков. Я добавляю файлы в каталог файлов и потом дублирую на форуме этот же файл. Можно ли так делать?  Сейчас я посмотрел и увидел много дублей http://prntscr.com/goq4qm с одинаковым названием.  http://gamods.ru/load/gta_san_andreas/skiny/ballas1/8-1-0-327  http://gamods.ru/load/gta_san_andreas/skiny/ballas1/8-1-0-322  И как я понял они исключены из поиска Яндекс. Но что же мне делать и как вернуть их? Название этих файлов подругому не написать и таких файлов очень много с одинаковыми названиями и даже допустим придумывать для каждого файла нереально. Что же мне делать?
Адрес сайта gamods.ru
| Автор: | Категория: Яндекс Вебмастер
Изменение категории | | Автор: webanet

Ответов: 1

голоса: 0

это у вас страницы пагинации каталога файлов на скрине изображены. удалите из файла robots.txt строчку

 Allow: /*?page

и проблема решится

| Автор:
А можно ли с каталога файлов добавлять эти же файлы на форум? Лучше ли будет для сайта и форума? Или лучше не делать так?
можно, добавляйте, только описание делайте чуть по-другому что-то типа обсуждения. и не будет проблем. копировать точь в точь не стоит.
webanet,

Мне вот Яндекс Поддержка предложила сделать

Попробуйте изменить код этих страниц так, чтобы оставить для робота только уникальный, не повторяющийся контент. Сделать это можно, добавив на страницы больше уникального описания, либо при помощи тега <noindex>: поместите в него те части страницы, которые одинаковы для всех похожих страниц сайта (например, меню, заголовки и т.п.).

Уникальный текст сразу отпадает, а вот <noindex>. Я прочитал, что он не индексирует текст, а сам материал будет проиндексирован? Или это тоже не вариант?

webanet,

Вот ещё


В качестве альтернативного решения Вы можете явно указать роботу, по какому адресу страницы должны индексироваться и участвовать в поиске, например, прописав в коде дублирующих страниц атрибут rel="canonical" тега , содержащий их канонический адрес ( https://yandex.ru/support/webmaster/controlling-robot/html.html#canonical ). По мере обхода сайта робот отследит эти изменения, и страницы станут участвовать в поиске по необходимому адресу. Подробнее об обработке перенаправлений Вы можете узнать в нашей Помощи: https://yandex.ru/support/webmaster/robot-workings/managing-redirects.html .

я предложила вам сделать по второму варианту, но через файл роботс. сделайте как я сказала
webanet,
Так и должно быть?  http://prntscr.com/gpv2hw  http://prntscr.com/gpv2qc  http://prntscr.com/gpv2t0  За место 11 страниц исключенных, стало 14)
второй и третий скрин - это запрет на индексирование страниц пагинации. вам же это мешало. посмотрите на свой вопрос и мой ответ. по первому скрину мне нужны адреса исключенных страниц форума
в этих темах нет текста вообще и одинаковые названия. поэтому в глазах робота это истинные дубли. если не можете писать текст в своих темах, то хотя бы давайте разные названия
webanet,

в том то и дело, что таких файлов 1000+
название у них одинаковое, но в игре они разные, поэтому название и текст никак не придумать разные

...