Есть ли смысл прятать неуникальные статьи?

голоса: +4
На сайте необходимо добавить 200-300 статей чтобы пользователям было что почитать(свои уникальные статьи пишу но медленно у меня получается) хочу взять с разных сайтов статьи, понятное дело они не будут нормально ранжироватся и от греха подальше хочу их вообще спрятать от поисковых систем(дабы не попасть в бан, фильтра или еще какуюто ср***).
Есть варианты закрыть страницы с этими статьями через robots.txt, мета тегом или просто обернуть тегом noindex(ток для яндекса вроде).
Как лучше ето сделать чтобы как бы вообше ниче не видели боты?
И будут ли видны ссылки на етих страницах на первоисточник?
| Автор: | Категория: SEO

Ответов: 1

голоса: +7
 
Лучший ответ
Лучше пишите сами. Медленно, но верно. Потому что полностью скрыть от поисковика можно только в одном случае. Забрать права на просмотр гостями. А если забрать права, индексироваться ничего не будет и сайт по мнению робота будет пустым. А насиловать пользователей предложением зарегистрироваться чтобы почитать неизвестно что тоже плохой вариант на который пользователи не идут. Получается везде тупик.

Не спешите. Пишите сами. Не надо копировать. Если все же есть необходимость в копировании, то делайте все вперемешку, то есть две свои статьи можете разбавить одной-двумя скопироваными. Но сразу ненужно накачивать сайт скопированным материалом

Сылки на первоисточник можно проксировать. Подробнее http://forum.ucoz.ru/forum/33-34620-1#992962
| Автор:
Выбор ответа лучшим | | Автор: Yuri_Geruk
Спасибо за совет. =(
...