Пару недель назад я заблокировал в роботс.txt модуль "load" из-за жалоб правообладателей. Поисковой трафик резко снизился соответственно. Но когда я ввел адрес страницы своего сайта в строку поиска гугл, он все равно показал страницу сайта, но при этом написано, что "описание страницы недоступно в файле robots.txt". Сижу и вот думаю, а если смысл таких манипуляций, может правообладатели все равно будут находить запрещенный контент, вроде несколько дней молчат?