Всем привет! Суть такая, роботы атакуют сайт. 90% всех посещений идут на 2 страницы. Я их удалил, в поиске они особо не ранжируются. Однако при переходе срабатывает 404 ошибка, т.е. робот все равно на сайт попадает. Подскажите как полностью заблокировать доступ к определенным страницам сайта, например через .HTACCESS? Всем спасибо за советы!