Защита сайта от сканеров
Система управления контентом RUEN содержит некоторые экспериментальные функции, помогающие бороться с действием некоторых сканеров – автоматических программ, нацеленных на сканирование сайтов для каких-либо задач. От ряда сканеров можно предохранить сайт посредством настройки индексации (инструкции robots.txt), от всех или почти всех – через настройку сервера (конфигурация .htaccess), но одно другого сложнее, требует определенных знаний и без должной отладки может не срабатывать в различных ситуациях.Системное меню Система Защита от сканеров
Добавленные параметры
Система управления контентом защищает сайт, его внутреннюю статистику и индексацию поисковыми системами от дублирующих страниц, возникающих из-за передачи на сайт добавленных параметров. Защита выполняется посредством переадресовывания на страницу без добавленных параметров:- Параметры после «?»
- Параметры после «+»
Данной функцией необходимо пользоваться, если в индексе поисковых систем появляются дублирующие страницы, имеющие тот же адрес, но с разными добавленными параметрами. А также в случае, если в значительных объемах появляются ссылки на страницы с такими добавленными параметрами.
Важно: данная функция в некоторых случаях может навредить нормальное функционирование партнерских программ.
Валидаторы
Система дает возможность закрывать доступ от проверки валидаторами кода:- Validator W3
- Validome
Для более гибкой настройки запрета доступа сканеров к сайту можно воспользоваться настройкой сервера.