Существует ресурс сайта \, который предлагает некоторую общую статистическую информацию, а также интерфейс для средств поиска. Эти операции поиска являются дорогостоящими, поэтому я хочу ограничить частые и непрерывные (т.е. Автоматические) поисковые запросы (от людей, а не от поисковых систем).
Я считаю, что существует много существующих технологий и рамок, которые выполняют некоторую защиту от захвата интеллекта, поэтому мне не нужно изобретать колесо. Я использую Python и Apache через mod_wsgi.
Я знаю mod_evasive (попытаюсь использовать его), но меня также интересуют любые другие методы.
Если кто-то охотится именно на ваш сайт и данные там действительно достойны - ничто не остановит достаточно умного атакующего в этом случае.
Хотя есть некоторые вещи, которые стоит попробовать:
Вы можете попробовать файл robots.txt. Я считаю, что вы просто положили его в корень вашего приложения, но на этом сайте должны быть более подробные сведения. Синтаксис Disallow
- это то, что вы ищете.
Конечно, не все роботы уважают это, но все должны. Все крупные компании (Google, Yahoo и т.д.) Будут.
Вы также можете быть заинтересованы в этом вопросе о запрете динамических URL-адресов.