Всех приветсвую. Давно хотел написать что-то подобное, но все не хотел =). Решил полазить интернет, нашол только 1 пример рабочих конфигов, но они были направлены на защиту какого-то самописного сервера. Я раскажу, как защитить сайт, с помощью iptables. Рекомендую ознакомится со следущим небольщим справочником: Iptables FAQ
Далее, немного расскажу, про основные виды защиты не только сайтов.
Я знаю, а точнее использую 2 способа защиты сервера от атак.
- Использование ipset для хранения IP зомби машин, и занос этих IP с использованием коммандлайнера раз в 60 секунд.
- Динамически с использованием модуля recent ограничивать запросы.
Также для начала необходимо немного настроить сам сервер, чтобы он не загибался при 5к запросов.
Эти значения подобраны потом и кровью и используются на сервере с 14 гигами памяти. Вам я рекомендую по уменьшать некоторые из них.
Устанавливаем число одновременных запросов на IP с префиксом/32 — максимум 15, остальное в DROP.
Создаем специальный сет для хранения IP. При больших потоках запросов, а также over 100 правил вида:
Вы будите иметь колосальную нагрузку на свой сервер, но это единственный вариант для OpenVZ виртуализации, все экзотические правила, требуют специальных модулей, просите свой саппорт чтобы они на вашу ВМ их подключили.
Преимущества ipset
Преимущества ipset
- В одном списке, не может быть одинаковых записей. В iptables это не запрещено, поэтому ухудшается отклик сетевой подсистемы.
- Один списко позволяет хранить до MAX_INT(65k) записей.
- Хранятся они в виде бинарного дерева(может быть и не так =) ), что позволяет снизить кол-во проверок до log(кол-во записей) в худшем случае.
Все мои коммандлайнеры предназначены для глобального access.log’а nginx’а. Если у вас другой вид записей, то тут уже правьте сами (:
Давайте рассмотрим ситуацию, когда ддосят на / сайта. В принципе особой разницы нет что и как ддосят ,просто правим немного grep запрос и все (:
В момент атаки на сервер сыпятся кучи таких запросов. Что нам нужно определить?
- Нужно найти IP который лезет на атакующий URL.(в данном случае на / сайта, хотя могут быть и /index.php /captcha.php и др.)
- Нашли, проверить что за последнии N записей в логе, он обратился к любому из этих URL более K раз. Тогда это наш клиент и мы его благополучно шлем по дальше.
Начинаем по маленьку парситть логи. Так как tail -f нам дает большую задержку с использованием grep, awk, cut пока не заполнятся их буферы на чтение, будем использовать tail -n N (кол-во строк которые смотрим)
Не забудьте в конечном варианте испроваить K на сколько вам нужно. На средних атаках, до 1к ботов я использую 15 на 10к строк логов.
Все. Можете запустить на своем сервере, ессно сменив example.org на ваш домен, и хотя вообще можете полностью выкинуть этот греп, на этапе создания коммандлайнера он не нужен. Далее выдергиваем IP адрес клиента.
На выходе получаем:
256.256.256.256
Это всего лиш гипотетический пример, поэтому смотрите в оба (:
Далее, нам нужно проверить, что все ипы у нас встречаются не более К раз, если такое случилось сразу его в магадан =)
Выход такой:
1 256.256.256.256
Первое число, кол-во повторений, второе сам IP. Далее awk выдергиваем то что нам нужно (:
Вот и все. Мы получили IP тех, кто встретился нам более К раз. Осталось только его забанить.
На выходе увидете всякое разное (: .
Перед началом написания коммандлайнера, нужно проверить какие запросы шлются на сервер:
Перед началом написания коммандлайнера, нужно проверить какие запросы шлются на сервер:
Если по какойто причине у вас атакующих ссылок несколько, а может быть что в конце ссылки стоит рандомное число, то вот тут нужно по другому делать
Есть еще один вариант, когда /index.php?123456789 куча цыферок. Вот в данном случае есть только 1 способ это все выдернуть, никакие iptables не помогут. Там нет регепсов.
Ну а если я не разобрал ваш пример, пишите в комментарии, давайте урлы, или полностью строчки с логов, я и для них напишу паттерн. Чтобы ддосеры не спали, и занимались тренировкой мозгов.
Вроде бы первый способ я озвучил. Давайте займемся вплотную Iptables
recent match doc
Читаем брошурку и понимаем. Также можете посмотреть на nth match. Очень интерстный, но я пока не придумал как его в нашей ситуации можно использовать, если вы знаете, пишити в комментариях.
Читаем брошурку и понимаем. Также можете посмотреть на nth match. Очень интерстный, но я пока не придумал как его в нашей ситуации можно использовать, если вы знаете, пишити в комментариях.
Вот тут уже не получится фильтровать сразу за раз несолько урлов, и каждое правило применяется абсолютно ко всем доменам, так как действует на уровне всего сервера.
Данные 2 правила делют следущее:
Приходит пакет, если в нем есть «GET / HTTP», то обрабатывается слудущим модулем — recent. Если этого нет, то идет на следущее правило. Записали в память. Если в течении 10 секунд с этого IP еще раз придет запрос который удовлетворит GET / HTTP, то тогда этот запрос идет в DROP. Вот и весь смысл. Все просто, просто нужно чуточку почитать документацию, и погуглить, уже есть куча решений, но не всегда то что вам нужно.
Приходит пакет, если в нем есть «GET / HTTP», то обрабатывается слудущим модулем — recent. Если этого нет, то идет на следущее правило. Записали в память. Если в течении 10 секунд с этого IP еще раз придет запрос который удовлетворит GET / HTTP, то тогда этот запрос идет в DROP. Вот и весь смысл. Все просто, просто нужно чуточку почитать документацию, и погуглить, уже есть куча решений, но не всегда то что вам нужно.
Есть одна проблема с модулем recent. Это количество запоминающихся IP адресов по дефолту.
ip_list_tot = 100. для этого нам нужно сделать
При большом количестве pps при большом количестве этого параметра, ksoftirq процесс может начать жрать кучу CPU.
ip_list_tot = 100
Просмотреть количество записей в данный момент можно с помощью команды:
Одно главное замечание, все это применимо к Debian Lenny. Как все это использовать в франкенштейне CentOS пинайте, пожалуйста не меня, а гугл.
Комментариев нет:
Отправить комментарий