Очень стало обидно за роботов атакующих один из моих серверов.
Сейчас бедолаги в DROP, а трафика им удается сгенерить всего 8MBps (в пике), чего даже для одной машинки
явно недостаточно. Безграничная тупость их создателей, передалась несчастным уродцам. Стал думать, как
провести годный DDoS, имея небольшое количество ботов?
Во-первых, неплохо бы собрать информацию об атакуемом сайте и запомнить его структуру - какие страницы
потяжелее, и какие страницы на них ссылаются (чтобы referrer правильно потом подставлять). И долбить не
одну единственную страницу, а случайную - на выбор, проходя к ней от корня сайта "по ссылкам". Во-вторых,
ботов нужно защищать до последнего, те же боты перед атакой могут накопать проксей и "честных" сайтов,
генерящих трафик на заданный хост (анонимайзеры, traceroute.org, pr-cy.ru и ему подобных), да тот же TOR!
Тянуть не только страницы, но и прилагающиеся к ним разносолы - скрипты, картинки и стили. Постоянно
проверять не изменилась ли цель - не сменилась ли A-запись. При появлении 404-х "искать" нужный сайт на
новом и старом IP. DNS запросы, анализ контента, сбор информации может делать отдельно стоящий бот,
выбираемый голосованием, и сообщать о результатах остальным. Эмулировать известные бока разных броузеров,
реакцию на gzip, keepalive и прочее. Регулировать мощность атаки - сайт лег, поддерживаем количество
запросов на заданом уровне. Максимально приблизить атаку к слешдот-эффекту.
Тестирование. Отладить на собственном сервере, попробовать по очереди разнообразные методы
противодействия атаке. Но боюсь, что если ботовод понимает, что он делает и зачем, то он в состоянии
накодить дельного червя и получить столько ботов, что они будут в состоянии завалить любую сеть
трафиком, и все эти ухищрения опять-таки окажутся не нужны. |