iptables + ip_forward + iproute2 + nat проблемы на большой нагрузке
dolphin 15 октября, 2009 - 10:28
есть шлюз который пускает в интернет людей
порядка 1700 пользователей отправляются через него с инет
у всех серые адреса
есть небольшая биллинговая программа, iptables - для отключения интернета tc - ограничивает скорость абонентам
ближе к вечеру когда нагрузка возрастает в top можно увидеть что
один из процессов ksoftirq/* (* бывает - 3 бывает - 0 бывает - 6)
показывает использование CPU на 100%
при этом у людей педает скорость грубо с 10 до 1 ого мегабита
помогает перезагрузка но и то на часа 3
происходит все это в вечерние часы когда нагрузка возрастет: примерно с 19 до 0 часов
что можно с этим сделать подскажите пожалуйста
»
- Для комментирования войдите или зарегистрируйтесь
.
Здравый смысл подсказывает, что под большой нагрузкой начинает играть роль конфигурация ядра.
Форвардинг включён модулями?
Есть мнение, что монолитное включение даст некоторый выигрыш в производительности.
Как считать и насколько этот выигрыш может претендовать на достаточность --- вопрос.
ЗЫ: Версия ядра тоже не помешает.
:wq
--
Live free or die
А что за железо в этом шлюзе?
А что за железо в этом шлюзе?
Все что касается сети
Все что касается сети netfilter и QoS все скомпилино в ядро....
из модулей в системе пожалуй только raiserfs на случай если надо будет но не загружен,
ядро linux-2.6.30-gentoo-r6
что касается железа прямо точно не впомню но
что касается процов 2 ксона в районе 3х ГГц по 4 ядра и 2 гб оперативки
Вы используете jumbo frames?
Вы используете jumbo frames?
нет
нет
вот только что было
вот только что было снова....
сделал
и поставил irqbalance
через некоторое время (20 минут) проблема ушла ...
но думаю что просто совпадение
пардон про проц наврал
пардон про проц наврал
Может быть, по ссылке вы
Может быть, по ссылке вы найдете что-нибудь полезное
http://forum.nag.ru/forum/index.php?showtopic=46335
спасибо за ссылку .... пока
спасибо за ссылку ....
пока что после того как поменял проц обслуживающий карту таких проблем пока не наблюдалось....
пока мониторю...
Была таде самая проблема.
Была таже самая проблема. Решил при помощи разкидывания прерываний по процессорам.
eth0 на cpu0, eth1 на cpu1.
Использовал smp_affinity.
Если ничего не помогает, прочти наконец инструкцию...