количество пользователей nat
Подскажите, какое оптимальное количество пользователей можно «прикрыть» одним реальным ип адресом(NAT)?
Подскажите, какое оптимальное количество пользователей можно «прикрыть» одним реальным ип адресом(NAT)?
Помогите понять почему
Время от времени появляется такая ситуация на 5 - 10 минут вечером в это же время многие жалуются на потери пакетов
Unicast reply from 10.0.40.115 [00:1E:E5:59:8C:45] 728.537ms
Unicast reply from 10.0.40.115 [00:1E:E5:59:8C:45] 368.519ms
Unicast reply from 10.0.40.115 [00:1E:E5:59:8C:45] 368.519ms
Unicast reply from 10.0.40.115 [00:1E:E5:59:8C:45] 188.510ms
.....................................
Unicast reply from 10.0.40.115 [00:1E:E5:59:8C:45] 32.502ms
Unicast reply from 10.0.40.115 [00:1E:E5:59:8C:45] 852.544ms
Unicast reply from 10.0.40.115 [00:1E:E5:59:8C:45] 852.544ms
Unicast reply from 10.0.40.115 [00:1E:E5:59:8C:45] 664.534ms
Unicast reply from 10.0.40.115 [00:1E:E5:59:8C:45] 0.500ms
Unicast reply from 10.0.40.115 [00:1E:E5:59:8C:45] 0.500ms
Unicast reply from 10.0.40.115 [00:1E:E5:59:8C:45] 0.500ms
А дальше все отлично по 0.500ms
И так на любой хост на устройстве eth0 (побит на вланы)
В топе в этот момент ничего не меняется по iptraf тоже нет никаких всплесков
top - 00:35:29 up 1 day, 1:24, 1 user, load average: 0.24, 0.15, 0.10
Tasks: 89 total, 2 running, 87 sleeping, 0 stopped, 0 zombie
Cpu0 : 0.6%us, 0.2%sy, 0.0%ni, 92.7%id, 0.8%wa, 0.9%hi, 4.8%si, 0.0%st
Cpu1 : 0.6%us, 0.3%sy, 0.0%ni, 83.2%id, 0.0%wa, 3.3%hi, 12.7%si, 0.0%st
Mem: 1539588k total, 900136k used, 639452k free, 209568k buffers
Swap: 1052216k total, 0k used, 1052216k free, 221012k cached
Шейпер
Основные 2 класса
tc qdisc add dev eth0 root handle 1: htb default 1000
tc class add dev eth0 parent 1: classid 1:1 htb rate 18300kbit quantum 18000 # burst 20k
tc class add dev eth0 parent 1: classid 1:2 htb rate 70000kbit quantum 18000 # burst 20k
tc class add dev eth0 parent 1:1 classid 1:1000 htb rate 16kbit quantum 1500 # DEFAULT CLASS
Абонентские
tc class add dev eth0 parent 1:2 classid 1:4216 htb rate 16kbit ceil 4096kbit quantum 3000 # burst 12
tc filter add dev eth0 protocol 802.1q parent 1: prio 2 u32 match ip dst 10.0.40.216 at 20 flowid 1:4216
tc filter add dev vlan740 parent ffff: protocol ip u32 match ip src 10.0.40.216 police rate 1024kbit burst 128k drop flowid :4216
И так на каждого всего 400
На сетевой работают разные вланы абсолютно одинаковая проблемма на всех вланах
Сначала подумал на сетевую, поменял - не помогло
Порт свича и патч корд - не помогло
Сам свитч (пользуясь случаем) - - не помогло
! Заметил очень интересную особенность когда переписал vlan с другой сетевой на эту сетевую с ним началась таже история !
Возможно ли организовать ограничение количества писем в минуту (или 10 мин) на каждый ip из подсети ползователей ? Если не то на каком mta такая возможность есть ?
Подскажите, есть ли возможность "повесить" dhcp на несколько вланов, при этом кажому влану выдавать свою подсеть например: vlan500 - 10.0.0.0/24 router 10.0.0.1 vlan501 - 10.0.1.0/24 router 10.0.1.1 vlan502 - 10.0.2.0/24 router 10.0.2.1 Спасибо
mb foxconn, cpu amd x2 3800+ (35 Вт), 512 ram Уже незнаю на что думать. Задачи элементарны iptables на 100 правил, tc комманды около 50 шт, и каджые 5 минут mrtg генерит отчет. Зависает примерно раз в 1-2 недели. в var/log/messages все чисто. службы лишнии отключены. chkconfig --list | grep 3:on apache2 atd cron dbus fbset fw haldaemon hddtemp kbd lm_sensors named network nscd policykitd random resmgr running-kernel smpppd splash splash_early sshd syslog Есть небольшое подозрение на hdd smartctl -a /dev/hda | grep Error Error: UNC 3 sectors at LBA = 0x001f0024 = 2031652 Error: WP at LBA = 0x0015757f = 1406335 WP at LBA = 0x0015757f = 1406335 ......... Помогите плиз, какие есть варианты???
Сервер + шлюз на 30 - 50 пользователей. Его задачи: - iptables несколько правил + nat - tc комманда на каждого (скорее всего HTB) - apache нагрузка невысока - DNS на одну зону, остальные - forward на провейдера - NTP для локалки
У когото есть опыт использования opensuse как серверной? В её ядре параметры типа kernel.pid_max kernel.pty.max kernel.threads-max и т.д. отличаются от SLESa ? Как со стабильностью ? Или лучше взять SLES ? PS. Подключене к провайдеру по pppoe mtu = 1492 а в локалке 1500 надо-ли с этим игратся, перебить на всех раб станциях 1492, или на шлюзе со стороны локалки ? Заранее спасибо за любые комментарии и любую помощь.