Привет
Прежде чем писать тут свернул себе голову.)) Поиск результата не дал.
И так по порядку:
Есть серверы в hetzner на которых крутится CentOS 6.4 c гипервизором KVM. В качестве гостей я поднимаю на них UNIX и Windows. А тут мне понадобилась поднять Debian 7.0.0. И я столкнулся с паронормальным для меня явлением) Во всех ОС сеть работает на максимум т.е на все 400Мбит/с которые дает ДЦ, а в Debian 7 см. ниже
Краткие обозначения
Debian 6.0.7 нода 1 ДЦ 16 Hetzner=VM1
Debian 7.0.0 нода 1 ДЦ 16 Hetzner=VM2
Debian 6.0.7 нода 2 ДЦ 19 Hetzner=VM3
1 Закачиваю файл VM1 с серверов других ДЦ которые тоже находятся в Германии. Выдает 400Мбит/с
2 Закачиваю этот же файл на VM2 выдает 25Мбит/с притом держится стабильно как будто есть ограничения
3 Далее пробую протестировать скорость утилитой iperf между vm2 и vm3 выдает скорость 400Мбит/с
4 Пробую скачать файл VM2 по Фтп с vm1 и vm2 выдает тоже 400 Мбит/с
Я также пробовал скачивать vm2 ссылки по http и по ftp с разных стран и не смотря на то что vm1 и vm2 находятся на одной ноде, скорость скачивания разница в 5-10 раз. Я заметил что очень большое влияние оказывает количество шлюзов до источника хранящего файл, т.е из России на Debian 7 скорость не превышает 20 Мбит/с, а вот на Debian 6.0.7 поднимается до 200-400 Мбит/с.
Отсюда вопрос что не так с Debian 7.0.0?
Сетевые драйвера использую virtio. Debian 7 ставил из шаблона и ISO.
Конфиги сети:
Файл ifcfg-eth0
DEVICE=eth0
BOOTPROTO=none
ONBOOT=yes
HWADDR=50:46:3d:9f:4e:e3
IPADDR=144.76.yy.xxx
NETMASK=255.255.255.255
SCOPE="peer 144.76.yyy.001"
Файл ifcfg-br0
DEVICE=br0
ONBOOT=yes
TYPE=Bridge
BOOTPROTO=none
IPADDR=78.46.yyy.001
NETMASK=255.255.255.224 # adjust this accordingly. This is for a /27 subnet
STP=off
DELAY=0
Вывод команды ifconfig
br0 Link encap:Ethernet HWaddr FE:16:3C:45:C5:E8
inet addr:78.46.yyy.xxx Bcast:78.46.yyy.xxx Mask:255.255.255.224
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:1716 errors:0 dropped:0 overruns:0 frame:0
TX packets:45652 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:443608 (433.2 KiB) TX bytes:1921283 (1.8 MiB)
eth0 Link encap:Ethernet HWaddr 50:46:3d:9f:4e:e3
inet addr: 144.76.yy.xxx Bcast: 144.76.yy.xxx Mask:255.255.255.255
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:46252 errors:0 dropped:0 overruns:0 frame:0
TX packets:26882 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:10712061 (10.2 MiB) TX bytes:5339108 (5.0 MiB)
kvm182.0 Link encap:Ethernet HWaddr FE:16:3C:45:C5:E8
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:1718 errors:0 dropped:0 overruns:0 frame:0
TX packets:46956 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:500
RX bytes:467812 (456.8 KiB) TX bytes:2007021 (1.9 MiB)
[root@kvm3gm network-scripts]# route
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
static.129.33.7 * 255.255.255.255 UH 0 0 0 eth0
78.46.yyy.xxx * 255.255.255.224 U 0 0 0 br0
link-local * 255.255.0.0 U 1002 0 0 eth0
link-local * 255.255.0.0 U 1003 0 0 br0
default static.129.33.7 0.0.0.0 UG 0 0 0 eth0
Повторюсь на других ОС при такой конфигурации сеть функционирует нормально.