LINUX.ORG.RU
решено ФорумAdmin

[qemu] Потери пакетов между хостовой и гостевой системой

 


0

0

собственно сабж, странное поведение qemu

она используется для виртуализации одной офф-топик системы на сервере...

делаю пинг

--- 192.168.5.3 ping statistics ---
119 packets transmitted, 64 received, 46% packet loss, time 118339ms
rtt min/avg/max/mdev = 0.082/0.973/18.455/3.176 ms

настройки сети

qemu0     Link encap:Ethernet  HWaddr 6e:0b:20:74:94:c6
          inet addr:192.168.5.1  Bcast:192.168.5.255  Mask:255.255.255.0
          inet6 addr: fe80::a07e:daff:fec1:cdf5/64 Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:337693 errors:0 dropped:0 overruns:0 frame:0
          TX packets:449336 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:79238138 (75.5 MiB)  TX bytes:388168665 (370.1 MiB)

tap0      Link encap:Ethernet  HWaddr b6:bf:3a:5c:24:a5
          inet6 addr: fe80::b4bf:3aff:fe5c:24a5/64 Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:64312 errors:0 dropped:0 overruns:0 frame:0
          TX packets:90831 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:500
          RX bytes:38772237 (36.9 MiB)  TX bytes:17632360 (16.8 MiB)

qemu0 - бридж(мост)

система запускаеться таким скриптом

HDA="/var/vm/win/win.img"
HDB="/var/vm/win/hard.img"
MEM=1000
CPU="n270"

/usr/bin/qemu -enable-kvm -cpu $CPU \
-no-hpet -smp 1 -m $MEM \
-vnc :2 -net nic,vlan=0,model=rtl8139 -net tap,vlan=0 -localtime \
-hda $HDA -hdb $HDB &

в чем может быт подвох?

★★

и еще подняться в этой виртуалке с live-cd чтобы сравнить с виндой.
Допиши -boot d -cdrom live-cd.iso

sdio ★★★★★
()
Ответ на: комментарий от sdio

пробывал линух запускать там, таже история, потери есть

kam ★★
() автор топика
Ответ на: комментарий от true_admin

щаз поставил модель ника pcnet

--- 192.168.5.3 ping statistics ---
685 packets transmitted, 617 received, 9% packet loss, time 69289ms
rtt min/avg/max/mdev = 0.078/0.214/14.307/0.757 ms

пакеты очень странно пропадают, обычно так выглядит на физичиских серверах когда кто то выдергивает провод тоесть «все» нормально идет, а потом резко сразу куча потеряных, потом опять норм...и так повторяеться

kam ★★
() автор топика
Ответ на: комментарий от kam

и еще прикол нашел
если её не пинговать минут 5
а потом начать пинговать, то первые 10-20 пакетов почти 100% лост
а потом вроде оживает...
как будто вирт интерфейс спать уходит...странная ситуация...
мб что из за sysctl ?
вот что у меня в нем прописано отличное от стандартного

net.core.somaxconn=65536
#net.ipv4.tcp_no_metrics_save = 0
net.ipv4.tcp_fin_timeout = 30
#net.ipv4.tcp_keepalive_time = 600
#net.ipv4.tcp_orphan_retries = 4
#net.ipv4.tcp_tw_recycle = 1
#net.core.netdev_max_backlog = 5000
net.ipv4.tcp_syncookies = 1
#net.ipv4.tcp_max_syn_backlog = 2048
#net.ipv4.tcp_reordering = 20
#net.ipv4.tcp_congestion_control = cubic
#net.ipv4.tcp_sack = 0
#net.ipv4.tcp_synack_retries = 2
#net.core.rmem_max = 33554432
#net.core.wmem_max = 33554432
#net.ipv4.tcp_rmem = 8192 1048576 33554432
#net.ipv4.tcp_wmem = 8192 1048576 33554432
#net.ipv4.tcp_mem = 33554432 33554432 33554432
net.netfilter.nf_conntrack_max = 524288
net.ipv4.ip_local_port_range = 1800 65400
#net.ipv4.neigh.default.gc_thresh1 = 8192
#net.ipv4.neigh.default.gc_thresh2 = 8192
#net.ipv4.neigh.default.gc_thresh3 = 8192

kam ★★
() автор топика
Ответ на: комментарий от true_admin

БЛЯХА...точно!! спасибо =)))

web:~# arp -a
fragw1.gatewayrouter.net (217.20.117.1) at 00:12:44:2d:cc:00 [ether] on eth0
? (192.168.5.3) at 52:54:00:12:34:56 [ether] on qemu0
? (192.168.5.2) at 52:54:00:12:34:56 [ether] on qemu0

kam ★★
() автор топика

> /usr/bin/qemu -enable-kvm -cpu $CPU \

-no-hpet -smp 1 -m $MEM \

-vnc :2 -net nic,vlan=0,model=rtl8139 -net tap,vlan=0 -localtime \


-hda $HDA -hdb $HDB &



sed 's/model=rtl8139/model=virtio/g'
sed 's/-hda/-drive file=$HDA,if=virtio,media=disk,boot=on/g'
sed 's/&/-daemonize/g'

так будет гораздо лучше.

pupok ★★
()
Ответ на: комментарий от pupok

а винда virtio держит?

Ты тестил сетевой virtio? Оно раньше глючило, рекомендовали e1000 юзать, по тестам не сильно медленнее было.

true_admin ★★★★★
()
Ответ на: комментарий от true_admin

для винды (как и для Linux) нужны специальные драйвера, ссылка на неофициальную сборку есть на сайте kvm. Официально виндовые драйвера распространяются RedHat только среди подписчиков RHN (=кто заплатил деньги за RHEL), но пиратские копии есть в сети :).

Драйвера работают (пробовал с XP и вынь7), глюков не заметил, тестов не проводил. Но как-то сложно ожидать что специально заточенный virtio будет медленнее эмуляции железки.

pupok ★★
()
Ответ на: комментарий от true_admin

IMHO ту проблему поднял человек мягко говоря не слишком понимающий что он делает, не смотря на то что у него стоит «gentoo unstable».

Во-первых он запускает kvm через libvirt и потом жалуется (да, это типа должно быть удобно. Может если надо админить десяток виртуалок и удобно, но она не даёт доступа ко всем опциям qemu/kvm которые можно подкрутить. И к тому же почему-то запускает виртуалку из-под root, что странно с точки зрения безопасности).

Во-вторых этот умник меряет не скорость соединения хоста с гостем, а скорость соединения гостя с внешним миром. Так что проблема может вовсе не в гостевом драйвере virtio.

В общем — ламер :)

pupok ★★
()
Ответ на: комментарий от kam

а зачем? /dev/kvm и tap-устройства для бриджа должны принадлежать группе «kvm» — вот члены этой группы и должны иметь право запускать виртуалки на файлах-дисках которые им принадлежат.

pupok ★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.