Дано. Есть два ноды ESX 5.1 объединенных по гигабиту, на одной поднята виртуалка с client, на второй подняты две виртуалки nfsserver, smbserver, причем последние сидят на одном и том же физическом диске.
Везде используется CentOS 6.7
На nfsserver экспортирована директория
/opt/backups/vm001 cl.i.e.nt(rw,sync,no_wdelay,all_squash,anonuid=500,anongid=502)
На client директория монтируется с опциями по умолчанию
# cat /etc/fstab
nfs.ser.v.er:/opt/backups/vm001 /opt/backups nfs4 defaults 0 0
# cat /proc/mounts
nfs.ser.v.er:/opt/backups/vm001 /opt/backups nfs4 rw,relatime,vers=4,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,port=0,timeo=600,retrans=2,sec=sys,clientaddr=cl.i.e.nt,minorversion=0,local_lock=none,addr=nfs.ser.v.er 0 0
Заходим на nfsserver запускаем тест локальной записи pv /dev/zero >zerofile.bin
видим цифры порядка 2,42GB 0:00:23 [99,6MB/s]
, что так же подтверждается в показаниях atop
Заходим на client в смонтированную директорию запускаем тест nfs чтения pv some_file_from_nfs >/dev/null
видим цифры порядка 1,9GB 0:00:06 [52,8MB/s]
, что так же подтверждается в показаниях atop на nfsserver
Теперь выполняем тест записи на nfs с client pv /dev/zero >zerofile.bin
видим во первых стандартную «пилу» когда скорость заипись постоянно прыгает от нормальных цифр до килобайт 1,37GB 0:00:26 [2,19MB/s]
, а во вторых atop на nfsserver показывает что запись идет в коридоре 13MB/s - 17MB/s, выше 18MB/s практически не поднимаясь.
Для доп. проверки цепляем на client директорию с smbserver и повторяем эксперимент. Получаем 1,45GB 0:00:18 [56,7MB/s]
и анологичные показатели записи в atop.
Опцию no_wdelay, которую как правило применяю для сглаживания «пилы», отключал но результат не изменился.
Резонный вопрос где могла порытся собака и куда смотреть ?