LINUX.ORG.RU
ФорумAdmin

Чем мать asus m5a78l-m/usb3 + проц AMD Athlon(tm) II X4 640 Processor + RAM 16ГБ + SSD120ГБ не годно для виртуализации KVM?


0

4

Просьба говорить по делу, поменьше шелухи. Какие узкие места у данной связки. Побольше технических терминов.

И вторая часть.

А собственное проблема вот какая.
Есть комп в такой конфигурации. На нем крутятся 6 виртуалок (4 виндовых, 2 линуксовых) на proxmox 3.1 . В принципе работает. Но 1С тормозит жутко. Для базы 1С воткнул еще SSD на 120ГБ. НО! тормоза при работе в 1С как были так и остались. Тяжелые отчеты формируются долго прям беда. SSD не помог вообще, почему интересно?
Файлсервер на винде. Оперативки ему выделено 4ГБ. Процы в хостовой части бывает в пиках загружены на 80-90%. Причем kvm процесс виртуалки файл сервера грузится под 294%
Хотя если подключить SSD в линуксовую виртуалку то прирост есть - не большой но при копировании файлов субъективно быстрее стало где то в 4,5 раза. В винде никакого прироста.

На что бюджетно перейти? Может на intel ? Что посоветуете? Или попробовать камень 8 ядерный воткнуть?

★★★★
Ответ на: комментарий от petav

в настройках proxmox для виртуалки установлен проц kvm64. В винде которая в виртуалке процессор определился как Common KVM Processor. В хосте linux загружен модуль kvm_amd

# uname -a
Linux proxmox1 2.6.32-23-pve #1 SMP Tue Aug 6 07:04:06 CEST 2013 x86_64 GNU/Linux

Vlad-76 ★★★★
() автор топика
Ответ на: комментарий от kerneliq

машина с АМД процессором в принципе для этого есть - но слабее и второго ssd диска нет - хотя думаю это не имеет значения.
Есть настоящий сервер 8 ядерный с Xeon первые которые поддерживают аппаратную виртулизацию

А почему CentOS? и какой ? по какой инструкции ставить?

Vlad-76 ★★★★
() автор топика
Последнее исправление: Vlad-76 (всего исправлений: 2)
Ответ на: комментарий от Vlad-76

Proxmox сделан на основе Debian, а kvm больше пилят под redhat.
Попробуй centos 7.
yum -y install qemu-kvm libvirt virt-install bridge-utils virt-manager
В принципе и все. Запускаешь virt-manager и создаешь виртуалку.

kerneliq ★★★★★
()
Ответ на: комментарий от Vlad-76

Можно и 6. В 7 могли допилить производительность.

kerneliq ★★★★★
()
Ответ на: комментарий от Vlad-76

а где это глянуть в винде?

Панель управления\Все элементы панели управления\Система
Тип Системы: ...

petav ★★★★★
()
Ответ на: комментарий от DALDON
Изготовитель системы:           Bochs
Модель системы:                 Bochs
Тип системы:                    X86-based PC
Процессор(ы):                   Число процессоров - 4.
                                [01]: x86 Family 15 Model 6 Stepping 1 Authentic
AMD ~3100 МГц
                                [02]: x86 Family 15 Model 6 Stepping 1 Authentic
AMD ~3100 МГц
                                [03]: x86 Family 15 Model 6 Stepping 1 Authentic
AMD ~3100 МГц
                                [04]: x86 Family 15 Model 6 Stepping 1 Authentic
AMD ~3099 МГц
Vlad-76 ★★★★
() автор топика
Ответ на: комментарий от Vlad-76

вы это проверяли?

Есть большие подозрения...

а где бы ее взять 64 битную?

Для тестов можно взять любой диск, хоть win7home, он 30 дней без лицензии работает и потом будет работать, но будет говорить о нелицензионности.

petav ★★★★★
()
Ответ на: комментарий от petav

Вот кстати товарищ то вон чё говорит... - Говорит, что на Hyper-V было то у него всё нормально и с x32 битной виндой. А как переехал на KVM - всё стало плохо. У него по-сути очень всё плохо с файловым вводом выводом, по сети уж точно...

DALDON ★★★★★
()
Ответ на: комментарий от Vlad-76

Моё ИМХО такое:

Или ставь любой вменяемый SOHO тазик для 7ки. Или возвращайся на Hyper-V. Тем паче, что он бесплатный. Нужна лицензия только на серверную винду.

Ужасно..? Согласен. Но я думаю, что никакая x64 тебе не поможет.

Ну или пусть petav подскажет, откуда у него такая уверенность присутствует.

DALDON ★★★★★
()
Ответ на: комментарий от Vlad-76

Слушай, а попробуй ради прикола на VirtualBox поднять это добро на вменяемом железе. :) С гостевыми дополнениями и со включенным кешем.

DALDON ★★★★★
()
Последнее исправление: DALDON (всего исправлений: 1)
Ответ на: комментарий от petav

поставил на тот же proxmox 64 битную Win7 - результат точно такой же размер файлов выдается через 5-6 сек. Дрова virio, cache=none
подозрения не оправдались.

Vlad-76 ★★★★
() автор топика
Ответ на: комментарий от DALDON

от сети ничего не зависит
делал отчет с бухами что с локальной БД что с удаленной БД железного компа, время генерации близко равно

Vlad-76 ★★★★
() автор топика
Ответ на: комментарий от DALDON

ради прикола не хочу, хочу убедиться что proxmox не едет... или едет

Vlad-76 ★★★★
() автор топика
Ответ на: комментарий от Vlad-76

Прошу прощения, но я был на 100% уверен в более качественном исходе теста... А может попробовать не эмулировать процессор (не указывать его тип) - это такты сбережет.

petav ★★★★★
()
Последнее исправление: petav (всего исправлений: 1)
Ответ на: комментарий от petav

буду тестить серверное железо + едет Lsi RAID контроллер на шину PCIeх8 с супер IOPS ами.
Если уж с этим железом proxmox не заработает забуду про него как платформу для винды.
А пока едет контроллер протестирую для виртуалки с базами 1С KVM на СentOS6.

Vlad-76 ★★★★
() автор топика

Прошу прощения за делитантизм, но может это выравнивание разделов шалит? Advanced Format и все такое. разбираться, полагаю, начиная с parted /dev/sda unit b print на хосте.

Deleted
()
Ответ на: комментарий от Deleted
i#  parted /dev/sdc unit b print
Model: ATA SSD2SC120GD1DH16 (scsi)
Disk /dev/sdc: 120034123776B
Sector size (logical/physical): 512B/512B
Partition Table: msdos

Number  Start         End            Size          Type     File system  Flags
 1      1048576B      45012796415B   45011747840B  primary               lvm
 2      45012796416B  90025592319B   45012795904B  primary               lvm
 3      90025592320B  120034123775B  30008531456B  primary               lvm

Vlad-76 ★★★★
() автор топика
Ответ на: комментарий от Vlad-76

цеплял раздел ssd диска по iscsi и к хосту и к линукс гостю - разницы не заметил

root@proxmox1:~# fio -name iops -rw=randwrite -bs=4096 -size=1G -iodepth=20 -runtime=200 -directory /mnt/sdd1/testfio -ioengine libaio -direct=1
iops: (g=0): rw=randwrite, bs=4K-4K/4K-4K, ioengine=libaio, iodepth=20
2.0.8
Starting 1 process
Jobs: 1 (f=1): [w] [100.0% done] [0K/36080K /s] [0 /9020  iops] [eta 00m:00s]
iops: (groupid=0, jobs=1): err= 0: pid=37411
  write: io=1024.0MB, bw=39206KB/s, iops=9801 , runt= 26745msec
    slat (usec): min=6 , max=2697 , avg=20.10, stdev=15.71
    clat (usec): min=233 , max=38971 , avg=2017.66, stdev=1047.65
     lat (usec): min=284 , max=38989 , avg=2038.16, stdev=1047.26
    clat percentiles (usec):
     |  1.00th=[  836],  5.00th=[  980], 10.00th=[ 1080], 20.00th=[ 1240],
     | 30.00th=[ 1416], 40.00th=[ 1576], 50.00th=[ 1752], 60.00th=[ 1976],
     | 70.00th=[ 2448], 80.00th=[ 2896], 90.00th=[ 3280], 95.00th=[ 3504],
     | 99.00th=[ 3984], 99.50th=[ 4192], 99.90th=[ 8512], 99.95th=[20352],
     | 99.99th=[28288]
    bw (KB/s)  : min=34536, max=43032, per=99.93%, avg=39179.64, stdev=2802.96
    lat (usec) : 250=0.01%, 500=0.02%, 750=0.26%, 1000=5.58%
    lat (msec) : 2=55.08%, 4=38.12%, 10=0.85%, 20=0.03%, 50=0.05%
  cpu          : usr=4.36%, sys=18.91%, ctx=279672, majf=0, minf=21
  IO depths    : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=100.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.1%, 64=0.0%, >=64=0.0%
     issued    : total=r=0/w=262144/d=0, short=r=0/w=0/d=0

Run status group 0 (all jobs):
  WRITE: io=1024.0MB, aggrb=39206KB/s, minb=39206KB/s, maxb=39206KB/s, mint=26745msec, maxt=26745msec

Disk stats (read/write):
  sdd: ios=18/261074, merge=0/5, ticks=35/525101, in_queue=525093, util=99.60%

Vlad-76 ★★★★
() автор топика
Ответ на: комментарий от Vlad-76

во! пусть меня поправят, если я не прав, но, во-первых «sector size (logical/physical): 512B/512B » это скорее всего неправда, и сектор не меньше 4096Б (это ж ssd). А из этого следует, во-вторых: 2 и 3 разделы не выровнены по сектору. Рекомендую выравнивание по 1 Мегабайту, как наиболее общее.

Deleted
()
Ответ на: комментарий от Deleted

ну допустим раздел (по таблице разделов) не ровно так как надо. Это же не означает что ОСь каждый запрос на чтение и запись делает от неправильной границы партиции? Ось считывает и пишет произвольный или не занятый блок диска храня таблицу разделов у себя в памяти. Учитывая, что файл с диском это LVM том - то у тома своя граница. Не думаю что интерфейс proxmox что то там выравнивает когда нарезает LV. Только не много (не значительно) данных диска могут лежать не оптимально. Я так считаю.

Vlad-76 ★★★★
() автор топика
Ответ на: комментарий от Vlad-76

в данном случае я не эксперт. я читал рекомендации, и следовал им. я недавно столкнулся с выравниванием, когда на железном raid50 было выделено логическое блочное устройство по физическим адресам, не кратным размеру страйпа - была жопа, 3МБайт/с на линейную запись.

Deleted
()
Ответ на: комментарий от Vlad-76

да, почему это максимально не автоматизированно и дефолты нехорошие, вопрос... Так, админка то богатая, и как раз у неискушенного админа глаза разбегаются, там не до тонкой настройки. Или по глупости или случайно значение изменили. Я то полез уже смотреть в рамках разбирательства, почему база тормозит на недешевом железе. Оба мы (я и первый, кто деплоил) программеры, а не админы, «у нас все работает» на рабочих машинах :)

Deleted
()
Ответ на: комментарий от Deleted

сначала протестирую proxmox на серверном железе, в принципе переразбить диск не проблема. можно будет два раза протестить с оптимальной или не оптимальной разбивкой.
А как оптимально с учетом приведенной Вами специфики разбить диск?

Vlad-76 ★★★★
() автор топика
Ответ на: комментарий от Vlad-76

Начала разделов и размер их (разделов и вских других томов) выбирать кратым 1МБайту. с точностью до байта. мегабайты = 2^20 байт. и в этом случае, вроде как, можно не думать о размерах секторов, всяких ссдшных 256КБ блоках, и 128КБ страйпах

Deleted
()
Последнее исправление: Deleted (всего исправлений: 1)
Ответ на: комментарий от Vlad-76

А как оптимально с учетом приведенной Вами специфики разбить диск?

lor faq

EvgGad_303 ★★★★★
()
Ответ на: комментарий от Vlad-76

Протестил proxmox3.1 и на серверном железе. Вместо ssd взял HITACHI SATA на 4ТБ. Результат точно такой же. Была всего одна виртуалка.
Но заметил вот какую штуку. На железном компе если нажать F3 в FAR по всем файлам баз 1С то при первом нажатии папки сканируются медленнее - секунды 3-4. Последующие нажатия не более 1сек. похоже информация о файлах осталась в оперативке. На виртуалке первый раз F3 6 сек, последующие 5 сек. т.е. не происходит эффекта ускорения после первого раза.

Vlad-76 ★★★★
() автор топика
Ответ на: комментарий от Vlad-76

Всё таки с разметкой попробуй посмотреть, попробуй разобраться, чтобы выравнивание было верным. Начиная от уровня proxmox - lvm - и заканчивая файловой системой виртуальной машины. Я видел вайтпаперы от того же VMWare, вопрос этот крайне серьёзный.

DALDON ★★★★★
()
Ответ на: комментарий от DALDON

Разметку делал по инструкции со всеми ключиками.

Это вторая разметка для proxmox3.2

root@proxmox:~# parted /dev/sdb align-check opt 1
1 aligned
root@proxmox:~#
root@proxmox:~# pvs -o+pe_start /dev/sdb1
  PV         VG       Fmt  Attr PSize  PFree  1st PE
  /dev/sdb1  lvm-sdb1 lvm2 a--  93.13g 45.13g   1.00m
root@proxmox:~#
parted - ок . LVM без ключа пускал, но похоже все выравнено.

Vlad-76 ★★★★
() автор топика
Ответ на: комментарий от Vlad-76

Такс... Секунду. Я правильно понял, что у вас вендовая виртуалка выполняет роль файлохранилища просто? Может samba + linux попробовать?

DALDON ★★★★★
()
Ответ на: комментарий от DALDON

да, согласен. Если у 1С баз не будут длинные имена файлов то можно заняться
Сделал один эксперимент. Сделал в RAM tmpfs. Создается одной командой :) если кто не знает «mount -t tmpfs tmpfs /mnt/RAMtmpfs/ -o size=12G». linux и виртуалке осталось по 2ГБ. Протестил ее в хостовой части


root@proxmox:/mnt/RAMtmpfs# fio -name iops -rw=randwrite -bs=4096 -size=1G -iodepth=20 -runtime=100 -directory /mnt/RAMtmpfs/fiotest -ioengine libaio
iops: (g=0): rw=randwrite, bs=4K-4K/4K-4K, ioengine=libaio, iodepth=20
2.0.8
Starting 1 process
Jobs: 1 (f=1)
iops: (groupid=0, jobs=1): err= 0: pid=6205
  write: io=1024.0MB, bw=633581KB/s, iops=158395 , runt=  1655msec
    slat (usec): min=3 , max=59 , avg= 4.12, stdev= 0.59
    clat (usec): min=19 , max=198 , avg=109.78, stdev= 3.82
     lat (usec): min=23 , max=202 , avg=114.06, stdev= 3.91
    clat percentiles (usec):
     |  1.00th=[  105],  5.00th=[  106], 10.00th=[  106], 20.00th=[  107],
     | 30.00th=[  108], 40.00th=[  108], 50.00th=[  109], 60.00th=[  110],
     | 70.00th=[  110], 80.00th=[  111], 90.00th=[  115], 95.00th=[  118],
     | 99.00th=[  121], 99.50th=[  123], 99.90th=[  133], 99.95th=[  143],
     | 99.99th=[  179]
    bw (KB/s)  : min=497760, max=701776, per=99.28%, avg=629016.00, stdev=113894.55
    lat (usec) : 20=0.01%, 50=0.01%, 100=0.01%, 250=99.99%
  cpu          : usr=25.88%, sys=73.94%, ctx=14, majf=0, minf=20
  IO depths    : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=100.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.1%, 64=0.0%, >=64=0.0%
     issued    : total=r=0/w=262144/d=0, short=r=0/w=0/d=0

Run status group 0 (all jobs):
  WRITE: io=1024.0MB, aggrb=633580KB/s, minb=633580KB/s, maxb=633580KB/s, mint=1655msec, maxt=1655msec


write: io=1024.0MB, bw=633581KB/s, iops=158395 , runt= 1655msec
clat (usec): min=19 , max=198 , avg=109.78, stdev= 3.82
главные цифры
latency avg=109.78 микросекунд. iops=158395

Добавил этот диск в виртуалку файлсервера. Разместил на нем базы 1С 52500 файлов и снова нажал F3 в FAR - посчитать размер файлов. Догадайтесь какое время это отняло? теже 5-6 секунд :). Так что не в SOHO железках дело и не в выравнивании блоков диска.
Завтра подмонтирую файл в виртуалку как iscsi шару.

Vlad-76 ★★★★
() автор топика
Последнее исправление: Vlad-76 (всего исправлений: 1)
Ответ на: комментарий от petav
root@proxmox:/mnt/RAMtmpfs/RAM-storage/images# egrep '(vmx|svm)' /proc/cpuinfo
flags           : fpu vme de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall lm constant_tsc arch_perfmon pebs bts rep_good aperfmperf pni dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm dca lahf_lm dts tpr_shadow
flags           : fpu vme de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall lm constant_tsc arch_perfmon pebs bts rep_good aperfmperf pni dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm dca lahf_lm dts tpr_shadow
flags           : fpu vme de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall lm constant_tsc arch_perfmon pebs bts rep_good aperfmperf pni dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm dca lahf_lm dts tpr_shadow
flags           : fpu vme de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall lm constant_tsc arch_perfmon pebs bts rep_good aperfmperf pni dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm dca lahf_lm dts tpr_shadow
flags           : fpu vme de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall lm constant_tsc arch_perfmon pebs bts rep_good aperfmperf pni dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm dca lahf_lm dts tpr_shadow
flags           : fpu vme de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall lm constant_tsc arch_perfmon pebs bts rep_good aperfmperf pni dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm dca lahf_lm dts tpr_shadow
flags           : fpu vme de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall lm constant_tsc arch_perfmon pebs bts rep_good aperfmperf pni dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm dca lahf_lm dts tpr_shadow
flags           : fpu vme de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall lm constant_tsc arch_perfmon pebs bts rep_good aperfmperf pni dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm dca lahf_lm dts tpr_shadow

Vlad-76 ★★★★
() автор топика
Ответ на: комментарий от DALDON

Результаты тестов в госте режим кэша диска writethrough

сделал тесты на этом диске
c:\SQLIO>SQLIO.EXE -s60 -kR -frandom -b8 -t8 -o16 -LS -BN G:\test.dat
sqlio v1.5.SG
using system counter for latency timings, 3579545 counts per second
8 threads reading for 60 secs from file G:\test.dat
        using 8KB random IOs
        enabling multiple I/Os per thread with 16 outstanding
        buffering set to not use file nor disk caches (as is SQL Server)
using current size: 1370 MB for file: G:\test.dat
initialization done
CUMULATIVE DATA:
throughput metrics:
IOs/sec:  7953.28
MBs/sec:    62.13
latency metrics:
Min_Latency(ms): 0
Avg_Latency(ms): 15
Max_Latency(ms): 443
histogram:
ms: 0  1  2  3  4  5  6  7  8  9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24+
%:  0  1 61  3  3  5  7  6  3  2  1  0  0  0  0  0  0  0  0  0  0  0  0  0  8

c:\SQLIO>

Если поменять режим кэша на writeback то латентность снижается до 9мс.

Vlad-76 ★★★★
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.