LINUX.ORG.RU
ФорумAdmin

Утилизировать весь канал 1Gb/sec? - Построение SAN


0

0

Добрый день, пока не могу ничего хоть сколько нибудь толкового смастерить, чтобы было 70-80 мегабайт в секунду по TCP/IP, или UDP.

drbd к сожалению совсем не быстро.

nfs: mount -o async,nfsvers=3,tcp,timeo=600,retrans=2,rsize=32768,wsize=32768,hard,intr,noatime 10.0.0.2:/mnt/nfs /mnt/nfs

proxmox-52:/# time dd if=/dev/zero of=/file bs=16k count=409600 409600+0 records in 409600+0 records out 6710886400 bytes (6.7 GB) copied, 64.8345 s, 104 MB/s

real   1m4.866s user   0m0.128s sys   0m15.136s

proxmox-52:/# time dd if=/dev/zero of=/mnt/nfs/file bs=16k count=409600 409600+0 records in 409600+0 records out 6710886400 bytes (6.7 GB) copied, 683.934 s, 9.8 MB/s

real   11m23.988s user   0m0.095s sys   2m19.319s

Это при том, что когда сначало юзается кеш nfs показывает 85 MB/s. HDD исправны все, скорости без nfs на хосте аналогичны первому примеру.

Совсем не густо... Читал про iSCSI, но как я понимаю оно примерно на уровне nfs. В общем ничего не поможет?

Не ужто всё так плохо?

Если кто может по делу сказать, то пожалуйста с конкретными примерам, а не со словами у меня всё круто и быстро.

★★★★★

За всю практику так и не пришлось поработать с гигабитом, но слышал, что он, в отличии от fast ethernet, свою заявленную скорость даже близко не отрабатывает.
Можно ждать, примерно, 300-400MBitsps.

markevichus ★★★
()

а вы iperf для начала погоняйте, а потом уже на скорость FS будете смотреть...

читал про iSCSI, но как я понимаю оно примерно на уровне nfs.


как блочное уст-во может быть на уровне файловой системы???

в общем гоняйте iperf для начала...

r0mik
()
Ответ на: комментарий от r0mik

proxmox-52:~# iperf -c 10.0.0.2

------------------------------------------------------------

Client connecting to 10.0.0.2, TCP port 5001

TCP window size: 16.0 KByte (default)

------------------------------------------------------------

[ 3] local 10.0.0.1 port 54108 connected with 10.0.0.2 port 5001

[ ID] Interval Transfer Bandwidth

[ 3] 0.0-10.0 sec 112 MBytes 94.2 Mbits/sec

ifconfig

eth0 Link encap:Ethernet HWaddr 00:24:21:21:18:d6

inet addr:10.0.0.1 Bcast:10.0.0.3 Mask:255.255.255.252

inet6 addr: fe80::224:21ff:fe21:18d6/64 Scope:Link

UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1

RX packets:4585279 errors:0 dropped:0 overruns:0 frame:0

TX packets:15875936 errors:0 dropped:0 overruns:0 carrier:0

collisions:0 txqueuelen:1000

RX bytes:1044805250 (996.4 MiB) TX bytes:23503389166 (21.8 GiB) Interrupt:233 Base address:0x6000

Мдя... На другом хосте аналогично. Может и мой косяк, что соединил сервера слишком коротким проводом. Примерно 15 см. длинны...

То-то я смотрю, что у меня при всех попытках выше 10-ки не поднимается... Что на сотке, что на гигабите.

Но в общем вопрос всё же ближе к: Утилизировать весь канал 1Gb/sec? - Построение SAN. - В принципе оно возможно?

В общем тема виртуализации всё это. Хотелось попробовать SAN сторадж а на него повесить хостов которые будут крутить оттуда файлы.

В общем пока понятно, что сперва надо мне идиоту тупому делать Гигабит, а потом уже смотреть. Пасибо! Сейчас получается сотка... Я просто уши свои тупые развесил, смотрю вывод ifconfig, вроде гигабит...

как блочное уст-во может быть на уровне файловой системы???

Логично. Блочное должно быть быстрее конечно. Просто реально интересна связка для виртуализации.

Пока не понятно, есть ли реальный смысл тратить на всё это дело время или нет.

Спасибо, что посоветовали таки провести сперва тест сети.

Блин, то-то я смотрю drbd выше 10-ки не поднимался у меня. :)

DALDON ★★★★★
() автор топика
Ответ на: комментарий от DALDON

> Мдя... На другом хосте аналогично. Может и мой косяк, что соединил сервера слишком коротким проводом. Примерно 15 см. длинны...

mii-tools, ethtool -
может ему руками нужно сказать чтоб гигабит давал...

Утилизировать весь канал 1Gb/sec? - Построение SAN. - В принципе оно возможно?


почему же не возможно? все возможно)) у меня вот сейчас, без какого либо тюнинга, на отстойном риалтеке ноутбучном, iperf выдает под 700 Mbits/sec в tcp...

r0mik
()
Ответ на: комментарий от markevichus

ну у меня отрабатывал :). Это раньше была такая проблема, щас с нормальными сетевухами, сидящими не на pci-33 900+ выжимается без проблем.

true_admin ★★★★★
()
Ответ на: комментарий от markevichus

>Можно ждать, примерно, 300-400MBitsps.

У меня дома при перекачивании видео с диска на диск через NFS получается до 65+Мбайт/с. Т.е., с учётом тормозных винтов, >600Мбит/с.

KRoN73 ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.