LINUX.ORG.RU
решено ФорумAdmin

slow read / fast write. wtf?

 , ,


2

2

Балуюсь OpenIndiana и ZFS. Наткнулся на непонятную мне вещь: чтение с диска у меня почему-то в 2x раза медленне записи!?

Проверял dd:

zero -> disk: 1048576000 bytes (1.0 GB) copied, 7.36276 s, 142 MB/s
disk -> null: 1048576000 bytes (1.0 GB) copied, 12.7403 s, 82.3 MB/s
disk -> disk: 1048576000 bytes (1.0 GB) copied, 41.2035 s, 25.4 MB/s
zero -> null: 1048576000 bytes (1.0 GB) copied, 0.113213 s, 9.3 GB/s

Перепроверял несколько раз, значения всегда одни и теже.

Под капотом SSD. Сам SSD должен выдовать до ~500Mb/s туда и обратно на SATA-III.

Тестовая шарманка, правда не новая (Core2/ICH7). Т.ч. если предположить SATA-I (1.5 Gbit/s), то запись вроде попадает в параметры.

Но вот с чтением что за бодяга?

Я что-то не понимяю? Кто виноват? Сам SSD, ZFS, bridge или SunOS? Куда копать?

cast riki

UPD: пепел на мою голову, забыл blocksize при тесте с диска в ноль. Новые результаты: slow read / fast write. wtf? (комментарий) (bs=1M)

★★★★★

Последнее исправление: beastie (всего исправлений: 4)
Ответ на: комментарий от beastie

Почему?

'zdb -S pool' сделай, когда все данные перенесёшь на zfs, и выхлоп покажет надо оно тебе или нет, если меньше 2х - забей и лучше включи компрессию lz4. что бы узнать сколько памяти понадобится _только_ для дедуп таблицы смотри total и умножай на 390 байт.

EvgGad_303 ★★★★★
()
Ответ на: комментарий от EvgGad_303

Пока ещё нет железки, на которой мог бы проверить. Но спасибо, буду знать. Если не ошибаюсь, активация всех этих опции работают только с новыми данными. Т.е. переносить тогда 2 раза придётся.

А вообще планирую примерно 2 объединённых raidz по 4 диска + 2 ssd под кеш + 2 spare и ~64G рамы.

beastie ★★★★★
() автор топика
Последнее исправление: beastie (всего исправлений: 1)
Ответ на: комментарий от beastie

активация всех этих опции работают только с новыми данными. Т.е. переносить тогда 2 раза придётся.

да. но с zfs send|zfs recv - это не страшно :D
и выставлять их можно на уровне датасета, а не только пула.

2 ssd под кеш

зачем 2?

EvgGad_303 ★★★★★
()
Последнее исправление: EvgGad_303 (всего исправлений: 1)
Ответ на: комментарий от EvgGad_303

Во первых у меня их 2 лишних валяется, пусть в дело идут. ;) А во вторых ещё не решил (точнее не знаю, как лучше) — по кешевому диску на каждый raidz в отдельности или один общий кеш на весь пул.

beastie ★★★★★
() автор топика
Последнее исправление: beastie (всего исправлений: 1)
Ответ на: комментарий от beastie

l2arc это на пул, а не vdev. но два на пул даже лучше ибо раунд-робин и потеря только половины кэша в случае чего.

EvgGad_303 ★★★★★
()
Ответ на: комментарий от vxzvxz

Нету дедупа. Ещё раз, это просто тестовая машина. Эксперименты проподились над родным rpool.

beastie ★★★★★
() автор топика
Ответ на: комментарий от beastie

уже сказали zfs любит оперативу, а с дедуплекацией она любит ее еще больше.

при включенном сжатии вообще не вижу смысла в дедупликации

vxzvxz ★★★
()
Ответ на: комментарий от vxzvxz

Как по мне, так лучше дедупликация чем сжатие (а может быть и то и другое) — вещи то как бы ортогональные. Про память понял.

beastie ★★★★★
() автор топика
Последнее исправление: beastie (всего исправлений: 1)
Ответ на: комментарий от beastie

Как по мне, так лучше дедупликация чем сжатие

на большинстве задач как раз наоборот, инфа 100%. на хорошо сжимаемых данных наблюдается уменьшение iops до нескольких раз, при тех же условиях, т.е. можно ещё что повесить на тот же сервер|массив.

EvgGad_303 ★★★★★
()
Последнее исправление: EvgGad_303 (всего исправлений: 1)
Ответ на: комментарий от EvgGad_303

У меня как раз будут много плохосжимаемых данных, т.ч. надо будет ещё по-экспериментировать. (куча PS-файлов по 500M-2G каждый, картинки, PDF и т.п.)

Интересса ради поставил OmniOS. Многое надо делать в ручную, но документация вроде получше, чем у oi.

И кстати, вот, что он мне выдал на rpool:

dedup = 2.22, compress = 1.00, copies = 1.00, dedup * compress / copies = 2.22

dedup и compress off.

beastie ★★★★★
() автор топика
Ответ на: комментарий от beastie

Интересса ради поставил OmniOS. Многое надо делать в ручную

ну сеть ни в каком виде не поднята и пару реп прописать для полного счастья, а ещё что, чего не надо в других местах делать?

dedup = 2.22, compress = 1.00, copies = 1.00, dedup * compress / copies = 2.22

а у меня

dedup = 3.02, compress = 1.55, copies = 1.00, dedup * compress / copies = 4.70

но это не значит, что надо дедуп включать на rpool )

EvgGad_303 ★★★★★
()
Ответ на: комментарий от EvgGad_303

Кстати, эта репа сдохла? http://pkg.cs.umd.edu/ И можно ли мешать, например с репами от oi? (Хотел поставить mc, а его нигде нет.)

rpool пусть живёт. ;) Играюсь пока-что с разными конфигурациями (на usb-stick'ах, во! ;) благо их у меня тут целый мешок) с выдёргиванием по живому и т.д. — прям отдых, после mdadm.

EvgGad_303, ты не возражаешь, если я тебе в джабер/мыло иногда стучать буду?

beastie ★★★★★
() автор топика
Последнее исправление: beastie (всего исправлений: 4)
Ответ на: комментарий от beastie

да, можно мешать, только path править надо будет, а репа скорее всего просто лежит. mc есть у smartos.pkg.ec. вот короч мой список дома.

$ pkg publisher
PUBLISHER                             TYPE     STATUS   URI
omnios                                origin   online   http://pkg.omniti.com/omnios/bloody/
uulm.mawi                             origin   online   http://scott.mathematik.uni-ulm.de/release/
ms.omniti.com                         origin   online   http://pkg.omniti.com/omniti-ms/
perl.omniti.com                       origin   online   http://pkg.omniti.com/omniti-perl/
smartos.pkg.ec                        origin   online   http://smartos.pkg.ec/
omnios.blackdot.be                    origin   online   http://omnios.blackdot.be/
openindiana.org                       origin   online   http://pkg.openindiana.org/hipster/
а с zfs играться можно и создавая vdev'ы на файлах, если что ;)

не, не возражаю.

EvgGad_303 ★★★★★
()
Ответ на: комментарий от EvgGad_303

Спасибо!

а с zfs играться можно и создавая vdev'ы на файлах, если что ;)

флешки выдёргивать удобней и они мигают! :D

beastie ★★★★★
() автор топика
Ответ на: комментарий от beastie

главное следи за порядком publisher, тот что выше по списку в приоритете, а то с хипстера или ещё откуда как обновит чего. хотя он при обновлении системных компонентов автоматом новый BE создаёт и откатиться не проблема.
выдёргивать удобнее, если ящик под рукой :p
обращайся, чо, мы за технологии в массы :D

EvgGad_303 ★★★★★
()
Последнее исправление: EvgGad_303 (всего исправлений: 1)
Ответ на: комментарий от EvgGad_303

Ладно, тогда ещё один вопрос. Наткнулся в документации, что раньше был zfs-auto-snapshot. Его больше нет. В поисках наткнулся ещё на пару github реп, но то ли это и как его от туда ставить не разобрался ещё.

А теперь вопрос: как бы это сдлать по-кошерней? (Т.е. по возможности из пакета, а не make install) И есть ли оно вообще для omnios?

Функция всё таки очень полезная. Не хочется самому костыли изобретать.

beastie ★★★★★
() автор топика
Ответ на: комментарий от beastie

дак это же просто smf сервис, бери с гита два xml описывающие его, правь под себя и добавляй в smf и будет тебе щастье.

EvgGad_303 ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.