Добрый день! С горем пополам обновился с Hammer на Luminous, обновленные сервера пока что на Filestore, дело дошло до добавления нового сервера (массив на данный момент заполнен на 80%, ждали сервера под расширение) и я решил, что уж буду теперь добавлять по дефолту диски на bluestore (остальные чуть позже мигрирую), под wal и db используем ssd как и ранее юзали ssd под журналы на filestore. При попытке добавить хотя бы одно osd, столкнулся с неприятной ситуацией. Проблема в том, что я все время использовал ceph-deploy, теперь с ним какая-то трабла, в доке нормального внятного объяснения как теперь добавлять найти не могу. В общем, как я пытаюсь делать:
ceph-deploy osd create cn015 --data /dev/sdj --block-db /dev/sdd --block-wal /dev/sdd
[cn015][DEBUG ] connected to host: cn015
[cn015][DEBUG ] detect platform information from remote host
[cn015][DEBUG ] detect machine type
[cn015][DEBUG ] find the location of an executable
[ceph_deploy.osd][INFO ] Distro info: CentOS Linux 7.5.1804 Core
[ceph_deploy.osd][DEBUG ] Deploying osd to cn015
[cn015][DEBUG ] write cluster configuration to /etc/ceph/{cluster}.conf
[cn015][DEBUG ] find the location of an executable
[cn015][INFO ] Running command: /usr/sbin/ceph-volume --cluster ceph lvm create --bluestore --data /dev/sdj --block.wal /dev/sdd --block.db /dev/sdd
[cn015][WARNIN] --> RuntimeError: unable to use device
[cn015][DEBUG ] Running command: /bin/ceph-authtool --gen-print-key
[cn015][DEBUG ] Running command: /bin/ceph --cluster ceph --name client.bootstrap-osd --keyring /var/lib/ceph/bootstrap-osd/ceph.keyring -i - osd new c819fd79-a533-471a-b2f3-e5ff8500e6d2
[cn015][DEBUG ] Running command: vgcreate --force --yes ceph-00839557-13ea-47a7-b32b-4484c2a34825 /dev/sdj
[cn015][DEBUG ] stdout: Physical volume "/dev/sdj" successfully created.
[cn015][DEBUG ] stdout: Volume group "ceph-00839557-13ea-47a7-b32b-4484c2a34825" successfully created
[cn015][DEBUG ] Running command: lvcreate --yes -l 100%FREE -n osd-block-c819fd79-a533-471a-b2f3-e5ff8500e6d2 ceph-00839557-13ea-47a7-b32b-4484c2a34825
[cn015][DEBUG ] stdout: Logical volume "osd-block-c819fd79-a533-471a-b2f3-e5ff8500e6d2" created.
[cn015][DEBUG ] --> blkid could not detect a PARTUUID for device: /dev/sdd
[cn015][DEBUG ] --> Was unable to complete a new OSD, will rollback changes
[cn015][DEBUG ] --> OSD will be fully purged from the cluster, because the ID was generated
[cn015][DEBUG ] Running command: ceph osd purge osd.32 --yes-i-really-mean-it
[cn015][DEBUG ] stderr: purged osd.32
[cn015][ERROR ] RuntimeError: command returned non-zero exit status: 1
[ceph_deploy.osd][ERROR ] Failed to execute command: /usr/sbin/ceph-volume --cluster ceph lvm create --bluestore --data /dev/sdj --block.wal /dev/sdd --block.db /dev/sdd
[ceph_deploy][ERROR ] GenericError: Failed to create 1 OSDs
Вижу, что он ругается на blkid, что не может найти PARTUUID. Ок, понимаю, что видимо ceph-deploy под это дело сам не может создать разделы на этом диске. В итоге я решил самостоятельно сделать партиция на /dev/sdd. Пока что добавил одну osd, сделав под wal 1Gb и под db сделал партицию в 1% от диска OSD, вычитал от сюда (диски под OSD у меня по 900Gb).
Собственно, хочу узнать теперь экспертное мнение, правильно ли я задействовал ДП на ssd под wal и db? Просто по db я хоть что-то нагуглил, по wal никаких формул по калькуляции нет, поэтому уже просто тыкая пальцем в небо решил поставить 1Гб. Но беспокоюсь, не пострадает ли от этого производительность массива, если я продолжу добавлять по такой логике osd. Не хотелось бы допускать ошибок, а то у нас обновление было очень адреналиновым и уже бизнес боюсь не потерпит просчетов(( репутация, увы, ушла к черту с этим сефом((