Всем привет.
У меня тут большая проблема случилась с сефом. Суть: Был один монитор на node1, я решил добавить еще один на node6. node1 вылетел из кворума. Я переставил монитор, в надежде все восстановить, но сейчас я наблюдаю такую картину:
cluster d6cf08b8-eca8-4666-89a8-fcb5de7a4c72
health HEALTH_ERR
64 pgs stuck inactive
64 pgs stuck unclean
no osds
monmap e1: 1 mons at {node1=10.102.0.1:6789/0}
election epoch 1, quorum 0 node1
osdmap e2: 0 osds: 0 up, 0 in
flags noout
pgmap v3: 64 pgs, 1 pools, 0 bytes data, 0 objects
0 kB used, 0 kB / 0 kB avail
64 creating
Есть у кого мысли как все починить? Да, было 6 osd.
ceph-osd --cluster=ceph --show-config-value=fsid
d56c059b-d0e5-42aa-b56f-d3d339beb1e8