История изменений
Исправление Pinkbyte, (текущая версия) :
Если будет 4 mon, есть ли веса ?
У мониторов? Насколько я знаю - нет.
Если я правильно понял, то работает по схеме 1 активная копия + резерв.
Это только для метаданных, сами данные пишутся на OSD настолько параллельно, насколько настроен уровень репликации.
Где то я читал, что желательно отдельно вынести журнал (например на SSD) Правильно я понял, что журнал и диск OSD должны быть равного объема ?
Журнал может быть любого объема. Данные сначала попадают в журнал, потом переносятся на сам OSD. По-умолчанию журнал ЕМНИП 1 Гб. На отдельный диск имеет смысл выносить только для повышения производительности, в общем случае это не обязательно.
Если у меня вдруг появится еще один диск, могу я его поставить в систему и сказать используй не используя RAID0 и другие вещи ?
Да. На одном хосте можно поднять несколько независимых OSD. А уже в CRUSH map сказать, что вооон те 2 OSD находятся на одном физическом хосте. Так как Ceph будет пытаться по умолчанию не хранить несколько копий в пределах одного хоста, то отказоустойчивость не пострадает.
Как насчет вариант сделать такое извращения, взять RBD и сделать на нем ФС OCFS2 ?
Не вижу для этого никаких проблем.
Исходная версия Pinkbyte, :
Если будет 4 mon, есть ли веса ?
У мониторов? Насколько я знаю - нет.
Если я правильно понял, то работает по схеме 1 активная копия + резерв.
Это только для метаданных, сами данные пишутся на OSD настолько параллельно, насколько настроен уровень репликации.
Где то я читал, что желательно отдельно вынести журнал (например на SSD) Правильно я понял, что журнал и диск OSD должны быть равного объема ?
Журнал может быть любого объема. Данные сначала попадают в журнал, потом переносятся на сам OSD. По-умолчанию журнал ЕМНИП 1 Гб. На отдельный диск имеет смысл выносить только для повышения производительности, в общем случае это не обязательно.
Если у меня вдруг появится еще один диск, могу я его поставить в систему и сказать используй не используя RAID0 и другие вещи ?
Да. На одном хосте можно поднять несколько независимых OSD. А уже в CRUSH map сказать, что вооон те 2 OSD находятся на одном физическом хосте. Так как Ceph будет пытаться по умолчанию не хранить несколько копий в пределах одного хоста, то отказоусточивость не пострадает.
Как насчет вариант сделать такое извращения, взять RBD и сделать на нем ФС OCFS2 ?
Не вижу для этого никаких проблем.