История изменений
Исправление Pinkbyte, (текущая версия) :
Нод у меня к сожалению только две. И ещё: если все три сервера
Воу-воу-воу, полегче. Ты с терминологией путаешься. Судя по всему нод у тебя - 6, но они принадлежат разным нод-группам, по 3 ноды на группу. Не сбивай людей с толку.
Нода = физический/реже виртуальный сервер. А то что описываешь ты - это группа нод(или пул). Ноды часто группируют, например, по месторасположению(стойка, датацентр и т.д.).
Так вот я хз как там с GlusterFS с распределением нод по пулам, но тут у тебя напрашивается CephFS, в которой это есть :-)
Да, в том числе и переключение клиента с дохлого «монитора» на активный(в терминологии Ceph - демон-«монитор» общается с клиентом, а стораджи и хранилища метаданных от непосредственно клиента по умолчанию скрыты, их расположения отдаёт клиенту именно «монитор»)
В серьезном продакшене я правда CephFS не гонял - пока тестируем. Про сплит-брейн выше уже правильно заметили, желательно нечетное количество нод(или если позволяется - правильно проставленный «вес» ноды), чтобы при разрубании мозгов, так сказать не превратился кластер в тыкву.
Правильнее говорят - «чтобы был кворум». Если связь между нодами разрубится аккурат пополам(три на три), то каждая часть будет мнить себя царем горы и потом когда связь восстановится может случиться нормальный себе такой факап. А с кворумом 2 из 3, 3 из 5, 4 из 7 и т.д. - там где меньше нод - те посчитают себя ненужными и отвалятся, приняв после реконнекта «волю» большинства, так сказать.
P.S. Что-то меня на метафоры потянуло к концу дня
Исправление Pinkbyte, :
Нод у меня к сожалению только две. И ещё: если все три сервера
Воу-воу-воу, полегче. Ты с терминологией путаешься. Судя по всему нод у тебя - 6, но они принадлежат разным нод-группам, по 3 ноды на группу. Не сбивай людей с толку.
Нода = физический/реже виртуальный сервер. А то что описываешь ты - это группа нод(или пул). Ноды часто группируют, например, по месторасположению(стойка, датацентр и т.д.).
Так вот я хз как там с GlusterFS с распределением нод по пулам, но тут у тебя напрашивается CephFS, в которой это есть :-)
В серьезном продакшене я правда CephFS не гонял - пока тестируем. Про сплит-брейн выше уже правильно заметили, желательно нечетное количество нод(или если позволяется - правильно проставленный «вес» ноды), чтобы при разрубании мозгов, так сказать не превратился кластер в тыкву.
Правильнее говорят - «чтобы был кворум». Если связь между нодами разрубится аккурат пополам(три на три), то каждая часть будет мнить себя царем горы и потом когда связь восстановится может случиться нормальный себе такой факап. А с кворумом 2 из 3, 3 из 5, 4 из 7 и т.д. - там где меньше нод - те посчитают себя ненужными и отвалятся, приняв после реконнекта «волю» большинства, так сказать.
P.S. Что-то меня на метафоры потянуло к концу дня
Исправление Pinkbyte, :
Нод у меня к сожалению только две. И ещё: если все три сервера
Воу-воу-воу, полегче. Ты с терминологией путаешься. Судя по всему нод у тебя - 6, но они принадлежат разным нод-группам, по 3 ноды на группу. Не сбивай людей с толку.
Нода = физический/реже виртуальный сервер. А то что описываешь ты - это группа нод(или пул). Ноды часто группируют, например, по месторасположению(стойка, датацентр и т.д.).
Так вот я хз как там с GlusterFS с распределением нод по пулам, но тут у тебя напрашивается CephFS, в которой это есть :-)
В серьезном продакшене я правда CephFS не гонял - пока тестируем.
Исходная версия Pinkbyte, :
Нод у меня к сожалению только две. И ещё: если все три сервера
Воу-воу-воу, полегче. Ты с терминологией путаешься. Судя по всему нод у тебя - 6, но они принадлежат разным нод-группам, по 3 ноды на группу. Не сбивай людей с толку.
Нода = физический/реже виртуальный сервер. А то что описываешь ты - это группа нод. Ноды часто группируют, например, по месторасположению(стойка, датацентр и т.д.).
Так вот я хз как там с GlusterFS с распределением нод по пулам, но тут у тебя напрашивается CephFS, в которой это есть :-)
В серьезном продакшене я правда CephFS не гонял - пока тестируем.