LINUX.ORG.RU

История изменений

Исправление Pinkbyte, (текущая версия) :

Нод у меня к сожалению только две. И ещё: если все три сервера

Воу-воу-воу, полегче. Ты с терминологией путаешься. Судя по всему нод у тебя - 6, но они принадлежат разным нод-группам, по 3 ноды на группу. Не сбивай людей с толку.

Нода = физический/реже виртуальный сервер. А то что описываешь ты - это группа нод(или пул). Ноды часто группируют, например, по месторасположению(стойка, датацентр и т.д.).

Так вот я хз как там с GlusterFS с распределением нод по пулам, но тут у тебя напрашивается CephFS, в которой это есть :-)

Да, в том числе и переключение клиента с дохлого «монитора» на активный(в терминологии Ceph - демон-«монитор» общается с клиентом, а стораджи и хранилища метаданных от непосредственно клиента по умолчанию скрыты, их расположения отдаёт клиенту именно «монитор»)

В серьезном продакшене я правда CephFS не гонял - пока тестируем. Про сплит-брейн выше уже правильно заметили, желательно нечетное количество нод(или если позволяется - правильно проставленный «вес» ноды), чтобы при разрубании мозгов, так сказать не превратился кластер в тыкву.

Правильнее говорят - «чтобы был кворум». Если связь между нодами разрубится аккурат пополам(три на три), то каждая часть будет мнить себя царем горы и потом когда связь восстановится может случиться нормальный себе такой факап. А с кворумом 2 из 3, 3 из 5, 4 из 7 и т.д. - там где меньше нод - те посчитают себя ненужными и отвалятся, приняв после реконнекта «волю» большинства, так сказать.

P.S. Что-то меня на метафоры потянуло к концу дня

Исправление Pinkbyte, :

Нод у меня к сожалению только две. И ещё: если все три сервера

Воу-воу-воу, полегче. Ты с терминологией путаешься. Судя по всему нод у тебя - 6, но они принадлежат разным нод-группам, по 3 ноды на группу. Не сбивай людей с толку.

Нода = физический/реже виртуальный сервер. А то что описываешь ты - это группа нод(или пул). Ноды часто группируют, например, по месторасположению(стойка, датацентр и т.д.).

Так вот я хз как там с GlusterFS с распределением нод по пулам, но тут у тебя напрашивается CephFS, в которой это есть :-)

В серьезном продакшене я правда CephFS не гонял - пока тестируем. Про сплит-брейн выше уже правильно заметили, желательно нечетное количество нод(или если позволяется - правильно проставленный «вес» ноды), чтобы при разрубании мозгов, так сказать не превратился кластер в тыкву.

Правильнее говорят - «чтобы был кворум». Если связь между нодами разрубится аккурат пополам(три на три), то каждая часть будет мнить себя царем горы и потом когда связь восстановится может случиться нормальный себе такой факап. А с кворумом 2 из 3, 3 из 5, 4 из 7 и т.д. - там где меньше нод - те посчитают себя ненужными и отвалятся, приняв после реконнекта «волю» большинства, так сказать.

P.S. Что-то меня на метафоры потянуло к концу дня

Исправление Pinkbyte, :

Нод у меня к сожалению только две. И ещё: если все три сервера

Воу-воу-воу, полегче. Ты с терминологией путаешься. Судя по всему нод у тебя - 6, но они принадлежат разным нод-группам, по 3 ноды на группу. Не сбивай людей с толку.

Нода = физический/реже виртуальный сервер. А то что описываешь ты - это группа нод(или пул). Ноды часто группируют, например, по месторасположению(стойка, датацентр и т.д.).

Так вот я хз как там с GlusterFS с распределением нод по пулам, но тут у тебя напрашивается CephFS, в которой это есть :-)

В серьезном продакшене я правда CephFS не гонял - пока тестируем.

Исходная версия Pinkbyte, :

Нод у меня к сожалению только две. И ещё: если все три сервера

Воу-воу-воу, полегче. Ты с терминологией путаешься. Судя по всему нод у тебя - 6, но они принадлежат разным нод-группам, по 3 ноды на группу. Не сбивай людей с толку.

Нода = физический/реже виртуальный сервер. А то что описываешь ты - это группа нод. Ноды часто группируют, например, по месторасположению(стойка, датацентр и т.д.).

Так вот я хз как там с GlusterFS с распределением нод по пулам, но тут у тебя напрашивается CephFS, в которой это есть :-)

В серьезном продакшене я правда CephFS не гонял - пока тестируем.