Добр день. Хочется услышать совет от толковых парней использующих DRBD в продакшене.
О drbd думаю в разрезе отказоустойчивого общего стоража для ESXi. Познания о drbd только чисто теоретические. Интересная штука DRBD, но все с кем общался, использовали primary - slave и отказались от DRBD в следствии низкой производительности на запись. Но никто (из знакомых) не пробовал вариант актив-актив на запись.
О проблеме низкой производительности на запись сложилась следующая картинка. Cогласно документации запись на примари ноде считается завершенной (при использовании безопасного протокола C) только тогда, когда вернется ответ от вторичной ноды о том, что блок данных был записан. Четыре узких места - дисковая на ноде, латентность линка для реплики, дисковая на второй ноде, снова латентность линка для реплики.
Как улучшить производительность дисковой вопросов не вызывает. Вопрос в производительности линка для реплики. Гигабит имхо избыточен для линка (только для первичной репликации будет явное преимущество), главное обеспечить низкую латентность Имеет ли смысл поставить двухпортовую сетевую карту на каждую ноду, бондинг Round robin + свич с Port trunking? Bonding опять же знаком теоретически, потому не все понятно - будет ли первый пакет - налево, второй пакет направо, учитывая что бндинг будет с обоих сторон?
Имеет ли смысл использовать оптические карты для линка репликации (в каждую ноду по карте и соединить их кросом) или изменение физической среды не принесет профита?
На одном из форумов предложили вариант drbd актив-актив + кластерная фс + loopback device + iscsi + vmfs Оч много прослоек, имхо скажется на цпу, но для современных процов это не смертельно. На запись производительность опять же упрется в латентность линка для реплики. Будет ли возможно чтение с обоих нод (в варианте актив-пассив читает только с актив ноды по понятным причинам)? При условии что данные запрошенные для чтения уже реплицированы)
Если у кого есть опыт использования и желание ответить - прошу, не стесняйтесь ))