В процессе экспериментов с кластером возник вопрос по поводу оптимального хранилища имиджей/данных VM. VM планируется несколько, linux ессно, большого кол-ва дисковых I/O быть не должно (виртуалки - в первую очередь для изоляции публичных ресурсов; БД на них не пользуются, да и огромных объемов файлов нет; исключение - бекапы базы/софта).
Планируется кластер на 2 ноды, возможно когда-то отрастет 3-я. Линк между нодами - 1000M патч-корд, в бондинге с вланом из линкоа на «мир» (для failover).
Итак собссно варианты видятся такие:
1) DRBD. Плюсы - вроде как логично выглядит, минусы - могут быть сложности при миграции, проблема split-brain, плохая масштабируемость;
1а) DRBD + iSCSI. Добавляются плюсы - меньше проблем при живой миграции, и минусы - оверхид (насколько критичен, если ресурс-хранилище живет на той же ноде что и виртуалки? что будет если еще одна нода появится, которая будет работать по сети?), + возможно еще что-то;
2) GlusterFS или что-то подобное. Плюсы - прозрачно. Минус - юзерлевел, т.е. если вдруг виртуалки пригрузят проц на 100% и при этом пойдет обращение к диску - весьма велик шанс, что все весело повиснет, ибо ИМХО приоритет KVM, время которого считается как время ядра, будет выше приоритета glusterfs, а виртуалки при этом будут активно кушать процессорное время, находясь в ожидании завершения дисковой операции;
3) DRBD + NFS, имиджи лежат на NFS. Плюсы - масштабируемость, более простое по сравнению с 1а) обслуживание. Минусы - большой оверхид;
4) DRBD + NFS поверх, рутовые разделы монтируются по NFS неким initrd. Плюсы - экономия места, еще более простое обслуживание (бекапы и т.д.), возможность монтировать поверх рид-онли «заготовки» с бинарниками и т.д. RW каталог с конфигами виртуалки (упрощается апдейт софта). Минусы - пока не выяснил, кроме необходимости собирать initrd свой (хотя выглядит черезчур уж красиво и просто, чтобы нормально работать), но смущает отсутствие массовых реализаций подобного.
Собссно вопрос на засыпку: кто что посоветует? Может я какой-то из вариантов упустил?