Смотрю современные тенденции и вижу много шума по поводу сабжевых прог. Однако как их в реальности использовать я не понимаю.
Все туториалы выглядят типа «щас мы автоматизированно поставим apache на 100 машин с разными осями». А нахрена это надо если можно тупо образ склонировать? Я даже париться с установкой ОС не буду, dd/rsync/restore/whatever в руки и вперёд. Заодно скриптом поправлю хостнейм и айпишники.
Другой вариант (смотрю доки puppet): настройка нагиоса. Зачем мне на каждой из 100 тачек нагиос? Я на одной из них настрою руками мониторинг остальных 99 машин. В случае если понадобится обновить нагиос читаю migration howto и правлю конфиги. А вот поправят ли профиль в том же puppet это ещё вопрос.
Для реальных боевых проектов(с теми что я имею дело) готовые профили не подходят, а своих профелей заколебаться писать можно. Проще конфиги копировать, тем более в ситуации когда все тачки выполняют разные функции. А если функция у тачек одна то делаем клонирование и всё.
Ну а если мне надо обновить кучу тачек то я могу воспользоваться для этого, например, fabric и автоматизированно всё сделать.
Собстно вопрос: что я упускаю? В доках пишут что это ultimate datacenter solution, но мне так не кажется.