Сформировалась типовая задачка на тему:
-
Нарисовали процедуру обработки данных, которая на обычном офисном железе будет отрабатывать неделю-две; причем правильно она отработала или нужно допиливать - будет понятно по завершению.
-
Значит, нужно арендовать на пару дней мегачислодробильню-9000 со 100500 iops, накатить туда centos, копии своих приложений, развернуть снапшот базы с продакшона, запустить процедуру, снять журналы и результат, уничтожить арендованную VM.
-
Пункт 2 повторить N+1 раз.
Checklist:
- автоматизированная установка Centos7 - есть (Vagrant либо провайдером VM)
- установка необходимого софта из RPM - есть (vagrant provision.sh либо ansible - на выбор)
- конфигурация софта с помощью ansible - есть
- установка своего софта, который находится в процессе разработки и не опакечен - нет.
Ищем решение: скачивать архивчик и распаковывать - не идемподентненько: архивчик меняется, код меняется, проверять соответствие установленных файлов средствами ansible - неправильно.
Вылезаю из-под камня и вспоминаю, что пора-бы научиться в Docker, благо проект-то наверное уже взрослый. И тут начинается: Docker больше не opensource, а opensource теперь Moby, а Docker теперь CE и EE (верный признак близкой смерти проекта), и пакеты в Centos7 - двухлетней давности (верный признак, что RedHat пилит свой велосипед, а он пилит).
В интернетах куча нытья про то, что Docker работает только на ноутбуке, а в продакшоне валится.
Читал Что думаете о Docker?
Сделал вывод, что в CV нужно указывать, а использовать не обязательно.
Смотрел Hitler uses Docker
Сделал вывод, что у кого-то конкретно пригорело.
Что, залезать обратно под камень, пока RedHat не допилит свои контейнеры для пролетариата?
Проблем с совместимостью версий библиотек у меня нет, т.е. по сути изоляция мне и не нужна. Хочется непакетированный софт разворачивать максимально быстро.