Есть некоторое количество БОЛЬШИХ файлов, порядка 100-400 ГБ. В этих файлах периодически меняются данные, но мало. Порядка десятков-сотен мегабайт в сутки.
Вопрос: чем можно инкрементально все это хозяйство бекапить? Например: бекап раз в сутки, храним файл на 200 ГБ + дифф за каждый день. Размер диффа соответственно несколько десятков-сотен мегабайт. Итого, в день менялось по 100 мб ~ гигабайт изменений за десять дней. На выходе имеет 200 гб, и 1 гб диффов. Соответственно можно восстановить любой из дней.
Из того что нашел: rdiff-backup какой-то кривоватый, не понравился. Да и отзывы про него не особо хорошие.
Есть утилита rdiff(и аналоги типа xdelta) - но к ним надо писать скрипт-обвязку. Не хочется изобретать велосипед.
Кто как выходит из такой ситуации?
з.ы. Вариант бекапить не снапшот не рассматривается, по ряду причин.