LINUX.ORG.RU

История изменений

Исправление DALDON, (текущая версия) :

Да чур тебя! :)

То что для резервного копирования не требуется доступность прошлой версии файла это большой плюс.

Если ты делаешь инкрементальный backup или diff, то ещё как требуется всё то, что было сделано до.

только успевай НЖМД менять.

Один НЖМД сейчас стоит 12к, на 4ТБ если брать. Что весьма не дёшего, чтобы следовать политике: «только успевай менять».

Возможно разбивание крупных файлов на куски и сравнение контрольных сумм кусков улучшило бы ситуацию, но всё равно, если дописать хоть один байт в начале файла, то все куски получатся с другими контрольными суммами.

Да снова чур тебя! Кто-ж так делает то..? Разбивают на фиксированные кусочки от начала файла. Например: 1к, 1к, 1к, 1к. - Если ты допишешь в начало, у тебя поменяется, или добавится только первый чанк. Иначе в этом не было бы смысла. Я тебе могу сказать, что я проработал много с rdiff-backup, так вот, тот по такому принципу работая, творит натуральные чудеса...

Возможно разбивание крупных файлов на куски и сравнение контрольных сумм кусков улучшило бы ситуацию

В тех условиях, когда у тебя есть три десятка вирт. машин, и средний объём машины 20 гб. - Это кардинально бы изменило ситуацию. А так - придётся делать переодический backup VM образов, и ставить агента внутрь, для получения инкрементных backup. - С rdiff-backup/zfs - такого не пришлось бы делать. Правда в случае с rdiff-backup приходится весьма прилично ждать пока оно там прожуёт всё. А при восстановлении скрещивать пальцы. Да. :)

Исходная версия DALDON, :

Да чур тебя! :)

То что для резервного копирования не требуется доступность прошлой версии файла это большой плюс.

Если ты делаешь инкрементальный backup или diff, то ещё как требуется всё то, что было сделано до.

только успевай НЖМД менять.

Один НЖМД сейчас стоит 12к, на 4ТБ если брать. Что весьма не дёшего, чтобы следовать политике: «только успевай менять».

Возможно разбивание крупных файлов на куски и сравнение контрольных сумм кусков улучшило бы ситуацию, но всё равно, если дописать хоть один байт в начале файла, то все куски получатся с другими контрольными суммами.

Да снова чур тебя! Кто-ж так делает то..? Разбивают на фиксированные кусочки от начала файла. Например: 1к, 1к, 1к, 1к. - Если ты допишешь в начало, у тебя поменяется, или добавится только первый чанк. Иначе в этом не было бы смысла. Я тебе могу сказать, что я проработал много с rdiff-backup, так вот, тот по такому принципу работая, творит натуральные чудеса...

Возможно разбивание крупных файлов на куски и сравнение контрольных сумм кусков улучшило бы ситуацию

В тех условиях, когда у тебя есть три десятка вирт. машин, и средний объём машины 20 гб. - Это кардинально бы изменило ситуацию. А так - придётся делать переодический backup VM, образов, и ставить агента внутрь, для получения инкрементных backup. - С rdiff-backup/zfs - такого не пришлось бы делать. Правда в случае с rdiff-backup приходится весьма прилично ждать пока оно там прожуёт всё. А при восстановлении скрещивать пальцы. Да. :)