LINUX.ORG.RU
ФорумAdmin

Какие ФС /архиваторы с дедупликацией существуют?

 , , ,


0

3

то есть хотя бы RO, закидываешь туда новые файлы, они чекаются и если что - удаляются дубли.
новая Erofs хотя похожа по концепции на желаемый сабж для долговременного хранения данных, но я нигде не нашёл упоминания о поддержке дедупликации в ней.

Какие ФС /архиваторы с дедупликацией существуют?

Объясни лучше что ты хочешь с этим сделать.

aquadon ★★★★★
()
Ответ на: комментарий от darkenshvein

Поскольку задачу, рассмотренные пути решения и возникшие трудности ты не описал, а описал лишь свою хотелку, то решай свою задачу сам.

В первом комментарии тебе предложили ФС с дедупликацией. Если тебе это не подходит, то сперва научись разговаривать с людьми, а затем приходи снова.

aquadon ★★★★★
()
Ответ на: комментарий от darkenshvein

root@bve-01:~# zpool list
NAME   SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
tank  18.1T  15.7T  2.45T        -         -    40%    86%  4.85x    ONLINE  -

Вот мой уровень дедупликации на zfs - 4,85.

В вот как оно ещё и жмет то, что мне надо:

root@bve-01:~# zfs get compressratio /tank/subvol-50006-disk-1
NAME                      PROPERTY       VALUE  SOURCE
tank/subvol-50006-disk-1  compressratio  1.81x  -

Нужно просто вникать в данные которые ты собрался хранить и будет всё ОК!

DALDON ★★★★★
()
Ответ на: комментарий от aquadon

гм, надо бы тебя в игнор-лист добавить, ты то ли упорот постоянно, то ли обиженка за что-то. всё время хамишь.

darkenshvein ★★★★★
() автор топика

Подойдет любая ФС. Используйте VDO.

i586 ★★★★★
()
Ответ на: комментарий от darkenshvein

Снапшотами сам пользуюсь и горя не знаю. А вот дедупликации нет и ещё долго не будет (если её вообще запилят).

token_polyak ★★★★★
()

В git закинь свои файлы.

Nervous ★★★★★
()
Ответ на: комментарий от darkenshvein

когда пакуешь данные в непрерывный архив с большим размером словаря, то через онный словарик дублированные потоки байтов находятся и заменятся ссылками.
там конечно неполноценный поиск дубль-файлов. но, как следствие из метода архивации, вполне себе работает.

pfg ★★★★★
()
Ответ на: комментарий от Minona

Известный опеннетовский мудрец, большой любитель (целой душой) любого проприетарного говна - сказал, что всё из-за того, что к линуксу ZFS прикручен сбоку, и бздям тоже, а в родном солярисе никогда не жрал память.

token_polyak ★★★★★
()
Последнее исправление: token_polyak (всего исправлений: 1)
Ответ на: комментарий от token_polyak

Враньё.
Драма как раз была в родном ZFS, а точнее на форуме нексенты кажись.
И емнип фряха её унаследовала.
Я краем уха где-то слышал что вроде бы пофиксили, да вот думаю надо уточнить, раз человек эту фичу использует, то возможно вкурсе.

Minona ★★☆
()
Ответ на: комментарий от Minona

Ну да, один из них. Сейчас уже не припомню (лично уверен, что это один и тот же человек).

token_polyak ★★★★★
()

Тривиально скриптом делается. Потрать 5 минут на скрипт и всё. ln /my/file /hash/deadbeef/beadfeef

anonymous
()
Ответ на: комментарий от Minona

враньё про всегда, но в соляре уже давно как переделали и теперь ddt занимает гораздо меньше места

anonymous
()
Ответ на: комментарий от anonymous

скриптом делается

Нафига скриптом, rdfind же?

anonymous
()

[жж]

короче, подключил пока ZOL, сжатие, дедупликацию, тыкаюсь. забиваю файлами, смотрю на быстродействие и жор ОЗУ

darkenshvein ★★★★★
() автор топика
Ответ на: комментарий от Minona

Эм… Я не очень понял откуда ноги у этого мифа, если честно. Я проверяю периодически сколько оно ест. Это же можно считать на калькуляторе, и видеть в реалтайме. Если изначально хранить данные, которые поддаются дедупликации, очевидно, что с памятью будет всё ОК. Если пытаться дедуплицировать картинки и архивы - очевидно, что выхлопа не будет, зато будет жор памяти. Не?)

DALDON ★★★★★
()
Ответ на: комментарий от DALDON

это не миф, косяк был в том что таблица дедупликации целиком должна была влезать в оперативу, если ей не хватало места пул вставал раком.
по этому поводу у нексенты был большой лулз
впрочем это было давано и аноним выше сказал что пофиксили, так что забей =)

Minona ★★☆
()
Ответ на: комментарий от DALDON

zfs :)

Там жесть неюзабельная (constant block deduplication), а не нормально работающая дедупликация (variable block deduplication).

Harliff ★★★★★
()
Последнее исправление: Harliff (всего исправлений: 1)
Ответ на: комментарий от Minona

Да. От твоих данных зависит сколько будет сожрано, т.е. очень хорошо подходит для нешифрованных бекапов СУБД, например. Плюс, DDT может жить и в l2arc! Что уже не так плохо. :)

DALDON ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.