LINUX.ORG.RU
ФорумTalks

О пользе отсутствия фрагментации файлов

 ,


0

1

Тут народ высказался в духе, что фрагментация на SSD не является проблемой - и это правда, что касается скорости доступа к файлам.

Однако есть одно большое но.

Я не встречал в этом мире людей, которые бы случайно не удаляли файлы.

А вот с удалёнными файлами есть одна фишка - если они лежат на диске последовательно, то шансы их успешно восстановить огромны. А если файлы раскиданы чёрт знает как, то собрать их фрагменты порой становится невозможно.

P.S. Я в курсе про backup'ы.

С наилучшими пожеланиями,

★★★★★

Ты точно не спутал лор со своим жж?

Kindly_Cat
()

Фрагментация - это плюс!

man ZFS ;D

tazhate ★★★★★
()

А вот с удалёнными файлами есть одна фишка - если они лежат на диске последовательно, то шансы их успешно восстановить огромны. А если файлы раскиданы чёрт знает как, то собрать их фрагменты порой становится невозможно.

Ладно, убедил, фрагментация — это плюс.

Sadler ★★★
()

Ясно. Какие ещё будут новости?

P.S.: Рад, что ты вернулся.

IPR ★★★★★
()

Я в курсе про backup'ы.

Пользуйся.

YAR ★★★★★
()

успехов в восстановлении удаленных файлов с ssd

nu11 ★★★★★
()

Если в курсе про бэкапы, то сделай следующий шаг и освой систему контроля версий и отмечай в ней весь нетривиальный контент.

Evgueni ★★★★★
()

C discard файлокапец гарантирован при любой нарезке.

aidaho ★★★★★
()

Я в курсе про backup'ы

нет, походу не в курсе... постоянным дефрагом ты убьешь свой SSD так быстро, что тебе дешевле купить еще один SSD для бекапов

Lordwind ★★★★★
()
Ответ на: комментарий от Lordwind

постоянным дефрагом ты убьешь свой SSD так быстро, что тебе дешевле купить еще один SSD для бекапов

Это почему это дефраг убъёт SSD?

i-rinat ★★★★★
()

Я не встречал в этом мире людей, которые бы случайно не удаляли файлы.

Я здесь.

Axon ★★★★★
()

P.S. Я в курсе про backup'ы.

А про TRIM ? :-)

AS ★★★★★
()
Ответ на: комментарий от i-rinat

Это почему это дефраг убъёт SSD?

Потому как число перезаписей ограничено. Хоть оно и большое относительно, но зачем же в два раза сразу уменьшать ?

AS ★★★★★
()
Ответ на: комментарий от cipher

Ты не в этом мире, очевидно же.

Хм, я давно что-то такое подозревал...

Axon ★★★★★
()
Ответ на: комментарий от AS

Потому как число перезаписей ограничено.

Это понятно, оно везде ограничено.

Хоть оно и большое относительно, но зачем же в два раза сразу уменьшать ?

Вот касательно этого у меня сомнения. Еженедельный (примерно) дефраг занимает около 60 секунд; раздел размером в 13,5 гигов. Диск ноутбучный, скорость порядка 50 МБ/с. Даже если он будет подряд писать, около 3-х гигов выходит. Но так как это HDD, много времени тратится на перемещения головки, так что реальной записи меньше.

Вот и получается, что от дефрагментации не такой уж и большой расход ресурса SSD.

i-rinat ★★★★★
()

Просто не удаляй файлы.

sin_a ★★★★★
()
Ответ на: комментарий от i-rinat

от дефрагментации не такой уж и большой расход ресурса SSD.

а кто-нить уже мерял пользу от неё на ssd? У меня есть сомнения.

Да и что есть «дефрагментация»? Физически всё равно контроллер будет размазывать данные для равномерного износа ячеек.

true_admin ★★★★★
()
Ответ на: комментарий от true_admin

У меня есть сомнения.

Время доступа к странице ненулевое и составляет порядка 40µs (лучшее, что нашёл). Если файл разбит на кусочки по 4 килобайта и каждый в своей странице, получается около 100 МиБ/c. Если читать подряд, около 530 МиБ/c. То есть SSD на чтении просядет минимум в пять раз.

Получается, если собирать файлы в куски по 128 КиБ (erase-блок), фрагментация влиять не будет. Для жёстких дисков по моим прикидкам размер кусков составит 8-16 МиБ.

Физически всё равно контроллер будет размазывать данные для равномерного износа ячеек.

Он оперирует erase-блоками.

i-rinat ★★★★★
()
Ответ на: комментарий от i-rinat

Если файл разбит на кусочки по 4 килобайта и каждый в своей странице, получается около 100 МиБ/c

в курсе что такое случайное чтение? так вот никогда при реальной работе программ не бывает кейса прочитать один файл, обычно это 100500 мелких файлов

варианты когда есть небольшое количество файлов большого объема это в основном видеомонтаж, а для них очень важен объем диска, поэтому там делают рейды на HDD

Lordwind ★★★★★
()
Ответ на: комментарий от Lordwind

в курсе что такое случайное чтение? так вот никогда при реальной работе программ не бывает кейса прочитать один файл, обычно это 100500 мелких файлов

/sys/block/sda/queue/read_ahead_kb

i-rinat ★★★★★
()

Знаю, как устроен FAT 12-16-32 изнутри. NTFS не вдавался в подробности, ext 2-3-4 вообще без понятия. Но принципы, думаю, не поменялись. Скорее всего пишется абы как, на свободное место, чисто для экономии времени. И параллельно табличка индексов.
Дефрагментация может и полезна, но не чаще раза в месяц.
Гораздо полезнее делать резервные копии. В нашем ВЦ это делали каждую пятницу и запирали кассеты стриммера в сейф. И да, оставляли запись в журнал.
Это было круто, но благодаря этому ничего не пропадало. =)

cadaber ★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.