LINUX.ORG.RU

Прерывистая работа системы

 


0

2

Дано: Ubuntu 20.04, Ryzen-5 2600, Biostar B450MH c свежим БИОСом.
запущено 10 вычислительных задач, которые время от времени
пишут на SSD диск немного информации, на диске достаточно
свободного места. Своп есть, но не используется - памяти хватает.

Такие задачи считались до некоторого момента вполне равномерно, т.е. была постоянная загрузка десяти CPU на уровне близком к 100%. Сейчас примерно 10 секунд 100% и столько же в состоянии ожидания данных (D в top’е). Теперь на задачу тратиться реального времени больше в два раза. Если учитывать, что задаче нужно около 10 часов процессорного времени, то это «не есть карашо».

Вопрос: что сиё поведение системы означает?

Ответ на: комментарий от valentin630

Хочу добавить, что у меня есть еще 3 компа с точно такойже системой на SSD. на одном еще более древний «подвальный» smartbuy m2, с которым до сих пор нет проблем.

valentin630
() автор топика
Ответ на: комментарий от CrX

Но и причин стыдиться этого тоже не вижу.

По моему, у человека не могут быть разные культуры - одна на понедельник, другая на вторник. Еще раз спасибо за помощь.

valentin630
() автор топика
Ответ на: комментарий от valentin630

Со своим уставом в чужой монастырь не суйся.

Это совершенно точно русская поговорка. Так что разные сообщества людей с разными правилами общения не являются чем-то новым в русской культуре.

Vsevolod-linuxoid ★★★★★
()
Ответ на: комментарий от valentin630

ssd диску надо выравнивать расход ресурса разных его ячеек между собой. Для этого нужно каждую следующую запись желательно делать на новое место (эта логика, как и всё что описано дальше, происходит внутри ссд, операционная система её не видит; также ОС не видит тот факт, что порядок расположения секторов в чипах на самом деле не такой, как видит ОС, и динамически меняется).

Если ты, например, разметил только половину диска, а вторую половину оставил пустой, то контроллеру ссд не представляет никакой сложности эти пустые сектора (он знает, что там ничего полезного нет, и их можно затирать) использовать для выравнивания количества записей по разным ячейкам. Иногда приходится делать дефрагментацию записанных данных (дефрагментацию - в смысле физического их расположения по чипам, того, которое диск показывает ОС), чтобы очистить диапазоны секторов (чистить можно только большими пачками), для переиспользования.

trim подсказывает диску, какие сектора операционной системе больше не нужны (ты удалил с них файл, например), и диск эти секторы при очистке просто трёт, а не дефрагментирует. Это быстрее и экономит его износ.

То есть trim нужен если диск сильно забит и активно используется. Чем меньше свободного места и чем чаще идёт запись - тем чаще нужен trim. fstrim (с ключом -v) показывает сколько байт она «выкинула», и желательно чтобы это число не успевало вырасти до всего свободного места на диске. (если у тебя половина диска не размечена то оно никогда не вырастет т.к. за пределы раздела данные не вылазят и чистить там незачем).

firkax ★★★★★
()
Ответ на: комментарий от Dimez

SSD заполнен на 99% места, запись копеечных данных порождает большую возню под капотом SSD, ибо большой Write amplification factor (WAF).

Он может быть заполнен и на 10%, но 99% секторов успела «потрогать» (может даже не одновременно а в разное время, никогда не занимав больше 20% одновременно) ОС, и без trim-а они так и останутся занятыми с точки зрения контроллера. Думаю это основная проблема.

firkax ★★★★★
()
Последнее исправление: firkax (всего исправлений: 1)
Ответ на: комментарий от firkax

Хм я тут запустил fstrim -v -a и он мне отрапортовал что стримил среди прочего 35гб данных на loop-разделе, смонтированном на файл из fuse. Что это значит? Код fuse-раздела мой и я там поддержек trim точно не делал. Да и он сам про fuse-раздел потом написал что trim его не может.

firkax ★★★★★
()
Последнее исправление: firkax (всего исправлений: 1)
Ответ на: комментарий от valentin630

Я не понимаю откуда берутся 10 секунд - это огромное время, тем более, объем того, что пишется на диски - единицы килобайт.

Так работает флеш и wear leveling. Без регулярных discard команд у диска кончаются свободные страницы и ему приходится стирать и перезаписывать заново большие страницы даже для едениц килобайт.

Не надо кичиться годами, а то я уже все фейспалмы потратил.

MagicMirror
()
Ответ на: комментарий от forest22

/etc/fstab и вывод комманд free -m и mount

root@bel02:~# free -m
              total        used        free      shared  buff/cache   available
Mem:           7885        4045         612          68        3228        3482
Swap:          8191          91        8100
=======================================
root@bel02:~# cat /etc/fstab
UUID=205D-6C6F                            /boot/efi      vfat    umask=0077 0 2
UUID=011b1f0a-05fb-4945-b90c-1e3fe5845626 /              ext4    defaults   0 1
UUID=462bd5b9-f53f-4499-bf7b-ccb28553e967 /home          ext4    defaults   0 2
/swapfile none swap sw 0 0

#UUID=8fcb82f8-fa7b-433a-b037-64bb633dcf38 /media/data    ext4    defaults   0 2
# partitions on other disks
UUID=5109ca96-d1a7-4419-b159-2515b07d98a0 /media/d280    ext4    defaults   0 2
UUID=f7097b32-7747-4823-84f6-44e9a9c093b1 /media/d       ext4    defaults   0 2

UUID=2d6a1fc8-8cc3-4f68-9cdb-1e9a94d2ff52 /media/d600    ext4    defaults   0 2
UUID=c4ee82f2-244a-44d2-a8b1-f60d4f111bc0 /media/d330    ext4    defaults   0 2
valentin630
() автор топика
Ответ на: комментарий от valentin630
root@bel02:~# mount
sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)
proc on /proc type proc (rw,nosuid,nodev,noexec,relatime)
udev on /dev type devtmpfs (rw,nosuid,noexec,relatime,size=3970756k,nr_inodes=992689,mode=755,inode64)
devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000)
tmpfs on /run type tmpfs (rw,nosuid,nodev,noexec,relatime,size=807492k,mode=755,inode64)
/dev/sdb2 on / type ext4 (rw,relatime)
securityfs on /sys/kernel/security type securityfs (rw,nosuid,nodev,noexec,relatime)
tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev,inode64)
tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k,inode64)
tmpfs on /sys/fs/cgroup type tmpfs (ro,nosuid,nodev,noexec,mode=755,inode64)
cgroup2 on /sys/fs/cgroup/unified type cgroup2 (rw,nosuid,nodev,noexec,relatime,nsdelegate)
cgroup on /sys/fs/cgroup/systemd type cgroup (rw,nosuid,nodev,noexec,relatime,xattr,name=systemd)
pstore on /sys/fs/pstore type pstore (rw,nosuid,nodev,noexec,relatime)
efivarfs on /sys/firmware/efi/efivars type efivarfs (rw,nosuid,nodev,noexec,relatime)
bpf on /sys/fs/bpf type bpf (rw,nosuid,nodev,noexec,relatime,mode=700)
cgroup on /sys/fs/cgroup/hugetlb type cgroup (rw,nosuid,nodev,noexec,relatime,hugetlb)
cgroup on /sys/fs/cgroup/blkio type cgroup (rw,nosuid,nodev,noexec,relatime,blkio)
cgroup on /sys/fs/cgroup/cpu,cpuacct type cgroup (rw,nosuid,nodev,noexec,relatime,cpu,cpuacct)
cgroup on /sys/fs/cgroup/freezer type cgroup (rw,nosuid,nodev,noexec,relatime,freezer)
cgroup on /sys/fs/cgroup/memory type cgroup (rw,nosuid,nodev,noexec,relatime,memory)
cgroup on /sys/fs/cgroup/cpuset type cgroup (rw,nosuid,nodev,noexec,relatime,cpuset)
cgroup on /sys/fs/cgroup/rdma type cgroup (rw,nosuid,nodev,noexec,relatime,rdma)
cgroup on /sys/fs/cgroup/pids type cgroup (rw,nosuid,nodev,noexec,relatime,pids)
cgroup on /sys/fs/cgroup/devices type cgroup (rw,nosuid,nodev,noexec,relatime,devices)
cgroup on /sys/fs/cgroup/misc type cgroup (rw,nosuid,nodev,noexec,relatime,misc)
cgroup on /sys/fs/cgroup/net_cls,net_prio type cgroup (rw,nosuid,nodev,noexec,relatime,net_cls,net_prio)
cgroup on /sys/fs/cgroup/perf_event type cgroup (rw,nosuid,nodev,noexec,relatime,perf_event)
systemd-1 on /proc/sys/fs/binfmt_misc type autofs (rw,relatime,fd=28,pgrp=1,timeout=0,minproto=5,maxproto=5,direct,pipe_ino=27786)
debugfs on /sys/kernel/debug type debugfs (rw,nosuid,nodev,noexec,relatime)
tracefs on /sys/kernel/tracing type tracefs (rw,nosuid,nodev,noexec,relatime)
mqueue on /dev/mqueue type mqueue (rw,nosuid,nodev,noexec,relatime)
hugetlbfs on /dev/hugepages type hugetlbfs (rw,relatime,pagesize=2M)
/var/lib/snapd/snaps/bare_5.snap on /snap/bare/5 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
fusectl on /sys/fs/fuse/connections type fusectl (rw,nosuid,nodev,noexec,relatime)
configfs on /sys/kernel/config type configfs (rw,nosuid,nodev,noexec,relatime)
/var/lib/snapd/snaps/core18_2751.snap on /snap/core18/2751 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
/var/lib/snapd/snaps/core22_634.snap on /snap/core22/634 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
/var/lib/snapd/snaps/core18_2745.snap on /snap/core18/2745 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
/var/lib/snapd/snaps/video-downloader_1051.snap on /snap/video-downloader/1051 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
/var/lib/snapd/snaps/core20_1891.snap on /snap/core20/1891 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
/var/lib/snapd/snaps/gtk-common-themes_1535.snap on /snap/gtk-common-themes/1535 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
/var/lib/snapd/snaps/snapd_19361.snap on /snap/snapd/19361 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
/var/lib/snapd/snaps/snap-store_638.snap on /snap/snap-store/638 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
/var/lib/snapd/snaps/video-downloader_1049.snap on /snap/video-downloader/1049 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
/var/lib/snapd/snaps/snapd_19122.snap on /snap/snapd/19122 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
/var/lib/snapd/snaps/snap-store_959.snap on /snap/snap-store/959 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
/var/lib/snapd/snaps/gnome-3-34-1804_90.snap on /snap/gnome-3-34-1804/90 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
/var/lib/snapd/snaps/core22_750.snap on /snap/core22/750 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
/var/lib/snapd/snaps/gnome-3-38-2004_140.snap on /snap/gnome-3-38-2004/140 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
/var/lib/snapd/snaps/gnome-42-2204_105.snap on /snap/gnome-42-2204/105 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
/var/lib/snapd/snaps/core20_1879.snap on /snap/core20/1879 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
/var/lib/snapd/snaps/gnome-3-38-2004_137.snap on /snap/gnome-3-38-2004/137 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
/var/lib/snapd/snaps/gnome-3-34-1804_93.snap on /snap/gnome-3-34-1804/93 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
/var/lib/snapd/snaps/gtk-common-themes_1534.snap on /snap/gtk-common-themes/1534 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
binfmt_misc on /proc/sys/fs/binfmt_misc type binfmt_misc (rw,nosuid,nodev,noexec,relatime)
/dev/sdb1 on /boot/efi type vfat (rw,relatime,fmask=0077,dmask=0077,codepage=437,iocharset=iso8859-1,shortname=mixed,errors=remount-ro)
/dev/sdb3 on /home type ext4 (rw,relatime)
/dev/sdc5 on /media/d type ext4 (rw,relatime)
/dev/sda1 on /media/d600 type ext4 (rw,relatime)
/dev/sdc6 on /media/d280 type ext4 (rw,relatime)
/dev/sda2 on /media/d330 type ext4 (rw,relatime)
/dev/sdb2 on /var/lib/containers/storage/overlay type ext4 (rw,relatime)
shm on /var/lib/containers/storage/overlay-containers/1afbaac3218afee90c5373ddf2d46393ed595021b2a032e9cf121be6cb1b16e2/userdata/shm type tmpfs (rw,nosuid,nodev,noexec,relatime,size=64000k,inode64)
valentin630
() автор топика
Ответ на: комментарий от valentin630
overlay on /var/lib/containers/storage/overlay/68839685ddf6017e2c691606ddfd0c31ae8623f0f6f5bfb696a2b1d9a4b57a3e/merged type overlay (rw,relatime,lowerdir=/var/lib/containers/storage/overlay/l/RE3XYCKULLYSR6DSPVY62DHHPP:/var/lib/containers/storage/overlay/l/OT55PYVK4CQBUX2BKAOPYIQ6XU:/var/lib/containers/storage/overlay/l/WGPEFDAGWIXQPL6GRZXSRCPP57:/var/lib/containers/storage/overlay/l/CFXTY7VBMQTO3A2XFQIDJOEZ7Y:/var/lib/containers/storage/overlay/l/4GQPLGS7VR6ZP2Q5GXBZPA373H:/var/lib/containers/storage/overlay/l/EFQPYKDHGN4UW47TNIEZFGRCTT:/var/lib/containers/storage/overlay/l/JRVH3EED2JBJ52FRHUENYZJFUZ:/var/lib/containers/storage/overlay/l/MJYB4FNUZJPEBAXPVOHOVLXY3L:/var/lib/containers/storage/overlay/l/XVMILRJRH64EKWTTDXKFW5XVHR:/var/lib/containers/storage/overlay/l/QXIXJFQDB5VRSUQSNCIH3O5XSB:/var/lib/containers/storage/overlay/l/2CUI2LPACLSTCTG7OL3Q6VEKZN:/var/lib/containers/storage/overlay/l/R5HO7J7YSFWSFEHVIOB47OZFAW:/var/lib/containers/storage/overlay/l/5MLNHG6FH4GC2MH3IUZETIKUTP:/var/lib/containers/storage/overlay/l/ZJGTQ3ECDGD7JZ3U2DYCVZCDO7:/var/lib/containers/storage/overlay/l/LC3NQOHWXOALISKZVGLCAQL57Y:/var/lib/containers/storage/overlay/l/K2VQEWBNWW6GPXO3A7TLK5CDQR:/var/lib/containers/storage/overlay/l/QXGCIGIIMUTE7KXOXLF65HVKVR:/var/lib/containers/storage/overlay/l/V4UUCZ3INY6GDPKHVYTQPQUZTN,upperdir=/var/lib/containers/storage/overlay/68839685ddf6017e2c691606ddfd0c31ae8623f0f6f5bfb696a2b1d9a4b57a3e/diff,workdir=/var/lib/containers/storage/overlay/68839685ddf6017e2c691606ddfd0c31ae8623f0f6f5bfb696a2b1d9a4b57a3e/work)
cvmfs2 on /var/cvmfs/nica.jinr.ru type fuse (ro,nosuid,nodev,relatime,user_id=0,group_id=0,default_permissions,allow_other)
tmpfs on /run/user/1000 type tmpfs (rw,nosuid,nodev,relatime,size=807488k,mode=700,uid=1000,gid=1001,inode64)
gvfsd-fuse on /run/user/1000/gvfs type fuse.gvfsd-fuse (rw,nosuid,nodev,relatime,user_id=1000,group_id=1001)
/dev/fuse on /run/user/1000/doc type fuse (rw,nosuid,nodev,relatime,user_id=1000,group_id=1001)
tmpfs on /run/user/127 type tmpfs (rw,nosuid,nodev,relatime,size=807488k,mode=700,uid=127,gid=137,inode64)
gvfsd-fuse on /run/user/127/gvfs type fuse.gvfsd-fuse (rw,nosuid,nodev,relatime,user_id=127,group_id=137)
/var/lib/snapd/snaps/gnome-42-2204_111.snap on /snap/gnome-42-2204/111 type squashfs (ro,nodev,relatime,errors=continue,x-gdu.hide)
valentin630
() автор топика
Ответ на: комментарий от valentin630

Я не знаток в контейнерах, но /dev/sdb2 у вас, по-видимому, rootfilesystem. Должен бы проявляться в выводе комманды mount. А вас не проявляется. Что-то ещё маунтит этот девайс на контейнер (mount --bind ?). Какие-то ещё команды формируют контейнер.

forest22
()
Последнее исправление: forest22 (всего исправлений: 1)
Ответ на: комментарий от forest22

Я пользователь и не специалист в контейнерах. Они приделаны, чтобы я мог работать в определенном «framework» на своем личном компе.

root@bel02:~# mount |grep /dev/sdb2
/dev/sdb2 on / type ext4 (rw,relatime)
/dev/sdb2 on /var/lib/containers/storage/overlay type ext4 (rw,relatime)
root@bel02:~# mount --bind
mount: bad usage
valentin630
() автор топика
Ответ на: комментарий от forest22
root@bel02:~# df -hT
Filesystem     Type      Size  Used Avail Use% Mounted on
udev           devtmpfs  3,8G     0  3,8G   0% /dev
tmpfs          tmpfs     789M  3,3M  786M   1% /run
/dev/sdb2      ext4       49G   44G  2,5G  95% /
tmpfs          tmpfs     3,9G  168K  3,9G   1% /dev/shm
tmpfs          tmpfs     5,0M   16K  5,0M   1% /run/lock
tmpfs          tmpfs     3,9G     0  3,9G   0% /sys/fs/cgroup
/dev/loop0     squashfs  128K  128K     0 100% /snap/bare/5
/dev/loop1     squashfs   56M   56M     0 100% /snap/core18/2751
/dev/loop2     squashfs   74M   74M     0 100% /snap/core22/634
/dev/loop3     squashfs   56M   56M     0 100% /snap/core18/2745
/dev/loop6     squashfs   24M   24M     0 100% /snap/video-downloader/1051
/dev/loop5     squashfs   64M   64M     0 100% /snap/core20/1891
/dev/loop7     squashfs   92M   92M     0 100% /snap/gtk-common-themes/1535
/dev/loop9     squashfs   54M   54M     0 100% /snap/snapd/19361
/dev/loop12    squashfs   46M   46M     0 100% /snap/snap-store/638
/dev/loop10    squashfs   24M   24M     0 100% /snap/video-downloader/1049
/dev/loop13    squashfs   54M   54M     0 100% /snap/snapd/19122
/dev/loop11    squashfs   13M   13M     0 100% /snap/snap-store/959
/dev/loop15    squashfs  219M  219M     0 100% /snap/gnome-3-34-1804/90
/dev/loop16    squashfs   74M   74M     0 100% /snap/core22/750
/dev/loop20    squashfs  350M  350M     0 100% /snap/gnome-3-38-2004/140
/dev/loop14    squashfs  461M  461M     0 100% /snap/gnome-42-2204/105
/dev/loop18    squashfs   64M   64M     0 100% /snap/core20/1879
/dev/loop8     squashfs  350M  350M     0 100% /snap/gnome-3-38-2004/137
/dev/loop19    squashfs  219M  219M     0 100% /snap/gnome-3-34-1804/93
/dev/loop17    squashfs   82M   82M     0 100% /snap/gtk-common-themes/1534
/dev/sdb1      vfat      300M  6,1M  294M   3% /boot/efi
/dev/sdb3      ext4       68G   23G   42G  35% /home
/dev/sdc5      ext4      591G  345G  216G  62% /media/d
/dev/sda1      ext4      590G  328G  232G  59% /media/d600
/dev/sdc6      ext4      277G  200G   64G  76% /media/d280
/dev/sda2      ext4      326G  243G   66G  79% /media/d330
shm            tmpfs      63M     0   63M   0% /var/lib/containers/storage/overlay-containers/1afbaac3218afee90c5373ddf2d46393ed595021b2a032e9cf121be6cb1b16e2/userdata/shm
overlay        overlay    49G   44G  2,5G  95% /var/lib/containers/storage/overlay/68839685ddf6017e2c691606ddfd0c31ae8623f0f6f5bfb696a2b1d9a4b57a3e/merged
cvmfs2         fuse      9,8G  994M  8,8G  10% /var/cvmfs/nica.jinr.ru
tmpfs          tmpfs     789M   64K  789M   1% /run/user/1000
tmpfs          tmpfs     789M  8,0K  789M   1% /run/user/127
/dev/loop21    squashfs  467M  467M     0 100% /snap/gnome-42-2204/111
valentin630
() автор топика
Ответ на: комментарий от forest22

Нет, я проверял /var/log. Просто слишком много софта установлено + swap

Прерывистость убирается через fstrim /home, а эта партиция полупустая. У меня еще 3 компа близнецы этого, на них прерывистости не наблюдается при таких же вычислениях. И это оставляет в голове вопросы.
Я понял КАЧЕСТВЕННОЕ объяснение, но как математик и физик не имею количественной картины. Конечно, я смогу докопаться и сам до цифр, но это отнимет кучу времени. К сожалению, каких-то элементарных оценок РЕАЛЬНОЙ скорости записи на SSD c учетом обнуления памяти я не услышал пока.

Не понял роли контроллера SSD, которую мне объяснили как отдельный «искуственный интеллект», но требующий ПОСТОЯННОГО обновления, иначе нам удачи не видать. Интересно, что нужно менять в алгоритме его работы непрерывно, что проклятые китайцы не делают для каждого бренда?

Сейчас смотрю fstrim -v /home (первый fstim на этом компе), на котором SSD SmartBoy 4х летней давности - плавная работа

root@vak01:/home/kuzmin# fstrim -v /home/ /home/: 45,6 GiB (48921362432 bytes) trimmed

valentin630
() автор топика
Ответ на: комментарий от valentin630

Я бы перенёс эту систему на более качественный носитель (к примеру, у меня Intel SSD) большей ёмкости (256G/512G) и тогда уже смотрел дальше.

Можно перенести тулзой «Clonezilla», желательно по одной копии на двух носителях.

Clonezilla работает хорошо, но нужно, чтобы целевой носитель был как минимум точно такой же, как исходный, а лучше больше, что в вашем случае имеет смысл. Всё-таки 5% мало для свободного места, это может граничить с квотами.

forest22
()
Ответ на: комментарий от forest22

Я бы перенёс эту систему на более качественный носитель

Я тоже пришел к такому выводу. Про clonzilа слышу первый раз, по старинке dd пользуюсь, недавно менял системный диск SSD (комп часто зависал по неизвестной причине, скорее из-за старого биоса) на больший SSD. Перенес через dd, потом раздвинул с помощью geparted. Возможности одновременно подсоединить оба диска не было, переносил через USB-HDD.

Спасибо!

valentin630
() автор топика
Ответ на: комментарий от valentin630

Прерывистость убирается через fstrim /home, а эта партиция полупустая. У меня еще 3 компа близнецы этого, на них прерывистости не наблюдается при таких же вычислениях. И это оставляет в голове вопросы.

Неужели ssd на них одинаковые и с одинаковой версией прошивкой?

контроллера SSD, которую мне объяснили как отдельный «искуственный интеллект»

Если сильно утрировать, то так и есть. Ssd сильно отличаются от hdd.

но требующий ПОСТОЯННОГО обновления

Устраивать передёрги не надо. Надо не «постоянно обновлять», а «периодически следить за обновлениями». Производители верхних эшелонов (samsung/plextor/kingston/micron/crucial/intel) за срок жизни ssd выпускают около 5 обновлений прошивки (причём, как довольно часто бывает, 1 из них критическое), даже для серверного сегмента. Подвал как правило не выпускает ничего.

Dimez ★★★★★
()
Последнее исправление: Dimez (всего исправлений: 1)
Ответ на: комментарий от valentin630

Ну вот и ответ. Почти забитый /, большой swapfile, в /home остаётся 23Gb, которые без trim очень легко записать.

Как правило, прошивки контроллеров умеют сами оптимизировать в простое с помощью встроенного GC только виндовые FS (ntfs/fat/exfat), поэтому 23+2.5=25.5Gb - это очень мало для записи в неделю без trim.

Ну по крайней мере так было раньше.

Dimez ★★★★★
()
Последнее исправление: Dimez (всего исправлений: 1)
Ответ на: комментарий от valentin630

«Всякая веревка, порезанная на куски, окажется слишком короткой.»

Сегодня, 100гб - мизер, который не стоит крошить.

andytux ★★★★★
()
Последнее исправление: andytux (всего исправлений: 1)
Ответ на: комментарий от Dimez

23+2.5=25.5Gb

23 - использовано, а 42 - доступно.

Количественный вопрос остался, так как пару таких же «подвальных» (один еще более старый) НЕ ЗАМЕДЛЯЮТ аналогичные вычисления на других компах. Нутром чую, «что-то пошло не так» в железе диска, а софт этого не понимает, если он заточен на «чистку» только раз в неделю. Поэтому заказал новый SSD, поболе, в субботу поменяю - проблемный комп в загородном доме.

valentin630
() автор топика
Ответ на: комментарий от valentin630

23 - использовано, а 42 - доступно.

Практически нет разницы. 42Gb за неделю записать - не просто, а очень просто. Например, я запустил fstrim, потом минут 20 сёрфил по LOR’у, запустил его опять - он занулил 1Gb на SSD.

Количественный вопрос остался, так как пару таких же «подвальных» (один еще более старый) НЕ ЗАМЕДЛЯЮТ аналогичные вычисления на других компах.

Это разные SSD, у них разные прошивки, они стоят на разных компах. Например, там, где всё работает, может быть discard в fstab, тогда fstrim не нужен (а когда запускается, TRIM’ит 0 блоков). Надо точный ответ - сделай эксперимент, проверь все значения, приведи к одинаковым параметрам и потом сравнивай, изменяя параметры по одному.

Нутром чую, «что-то пошло не так» в железе диска, а софт этого не понимает, если он заточен на «чистку» только раз в неделю.

Надо не нутром чуять, а логи смотреть (trim’ит ли fstrim раз в неделю нужную партицию, это пишется в логи)

Также хорошо бы заметить, сколько за неделю пишется вообще на этот SSD (посмотрев соответствующие SMART-атрибуты SSD и посчитав на калькуляторе.

и стараться действовать системно.

Dimez ★★★★★
()
Ответ на: комментарий от Dimez

а логи смотреть (trim’ит ли fstrim раз в неделю нужную партицию, это пишется в логи)

Логи - это вещь в себе, по большому счету нужная только специалисту в экстренных ситуациях. Вы, как я предполагаю, зарабатываете себе на жизнь, тем, что изучили как вытащить из этой помойки нужную информацию, и почему-то считаете, что и юзер должен как и Вы разбираться в этой криптографии. Я не буду никогда удивляться, почему Сисадмин не «погуглил» и сам не посчитал систематические ошибки того или иного бренчинга распада элементарной частицы, если это ему зачем-то понадобилось.

А теперь представьте, сколько мне надо перелопатить информации, чтобы воспользоваться Вашим советом, найти и выполнить ту или иную команду с правильными параметрами? Такие общие советы я считаю просто изощренным издевательством Сисадмина на Юзером.

valentin630
() автор топика

Записывают немного. Немного это сколько?

Мне попадались супердешевые ссд у которых скорость записи после 4гб записанного падает почти до 0, около 5мбвс потом прыгает. Trim от такого не спасает, просто ещё 4гб позволяет записать быстро и только.

theurs ★★
()