LINUX.ORG.RU

Сообщения n0mad

 

Как бы починить «неломающуюся» fs: zfs? Есть файлы которые невозможно удалить.

Приветствую, уважаемое сообщество.
Занялся тут изучением zfs и прогоном скорости паковки разными алгоритмами. Вся работа была с SATA hdd подключенном через USB3 рэк. Идея была в прогоне этого винта на разных процессорах и замера скорости упаковки (отработки rsync на одних и тех же данных).
Всё сумбурно, и не всегда читал/фиксировал вывод команд. Они в общем то выводили в скриптах и в финале ошибки уже пролетали. После очередного цикла - заметил ошибку при rm -rf
Оставались неудаляемые файлы. Я даже и не представляю как это показать общественности.

Например

/usr/share/icons/matefaenza/mimetypes# ls -ld 64 
drwxr-xr-x 2 root root 373 мая 27  2018 64

/usr/share/icons/matefaenza/mimetypes# rm -rf 64 
rm: невозможно удалить '64': Каталог не пуст

/usr/share/icons/matefaenza/mimetypes# ls -l 64 
ls: чтение каталога '64': Ошибка ввода/вывода
итого 0

Тут не файлы, тут пустые каталоги не удалить.
С файлами немного по другому:
/usr/share/icons/matefaenzadark/actions/16# ls -l stock_mail-send-receive.png 
ls: невозможно получить доступ к 'stock_mail-send-receive.png': Некорректный обмен

И как теперь эти файлы/каталоги удалить? Неужели пул придется бэкапить и пересоздавать?

Дайте какие нибудь рекомендации для устранения этой ошибки.

P.S. При прогоне собралось тьма сырых даных, надо оформить в таблицах. Тупо rsync 64Gb данных занимал от 58 минут и до 11 часов и 27 минут
Без упаковки rsync отрабатывал от 59 минут (на BMAX B1 Pro) и до 73 минут (На Celeron E3400 @2.6GHz)

Упаковывалось до следующих значений:
# zfs list
NAME                         USED  AVAIL     REFER  MOUNTPOINT
S1T1Archive                  736G   164G     16.6M  /S1T1Archive
S1T1Archive/gzip            37.7G   164G     37.7G  /S1T1Archive/gzip
S1T1Archive/gzip-1          38.6G   164G     38.6G  /S1T1Archive/gzip-1
S1T1Archive/gzip-9          37.6G   164G     37.6G  /S1T1Archive/gzip-9
S1T1Archive/lz4             41.4G   164G     41.4G  /S1T1Archive/lz4
S1T1Archive/lzjb            43.9G   164G     43.9G  /S1T1Archive/lzjb
S1T1Archive/off             64.4G   164G     64.4G  /S1T1Archive/off
S1T1Archive/off-copy        64.4G   164G     64.4G  /S1T1Archive/off-copy
S1T1Archive/zle             60.8G   164G     60.8G  /S1T1Archive/zle
S1T1Archive/zstd            37.9G   164G     37.9G  /S1T1Archive/zstd
S1T1Archive/zstd-1          38.2G   164G     38.2G  /S1T1Archive/zstd-1
S1T1Archive/zstd-19         36.9G   164G     36.9G  /S1T1Archive/zstd-19
S1T1Archive/zstd-fast       39.5G   164G     39.5G  /S1T1Archive/zstd-fast
S1T1Archive/zstd-fast-1     39.5G   164G     39.5G  /S1T1Archive/zstd-fast-1
S1T1Archive/zstd-fast-10    42.2G   164G     42.2G  /S1T1Archive/zstd-fast-10
S1T1Archive/zstd-fast-100   50.4G   164G     50.4G  /S1T1Archive/zstd-fast-100
S1T1Archive/zstd-fast-1000  60.5G   164G     60.5G  /S1T1Archive/zstd-fast-1000

off - Это собственно исходник который рсинкался в подразделы с разными алгоритмами.

P.S.
(240519)
Гугля, набрёл на хорошую статью о ручном восстановлении zfs, с описанием структур данных zfs: https://www.lissyara.su/articles/freebsd/file_system/zfs_recovery/

 , ,

n0mad
()

Уважаемое LOR сообщество, совсем не про линукс, но про питание.... LiION - подскажите.

В LOR сообществе масса профессионалов, и надеюсь мне дадут ответ, на давно мучающий вопрос.

Постоянно мы сталкиваемся с массой гаджетов, и большинство сейчас питается от LiION аккумуляторов. Сейчас распространен формат: 18650 и у меня в голове не укладывается схема их соединения в павербанках. Они там соединены параллельно. В моей голове укладывается только вариант того, что в каждой батарее вмонтировано своё зарядное устройство, не позволяющее току перетекать из заряженного элемента в разряженный и выбирающее свой ток заряда для каждого элемента, достаточно подать номинальное напряжение заряда. Или таки они там перетекают? Тогда что ограничивает эти перетекающие токи?

Как чёрт-побери устроен это аккумулятор позволяющий параллельный заряд/разряд?

Заранее прошу прощения если это злостный оффтопик, но не представляю где ещё спросить это.

 liion

n0mad
()

ПОДЗЕМНЫЙ СТУК! Есть ясновидцы и Экстрасенсы? (Не работает rsync)

Стоит Debian Bookworm, zfs-dkms.
История идёт давно. Купил 4Т винт и начался анекдот про негра жмущего F6-ENTER-TAB-F6. Началась реорганизация всего барахла между 16TB дискового пространства из 5 дисков.

В частности была операция по резервированию «половинки» от старого рейда (DEGRADED RAID). Идея была в том чтобы тупо /dev/md0 /dev/md1 (root,/opt) рсинкнуть на zfs с упаковкой gzip-9, затем вместо DEGRADED рейда сделать один раздел zfs/gzip-9 и вернуть данные на него.
(Раз пишу - отчитаюсь: с первого взгляда squash не сильно опережает gzip-9. Для примера корень размером 64Gb, на zfs занимает 38Gb к которым можно полноценно обращаться. squashfs вариант занимает 36Gb, но он естественно только для чтения.)

Финал, не спал, может забыл, но:
rsync -axvPH md0-root /S1TArchive - Посчитал и ничего не стал копировать. Как будто в назначении уже есть все эти файлы. Но там ЧИСТО!

Я все ключи перепробовал. Не помогает! Потом пришла мысль: Сделать на назначении каталог: 2Try. Добавил rsync в назначении /2Try и он начал копировать... НО! В другом окне, в mc я вижу чистый каталог!

Сейчас сижу, пишу сообщение, а в фоне 2 окна с копиями. В одном копирует rsync, а в другом ТУПО нажал F5 в mc, в каталог /3Try.

Так вот rsync трудится, а файлы в пути назначения НЕ ПОЯВЛЯЮТСЯ!
В другом окне - mc копирует и файлы появляются.

Какие есть предположения? Что это за «подземный стук»?
P.S. Винт назначения (впрочем и источник тоже) включен по USB3 и в финале экспортирую винт назначения и взгляну на него с другого компа (откуда он родом).

P.P.S. Дело было не в бобине...
Модеры могут удалить тему, а могут сохранить. В назидание.
Я понимал что этого не может быть, но упорно не видел ошибку.
Рсинк в скрипте шел не в тот каталог в котором я смотрел, разница была в букве и цифре, вместо винта S1 всё шло на T2.
Бывает когда подмонтировал к одному компу 5 Многотерабайтных винтов...

Отмечаю тему как решенную!

 , , zfsonliynux,

n0mad
()

Купил 2 новых 4 терабайтника... Одинаковых, но не сразу и в разных конторах. Показывают в SMART разный размер.

Первая покупка:

Model Family:     Toshiba 3.5" MG03ACAxxx(Y) Enterprise HDD
Device Model:     TOSHIBA MG03ACA400
Serial Number:    Z4FEK62FF
LU WWN Device Id: 5 000039 5fbd822f6
Firmware Version: FL1A
User Capacity:    4 000 785 948 160 bytes [4,00 TB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches

Вторая покупка:
Model Family:     Toshiba 3.5" MG03ACAxxx(Y) Enterprise HDD
Device Model:     TOSHIBA MG03ACA400
Serial Number:    Z494K77TF
LU WWN Device Id: 5 000039 5fb88138a
Firmware Version: FL1A
User Capacity:    4 000 787 030 016 bytes [4,00 TB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches


Почему первый: 4 000 785 948 160 bytes
а второй: 4 000 787 030 016 bytes?
Разница 918144 байта.

Этот вопрос заинтересовал в плане создания zfs рейда на всё устройство, путём создания обычного тома, а затем подключениия зеркального устройства. Ведь оно может потом заявить. «Слишком маленькое устройство».
Думаю всё же придётся создать разделы по 4000000000000 байт, а хвосты сделать отдельными разделами для всякого мусора. Или докинуть туда ещё 750Мб?

P.S. Долго обсуждали, пока Dimez не написал:

Ты написал очень много букв вместо простой проверки HPA.

И тут всё встало на места, я «посыпал голову пеплом», за 33+ года работы с компами я знал аббревиатуру HPA, но НИ РАЗУ не использовал и не знал сути.

#hdparm -N /dev/sda
/dev/sda:
max sectors = 7814035055/7814037168, HPA is enabled

#hdparm -N p7814037168 /dev/sda

# hdparm -N /dev/sda

/dev/sda:
 max sectors   = 7814037168/7814037168, HPA is disabled

ВСЁ! ВОПРОС ИСЧЕРПАН!
Но появились новые вопросы.
С этим диском сразу случился цирк.
Получил с WB новый винт, в пакетике, не вскрытый.
Вскрыл, этикетка наклеена с пузырями.
Запустил smartctl и он показал размер 3Тб
Я начал делать заявку на возврат, для приложения логов подключил этот винт через SATA<->USB адаптер, запустил smartctl и увидел 4Т.
Возврат отложился.
Разметил, сделал zfs рейд с десктопной 3Т Тошибой, но тоже косяк.
Десктопные винты имеют физический размер сектора 4К, а серверные 512 байт. Пришлось долго уговаривать zfs рейд, иначе он отказывался с совершенно левой диагностикой:
cannot attach /dev/sdc2 to /dev/sda3: can only attach to mirrors and top-level disks

Уговорил, указав ashift=12, но в итоге zpool status пишет:
	NAME        STATE     READ WRITE CKSUM
	zer0-safe   ONLINE       0     0     0
	  mirror-0  ONLINE       0     0     0
	    sda3    ONLINE       0     0     0
	    sdc2    ONLINE       0     0     0  block size: 512B configured, 4096B native

Вернемся к нашим баранам.
Наконец получил второй такой же 4T, из другой конторы, посмотрел SMART и родился этот топик.
Теперь этот топик дал решение: просто отключить HPA у первого винта. Экстрасенсы задержались, а надо было просто мне предложить показать: hdparm -N /dev/sda

Остался простор для исследования почему этот первый винт, достатый из запечатанного пакета от Тошибы, показал сначала размер 3Т, потом неожиданно стал 4Т, но немного меньше чем другой такой же пришедший позже. Куда я его включил и кто менял ему HPA? Но сначала включил в тот же компьютер что и второй, увидел 3Т и началась «истерика» попыток воткнуть его в разные места, загрузки разных систем и запуска разных диагностических средств. В процессе он неожиданно стал 4Т.
Последовательности операций не записывал, а с памятью у меня плохо.
Покупать ещё один такой винт? :)))

 ,

n0mad
()

Вопрос знатокам zfs - как правильно добавлять устройства в пул?

Целиком диски? gpt разделы? Их UUID? Или может банально LVM VG/LV? Ведь LVM переносим и его адресация не зависит от имени диска, но с ним гораздо проще видеть организацию тома чем по UUID.

Проще ведь видеть разделы по именам:

   pool: zfs-raidz_4
     id: 14845661564733668607
  state: ONLINE
 action: The pool can be imported using its name or numeric identifier.
 config:

        zfs-raidz_4  ONLINE
          Data_1     ONLINE
          Data_2     ONLINE
          Data_3     ONLINE
          Data_4     ONLINE

Чем по жутким цифробуквам:
   pool: zfs-mirror
     id: 11702920276725354413
  state: ONLINE
 action: The pool can be imported using its name or numeric identifier.
 config:

        zfs-mirror                                ONLINE
          mirror-0                                ONLINE
            72cf2c0b-fe32-4649-9aa6-45d1314d1139  ONLINE
            27300dce-6a76-6a49-a10c-905100118633  ONLINE

Эти разделы задолбаешься же искать по всем дискам.

 , , ,

n0mad
()

Debian Bookworm zfs: «Module build for kernel 6.1.0-20-amd64 was skipped...»

Решил поставить zfs, как и раньше написал: #apt install zfs-dkms
Но в этот раз оно ругнулось: Module build for kernel 6.1.0-20-amd64 was skipped since the kernel headers for this kernel do not seem to be installed.

Увы, тут помню тут не помню. Просто доставил linux-source (Логично что там и headers должны быть) - не помогло. Долго гуглил ошибку, вразумительного решения не нагуглил. Потом решил посмотреть не со стороны проблемы, а со стороны задачи и начал гуглить «Debian Bookworm установить zfs».
Сразу же нашлось на:
https://orcacore.com/set-up-zfs-debian-12-bookworm/

sudo apt install linux-headers-amd64 zfsutils-linux zfs-dkms zfs-zed -y

У меня не хватало linux-headers-amd64

Не понятно, почему все предыдущие разы оно поставилось без проблем? Ведь так же ставил Bookworm с netinst usb и устанавливал. Подгружались все зависимости и собиралось.

 , , , ,

n0mad
()

Как узнать реальный размер сектора HDD? Вдруг он врёт?

Преамбула: zfs рейд.
Начинался с одного диска.
Подлючил второй зеркалом и выяснилось что у второго размер сектора 512 байт, так как он Enterprise, а у старого - 4Кб (Desktop).
В связи с этим возник вопрос, а реально, «внутри» Enterprise хранит сектора по 512 байт или напихивает в 4Кб?
Вдруг там история как про SMR?

Старый, добрый 3T Desktop:

Model Family:     Toshiba 3.5" DT01ACA... Desktop HDD
Device Model:     TOSHIBA DT01ACA300
Serial Number:    Z7P6GLWAS
LU WWN Device Id: 5 000039 fe6df2013
Firmware Version: MX6OABB0
User Capacity:    3 000 592 982 016 bytes [3,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches
Device is:        In smartctl database 7.3/5319
ATA Version is:   ATA8-ACS T13/1699-D revision 4
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Sun Apr 14 07:38:14 2024 MSK
SMART support is: Available - device has SMART capability.
SMART support is: Enabled


Новенький 4T Enterprise:
Model Family:     Toshiba 3.5" MG03ACAxxx(Y) Enterprise HDD
Device Model:     TOSHIBA MG03ACA400
Serial Number:    Z4FEK62FF
LU WWN Device Id: 5 000039 5fbd822f6
Firmware Version: FL1A
User Capacity:    4 000 785 948 160 bytes [4,00 TB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches
Device is:        In smartctl database 7.3/5319
ATA Version is:   ATA8-ACS (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Sun Apr 14 07:31:28 2024 MSK
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

Вот и думаю, том/пул для него создавать 512B или 4K?
А то пишут какие то страсти, о том что можно «заразить» том/пул девайсами разного разера секторов и что плохо если в одном пуле, один девайс 512, другой 4k.
И не совсем понятно, в одних источниках утверждают что размер сектора определяется в томе/пуле, а в других что размер сектора привязан к устройству, и в одном томе/пуле пофигу какие устройства.

Уважаемые форумчане могут что то сказать про это?
Можно смело делать 512Б том/пул/девайс или всё привести к 4к?
Вопрос «горит» в связи с тем что приехал ещё один Enterprise и можно зеркало сделать чисто на них, а старый 3T поставить отдельно.

Ещё интересует мнение форумчан про идеологию. Как идеологически верно, нынче поставить систему/своп? На HDD или SSD?
Вот думаю, или систему на SSD а HDD под том данных, или систему на HDD а SSD сделать кэшем для данных (zfs предусматривает такую раскладку)?

 , sector, , ,

n0mad
()

Debian Bookworm и MATE - при переключении виртуальных десктопов - уходит фокус ввода. Где это может настраиваться?

Есть экспериментальная машинка.
Для удобства - использую виртуальные десктопы, у меня их аж 9.
Всегда без проблем на каждом из десктопов - сохранялся свой фокус ввода (активно окно), а на этом компьютере - переключаюсь на виртуальый десктоп и фокус ввода куда то улетает. Каждый раз надо переключаться на то окно которое нужно.
Сначала было подумал что дело в Bookworm, но у меня есть ещё компьютер, с Bookworm, поставленным с того же Live USB. Там с фокусом ввода всё в порядке. На каждом виртуальном десктопе - фокус ввода там где был при уходе с него.
Здесь же это не так, переключаюсь на десктоп 1, вижу две консольки, а фокус ввода ни на одной из них.
Хотя Alt-Tab переключает фокус ввода на ту консоль которая была активна прошлый раз. Но не хочется нажимать лишние кнопки, тем более если разный шаблон поведения на разных компах это жесть...

 , ,

n0mad
()

Нужна помощь zfs экстрасенсов. Тираню zfs рейд, рассыпался пул.


Тираню извращённо, забыл какие то шаги.
Какие шаги предпринять чтобы починить?

Изначально вставил одну флешку, 32Gb.
Сделал на ней раздел.
Создал пул.
Записал данные.
Затем вставил 64Gb флешку.
На ней не стал создавать раздел, а подключил как:
#zfs attach raid-1 /dev/sdc1 /dev/sdd (Это вариант команды из головы, точно не могу процитировать)
В итоге забавная ситуация. Один диск это sdc1, а на другом zfs создала 2 раздела:

# fdisk -l /dev/sdd
Disk /dev/sdd: 58,26 GiB, 62552276992 bytes, 122172416 sectors
Disk model: STORAGE DEVICE
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 43208ED2-0546-FE4E-95FA-851D53AEB01A

Device Start End Sectors Size Type
/dev/sdd1 2048 122155007 122152960 58,2G Solaris /usr & Apple ZFS
/dev/sdd9 122155008 122171391 16384 8M Solaris reserved 1


Пул ресинкнулся. Работал, я его экспортировал, импортировал, а вот контрольный экспорт забыл сделать.
Флешки занимали последние свободные USB порты, я поставил хаб, включил флешки в него и оно не взлетело после перезагрузки... Вставил флешки как было и теперь:
#zpool import
pool: raid-1
id: 3603826776807686061
state: DEGRADED
status: One or more devices were being resilvered.
action: The pool can be imported despite missing or damaged devices. The
fault tolerance of the pool may be compromised if imported.
config:

raid-1 DEGRADED
mirror-0 DEGRADED
sdc1 ONLINE
sdc1 FAULTED corrupted data

Теоретически можно было заменить FAULTED на него же, но под другим именем - но оба девайса стоят под одним именем. Я даже не могу заменить скажем sdd на sde или на него же, предварительно удалив zfs метки.

Можно ли как то поднять DEGRADED пул? -f не помогает.

# zpool import raid-1 -f
cannot import 'raid-1': one or more devices is currently unavailable

И какие мысли есть по замене одного из sdc? Какими командами можно посмотреть статус не импортированного пула?

P.S. Время прошло, мучаю zfs дальше. Создал ещё один пул, включал уже по UUID. Перенес на другой компьютер одну флешку из 2х в рейде. Пул благополучно импортировался в DEGRADED режиме.Что то с этим пулом не в порядке. Пусть живёт на флешке пока не найдётся решения.

Пока же озадачен тем как правильно включать устройства в пул? Ведь в Linux можно включить и диск, и раздел, и UUID раздела и тупо LVM том по имени. Что из них выбрать для боевого рейда?

 , ,

n0mad
()

Порекомендуйте дистр который можно поставить на x32 Athlon XP 2400+/GeForce и получить адекватный интернет браузинг/ютуб.

Ваш процессор устарел, скачайте новый...

Я отказываюсь в это верить! Чтобы некогда топовый AMD Athlon XP 2400+ С пусть и не топовой GeForce MX 440 - не мог показывать банальный ютуб... Там же столько же дури было... Куда она делась?

Стоял в углу, и решил из него «на кухне», «Телевизор» сделать... Не ставить же из за этого W7? Или XP?

Наверняка у многих ещё есть такая старая техника, которой хочется найти применение, и возможно есть те кто «пилит» дистрибутивы поддерживающие эту старую технику.

Посоветуйте, что туда можно поставить?

Дебиан конечно силён, он до сих пор поддерживает «x32» но «на отбибись». Система грузится, работает, но браузеры падают и тормозят...

Апдейт от 19.04.2024
Вчера сделал очередной зоопарк из 32 битных систем на винте,
(Bookworm+Antix). Зоопарк делал на x64 машине, попробовал запустить файрфокс и ютуп. Слайдшоу, но не падает. Перенес винт на тот Атлон с которого стартанул этот топик. И там однако тоже запустил Файрфокс, Ютуп, запустил шоу State of Trance. Полчаса показывает слайдшоу, поёт и не падает.

Мистика какая то. Разве только ставился с netinst и он подтащил какие то свежие версии чего то из за чего падало.

Ведь на старом экземпляре системы, падающий файрфокс предлагал куда то там отправить отчёты. Я отправлял...

 ,

n0mad
()

zfs on linux, рейд из обычного пула и ashift (Подземный стук) - cannot attach /dev/sdxX to /dev/sdyY: can only attach to mirrors and top-level disks


Подскажите, пожалуйста - где косяк?

Поставил Debian Bookworm, 3T раздел с данными сделал на zfs (навскидку дало одной командой превратить обычный пул в рейд.)

#zpool status zer0-safe
pool: zer0-safe
state: ONLINE
config:

NAME STATE READ WRITE CKSUM
zer0-safe ONLINE 0 0 0
sda3 ONLINE 0 0 0

errors: No known data errors

Долго чистил 3T диск для рейда.
Подготовил, сказал:
# zpool attach zer0-safe /dev/sda3 /dev/sdc2
Оно мне ответило:
cannot attach /dev/sdc2 to /dev/sda3: can only attach to mirrors and top-level disks

Выпал в осадок, гуглить... Нагуглил только заклинание: -o ashift=9
Исполнил:
#zpool attach -o ashift=9 zer0-safe /dev/sda3 /dev/sdc2
Отработало.
# zpool status zer0-safe
pool: zer0-safe
state: ONLINE
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scan: resilver in progress since Wed Apr 3 00:13:24 2024
133G scanned at 214M/s, 700K issued at 1.10K/s, 2.51T total
0B resilvered, 0.00% done, no estimated completion time
config:

NAME STATE READ WRITE CKSUM
zer0-safe ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
sda3 ONLINE 0 0 0
sdc2 ONLINE 0 0 0 block size: 512B configured, 4096B native

errors: No known data errors

Размер блока 512Б (ashift=9), а родной у диска 4096.
Посчитал, задетачил и:
# zpool attach -o ashift=12 zer0-safe /dev/sda3 /dev/sdc2 -f
cannot attach /dev/sdc2 to /dev/sda3: can only attach to mirrors and top-level disks

Та же ошибка... Почему с ashift=9 всё стартует, а с нативным нет?

Есть какие то мысли?

P.S. Пробовал ashift=11,10 - Не взлетело, с 9 опять взлетело и серебрится...



P.P.S. Обновлю старт топика. Такой вот косяк у zfs. При создании пула - каким то образом выбирается определенный ashift (В зависимости от накопителя) и при добавлении другого накопителя в пул - используется ashift другого накопителя. Если они не совпадают - zfs выдаёт совершенно бредовую диагностику: «cannot attach /dev/sdc2 to /dev/sda3: can only attach to mirrors and top-level disks» не имеющую ни чего общего с сутью проблемы.
Я пока вижу два решения... Или писать меньшими блоками на устройство с большими блоками или писать большими блоками на устройство с меньшими блоками.


Решение пока не ясно. На устройство с меньшими блоками (ashift=9) писать большими блоками? (ashift=12?)
Но это тогда ещё тот геморрой... Создать на устройстве с ashift=12 - новый пул, рсинкнуть туда 3T данных, удалить старый пул (на современном 4T 7200RPM диске с блоком 512Б) и подключить его с размером блока 4к.

Интересно посмотреть с каким ashift создастся новый зеркальный пул из устройств с разными размерами блоков? ashift 9? 12? Но я этого уже не осилю... Переразбивать, рсинкать, перезаливать....

 ashift, ,

n0mad
()

Подземный стук... zfs не отображает файлы...

Решил тут сделать экспериментальную систему: Debian Bookworm с корнем на zfs.
В перспективе вплоть до шифрованного рейда на zfs, но всё свалилось на самом примитиве. Создал раздел, рсинкнул туда рабочую систему с zfs, попытался загрузиться - умерло в процессе загрузки.
Гружусь с рабочей системы, импортирую пул - на нём пусто...


# zpool import
pool: zroot
id: 6599242792779963979
state: ONLINE
status: The pool was last accessed by another system.
action: The pool can be imported using its name or numeric identifier and
the '-f' flag.
see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-EY
config:

zroot ONLINE
usb-XrayDisk_128GB_SSD_012345678999-0:0-part7 ONLINE

# zpool import zroot -f

# zfs list
NAME USED AVAIL REFER MOUNTPOINT
zroot 1.12G 70.6G 192K /opt/zroot
zroot/ROOT 1.12G 70.6G 192K /opt/zroot/ROOT
zroot/ROOT/debian 1.12G 70.6G 1.12G /opt/zroot/ROOT/debian
zroot/home 212K 70.6G 212K /opt/zroot/home

# ls /opt/zroot
(пусто)

Есть какие то мысли о восстановлении этого?
т.е. USED 1.2G, но почему то не монтируется.
Хотя точки монтирования установлены.

 , , ,

n0mad
()

Господа сисадмины, есть ли для Linux - какая нибудь подсистема хранения метаинформации файлов независимая от низлежащей fs?

Этот вопрос возник когда начал использовать облака. На данный момент Яндекс и МейлРу - хранят лишь время записи файла в облако, а не его оригинальное время модификации. С другими атрибутами тоже не уверен что всё в порядке, а желательно ещё сохранять владельца и права доступа.
Изначально вопрос «встал» после потери оригинальных времён медиафайлов, но лично мне эта ситуация не нравится в целом. Мало ли что я решу сохранить... А потом и разбирайся какая из копий новее...
Вот помнится в OS/2 для fat был файл: «ea data.sf» в котором хранилось всё, вплоть до длинного имени файла... Хотя конечно не знаю всей подноготной того что хранилось в том файле...

 , , ,

n0mad
()

Облако для Линукс. Какое рекомендуете?

Приветствую!
Пару лет на зад, Яндекс - подсадил на облако, своей акцией 2Т на 2Г за 1000р. За эти же 2 года успело сдохнуть 3 винта, 2 Сигейта 3Т и Самсунг 2Т. Сейчас сроки подходят и надо принимать решение... Или платить Яндексу, или сваливать на что то другое.
Яндекс не устраивает по многим факторам....
1. Он не хранит самый важный атрибут: Время создания/модификации файла, и за 2 года они так и не удосужились это реализовать, хотя уже 2 года назад я им писал об этом.
2. Тормоза везде что не «Яндекс Приложение». Поддержка шлёт, принимает претензии только к приложению....

Соответственно надо выбирать облако...
Что порекомендует уважаемая общественность?
Чтобы и цена не кусалась, и поддерживал штатные протоколы и банально хранил родное время файла....

Винтам уже не верю.... Мрут как мухи... Хотя живых мелких винтов на столе пачка....

P.S. Подведу резюме!
По итогам обсуждения решил уезжать с Yandex на mail.ru
Яндекс - халтурщики и за 2 года не смогли устранить баг - потерю даты/времени создания оригинального файла, это ХАЛТУРА а не ОБЛАКО.
Быстрый тест позволил смонтировать штатными средствами Debian Bullseye mail.ru через davfs, там же смонтировать шифрованный контейнер через encfs и ecryptfs. Всё делалось средствами доступными в дистрибутиве.

P.P.S. Факир был пьян, и фокус не удался...
«Попробовать за 1895р/год», штатный ценник 3790/год...
Пробовать и через год опять искать облако?

 ,

n0mad
()

Какие fs кроме zfs ведут контроль дстоверности записи?

«Слышал» что zfs на этапе чтения данных - ведет проверку их crc.
Какие то из других fs - занимаются подобным?
А то появился тут недоssd, который даёт ошибки при проверке f3. Хочется хоть как то его использовать... Но это даже не классические бэды.... Они же читают данные... Но не те...

Уважамая общественность может что то посоветовать кроме: Выкинуть?

P.S. Но сейчас поставлю на него zfs, посмотрю её поведение с этим зверем...
P.P.S. Достоверность записи он никак не контролирует. Честно молча всё записал, но при чтении ругнулся на все файлы...

 , , ,

n0mad
()

Очередные грабли... Линукс засыпает на экране логина в gdm (Debian). Как на этапе логина выставить таймаут в бесконечность?

Долго жил с этими граблями и не знал про них, и тут неожиданно НАСТУПИЛ! Слава Богу они не нанесли ущерба, но надо их как то деактивировать…

Имеем Debian Bullseye. Штатно всегда загружался, логинился и не имел проблем. Сегодня ткнул кнопку питания и ушел по делам… Прихожу - комп отключен. Ткнул питание и тут же включился экран логина в систему… Задумался… Не стал логиниться, засек время. Через 20 минут опять комп ушел в сон… Продолжаю экспериментировать, допишу по ходу… Переключился на консольку, залогинился, жду… Минут 40 не уснёт, переключусь на логин…

Попав на эти грабли, тут же включил свой тестграунд (Древний нетбук со свежим Debian Bookworm). Через 20 минут стояния на экране логина (Тут тот же gdm) он тоже ушел в сон.

Разбудил, и пока основной комп «ждёт» - пишу послание.

Может кто то из гуру знает где устанавливается таймаут ухода в sleep действующий на этапе логина в gdm? Других менеджеров пока проверить не могу. Если залогиниться (в настройках пользователя уже выставлено бесконечное ожидание) - то всё в порядке, не засыпает… А вот просто запущенный комп - уходит в сон.

 , , ,

n0mad
()

Manjaro Install, съехала нумерация разделов. Подскажите как починить?

Subj не влез: Установка Manjaro на предсозданные разделы. Он зачем то удалил раздел на который указали ставиться и сместил цифры разделов. Есть заклинание для починки?

Есть SSD для экспериментов. Куча разделов и куча дистров... Все ставились туда куда указали.... Но Manjaro зачем то удалил раздел, естественно съехали все следом идущие, а затем создал раздел последним... хотя его сектора располагаются в середине...

Есть ли какое то заклинание позволящее поменять цифры разделов не удаляя данные?

Сейчас получилось что то типа: sda[1][5][6][7][8][10][9] надо поменять 9 и 10 местами (Только номера разделов).

P.S. Решение:
#fdisk /dev/sda
x (extra functionality)
f (fix partitions order)
r (return to main menu)
w (write table to disk and exit)

 , , ,

n0mad
()

MATE -> Главное меню меню MATE - Можно ли поставить ридонли на пункты?

Есть Debian Bullseye x64, MATE Desktop
Начал сыпаться телеграм... Разбираться лениво... Решил поставить из других источников.... Помыкался и получил пачку Телег...
/usr/bin
/home/user/bin/Telegram
/opt/Telegram
Какое то заклинание с flatpak...
Прошел в редактор меню, в скобочках отметил кто из них кто...
Позапускал и они все опять стали в меню просто телегами....
Как бы их сделать ридонли? Пусть живут сразу все, буду выбирать походу...

 , ,

n0mad
()

У Вас маленький экран? Диалоги не влазят? РЕШЕНИЕ ПРОСТО! Как 1,2,3...

Начнем с 1,2,3.
Окрываем эмулятор терминала и запускаем:

$xrandr --output LVDS1 --scale 1.25x1.25
(Вместо LVDS1 возможно придется указать другое значение, не знаю как его узнать кошерно, я подсмотрел в диалоге MATE: Система->Параметры->Оборудование->Экраны. У меня там картинка экрана: Ноутбук: LVDS1)

ВСЁ! Это работает на уровне системы, решение подсказали на LOR, когда я расхваливал Xfce с таким же решением в пункте меню.

Далее идем в Система->Параметры->Персональные->Запускаемые приложения и добавляем скажем: screenresize с параметрами: $xrandr --output LVDS1 --scale 1.25x1.25

Всё, теперь параметры автоматически применяются при логине этого пользователя.

Я являюсь владельцем древнего 10" нетбука который тут все рекомендуют выкинуть... Но впрочем он вполне работает, и с собой брать не так тяжело как толстую машинку....
Но всегда мучала проблема... Открываешь в Линуксовом десктопе какое нибудь модальное окно и оно больше чем 1024x600, кнопочки: «Применить», «Сохранить», «Идинафик» - находятся где то за нижней границей экрана.
Играясь с Manjaro Linux (Я его назвал Мажориком, хотя тут ходит Ник: Бомжара) я столкнулся с оконным менеджером Xfce, у которого прямо в меню настроек можно выставить масштаб 1.2 и всё стало вмещаться на УРА!
Расписал это здесь на форуме, и анонимус подсказал мне решение, ссылкой на: https://wiki.archlinux.org/title/HiDPI.

Теперь я знаю об этом рабочем решении и хочу поделиться им с другими!

 , ,

n0mad
()

Хочется странного :))) - #swapon /target/swapfile.dat в netinst инсталлере Debian BookWorm.

Решил загнать Debian BookWorm в LVM раздел, а своп сделать в файле...
Гружусь с netinst, всё замечательно взлетает, создаю раздел, без свопа, ставлю... жужжит...
Открываю консольку, делаю:
#dd if=/dev/zero of=/target/swapfile.dat bs=1048576 seek=2048 count=1
Получаю 2G дырку...
Делаю её свопом:
#mkswap /target/swapfile.dat
Потом радостно:
#swapon /target/swapfile.dat и оно мне в ответ:
swapon: /target/swapfile.dat: Invalid argument
#blkid /target/swapfile.dat - показывает что всё в порядке...
Конечно хватает памяти и так и процесс пока идёт, но хотелось на всякий случай дать памяти больше....
Пока конечно поставлю без свопа и добавлю ручками в установленную систему, но почему в инсталлере не катит?

Что я делаю не так?

 , ,

n0mad
()

RSS подписка на новые темы