LINUX.ORG.RU

Сообщения n0mad

 

Как узнать время работы команды cd?

Форум — General

Играюсь здесь с ЯДом... Решил сделать протокол. Делаю:

# /usr/bin/time "cd /e"
/usr/bin/time: cannot run cd /e: No such file or directory
Command exited with non-zero status 127
0.00user 0.00system 0:00.00elapsed 61%CPU (0avgtext+0avgdata 1240maxresident)k
0inputs+0outputs (0major+37minor)pagefaults 0swaps

Это встроенная команда шелла, со всеми вытекающими.
И? Как запротоколировать время работы команды cd?

 ,

n0mad
()

Можно ли заставить ЯД (Яндекс Диск) - синхронизировать атрибуты/владельца файлов?

Форум — Admin

Ох уж эти «облака», особенно ЯД... Начал использовать 3 года назад, купился за 2Т на 2 года за 1000р.
Начал использовать, поставил yandex-disk, синкнул и понял что адрибуты и владелцы - не синхронизируются. Это что за облако? Которое не хранит атрибутов/владельцев файлов? Мало того - он тупо не хранят время создания/модификации и заменяют его временем закачки на ресурс. Ну синкнул я 2 гигатонны барахла, написал запрос. ответили: такое поведение у синхронизатора! Естественно исправлять никто не озадачился. Прошло время, это дерьмо никто не исправил, а хоть отстойную - а копию данных стоит иметь. Сейчас дошел до того что сделал 4Т zfs зеркало, на днях приедет ещё 4Т под резервный рсинк. Написал этим цензоредам письмо, что 3 года назад ставил вопрос, до сих пор никто не шевельнулся, и если так то придётся отказаться от их сервиса когда закончится срок. Такое дерьмо ещё раз продлять не собираюсь. 4 дня они думали (потом ответили только на ту часть вопроса где я спрашивал: почему yandex-disk start - стартует дольше суток?), и сослались что «сверяет» и может сверять долго из за слабого компьютера/интернета. Про вопрос сохранности атрибутов просто игнор.


Вот решил узнать у общественности, может для Линукс придумали какую то систему хранящую метаинформацию в каких нибудь сервисных файлах на ресурсе? Помнится у IBM в OS/2 на FAT были EADATA.SF в которых замечательно жило то что в FAT не помещалось.

Или кто как такую проблему ЯДа решал? Есть наверное их пользователи? Или нет? Хотел скажем тупо синкать /usr/local/bin - где храню разные скриптики... Но они твари теряют атрибут исполняемости.

В общем ЯД? Или не ЯД?
Какое ещё можете рекомендовать «облако» не дороже 2.5к/год?
А то эта утеря времени/атрибутов и сутки пиления винта и жарки процессора после каждой перезагрузки - весьма надоели, а хочется резервного хранилища. Мало того что винты таки такие штуки - что был у меня прецедент сдыхания зеркального винта в процессе восстановления рейда. ну и хранение дома - уязвимо в плане пожара/грабителей.

P.S. Как вы помните, «травма несовместимая с жизнью» и вследствие плохая память. С этим топиком озадачился вновь, хотя по дате/времени файлов в хранилище - выходит что я решил эту задачу ещё в 2018. Есть у меня в ЯДе .cryfs и .ecryptfs - Обе хранят и сведения о владельцах и атрибуты файлов и время создания/модификации.
Возможно есть косяки при работе с нескольких хостов сразу - надо провентилировать этот вопрос и определить безопасный протокол использования. Ну и перелить 2Т дерево с открытого в эти контейнеры. Это будет отдельный кейс...

И ДА, заливать надо не с ЯДа, а с оригинальных файлов ещё живых на моей системе (надеюсь).

Отмечаю топик как решенный, жаль никто не «ткнул» в решение, начали балабольство про облака и что они должны делать...

(250208) P.P.S. cryfs и ecryptfs - разочаровали. Решение оказалось нерешенным.
cryfs - Оттормаживается по 40-60 секунд на команде df на шифрованном разделе с залитыми 64Gb. Но и аремя и атрибуты сохраняет и они «пролазят» с хоста на хост через ЯД.
ecryptfs - Работает быстро, но время/дату/rwx, хранит в атрибутах зашифрованных файлов и естественно это не «пролазит» через ЯД.

 , , yd

n0mad
()

Можно ли на современных UEFI ноутах - загрузиться с BIOS диска?

Форум — Linux-install

Вообще заголовок не совсем отражает содержимое.
15 лет назад я «выпал» из жизни, и у меня до сих пор были только BIOS компьютеры, на которых я без проблем грузился с винтов подцепленных по USB.
Сейчас я наконец смог позволить себе UEFI устройства, и с ужасом обнаружил что я банально не могу подключить старый винт по USB и загрузить старый Линукс.
Мало того и загрузиться можно далеко не с каждой флешки. Вставляешь флешку, а UEFI БИОС её не видит, и тут же ставишь какой нибудь Debian Boot USB - он видится и грузится.
Как в нынешних условиях сделать USB с которой можно было бы загрузить рабочую систему?
Где можно прочитать современный алгоритм загрузки компьютера?
Каким образом современный БИОС решает - может ли он грузиться именно с этой флешки, или нет?
Надеюсь уважаемая общественность, отправит в нужном направлении.
Желательно в разрезе Debian, я в основном использую этот дистрибутив.

 , ,

n0mad
()

ESC-ENTER в mc начал вставлять не имя под указателем а ./ИМЯ - Можно побороть?

Форум — General

Поставил Debian 12.
Как всегда в mc, к простой консольке не привычен.
Как всегда - при операциях с FS - вставляю имена с противоположной панельки. Вставил путь, переместился, обычные ESC-Enter и Enter... Команда выругалась на ./ в пути... Приглядываюсь и правда:
ПУТЬ/./ИМЯ вместо ПУТЬ/ИМЯ.

Может уважаемый олл - знает как это побороть?

P.S. Всё весьма странно, видимо особенность, может кто скажет в чём фишка?

Создаю Файл: Name и он вставляется как положено.
Если же он: -Name то вставляется ./-Name

Просто я таким образом начал именовать подтома в ZFS чтобы подтома отличались от подкаталогов. Пробовал символы «=» и «#» - Их ZFS не принимает в именах томов, "-" приняла но начал бастовать mc.

P.P.S. Спасибо всем за обсуждение! По результатам обсуждения - пока избрал другой "протокол".
Монтировать zfs Том буду в /zfs/=Том
А подтома создавать с именами :Подтом
Если вдруг подтом потребуется смонтировать в отдельный каталог то соответственно mountpoint будет в =Имя, Имя будет выбираться по потребности, хотя случаи разные бывают. Надо рассмотреть протокол монтирования во всякие /var/spool или /var/log (Скажем чтобы распухшие каталоги можно было вынести из сиситемного раздела.)
Нужно предусмотреть индикацию того что этот каталог за пределами fs. ну скажем в виде подкаталога \#zfs=ТОМ--ПОДТОМ.
Просто скажем видел уже на ЛОР жалобы на распухшие временные каталоги - забивавшие системный раздел в ноль. Стоит рассмотреть такой вариант подстраховки. Плюсом и одновременно минусом zfs является то что достаточно для ресурса задать точку монтирования, она её запомнит и будет потом монтировать сама.

 ,

n0mad
()

Китайская лотерея, 32Gb/1T/Intel N5095, Ядро Linux видит только 16Gb - какие мысли?

Форум — Linux-hardware

Приветствую уважаемый LOR.

Новый виток китайской лотереи. Взял китайский ноут с характеристиками 32Gb RAM и 1Tb SSD.

Загрузился с SystemRescueCD, набираю:

#free -h
total used free shared buff/cache available
Mem: 15Gi 1.0Gi 14Gi 102Mi 736Mi 14Gi
Swap: 0B 0B 0B

Увидел, возмутился, но lshw даёт:

*-memory
description: System Memory
physical id: 39
slot: System board or motherboard
size: 32GiB
*-bank:0
description: SODIMM DDR4 Synchronous 2667 MHz (0.4 ns)
vendor: 0x0000
physical id: 0
serial: 4100014D
slot: Controller0-ChannelA
size: 16GiB
width: 64 bits
clock: 2667MHz (0.4ns)
*-bank:1
physical id: 1
slot: Controller0-ChannelB-DIMM0
size: 16GiB

Кто может расшифровать эти письмена? Памяти 32Гб а почему система видит лишь 16?

С SSD отдельный геморрой, надо нарандомить 1Гб файл, сделать 1000 копий потом их от crcшить... Или есть более простой способ?

fff не предлагать, есть у меня прецедент с 4Т SSD на которую можно хоть в начало хоть в конц хоть в середину - записать 128Gb данных, а дальше всё встаёт в ступор, пока не натравишь fstrim и ещё что то подобное. fff проходит пробами до конца, всё типа путём, а Fake SSD хитрее...
Так она и живёт с 128Gb разделом и регулярно запускающимся тримом, ну и при монтировании автотримы прописаны.

P.S. По итогам треда.
С памятью обман, а вот выпады типа: «китайцы, в подвале, на коленке» считаю необоснованными. Сам в90х, в подвале, на коленке собирал компьютеры. Другое дело что и обслуживал сам, а тут до производителя не дотянуться, толпа передастов.

Сдавать назад не буду, продолжу игру «в лотерею». В принципе считаю что 16Gb/1T - вполне приемлемая конфигурация за 20к рублей. То что это «китайский калькулятор» имеет даже и плюсы. Этот калькулятор потребляет 10Вт электричества, и совершенно не напряжет кошелек своей постоянной работой, тогда как не совсем мощный десктоп - легко лопает 200Вт, а это грубо: 576р/мес.
А если ещё и найду источник запчастей к этому «конструктору», то любая неисправность будет исправляться не в крутых авторизированных центрах, а покупаться в маркете, в виде запчасти и вставляться «на коленке», дома.

 , ,

n0mad
()

Как побороть UEFI?

Форум — General

Приветствую уважаемых генералов, пишу из оФФТОПИКА, потому что никак не завезу линукс на дешевый китайский ноутбук с UEFI (На самом деле я слабо предстваляю кто виноват и надеюсь кто то подскажет чо делать?)

В общем есть дешеывый нонейм ноутбук, аж с 64Гб SSD на который накачена лицензионная W10. Естественно просто так лицензию выкидывать не стану, пусть живёт.

Весь такой резвый, подключаю винт с линуксом в USB3 и ОБАНА! Комп его видит, видит накопитель, но по кнопке F7 только Win и Восстановление Win. Варианта загрузить Linux - не нашел.

Ладно, в USB вставляю Debian - netinst, в MicroSD слот ставлю MicroSD 64 Gb, устанавливаю на неё Debian но в F7 так и не появляется возможности выбора загрузки.

Мало того, есть у миеня какие то флешки с линуксом, но!
Debian Netinst - появляется в F7 (с префиксом:UEFI) а флешки с системой не появляются и их невозможно загрузить.

Подозреваю что нужны какие то заклинания в виде загрузочной флешки с grub с которой уже грузить всё обилие имеющегося.
Но как заставить её видеться? F7 (Загрузчик BIOS) к выбору предлагает далеко не каждую флешку.

Надеюсь найдутся ясновидящие - покажущие направление куда копать.

Пока вот живу в винде, а линукс есть гле то там, на MicroSD и я не могу его загрузить...

И что самбое обидное, в отъезде и забыл дома «дорожную мыльницу» с флешками :( - даже экспериментировать на досуге нечем. С собой только ноут и одна флешка в слоте.

Может ручками можно поправить что то на UEFI boot разделе и добавить меню выбора загрузки при перезагрузке?

Но пока это сделать могу лишь из Win10.Windows,

 , ,

n0mad
()

Ведроид это Линукс? ;)

Форум — Admin

Или может уважаемая общественность пошлёт куда по делу?

Суть в том что Второй раз попадаю в неприятную ситуацию - не просыпается и не будит любимый будильник. Встав обнаруживаю перезагруженную систему на смартфоне. После перезагрузки будильник не запускается, хотя в прошлый раз делал контрольное добавление в какой то список автозагрузки на андроиде.

Может кто то знает - ведёт ли логи ведроид? Есть ли приложение для их анализа? И где можно об этом почитать? Что послужило причиной перезагрузки?

 , ,

n0mad
()

При всей моей нелюбви к Мелкософту, MSEdge пока лучший браузер

Форум — Desktop

Сейчас очередной прецедент, меня все назовут «нищеброд», но сейчас (Сейчас это: «В данный момент, в другом городе, в другой хате», дома у меня оптика до дома) я сижу на бесплатном интернете от Йота, и вот там какая то сложная технология редиректов для включения бесплатного интернета.

Регулярно выскакивает окно типа: «Подключить пакет или продолжить бесплатно на 64Кбит».

Сейчас пишу с нищебродского нетбука на Атоме, с дохлой матрицей работающем на 15" монитор с MicroSD карты на 32Gb.

Пишу сообщение в MSEdge, потому что Имеющийся штатный файрфокс, почему то отказывается показывать это окно и включать бесплатный интернет.

А вообще как ни странно, у MSEdge лучшая работа с памятью. И Firefox и Chrome и Даже Опера - Постепенно съедают память при нескольких открытых окнах и вкладках, и их приходится регулярно убивать и перезапускать.

MSEdge не требует таких мероприятий. Хотя конечно в нём не хватает мастер пароля как у Мозиллы.

Это сугубо моё мнение, есть масса браузеров, но MSEdge пока отрабатывает всё в лучшем виде.


Перемещено hobbit из talks

 ,

n0mad
()

Убилась ZFS - подскажите, что можно предпринять?

Форум — Admin

Преамбула:

Не судите меня строго, я «дурачок». В 2009 в результате лётного происшествия - тяжелый ушиб ствола мозга и неделя мозговой комы.
Благо окружающие «прорешали» хорошего русского реаниматолога, я выжил и обошлось без оперативного вмешательства. Первый месяц я был практически овощь, но постепенно даже компьютерами продолжил заниматься, но увы, теперь не хватает памяти и концентрации внимания на анализ ситуации.

Теперь о ситуации:

Там где сейчас импортирую том - Мини ПК (BMAX B1 Pro) и стоит Debian Bookworm. Но это началось на основном компе с классическим P4. На Мини ПК винт подключен через USB3, Полный SMART тест прошел, хотя на основном компе - издавал странные звуки и возможно они привели к ситуации упавшего тома.

Использую zfs, как бы её не ругали... Винты дохнут и решил сделать рейд на zfs, но не успел. Во время массированного перемещения данных между 14T собравшегося дискового пространства, что то , где то, повисло (Или сбой электричества был? Увы, в этом и моя проблема. То что не зафиксировано я часто забываю.)

в общем имею 4T накопитель, на котором собирал рабочую реплику инфы, чтобы впоследствии сделать зеркало на второй 4T.
(Этим и нравится zfs, можно не сразу делать рейд как в mdadm, а потом. Впрочем могу и заблуждаться, может и mdadm так может).
Собрать не успел. Сейчас там есть zfs том: Safe - который рождает панику во время #zpool import. Он просто повисает, а в journalctl

июл 08 20:50:53 0F-BMAX kernel: VERIFY3(0 == dmu_buf_hold_array(os, object, offset, size, FALSE, FTAG, &numbufs, &dbp)) failed (0 == 5)
июл 08 20:50:53 0F-BMAX kernel: PANIC at dmu.c:1123:dmu_write()
июл 08 20:50:53 0F-BMAX kernel: Showing stack for process 11716
июл 08 20:50:53 0F-BMAX kernel: CPU: 0 PID: 11716 Comm: txg_sync Tainted: P           OE      6.1.0-22-amd64 #1  Debian 6.1.94-1
июл 08 20:50:53 0F-BMAX kernel: Hardware name: AMI Intel/Intel, BIOS V1.3_231 08/22/2023
июл 08 20:50:53 0F-BMAX kernel: Call Trace:
июл 08 20:50:53 0F-BMAX kernel:  <TASK>
июл 08 20:50:53 0F-BMAX kernel:  dump_stack_lvl+0x44/0x5c
июл 08 20:50:53 0F-BMAX kernel:  spl_panic+0xf0/0x108 [spl]
июл 08 20:50:53 0F-BMAX kernel:  ? dnode_rele_and_unlock+0x59/0xf0 [zfs]
июл 08 20:50:53 0F-BMAX kernel:  dmu_write+0xb5/0x190 [zfs]
июл 08 20:50:53 0F-BMAX kernel:  space_map_write+0x154/0x900 [zfs]
июл 08 20:50:53 0F-BMAX kernel:  ? zap_lookup+0xdb/0x100 [zfs]
июл 08 20:50:53 0F-BMAX kernel:  metaslab_flush+0xcd/0x350 [zfs]
июл 08 20:50:53 0F-BMAX kernel:  ? spa_cleanup_old_sm_logs+0xbc/0x170 [zfs]
июл 08 20:50:53 0F-BMAX kernel:  spa_flush_metaslabs+0x195/0x420 [zfs]
июл 08 20:50:53 0F-BMAX kernel:  spa_sync+0x5f9/0xf90 [zfs]
июл 08 20:50:53 0F-BMAX kernel:  ? spa_txg_history_init_io+0x113/0x120 [zfs]
июл 08 20:50:53 0F-BMAX kernel:  txg_sync_thread+0x227/0x3e0 [zfs]
июл 08 20:50:53 0F-BMAX kernel:  ? txg_fini+0x260/0x260 [zfs]
июл 08 20:50:53 0F-BMAX kernel:  ? __thread_exit+0x20/0x20 [spl]
июл 08 20:50:53 0F-BMAX kernel:  thread_generic_wrapper+0x57/0x70 [spl]
июл 08 20:50:53 0F-BMAX kernel:  kthread+0xd7/0x100
июл 08 20:50:53 0F-BMAX kernel:  ? kthread_complete_and_exit+0x20/0x20
июл 08 20:50:53 0F-BMAX kernel:  ret_from_fork+0x1f/0x30
июл 08 20:50:53 0F-BMAX kernel:  </TASK>
июл 08 20:50:53 0F-BMAX zed[11725]: eid=1 class=data pool='Safe' priority=0 err=52 flags=0x808881 bookmark=0:77:1:0
июл 08 20:50:53 0F-BMAX zed[11729]: eid=2 class=checksum pool='Safe' vdev=T4T1DATA algorithm=fletcher4 size=4096 offset=322630197248 priority=0 err=52 flags=0x180880 bookmark=0:77:1:0
июл 08 20:50:53 0F-BMAX zed[11730]: eid=3 class=checksum pool='Safe' vdev=T4T1DATA algorithm=fletcher4 size=4096 offset=300510576640 priority=0 err=52 flags=0x180880 bookmark=0:77:1:0
июл 08 20:50:53 0F-BMAX zed[11731]: eid=4 class=checksum pool='Safe' vdev=T4T1DATA algorithm=fletcher4 size=4096 offset=287929151488 priority=0 err=52 flags=0x180880 delay=13ms bookmark=0:77:1:0
июл 08 20:54:24 0F-BMAX kernel: INFO: task zpool:11636 blocked for more than 120 seconds.
июл 08 20:54:24 0F-BMAX kernel:       Tainted: P           OE      6.1.0-22-amd64 #1 Debian 6.1.94-1
июл 08 20:54:24 0F-BMAX kernel: "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
июл 08 20:54:24 0F-BMAX kernel: task:zpool           state:D stack:0     pid:11636 ppid:3271   flags:0x00004002
июл 08 20:54:24 0F-BMAX kernel: Call Trace:
июл 08 20:54:24 0F-BMAX kernel:  <TASK>
июл 08 20:54:24 0F-BMAX kernel:  __schedule+0x34d/0x9e0
июл 08 20:54:24 0F-BMAX kernel:  schedule+0x5a/0xd0
июл 08 20:54:24 0F-BMAX kernel:  io_schedule+0x42/0x70
июл 08 20:54:24 0F-BMAX kernel:  cv_wait_common+0xaa/0x130 [spl]
июл 08 20:54:24 0F-BMAX kernel:  ? cpuusage_read+0x10/0x10
июл 08 20:54:24 0F-BMAX kernel:  txg_wait_synced_impl+0xcb/0x110 [zfs]
июл 08 20:54:24 0F-BMAX kernel:  txg_wait_synced+0xc/0x40 [zfs]
июл 08 20:54:24 0F-BMAX kernel:  spa_load+0x153a/0x17c0 [zfs]
июл 08 20:54:24 0F-BMAX kernel:  spa_load_best+0x54/0x2c0 [zfs]
июл 08 20:54:24 0F-BMAX kernel:  spa_import+0x232/0x6b0 [zfs]
июл 08 20:54:24 0F-BMAX kernel:  zfs_ioc_pool_import+0x157/0x180 [zfs]
июл 08 20:54:24 0F-BMAX kernel:  zfsdev_ioctl_common+0x8d2/0xa00 [zfs]
июл 08 20:54:24 0F-BMAX kernel:  zfsdev_ioctl+0x4f/0xd0 [zfs]
июл 08 20:54:24 0F-BMAX kernel:  __x64_sys_ioctl+0x8d/0xd0
июл 08 20:54:24 0F-BMAX kernel:  do_syscall_64+0x55/0xb0
июл 08 20:54:24 0F-BMAX kernel:  ? do_filp_open+0xaf/0x160
июл 08 20:54:24 0F-BMAX kernel:  ? do_filp_open+0xaf/0x160
июл 08 20:54:24 0F-BMAX kernel:  ? __rseq_handle_notify_resume+0xa9/0x4a0
июл 08 20:54:24 0F-BMAX kernel:  ? exit_to_user_mode_prepare+0x44/0x1f0
июл 08 20:54:24 0F-BMAX kernel:  ? syscall_exit_to_user_mode+0x1e/0x40
июл 08 20:54:24 0F-BMAX kernel:  ? do_syscall_64+0x61/0xb0
июл 08 20:54:24 0F-BMAX kernel:  ? call_rcu+0xde/0x6b0
июл 08 20:54:24 0F-BMAX kernel:  ? exit_to_user_mode_prepare+0x44/0x1f0
июл 08 20:54:24 0F-BMAX kernel:  ? syscall_exit_to_user_mode+0x1e/0x40
июл 08 20:54:24 0F-BMAX kernel:  ? do_syscall_64+0x61/0xb0
июл 08 20:54:24 0F-BMAX kernel:  ? clear_bhb_loop+0x15/0x70
июл 08 20:54:24 0F-BMAX kernel:  ? clear_bhb_loop+0x15/0x70
июл 08 20:54:24 0F-BMAX kernel:  ? clear_bhb_loop+0x15/0x70
июл 08 20:54:24 0F-BMAX kernel:  ? clear_bhb_loop+0x15/0x70
июл 08 20:54:24 0F-BMAX kernel:  ? clear_bhb_loop+0x15/0x70
июл 08 20:54:24 0F-BMAX kernel:  entry_SYSCALL_64_after_hwframe+0x6e/0xd8
июл 08 20:54:24 0F-BMAX kernel: RIP: 0033:0x7f5c1036ac5b
июл 08 20:54:24 0F-BMAX kernel: RSP: 002b:00007fff18f7f020 EFLAGS: 00000246 ORIG_RAX: 0000000000000010
июл 08 20:54:24 0F-BMAX kernel: RAX: ffffffffffffffda RBX: 00005626f5cf3540 RCX: 00007f5c1036ac5b
июл 08 20:54:24 0F-BMAX kernel: RDX: 00007fff18f7f0f0 RSI: 0000000000005a02 RDI: 0000000000000003
июл 08 20:54:24 0F-BMAX kernel: RBP: 00007fff18f82fe0 R08: 00007f5c104403f0 R09: 00007f5c104403f0
июл 08 20:54:24 0F-BMAX kernel: R10: 0000000000000000 R11: 0000000000000246 R12: 00007fff18f7f0f0
июл 08 20:54:24 0F-BMAX kernel: R13: 00005626f5d14ea0 R14: 0000000000000000 R15: 00005626f5d14e10
июл 08 20:54:24 0F-BMAX kernel:  </TASK>
июл 08 20:54:24 0F-BMAX kernel: INFO: task txg_sync:11716 blocked for more than 120 seconds.
июл 08 20:54:24 0F-BMAX kernel:       Tainted: P           OE      6.1.0-22-amd64 #1 Debian 6.1.94-1
июл 08 20:54:24 0F-BMAX kernel: "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
июл 08 20:54:24 0F-BMAX kernel: task:txg_sync        state:D stack:0     pid:11716 ppid:2      flags:0x00004000
июл 08 20:54:24 0F-BMAX kernel: Call Trace:
июл 08 20:54:24 0F-BMAX kernel:  <TASK>
июл 08 20:54:24 0F-BMAX kernel:  __schedule+0x34d/0x9e0
июл 08 20:54:24 0F-BMAX kernel:  schedule+0x5a/0xd0
июл 08 20:54:24 0F-BMAX kernel:  spl_panic+0x106/0x108 [spl]
июл 08 20:54:24 0F-BMAX kernel:  ? dnode_rele_and_unlock+0x59/0xf0 [zfs]
июл 08 20:54:24 0F-BMAX kernel:  dmu_write+0xb5/0x190 [zfs]
июл 08 20:54:24 0F-BMAX kernel:  space_map_write+0x154/0x900 [zfs]
июл 08 20:54:24 0F-BMAX kernel:  ? zap_lookup+0xdb/0x100 [zfs]
июл 08 20:54:24 0F-BMAX kernel:  metaslab_flush+0xcd/0x350 [zfs]
июл 08 20:54:24 0F-BMAX kernel:  ? spa_cleanup_old_sm_logs+0xbc/0x170 [zfs]
июл 08 20:54:24 0F-BMAX kernel:  spa_flush_metaslabs+0x195/0x420 [zfs]
июл 08 20:54:24 0F-BMAX kernel:  spa_sync+0x5f9/0xf90 [zfs]
июл 08 20:54:24 0F-BMAX kernel:  ? spa_txg_history_init_io+0x113/0x120 [zfs]
июл 08 20:54:24 0F-BMAX kernel:  txg_sync_thread+0x227/0x3e0 [zfs]
июл 08 20:54:24 0F-BMAX kernel:  ? txg_fini+0x260/0x260 [zfs]
июл 08 20:54:24 0F-BMAX kernel:  ? __thread_exit+0x20/0x20 [spl]
июл 08 20:54:24 0F-BMAX kernel:  thread_generic_wrapper+0x57/0x70 [spl]
июл 08 20:54:24 0F-BMAX kernel:  kthread+0xd7/0x100
июл 08 20:54:24 0F-BMAX kernel:  ? kthread_complete_and_exit+0x20/0x20
июл 08 20:54:24 0F-BMAX kernel:  ret_from_fork+0x1f/0x30
июл 08 20:54:24 0F-BMAX kernel:  </TASK>

Пишу сюда сообщение, а тот #zpool import висит в соседней консоли со вчерашнего вечера и сыпет в логи эти паники.

Что можно предпринять?
Можно как то запустить scrub на не импортированный том?

(240721-0800) P.S. Простите тормоза... Ещё 9 числа, нагуглил своё же решение, решил и не обновил и не отметил тему как решенную.

В общем 2016 году, здесь же, мною был создан топик:
Смачно навернулась zfs. Что бы можно попробовать сделать?
и было найдено решение: zpool import -o readonly=on
Исполнил, том подключился в ридонли.

В этот раз получилось абсолютно так же.

 , ,

n0mad
()

zfs - Как очистить mountpoints подтомов? (Привести к изначальному состоянию)

Форум — Admin

Как то давно поставил zfs, экспериментируя раздал точки монтирования подтомам. Сейчас решил сменить точку монтирования тома.
Попытка сменить точку монтирования у тома даёт: Dataset is busy
Ладно, сделал set mountpoint=none всем подтомам, сменил точку монтирования тома, а в нём пусто... Сменил у всех подтомов точку монтирования на legacy = получил тот же хрен...
Экспортировал, импортировал том - подтома всё так же «оторваны»

T3T1Solo 706G 92.7G 99.9G /zfs/T3T1Solo
T3T1Solo/Backup 563G 92.7G 41K legacy
T3T1Solo/Backup/gzip-9 563G 92.7G 444G legacy
T3T1Solo/Backup/gzip-9/ShortBackup 118G 92.7G 118G legacy
T3T1Solo/Backup/lz4 27K 92.7G 27K legacy
T3T1Solo/Backup/off 24K 92.7G 24K legacy
T3T1Solo/DL 43.2G 92.7G 43.2G legacy
T3T1Solo/subYDZFS 72K 92.7G 24K legacy
T3T1Solo/subYDZFS/Obsolete 24K 92.7G 24K legacy
T3T1Solo/subYDZFS/Solo 24K 92.7G 24K legacy

Подскажите, как правильно их вернуть в иерархию относительно T3T1Solo?
Я конечно сейчас явно пропишу все вложенные туда куда смонтировал T3T1Solo, но правильно ли это?

Или сделать брутально? Создать новые подтома и рсинкнуть туда старые?

 , ,

n0mad
()

JFS - жить или не жить?

Форум — Admin

По совету гуру местного форума, купил себе МикроПК.
И теперь это мой эксперимент. Поставил Debian Bookworm x64,
но поставил не на ext4 а на jfs. Всё бы хорошо, но МикроПК - BMAX B1 pro - не прошел испытаний. Поначалу я обрадовался, он на самом «злом» алгоритме упаковки zfs: zstd-19 - который жужжал по 11 часов показывал производительность выше чем P4. Но, когда я решил взглянуть Ютуб - он «упал» (Слишком высокая температура). При перезагрузке он «рисовал"перманентный „трап“, который решился перезагрузкой со сменного носителя и fsck этого раздела.

Помогите сделать выбор. Сменить fs с помощью fstransform или каким то образом заставить jfs взлтать после падений?

До кучи - подскажите, как в новой системе журналов - посмотреть журналы падающей системы - загрузившись с внешнего носителя (например с флешки). Мне вот даже сложно здесь привести аргументы. Загрузился с флешки и пишу вам сообщение, сделал fsck корневого раздела и сейчас перезагружусь в него.


Перемещено hobbit из general

 , ,

n0mad
()

Как бы починить «неломающуюся» fs: zfs? Есть файлы которые невозможно удалить.

Форум — Admin

Приветствую, уважаемое сообщество.
Занялся тут изучением zfs и прогоном скорости паковки разными алгоритмами. Вся работа была с SATA hdd подключенном через USB3 рэк. Идея была в прогоне этого винта на разных процессорах и замера скорости упаковки (отработки rsync на одних и тех же данных).
Всё сумбурно, и не всегда читал/фиксировал вывод команд. Они в общем то выводили в скриптах и в финале ошибки уже пролетали. После очередного цикла - заметил ошибку при rm -rf
Оставались неудаляемые файлы. Я даже и не представляю как это показать общественности.

Например

/usr/share/icons/matefaenza/mimetypes# ls -ld 64 
drwxr-xr-x 2 root root 373 мая 27  2018 64

/usr/share/icons/matefaenza/mimetypes# rm -rf 64 
rm: невозможно удалить '64': Каталог не пуст

/usr/share/icons/matefaenza/mimetypes# ls -l 64 
ls: чтение каталога '64': Ошибка ввода/вывода
итого 0

Тут не файлы, тут пустые каталоги не удалить.
С файлами немного по другому:
/usr/share/icons/matefaenzadark/actions/16# ls -l stock_mail-send-receive.png 
ls: невозможно получить доступ к 'stock_mail-send-receive.png': Некорректный обмен

И как теперь эти файлы/каталоги удалить? Неужели пул придется бэкапить и пересоздавать?

Дайте какие нибудь рекомендации для устранения этой ошибки.

P.S. При прогоне собралось тьма сырых даных, надо оформить в таблицах. Тупо rsync 64Gb данных занимал от 58 минут и до 11 часов и 27 минут
Без упаковки rsync отрабатывал от 59 минут (на BMAX B1 Pro) и до 73 минут (На Celeron E3400 @2.6GHz)

Упаковывалось до следующих значений:
# zfs list
NAME                         USED  AVAIL     REFER  MOUNTPOINT
S1T1Archive                  736G   164G     16.6M  /S1T1Archive
S1T1Archive/gzip            37.7G   164G     37.7G  /S1T1Archive/gzip
S1T1Archive/gzip-1          38.6G   164G     38.6G  /S1T1Archive/gzip-1
S1T1Archive/gzip-9          37.6G   164G     37.6G  /S1T1Archive/gzip-9
S1T1Archive/lz4             41.4G   164G     41.4G  /S1T1Archive/lz4
S1T1Archive/lzjb            43.9G   164G     43.9G  /S1T1Archive/lzjb
S1T1Archive/off             64.4G   164G     64.4G  /S1T1Archive/off
S1T1Archive/off-copy        64.4G   164G     64.4G  /S1T1Archive/off-copy
S1T1Archive/zle             60.8G   164G     60.8G  /S1T1Archive/zle
S1T1Archive/zstd            37.9G   164G     37.9G  /S1T1Archive/zstd
S1T1Archive/zstd-1          38.2G   164G     38.2G  /S1T1Archive/zstd-1
S1T1Archive/zstd-19         36.9G   164G     36.9G  /S1T1Archive/zstd-19
S1T1Archive/zstd-fast       39.5G   164G     39.5G  /S1T1Archive/zstd-fast
S1T1Archive/zstd-fast-1     39.5G   164G     39.5G  /S1T1Archive/zstd-fast-1
S1T1Archive/zstd-fast-10    42.2G   164G     42.2G  /S1T1Archive/zstd-fast-10
S1T1Archive/zstd-fast-100   50.4G   164G     50.4G  /S1T1Archive/zstd-fast-100
S1T1Archive/zstd-fast-1000  60.5G   164G     60.5G  /S1T1Archive/zstd-fast-1000

off - Это собственно исходник который рсинкался в подразделы с разными алгоритмами.

P.S.
(240519)
Гугля, набрёл на хорошую статью о ручном восстановлении zfs, с описанием структур данных zfs: https://www.lissyara.su/articles/freebsd/file_system/zfs_recovery/

 , ,

n0mad
()

Уважаемое LOR сообщество, совсем не про линукс, но про питание.... LiION - подскажите.

Форум — Mobile

В LOR сообществе масса профессионалов, и надеюсь мне дадут ответ, на давно мучающий вопрос.

Постоянно мы сталкиваемся с массой гаджетов, и большинство сейчас питается от LiION аккумуляторов. Сейчас распространен формат: 18650 и у меня в голове не укладывается схема их соединения в павербанках. Они там соединены параллельно. В моей голове укладывается только вариант того, что в каждой батарее вмонтировано своё зарядное устройство, не позволяющее току перетекать из заряженного элемента в разряженный и выбирающее свой ток заряда для каждого элемента, достаточно подать номинальное напряжение заряда. Или таки они там перетекают? Тогда что ограничивает эти перетекающие токи?

Как чёрт-побери устроен это аккумулятор позволяющий параллельный заряд/разряд?

Заранее прошу прощения если это злостный оффтопик, но не представляю где ещё спросить это.

 liion

n0mad
()

ПОДЗЕМНЫЙ СТУК! Есть ясновидцы и Экстрасенсы? (Не работает rsync)

Форум — Admin

Стоит Debian Bookworm, zfs-dkms.
История идёт давно. Купил 4Т винт и начался анекдот про негра жмущего F6-ENTER-TAB-F6. Началась реорганизация всего барахла между 16TB дискового пространства из 5 дисков.

В частности была операция по резервированию «половинки» от старого рейда (DEGRADED RAID). Идея была в том чтобы тупо /dev/md0 /dev/md1 (root,/opt) рсинкнуть на zfs с упаковкой gzip-9, затем вместо DEGRADED рейда сделать один раздел zfs/gzip-9 и вернуть данные на него.
(Раз пишу - отчитаюсь: с первого взгляда squash не сильно опережает gzip-9. Для примера корень размером 64Gb, на zfs занимает 38Gb к которым можно полноценно обращаться. squashfs вариант занимает 36Gb, но он естественно только для чтения.)

Финал, не спал, может забыл, но:
rsync -axvPH md0-root /S1TArchive - Посчитал и ничего не стал копировать. Как будто в назначении уже есть все эти файлы. Но там ЧИСТО!

Я все ключи перепробовал. Не помогает! Потом пришла мысль: Сделать на назначении каталог: 2Try. Добавил rsync в назначении /2Try и он начал копировать... НО! В другом окне, в mc я вижу чистый каталог!

Сейчас сижу, пишу сообщение, а в фоне 2 окна с копиями. В одном копирует rsync, а в другом ТУПО нажал F5 в mc, в каталог /3Try.

Так вот rsync трудится, а файлы в пути назначения НЕ ПОЯВЛЯЮТСЯ!
В другом окне - mc копирует и файлы появляются.

Какие есть предположения? Что это за «подземный стук»?
P.S. Винт назначения (впрочем и источник тоже) включен по USB3 и в финале экспортирую винт назначения и взгляну на него с другого компа (откуда он родом).

P.P.S. Дело было не в бобине...
Модеры могут удалить тему, а могут сохранить. В назидание.
Я понимал что этого не может быть, но упорно не видел ошибку.
Рсинк в скрипте шел не в тот каталог в котором я смотрел, разница была в букве и цифре, вместо винта S1 всё шло на T2.
Бывает когда подмонтировал к одному компу 5 Многотерабайтных винтов...

Отмечаю тему как решенную!

 , , zfsonliynux,

n0mad
()

Купил 2 новых 4 терабайтника... Одинаковых, но не сразу и в разных конторах. Показывают в SMART разный размер.

Форум — Linux-hardware

Первая покупка:

Model Family:     Toshiba 3.5" MG03ACAxxx(Y) Enterprise HDD
Device Model:     TOSHIBA MG03ACA400
Serial Number:    Z4FEK62FF
LU WWN Device Id: 5 000039 5fbd822f6
Firmware Version: FL1A
User Capacity:    4 000 785 948 160 bytes [4,00 TB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches

Вторая покупка:
Model Family:     Toshiba 3.5" MG03ACAxxx(Y) Enterprise HDD
Device Model:     TOSHIBA MG03ACA400
Serial Number:    Z494K77TF
LU WWN Device Id: 5 000039 5fb88138a
Firmware Version: FL1A
User Capacity:    4 000 787 030 016 bytes [4,00 TB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches


Почему первый: 4 000 785 948 160 bytes
а второй: 4 000 787 030 016 bytes?
Разница 918144 байта.

Этот вопрос заинтересовал в плане создания zfs рейда на всё устройство, путём создания обычного тома, а затем подключениия зеркального устройства. Ведь оно может потом заявить. «Слишком маленькое устройство».
Думаю всё же придётся создать разделы по 4000000000000 байт, а хвосты сделать отдельными разделами для всякого мусора. Или докинуть туда ещё 750Мб?

P.S. Долго обсуждали, пока Dimez не написал:

Ты написал очень много букв вместо простой проверки HPA.

И тут всё встало на места, я «посыпал голову пеплом», за 33+ года работы с компами я знал аббревиатуру HPA, но НИ РАЗУ не использовал и не знал сути.

#hdparm -N /dev/sda
/dev/sda:
max sectors = 7814035055/7814037168, HPA is enabled

#hdparm -N p7814037168 /dev/sda

# hdparm -N /dev/sda

/dev/sda:
 max sectors   = 7814037168/7814037168, HPA is disabled

ВСЁ! ВОПРОС ИСЧЕРПАН!
Но появились новые вопросы.
С этим диском сразу случился цирк.
Получил с WB новый винт, в пакетике, не вскрытый.
Вскрыл, этикетка наклеена с пузырями.
Запустил smartctl и он показал размер 3Тб
Я начал делать заявку на возврат, для приложения логов подключил этот винт через SATA<->USB адаптер, запустил smartctl и увидел 4Т.
Возврат отложился.
Разметил, сделал zfs рейд с десктопной 3Т Тошибой, но тоже косяк.
Десктопные винты имеют физический размер сектора 4К, а серверные 512 байт. Пришлось долго уговаривать zfs рейд, иначе он отказывался с совершенно левой диагностикой:
cannot attach /dev/sdc2 to /dev/sda3: can only attach to mirrors and top-level disks

Уговорил, указав ashift=12, но в итоге zpool status пишет:
	NAME        STATE     READ WRITE CKSUM
	zer0-safe   ONLINE       0     0     0
	  mirror-0  ONLINE       0     0     0
	    sda3    ONLINE       0     0     0
	    sdc2    ONLINE       0     0     0  block size: 512B configured, 4096B native

Вернемся к нашим баранам.
Наконец получил второй такой же 4T, из другой конторы, посмотрел SMART и родился этот топик.
Теперь этот топик дал решение: просто отключить HPA у первого винта. Экстрасенсы задержались, а надо было просто мне предложить показать: hdparm -N /dev/sda

Остался простор для исследования почему этот первый винт, достатый из запечатанного пакета от Тошибы, показал сначала размер 3Т, потом неожиданно стал 4Т, но немного меньше чем другой такой же пришедший позже. Куда я его включил и кто менял ему HPA? Но сначала включил в тот же компьютер что и второй, увидел 3Т и началась «истерика» попыток воткнуть его в разные места, загрузки разных систем и запуска разных диагностических средств. В процессе он неожиданно стал 4Т.
Последовательности операций не записывал, а с памятью у меня плохо.
Покупать ещё один такой винт? :)))

 ,

n0mad
()

Вопрос знатокам zfs - как правильно добавлять устройства в пул?

Форум — Admin

Целиком диски? gpt разделы? Их UUID? Или может банально LVM VG/LV? Ведь LVM переносим и его адресация не зависит от имени диска, но с ним гораздо проще видеть организацию тома чем по UUID.

Проще ведь видеть разделы по именам:

   pool: zfs-raidz_4
     id: 14845661564733668607
  state: ONLINE
 action: The pool can be imported using its name or numeric identifier.
 config:

        zfs-raidz_4  ONLINE
          Data_1     ONLINE
          Data_2     ONLINE
          Data_3     ONLINE
          Data_4     ONLINE

Чем по жутким цифробуквам:
   pool: zfs-mirror
     id: 11702920276725354413
  state: ONLINE
 action: The pool can be imported using its name or numeric identifier.
 config:

        zfs-mirror                                ONLINE
          mirror-0                                ONLINE
            72cf2c0b-fe32-4649-9aa6-45d1314d1139  ONLINE
            27300dce-6a76-6a49-a10c-905100118633  ONLINE

Эти разделы задолбаешься же искать по всем дискам.

 , , ,

n0mad
()

Debian Bookworm zfs: «Module build for kernel 6.1.0-20-amd64 was skipped...»

Форум — Admin

Решил поставить zfs, как и раньше написал: #apt install zfs-dkms
Но в этот раз оно ругнулось: Module build for kernel 6.1.0-20-amd64 was skipped since the kernel headers for this kernel do not seem to be installed.

Увы, тут помню тут не помню. Просто доставил linux-source (Логично что там и headers должны быть) - не помогло. Долго гуглил ошибку, вразумительного решения не нагуглил. Потом решил посмотреть не со стороны проблемы, а со стороны задачи и начал гуглить «Debian Bookworm установить zfs».
Сразу же нашлось на:
https://orcacore.com/set-up-zfs-debian-12-bookworm/

sudo apt install linux-headers-amd64 zfsutils-linux zfs-dkms zfs-zed -y

У меня не хватало linux-headers-amd64

Не понятно, почему все предыдущие разы оно поставилось без проблем? Ведь так же ставил Bookworm с netinst usb и устанавливал. Подгружались все зависимости и собиралось.

 , , , ,

n0mad
()

Как узнать реальный размер сектора HDD? Вдруг он врёт?

Форум — Linux-hardware

Преамбула: zfs рейд.
Начинался с одного диска.
Подлючил второй зеркалом и выяснилось что у второго размер сектора 512 байт, так как он Enterprise, а у старого - 4Кб (Desktop).
В связи с этим возник вопрос, а реально, «внутри» Enterprise хранит сектора по 512 байт или напихивает в 4Кб?
Вдруг там история как про SMR?

Старый, добрый 3T Desktop:

Model Family:     Toshiba 3.5" DT01ACA... Desktop HDD
Device Model:     TOSHIBA DT01ACA300
Serial Number:    Z7P6GLWAS
LU WWN Device Id: 5 000039 fe6df2013
Firmware Version: MX6OABB0
User Capacity:    3 000 592 982 016 bytes [3,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches
Device is:        In smartctl database 7.3/5319
ATA Version is:   ATA8-ACS T13/1699-D revision 4
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Sun Apr 14 07:38:14 2024 MSK
SMART support is: Available - device has SMART capability.
SMART support is: Enabled


Новенький 4T Enterprise:
Model Family:     Toshiba 3.5" MG03ACAxxx(Y) Enterprise HDD
Device Model:     TOSHIBA MG03ACA400
Serial Number:    Z4FEK62FF
LU WWN Device Id: 5 000039 5fbd822f6
Firmware Version: FL1A
User Capacity:    4 000 785 948 160 bytes [4,00 TB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches
Device is:        In smartctl database 7.3/5319
ATA Version is:   ATA8-ACS (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Sun Apr 14 07:31:28 2024 MSK
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

Вот и думаю, том/пул для него создавать 512B или 4K?
А то пишут какие то страсти, о том что можно «заразить» том/пул девайсами разного разера секторов и что плохо если в одном пуле, один девайс 512, другой 4k.
И не совсем понятно, в одних источниках утверждают что размер сектора определяется в томе/пуле, а в других что размер сектора привязан к устройству, и в одном томе/пуле пофигу какие устройства.

Уважаемые форумчане могут что то сказать про это?
Можно смело делать 512Б том/пул/девайс или всё привести к 4к?
Вопрос «горит» в связи с тем что приехал ещё один Enterprise и можно зеркало сделать чисто на них, а старый 3T поставить отдельно.

Ещё интересует мнение форумчан про идеологию. Как идеологически верно, нынче поставить систему/своп? На HDD или SSD?
Вот думаю, или систему на SSD а HDD под том данных, или систему на HDD а SSD сделать кэшем для данных (zfs предусматривает такую раскладку)?

 , sector, , ,

n0mad
()

Debian Bookworm и MATE - при переключении виртуальных десктопов - уходит фокус ввода. Где это может настраиваться?

Форум — Desktop

Есть экспериментальная машинка.
Для удобства - использую виртуальные десктопы, у меня их аж 9.
Всегда без проблем на каждом из десктопов - сохранялся свой фокус ввода (активно окно), а на этом компьютере - переключаюсь на виртуальый десктоп и фокус ввода куда то улетает. Каждый раз надо переключаться на то окно которое нужно.
Сначала было подумал что дело в Bookworm, но у меня есть ещё компьютер, с Bookworm, поставленным с того же Live USB. Там с фокусом ввода всё в порядке. На каждом виртуальном десктопе - фокус ввода там где был при уходе с него.
Здесь же это не так, переключаюсь на десктоп 1, вижу две консольки, а фокус ввода ни на одной из них.
Хотя Alt-Tab переключает фокус ввода на ту консоль которая была активна прошлый раз. Но не хочется нажимать лишние кнопки, тем более если разный шаблон поведения на разных компах это жесть...

 , ,

n0mad
()

Нужна помощь zfs экстрасенсов. Тираню zfs рейд, рассыпался пул.

Форум — Admin

Тираню извращённо, забыл какие то шаги.
Какие шаги предпринять чтобы починить?

Изначально вставил одну флешку, 32Gb.
Сделал на ней раздел.
Создал пул.
Записал данные.
Затем вставил 64Gb флешку.
На ней не стал создавать раздел, а подключил как:
#zfs attach raid-1 /dev/sdc1 /dev/sdd (Это вариант команды из головы, точно не могу процитировать)
В итоге забавная ситуация. Один диск это sdc1, а на другом zfs создала 2 раздела:

# fdisk -l /dev/sdd
Disk /dev/sdd: 58,26 GiB, 62552276992 bytes, 122172416 sectors
Disk model: STORAGE DEVICE
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 43208ED2-0546-FE4E-95FA-851D53AEB01A

Device Start End Sectors Size Type
/dev/sdd1 2048 122155007 122152960 58,2G Solaris /usr & Apple ZFS
/dev/sdd9 122155008 122171391 16384 8M Solaris reserved 1


Пул ресинкнулся. Работал, я его экспортировал, импортировал, а вот контрольный экспорт забыл сделать.
Флешки занимали последние свободные USB порты, я поставил хаб, включил флешки в него и оно не взлетело после перезагрузки... Вставил флешки как было и теперь:
#zpool import
pool: raid-1
id: 3603826776807686061
state: DEGRADED
status: One or more devices were being resilvered.
action: The pool can be imported despite missing or damaged devices. The
fault tolerance of the pool may be compromised if imported.
config:

raid-1 DEGRADED
mirror-0 DEGRADED
sdc1 ONLINE
sdc1 FAULTED corrupted data

Теоретически можно было заменить FAULTED на него же, но под другим именем - но оба девайса стоят под одним именем. Я даже не могу заменить скажем sdd на sde или на него же, предварительно удалив zfs метки.

Можно ли как то поднять DEGRADED пул? -f не помогает.

# zpool import raid-1 -f
cannot import 'raid-1': one or more devices is currently unavailable

И какие мысли есть по замене одного из sdc? Какими командами можно посмотреть статус не импортированного пула?

P.S. Время прошло, мучаю zfs дальше. Создал ещё один пул, включал уже по UUID. Перенес на другой компьютер одну флешку из 2х в рейде. Пул благополучно импортировался в DEGRADED режиме.Что то с этим пулом не в порядке. Пусть живёт на флешке пока не найдётся решения.

Пока же озадачен тем как правильно включать устройства в пул? Ведь в Linux можно включить и диск, и раздел, и UUID раздела и тупо LVM том по имени. Что из них выбрать для боевого рейда?

 , ,

n0mad
()

RSS подписка на новые темы