Преамбула:
Не судите меня строго, я «дурачок». В 2009 в результате лётного происшествия - тяжелый ушиб ствола мозга и неделя мозговой комы.
Благо окружающие «прорешали» хорошего русского реаниматолога, я выжил и обошлось без оперативного вмешательства. Первый месяц я был практически овощь, но постепенно даже компьютерами продолжил заниматься, но увы, теперь не хватает памяти и концентрации внимания на анализ ситуации.
Теперь о ситуации:
Там где сейчас импортирую том - Мини ПК (BMAX B1 Pro) и стоит Debian Bookworm. Но это началось на основном компе с классическим P4. На Мини ПК винт подключен через USB3, Полный SMART тест прошел, хотя на основном компе - издавал странные звуки и возможно они привели к ситуации упавшего тома.
Использую zfs, как бы её не ругали... Винты дохнут и решил сделать рейд на zfs, но не успел. Во время массированного перемещения данных между 14T собравшегося дискового пространства, что то , где то, повисло (Или сбой электричества был? Увы, в этом и моя проблема. То что не зафиксировано я часто забываю.)
в общем имею 4T накопитель, на котором собирал рабочую реплику инфы, чтобы впоследствии сделать зеркало на второй 4T.
(Этим и нравится zfs, можно не сразу делать рейд как в mdadm, а потом. Впрочем могу и заблуждаться, может и mdadm так может).
Собрать не успел. Сейчас там есть zfs том: Safe - который рождает панику во время #zpool import. Он просто повисает, а в journalctl
июл 08 20:50:53 0F-BMAX kernel: VERIFY3(0 == dmu_buf_hold_array(os, object, offset, size, FALSE, FTAG, &numbufs, &dbp)) failed (0 == 5)
июл 08 20:50:53 0F-BMAX kernel: PANIC at dmu.c:1123:dmu_write()
июл 08 20:50:53 0F-BMAX kernel: Showing stack for process 11716
июл 08 20:50:53 0F-BMAX kernel: CPU: 0 PID: 11716 Comm: txg_sync Tainted: P OE 6.1.0-22-amd64 #1 Debian 6.1.94-1
июл 08 20:50:53 0F-BMAX kernel: Hardware name: AMI Intel/Intel, BIOS V1.3_231 08/22/2023
июл 08 20:50:53 0F-BMAX kernel: Call Trace:
июл 08 20:50:53 0F-BMAX kernel: <TASK>
июл 08 20:50:53 0F-BMAX kernel: dump_stack_lvl+0x44/0x5c
июл 08 20:50:53 0F-BMAX kernel: spl_panic+0xf0/0x108 [spl]
июл 08 20:50:53 0F-BMAX kernel: ? dnode_rele_and_unlock+0x59/0xf0 [zfs]
июл 08 20:50:53 0F-BMAX kernel: dmu_write+0xb5/0x190 [zfs]
июл 08 20:50:53 0F-BMAX kernel: space_map_write+0x154/0x900 [zfs]
июл 08 20:50:53 0F-BMAX kernel: ? zap_lookup+0xdb/0x100 [zfs]
июл 08 20:50:53 0F-BMAX kernel: metaslab_flush+0xcd/0x350 [zfs]
июл 08 20:50:53 0F-BMAX kernel: ? spa_cleanup_old_sm_logs+0xbc/0x170 [zfs]
июл 08 20:50:53 0F-BMAX kernel: spa_flush_metaslabs+0x195/0x420 [zfs]
июл 08 20:50:53 0F-BMAX kernel: spa_sync+0x5f9/0xf90 [zfs]
июл 08 20:50:53 0F-BMAX kernel: ? spa_txg_history_init_io+0x113/0x120 [zfs]
июл 08 20:50:53 0F-BMAX kernel: txg_sync_thread+0x227/0x3e0 [zfs]
июл 08 20:50:53 0F-BMAX kernel: ? txg_fini+0x260/0x260 [zfs]
июл 08 20:50:53 0F-BMAX kernel: ? __thread_exit+0x20/0x20 [spl]
июл 08 20:50:53 0F-BMAX kernel: thread_generic_wrapper+0x57/0x70 [spl]
июл 08 20:50:53 0F-BMAX kernel: kthread+0xd7/0x100
июл 08 20:50:53 0F-BMAX kernel: ? kthread_complete_and_exit+0x20/0x20
июл 08 20:50:53 0F-BMAX kernel: ret_from_fork+0x1f/0x30
июл 08 20:50:53 0F-BMAX kernel: </TASK>
июл 08 20:50:53 0F-BMAX zed[11725]: eid=1 class=data pool='Safe' priority=0 err=52 flags=0x808881 bookmark=0:77:1:0
июл 08 20:50:53 0F-BMAX zed[11729]: eid=2 class=checksum pool='Safe' vdev=T4T1DATA algorithm=fletcher4 size=4096 offset=322630197248 priority=0 err=52 flags=0x180880 bookmark=0:77:1:0
июл 08 20:50:53 0F-BMAX zed[11730]: eid=3 class=checksum pool='Safe' vdev=T4T1DATA algorithm=fletcher4 size=4096 offset=300510576640 priority=0 err=52 flags=0x180880 bookmark=0:77:1:0
июл 08 20:50:53 0F-BMAX zed[11731]: eid=4 class=checksum pool='Safe' vdev=T4T1DATA algorithm=fletcher4 size=4096 offset=287929151488 priority=0 err=52 flags=0x180880 delay=13ms bookmark=0:77:1:0
июл 08 20:54:24 0F-BMAX kernel: INFO: task zpool:11636 blocked for more than 120 seconds.
июл 08 20:54:24 0F-BMAX kernel: Tainted: P OE 6.1.0-22-amd64 #1 Debian 6.1.94-1
июл 08 20:54:24 0F-BMAX kernel: "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
июл 08 20:54:24 0F-BMAX kernel: task:zpool state:D stack:0 pid:11636 ppid:3271 flags:0x00004002
июл 08 20:54:24 0F-BMAX kernel: Call Trace:
июл 08 20:54:24 0F-BMAX kernel: <TASK>
июл 08 20:54:24 0F-BMAX kernel: __schedule+0x34d/0x9e0
июл 08 20:54:24 0F-BMAX kernel: schedule+0x5a/0xd0
июл 08 20:54:24 0F-BMAX kernel: io_schedule+0x42/0x70
июл 08 20:54:24 0F-BMAX kernel: cv_wait_common+0xaa/0x130 [spl]
июл 08 20:54:24 0F-BMAX kernel: ? cpuusage_read+0x10/0x10
июл 08 20:54:24 0F-BMAX kernel: txg_wait_synced_impl+0xcb/0x110 [zfs]
июл 08 20:54:24 0F-BMAX kernel: txg_wait_synced+0xc/0x40 [zfs]
июл 08 20:54:24 0F-BMAX kernel: spa_load+0x153a/0x17c0 [zfs]
июл 08 20:54:24 0F-BMAX kernel: spa_load_best+0x54/0x2c0 [zfs]
июл 08 20:54:24 0F-BMAX kernel: spa_import+0x232/0x6b0 [zfs]
июл 08 20:54:24 0F-BMAX kernel: zfs_ioc_pool_import+0x157/0x180 [zfs]
июл 08 20:54:24 0F-BMAX kernel: zfsdev_ioctl_common+0x8d2/0xa00 [zfs]
июл 08 20:54:24 0F-BMAX kernel: zfsdev_ioctl+0x4f/0xd0 [zfs]
июл 08 20:54:24 0F-BMAX kernel: __x64_sys_ioctl+0x8d/0xd0
июл 08 20:54:24 0F-BMAX kernel: do_syscall_64+0x55/0xb0
июл 08 20:54:24 0F-BMAX kernel: ? do_filp_open+0xaf/0x160
июл 08 20:54:24 0F-BMAX kernel: ? do_filp_open+0xaf/0x160
июл 08 20:54:24 0F-BMAX kernel: ? __rseq_handle_notify_resume+0xa9/0x4a0
июл 08 20:54:24 0F-BMAX kernel: ? exit_to_user_mode_prepare+0x44/0x1f0
июл 08 20:54:24 0F-BMAX kernel: ? syscall_exit_to_user_mode+0x1e/0x40
июл 08 20:54:24 0F-BMAX kernel: ? do_syscall_64+0x61/0xb0
июл 08 20:54:24 0F-BMAX kernel: ? call_rcu+0xde/0x6b0
июл 08 20:54:24 0F-BMAX kernel: ? exit_to_user_mode_prepare+0x44/0x1f0
июл 08 20:54:24 0F-BMAX kernel: ? syscall_exit_to_user_mode+0x1e/0x40
июл 08 20:54:24 0F-BMAX kernel: ? do_syscall_64+0x61/0xb0
июл 08 20:54:24 0F-BMAX kernel: ? clear_bhb_loop+0x15/0x70
июл 08 20:54:24 0F-BMAX kernel: ? clear_bhb_loop+0x15/0x70
июл 08 20:54:24 0F-BMAX kernel: ? clear_bhb_loop+0x15/0x70
июл 08 20:54:24 0F-BMAX kernel: ? clear_bhb_loop+0x15/0x70
июл 08 20:54:24 0F-BMAX kernel: ? clear_bhb_loop+0x15/0x70
июл 08 20:54:24 0F-BMAX kernel: entry_SYSCALL_64_after_hwframe+0x6e/0xd8
июл 08 20:54:24 0F-BMAX kernel: RIP: 0033:0x7f5c1036ac5b
июл 08 20:54:24 0F-BMAX kernel: RSP: 002b:00007fff18f7f020 EFLAGS: 00000246 ORIG_RAX: 0000000000000010
июл 08 20:54:24 0F-BMAX kernel: RAX: ffffffffffffffda RBX: 00005626f5cf3540 RCX: 00007f5c1036ac5b
июл 08 20:54:24 0F-BMAX kernel: RDX: 00007fff18f7f0f0 RSI: 0000000000005a02 RDI: 0000000000000003
июл 08 20:54:24 0F-BMAX kernel: RBP: 00007fff18f82fe0 R08: 00007f5c104403f0 R09: 00007f5c104403f0
июл 08 20:54:24 0F-BMAX kernel: R10: 0000000000000000 R11: 0000000000000246 R12: 00007fff18f7f0f0
июл 08 20:54:24 0F-BMAX kernel: R13: 00005626f5d14ea0 R14: 0000000000000000 R15: 00005626f5d14e10
июл 08 20:54:24 0F-BMAX kernel: </TASK>
июл 08 20:54:24 0F-BMAX kernel: INFO: task txg_sync:11716 blocked for more than 120 seconds.
июл 08 20:54:24 0F-BMAX kernel: Tainted: P OE 6.1.0-22-amd64 #1 Debian 6.1.94-1
июл 08 20:54:24 0F-BMAX kernel: "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
июл 08 20:54:24 0F-BMAX kernel: task:txg_sync state:D stack:0 pid:11716 ppid:2 flags:0x00004000
июл 08 20:54:24 0F-BMAX kernel: Call Trace:
июл 08 20:54:24 0F-BMAX kernel: <TASK>
июл 08 20:54:24 0F-BMAX kernel: __schedule+0x34d/0x9e0
июл 08 20:54:24 0F-BMAX kernel: schedule+0x5a/0xd0
июл 08 20:54:24 0F-BMAX kernel: spl_panic+0x106/0x108 [spl]
июл 08 20:54:24 0F-BMAX kernel: ? dnode_rele_and_unlock+0x59/0xf0 [zfs]
июл 08 20:54:24 0F-BMAX kernel: dmu_write+0xb5/0x190 [zfs]
июл 08 20:54:24 0F-BMAX kernel: space_map_write+0x154/0x900 [zfs]
июл 08 20:54:24 0F-BMAX kernel: ? zap_lookup+0xdb/0x100 [zfs]
июл 08 20:54:24 0F-BMAX kernel: metaslab_flush+0xcd/0x350 [zfs]
июл 08 20:54:24 0F-BMAX kernel: ? spa_cleanup_old_sm_logs+0xbc/0x170 [zfs]
июл 08 20:54:24 0F-BMAX kernel: spa_flush_metaslabs+0x195/0x420 [zfs]
июл 08 20:54:24 0F-BMAX kernel: spa_sync+0x5f9/0xf90 [zfs]
июл 08 20:54:24 0F-BMAX kernel: ? spa_txg_history_init_io+0x113/0x120 [zfs]
июл 08 20:54:24 0F-BMAX kernel: txg_sync_thread+0x227/0x3e0 [zfs]
июл 08 20:54:24 0F-BMAX kernel: ? txg_fini+0x260/0x260 [zfs]
июл 08 20:54:24 0F-BMAX kernel: ? __thread_exit+0x20/0x20 [spl]
июл 08 20:54:24 0F-BMAX kernel: thread_generic_wrapper+0x57/0x70 [spl]
июл 08 20:54:24 0F-BMAX kernel: kthread+0xd7/0x100
июл 08 20:54:24 0F-BMAX kernel: ? kthread_complete_and_exit+0x20/0x20
июл 08 20:54:24 0F-BMAX kernel: ret_from_fork+0x1f/0x30
июл 08 20:54:24 0F-BMAX kernel: </TASK>
Пишу сюда сообщение, а тот #zpool import висит в соседней консоли со вчерашнего вечера и сыпет в логи эти паники.
Что можно предпринять?
Можно как то запустить scrub на не импортированный том?
(240721-0800) P.S. Простите тормоза... Ещё 9 числа, нагуглил своё же решение, решил и не обновил и не отметил тему как решенную.
В общем 2016 году, здесь же, мною был создан топик:
Смачно навернулась zfs. Что бы можно попробовать сделать?
и было найдено решение: zpool import -o readonly=on
Исполнил, том подключился в ридонли.
В этот раз получилось абсолютно так же.