LINUX.ORG.RU
ФорумAdmin

Чё делать сломалась ZFS

 , , , ,


3

3

Имеется пул - вроде с ним все хорошо

# zpool import -f

   pool: OVER
     id: 7316868942039014810
  state: ONLINE
status: Some supported features are not enabled on the pool.
	(Note that they may be intentionally disabled if the
	'compatibility' property is set.)
 action: The pool can be imported using its name or numeric identifier, though
	some features will not be available without an explicit 'zpool upgrade'.
 config:

	OVER                                ONLINE
	  ata-WDC_WUH721414ALE6L4_QBKVBRUT  ONLINE


пытаюсь смонтировать - и после выдает ошибку
# zpool import -f OVER
cannot import 'OVER': I/O error
	Destroy and re-create the pool from
	a backup source.


если попробовать так - выдает следующее
# zpool import -FfmX OVER
cannot import 'OVER': one or more devices is currently unavailable


удалить его не получается - так понимаю потомучто он не импортирован...
# zpool destroy OVER
cannot open 'OVER': no such pool


поломался не с того не с его - я его прокидывал в hyper-v и расшаривал по сети - и однажды начало такую ошибку выдавать
там 6тб ценной информации - хотелось бы именно восстановить
smart в crystaldisk - показывает «ХОРОШО»
че делать?



Последнее исправление: GGUseR (всего исправлений: 1)

потомучто, не с того не с его

Грамма-ох, тибидох.

че делать?

Больше так не делай. В смысле нефиг ZFS использовать для хранения данных.

zdb -e OVER
Usruser
()

ata-WDC_WUH721414ALE6L4_QBKVBRUT

Проверь диск на чтение при помощи dd например, если читается, то можно продолжить разборки с zfs

futurama ★★★★★
()
Ответ на: комментарий от Usruser

специально для восстановления поставил свежую убунту 22.04 - на данный момент версия ZFS такая - ошибки теже

# zpool --version
zfs-2.1.2-1ubuntu3
zfs-kmod-2.1.2-1ubuntu3
# zfs --version
zfs-2.1.2-1ubuntu3
zfs-kmod-2.1.2-1ubuntu3

GGUseR
() автор топика
Ответ на: комментарий от futurama

# dd if=/dev/disk/by-id/ata-WDC_WUH721414ALE6L4_QBKVBRUT of=/dev/null bs=1024k status=progress

5862588416 байт (5,9 GB, 5,5 GiB) скопирован, 22 s, 266 MB/s^C
5680+0 записей получено
5679+0 записей отправлено
5954863104 байт (6,0 GB, 5,5 GiB) скопирован, 22,6394 s, 263 MB/s


вроде запись идет

GGUseR
() автор топика
Последнее исправление: GGUseR (всего исправлений: 1)
Ответ на: комментарий от Usruser

пробовал ещё провода и sata порт менять (на которых рабочей диск висел) - ситуация не изменилась.

GGUseR
() автор топика

Ты что, zfs никогда не ломается, поэтому у неё и нет инструментов для починки.

firkax ★★★★★
()
Ответ на: комментарий от GGUseR

А что будет в конце?

Ты узнаешь, есть ли нечитаемые сектора на диске.

greenman ★★★★★
()

Загрузиться в GhostBSD и выполнить команду: zpool import -F OVER.

iZEN ★★★★★
()

zfsonlinux
6тб ценной информации

Ты же понимаешь, что в линуксе нет zfs, а всё что есть это васянские патчи?

Все попытки восстановления делай на побайтовой копии диска. Хотя с 6 тб это будет непросто.

ox55ff ★★★★★
()
Ответ на: комментарий от ox55ff

Ты же понимаешь, что в линуксе нет zfs, а всё что есть это васянские патчи?

а где есть труЪ zfs? на мёртвом солярисе?
в фряхе тоже zfsonlinux.

annerleen ★★★★☆
()
Ответ на: комментарий от GGUseR

Интересно, я знаю что рекомендуют в zfs использовать диски целиком без разметки (разделов)

А у тебя там …-part1 … /dev/sdd1

vdev.c:152:vdev_dbgmsg(): disk vdev '/dev/disk/by-id/ata-WDC_WUH721414ALE6L4_QBKVBRUT-part1': best uberblock found for spa OVER. txg 2820079
spa_misc.c:418:spa_load_note(): spa_load(OVER, config untrusted): using uberblock with txg=2820079
vdev.c:2380:vdev_copy_path_impl(): vdev_copy_path: vdev 12919233507001237653: path changed from '/dev/sdd1' to '/dev/disk/by-id/ata-WDC_WUH721414ALE6L4_QBKVBRUT-part1'
futurama ★★★★★
()
Ответ на: комментарий от firkax

иллюмо чтоли?

что-то оно какое-то тоже не очень живое.
комьюнити никакое, поддержка железа странная, мнения насчёт использования этого дела в продакшене расходятся.

ну разве что домашний NFS держать на нём, но тоже такое.

annerleen ★★★★☆
()
Ответ на: комментарий от annerleen

а где есть труЪ zfs

Не слежу. Там, где сразу в дереве исходников, а не сбоку прилеплено соплями.

ox55ff ★★★★★
()
Ответ на: комментарий от ox55ff

Ты же понимаешь, что в линуксе нет zfs, а всё что есть это васянские патчи?

Добро пожаловать из разморозки! ZoL нынче mainstream.

Dimez ★★★★★
()
Ответ на: комментарий от annerleen

Ну, у zfs (когда его пытался испольовать в freebsd 8) идеология томов итд несколько расходилась с общесистемной, и-за чего он выглядел несколько костыльной вставкой. С линуксом наверно та же история. А в солярисе и форках он нативный как ни крути. Хотя даже там не всё гладко.

firkax ★★★★★
()
Ответ на: комментарий от iZEN

Как это не расходилось. Общесистемная идеология такова, что есть /dev/* блочное устройство и точка монтирования. У zfs «устройства»-тома не встроены в общесистемный список, видны только через утилиты для работы с zfs, и вообще ведут себя не так, как привычно в бсд.

firkax ★★★★★
()
Ответ на: комментарий от ox55ff

Пока драйвера фс в ядре нет мейнстримом быть не может.

И врядли будет в ближайшее время, CDDL не очень совместима с GPLv2.

Dimez ★★★★★
()
Ответ на: комментарий от futurama

оно по умолчанию создает sdd1 и sdd9 - по крайней мере fdisk -l именно так показывает

на всех дисках с zfs у меня так

GGUseR
() автор топика
Ответ на: комментарий от AVL2

так я не копировал весь диск - я прервал через 22 сек - там же написано...
должен быть живой - он не очень старый - смарт у него хороший.

GGUseR
() автор топика
Ответ на: комментарий от GGUseR

ну так вполне возможно что диск не читается. Ошибка явно намекает на это. Для этого и рекомендовали скопировать диск в никуда, чтобы понять, он ли выдает io error.

AVL2 ★★★★★
()

мне кажется, что просто кэш побился
пересобрать пул и кэш заново

zpool import -d /dev

или

zpool import -d /dev/disk/by-id/

andyl
()
Ответ на: комментарий от GGUseR

Возможно из-за разделов не читается какой-то конкретный раздел. Попробуй почитать разделы по 5Гб каждый, если лень ждать весь диск

futurama ★★★★★
()
Ответ на: комментарий от futurama

2й разде 8мб

у тебя есть под рукой ZFS? разве оно не везде так создает по 2 раздела?

я просто уже говорил - оно везде уменя по 2 создает...

GGUseR
() автор топика
Ответ на: комментарий от GGUseR

у тебя есть под рукой ZFS? разве оно не везде так создает по 2 раздела?

Подтверждаю, создаёт.

root@proxmox1:~# ls -lah /dev/disk/by-id/wwn-0x5002538c406c979c
lrwxrwxrwx 1 root root 9 мар 19  2021 /dev/disk/by-id/wwn-0x5002538c406c979c -> ../../sdf
root@proxmox1:~# fdisk -l /dev/sdf
Disk /dev/sdf: 894,3 GiB, 960197124096 bytes, 1875385008 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: A2DD9E7C-DFCA-CC43-8940-BE0FE24CE06B

Device          Start        End    Sectors   Size Type
/dev/sdf1        2048 1875367935 1875365888 894,3G Solaris /usr & Apple ZFS
/dev/sdf9  1875367936 1875384319      16384     8M Solaris reserved 1
BOOBLIK ★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.