LINUX.ORG.RU

История изменений

Исправление sanyo1234, (текущая версия) :

PS: тогда вероятно оптимальным конфигом raidz3 является vdev из 8-ми (5+3) дисков и 4-х контроллеров (по два диска на каждый контроллер). Причем один контроллер может обслуживать любое количество vdev любого количества пулов, но в пределах одного vdev не более двух дисков. Золотая середина конфига ? :)

А spare диски в ZFS пуле общие для всего пула, а не только для какого-то одного vdev?

А spare диски тогда нужно цеплять по одному к каждому из четырех контроллеров? Что тогда произойдет в случае отвала какого-либо контроллера? Диски отвалившегося контроллера будут заменяться на spare других контроллеров?

А что происходит в случае большого количества сбоев одного диска (возможно из-за помех, но диск то нормальный при этом)? Он тоже меняется на spare?

Может быть, spare лучше вообще не использовать для архивного сервера бэкапов (для которого отсутствие uptime в пределах суток вообще некритичен) тем более на raidz3 (где допустима полная потеря трех дисков, но ведь диски, бывает, вылетают из пула всего лишь временно до следующего импорта или даже команды online), просто мониторить его и принимать решение о замене той или иной железки вручную, чтобы избежать лишних замен и синхронизаций spare?

Исправление sanyo1234, :

PS: тогда вероятно оптимальным конфигом raidz3 является vdev из 8-ми (5+3) дисков и 4-х контроллеров (по два диска на каждый контроллер). Причем один контроллер может обслуживать любое количество vdev одного пула, но в пределах одного vdev не более двух дисков. Золотая середина конфига ? :)

А spare диски в ZFS пуле общие для всего пула, а не только для какого-то одного vdev?

А spare диски тогда нужно цеплять по одному к каждому из четырех контроллеров? Что тогда произойдет в случае отвала какого-либо контроллера? Диски отвалившегося контроллера будут заменяться на spare других контроллеров?

А что происходит в случае большого количества сбоев одного диска (возможно из-за помех, но диск то нормальный при этом)? Он тоже меняется на spare?

Может быть, spare лучше вообще не использовать для архивного сервера бэкапов (для которого отсутствие uptime в пределах суток вообще некритичен) тем более на raidz3 (где допустима полная потеря трех дисков, но ведь диски, бывает, вылетают из пула всего лишь временно до следующего импорта или даже команды online), просто мониторить его и принимать решение о замене той или иной железки вручную, чтобы избежать лишних замен и синхронизаций spare?

Исправление sanyo1234, :

PS: тогда вероятно оптимальным конфигом raidz3 является vdev из 8-ми (5+3) дисков и 4-х контроллеров (по два диска на каждый контроллер). Причем один контроллер может обслуживать любое количество vdev одного пула, но в пределах одного vdev не более двух дисков. Золотая середина конфига ? :)

А spare диски в ZFS пуле общие для всего пула, а не только для какого-то одного vdev?

А spare диски тогда нужно цеплять по одному к каждому из четырех контроллеров? Что тогда произойдет в случае отвала какого-либо контроллера? Диски отвалившегося контроллера будут заменяться на spare других контроллеров?

А что происходит в случае большого количества сбоев одного диска (возможно из-за помех, но диск то нормальный при этом)? Он тоже меняется на spare?

Может быть, spare лучше вообще не использовать для архивного сервера бэкапов (для которого отсутствие uptime в пределах суток вообще некритичен) тем более на raidz3 (где допустима полная потеря трех дисков, а диски бывает вылетают из пула всего лишь временно до следующего импорта или даже команды online), просто мониторить его и принимать решение о замене той или иной железки вручную, чтобы избежать лишних замен и синхронизаций spare?

Исправление sanyo1234, :

PS: тогда вероятно оптимальным конфигом raidz3 является vdev из 8-ми (5+3) дисков и 4-х контроллеров (по два диска на каждый контроллер). Причем один контроллер может обслуживать любое количество vdev одного пула, но в пределах одного vdev не более двух дисков. Золотая середина конфига ? :)

А spare диски в ZFS пуле общие для всего пула, а не только для какого-то одного vdev?

А spare диски тогда нужно цеплять по одному к каждому из четырех контроллеров? Что тогда произойдет в случае отвала какого-либо контроллера? Диски отвалившегося контроллера будут заменяться на spare других контроллеров?

А что происходит в случае большого количества сбоев одного диска (возможно из-за помех, но диск то нормальный при этом)? Он тоже меняется на spare?

Может быть, spare лучше вообще не использовать для архивного сервера бэкапов (для которого отсутствие uptime в пределах суток вообще некритичен), просто мониторить его и принимать решение о замене той или иной железки вручную, чтобы избежать лишних замен и синхронизаций spare?

Исправление sanyo1234, :

PS: тогда вероятно оптимальным конфигом raidz3 является vdev из 8-ми (5+3) дисков и 4-х контроллеров (по два диска на каждый контроллер). Причем один контроллер может обслуживать любое количество vdev одного пула, но в пределах одного vdev не более двух дисков. Золотая середина конфига ? :)

А spare диски в ZFS пуле общие для всего пула, а не только для какого-то одного vdev?

А spare диски тогда нужно цеплять по одному к каждому из четырех контроллеров? Что тогда произойдет в случае отвала какого-либо контроллера? Диски отвалившегося контроллера будут заменяться на spare других контроллеров?

А что происходит в случае большого количества сбоев одного диска (возможно из-за помех, но диск то нормальный при этом)? Он тоже меняется на spare?

Может быть spare лучше вообще не использовать для архивного сервера бэкапов (для которого отсутствие uptime в пределах суток вообще некритичен), просто мониторить его и принимать решение о замене той или иной железки вручную, чтобы избежать лишних замен и синхронизаций spare?

Исходная версия sanyo1234, :

PS: тогда вероятно оптимальным конфигом raidz3 является vdev из 8-ми (5+3) дисков и 4-х контроллеров (по два диска на каждый контроллер). Причем один контроллер может обслуживать любое количество vdev одного пула, но в пределах одного vdev не более двух дисков. Золотая середина конфига ? :)

А spare диски в ZFS пуле общие для всего пула, а не только для какого-то одного vdev?

А spare диски тогда нужно цеплять по одному к каждому из четырех контроллеров? Что тогда произойдет в случае отвала какого-либо контроллера? В диски отвалившегося будут заменяться на spare?

А что происходит в случае большого количества сбоев одного диска (возможно из-за помех)? Он тоже меняется на spare?

Может быть spare лучше вообще не использовать для архивного сервера бэкапов (для которого отсутствие uptime в пределах суток вообще некритичен), просто мониторить его и принимать решение о замене той или иной железки вручную, чтобы избежать лишних замен и синхронизаций spare?