LINUX.ORG.RU
ФорумAdmin

создание хранилища на btrfs

 , ,


2

2

Идея состоит в том, чтобы использовать максимально возможное количество винтов и их объема. Создаю ФС

mkfs.btrfs -m raid10 -d single /dev/sdb /dev/sdd /dev/sde /dev/sdf
закидываю данные, балансирую,
root@debian-gpt:~# btrfs fi show
Label: none  uuid: b26e5067-4ca5-4809-9785-6a64470279d4
        Total devices 4 FS bytes used 2.32GiB
        devid    1 size 2.00GiB used 992.00MiB path /dev/sdb
        devid    2 size 2.00GiB used 992.00MiB path /dev/sdf
        devid    3 size 2.00GiB used 160.00MiB path /dev/sdd
        devid    4 size 2.00GiB used 992.00MiB path /dev/sde
смотрю вывод,
root@debian-gpt:~# btrfs fi usage /srv/
Overall:
    Device size:                   8.00GiB
    Device allocated:              3.06GiB
    Device unallocated:            4.94GiB
    Device missing:                  0.00B
    Used:                          2.32GiB
    Free (estimated):              5.06GiB      (min: 2.59GiB)
    Data ratio:                       1.00
    Metadata ratio:                   2.00    Global reserve:               16.00MiB      (used: 0.00B)

Data,single: Size:2.44GiB, Used:2.31GiB
   /dev/sdb      832.00MiB
   /dev/sde      832.00MiB
   /dev/sdf      832.00MiB

Metadata,RAID10: Size:256.00MiB, Used:2.47MiB
   /dev/sdb       64.00MiB
   /dev/sdd       64.00MiB
   /dev/sde       64.00MiB
   /dev/sdf       64.00MiB

System,RAID10: Size:64.00MiB, Used:16.00KiB
   /dev/sdb       16.00MiB
   /dev/sdd       16.00MiB
   /dev/sde       16.00MiB
   /dev/sdf       16.00MiB

Unallocated:
   /dev/sdb        1.11GiB
   /dev/sdd        1.92GiB
   /dev/sde        1.11GiB
   /dev/sdf        1.11GiB
Останавливаю систему, выдираю один из винтов после этого монтирование возможно только в RO режиме
 mount -o ro,degraded,recovery /dev/sdb /srv/
root@debian-gpt:~# btrfs fi usage /srv/
Overall:
    Device size:                   8.00GiB
    Device allocated:              3.06GiB
    Device unallocated:            4.94GiB
    Device missing:                2.00GiB
    Used:                          2.32GiB
    Free (estimated):              5.06GiB      (min: 2.59GiB)
    Data ratio:                       1.00
    Metadata ratio:                   2.00
    Global reserve:               16.00MiB      (used: 0.00B)

Data,single: Size:2.44GiB, Used:2.31GiB
   /dev/sdb      832.00MiB
   /dev/sde      832.00MiB
   missing       832.00MiB

Metadata,RAID10: Size:256.00MiB, Used:2.47MiB
   /dev/sdb       64.00MiB
   /dev/sdd       64.00MiB
   /dev/sde       64.00MiB
   missing        64.00MiB

System,RAID10: Size:64.00MiB, Used:16.00KiB
   /dev/sdb       16.00MiB
   /dev/sdd       16.00MiB
   /dev/sde       16.00MiB
   missing        16.00MiB

Unallocated:
   /dev/sdb        1.11GiB
   /dev/sdd        1.92GiB
   /dev/sde        1.11GiB
   missing         1.11GiB
Текущая система будет работать на уровне предсказания отказа HDD. Возможно у меня недомонимание принципов работы ФС, возникло куча вопросов:

  • почему я не могу смонтировать, в дегрейд режиме на запись
  • можно ли создать фс обычный stripe с зеркалированием метаданных, чтобы в случае выпадения железки система теряла только то, что было на потерянном винте, после ребалансировки данные обновились и система дальше продолжила работу в режиме rw
  • можно ли и как подмонтировать отдельно взятое устройство из собранного массива и вытащить оттуда данные

Ответ на: комментарий от King_Carlo

нигде, я к тому, что стабильность далеко не гарантирует то, что это будет в rhel сразу.

erzented
()

Останавливаю систему, выдираю один из винтов после этого монтирование возможно только в RO режиме

выдери на ходу тот винт, который является точкой монтирования

targitaj ★★★★★
()
Ответ на: комментарий от erzented

я вообще не понимаю, что именно он хочет....

Вы поймете когда научитесь читать. Продолжайте дальше строить психологические портреты и анализировать эмоциональные состояния, но только в другом посте

Niko_F
() автор топика
Ответ на: комментарий от King_Carlo

сегодня был на собеседовании, айти директор конторы, обслуживающей 18 бизнес центров полностью, я реально падал со смеху, вопросы на которые ответов может быть по 15 минимум. ошибки ещё 2003 сервера, которого у них нет, у них везде 2012, я посмотрел это ещё сидя в коридоре через wi-fi, бардака конечно море, но работать можно. про арк и тп он и не слыхал, но что более всего меня удивило, это вопрос про mssql и необходимый ей рейд, зачем ей особый рейд при 100 пользователях я в упор не понимаю. Это как если бы легковая машина на 8 человек, семейный универсал, требовала 2 человек сажать с разных сторон....

erzented
()
Ответ на: комментарий от Niko_F

есть рейды 5/6, есть рейд 50 если нужна скорость, это решит твои задачи, другое дело, что тогда надо zfs, тк btrfs не умеет ещё 50 рейд.

erzented
()
Ответ на: комментарий от erzented

это вопрос про mssql и необходимый ей рейд

Может у них там преимущественно запись в БД, тогда raid-5/6 не надо, у них запись медленнее.

King_Carlo ★★★★★
()
Ответ на: комментарий от King_Carlo

100 пользователей 1С, одновременно пишет 10-12, не представляю, как 5-6 рейд там может влиять, если конечно там не wd green, но учитывая мониторы по 23 дюйма в 20 кабинетах, и hp тонкие клиенты за 35 шт, слабо верится, что сервер с 1С там на гринах домашних.

erzented
()
Ответ на: комментарий от targitaj

Останавливаю систему, выдираю один из винтов после этого >>монтирование возможно только в RO режиме

выдери на ходу тот винт, который является точкой монтирования

без проблем, выдрал, что должно произойти, взрыв?

точкой монтирования в btrfs может являтся любой девайс в системе участвующий в массиве.

Once you create a multi-device filesystem, you can use any device in the FS for the mount command...

В зависимости от типа массива он либо работает весь, с пометкой выпавшего девайса, либо читается частично в режие ro

Niko_F
() автор топика
Ответ на: комментарий от erzented

есть рейды 5/6, есть рейд 50 если нужна скорость, это решит твои задачи, другое дело, что тогда надо zfs, тк btrfs не умеет ещё 50 рейд.

мне не нужен 5/6 рэйд

Niko_F
() автор топика
Ответ на: комментарий от erzented

посмотри в сторону zfs/lvm.

zfs не вариант, bsd не нативная система компании lvm судя повсему не может сделать, то что нада

Закрываем тему, решение найдено

Niko_F
() автор топика
Ответ на: комментарий от targitaj

без проблем, выдрал, что должно произойти, взрыв?

не отвалилось? круть

так вот возвращаемся к исходному заданию при data/metadata в raid10 все без проблем

а вот как решить задачу data/metadata single/raid10 чтобы удаление устройства сохраняло полную работоспособность оставшегося массива

Закрываем тему, решение найдено

Niko_F
() автор топика
Ответ на: комментарий от Niko_F

Интересуют конкретные практики применения этой фс или аналогичных для решения поставленой задачи.

Я фанат btrfs, но судя по

Объем хранилища растет геометрически, уже >30Тб, а завтра 300Тб и все это синкается на 3 удаленных офиса.

тебе нужна не она. перестань тратить чужое время, создавай тред про распределенные ФС, этот хорони.

а

чтобы у Вас не появлялось желания бесполезной писанины

начать надо с тебя.

t184256 ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.