LINUX.ORG.RU
ФорумAdmin

Какая ФС для shared backup?

 , ,


1

4

Подскажите пожалуйста - есть шасси HP C7000 и есть СХД IBM DS3425, все это работает через FC. Задача на хранилке держать бэкапы со всех лезвий. Какая там ФС должна быть, чтобы все лезвия могли туда писать одновременно и видеть «чужие» файлы? Сейчас отформатировал как ext4, но видимо это не работает адекватно. Т.е. писать можно, но лезвие видит новые файлы только после перемонтирования раздела. Как это по человечески, без бубна сделать? Хранился видна просто как очередной диск в системе /dev/sdc

Ответ на: комментарий от LimpTeaM

отформатировал под Btrfs. но так совсем все ломается. с первой ноды записывал на СХД, со второй этих файлов не видно. при перемонтировании вообще

[1152822.857687] BTRFS error (device sdc1): chunk 13631488 has missing dev extent, have 0 expect 1
[1152822.857735] BTRFS error (device sdc1): failed to verify dev extents against chunks: -117
[1152822.968506] BTRFS error (device sdc1): open_ctree failed
Anfernee
() автор топика

С XFS тоже самое. Без перемонтирования не видны файлы, закачанные с другой ноды. Мне важно, чтобы это был 1 раздел для всех нод, т.к. понадобится обмен файлами между нодами.

Anfernee
() автор топика

Нельзя обычные файловые системы монтировать на разных компах одновременно.

futurama ★★★★★
()

ocfs2 или gfs - специальные ФС для использования на shared storage.

P.S. Когда-то использовал ocfs2 в кластере Oracle 9i RAC из трёх хостов.

MumiyTroll ★★★
()
Ответ на: комментарий от MumiyTroll

спасибо, но вроде это не то. мне не надо объединять диски разных серверов в 1 хранилище. у меня, наоборот, есть 1 хранилка, куда все ноды должны скидывать бэкапы. вроде бы ocfs2 ближе, но, опять таки, там надо создавать кластер, добавлять ноды… неужели ничего проще нет?

Anfernee
() автор топика
Ответ на: комментарий от anonymous

прочитай условия хотя бы. это вообще не то с ocfs2 все получилось, но по скорости что то совсем дно… просто в разы медленнее запись

Anfernee
() автор топика
Ответ на: комментарий от Anfernee

что не то? всё таки прав анон, которого потёрли.

anonymous
()

Цепляешь массив к медиа-серверу, клиенты ходят на него бэкапиться, и никаких кластеров. Любая ФС.

anonymous
()
Ответ на: комментарий от anonymous

Обернуть хранился по FC еще и сетью?)) Смешно. Правильно тебя забанили до этого - что за бред? Хоть и сеть 10 гбит, но нафига это надо? Сегодня ночью бэкап делался - вроде все норм. 10 нод писали со скоростью в среднем 46 мб\с (при настройке 50 мб\с максимальной скорости бэкапа). iowait правда был процента 3 в начале. меня устраивает, оставлю так.

Anfernee
() автор топика
Ответ на: комментарий от Anfernee

Обернуть хранился по FC еще и сетью?

но ты же обернул. смешно.

Сегодня ночью бэкап делался - вроде все норм.

10 нод писали со скоростью в среднем 46 мб\с

вроде все норм

46 мб\с

муахахахаха

anonymous
()
Ответ на: комментарий от anonymous

не оборачивал. зачем? по FC оно гоняет

Anfernee
() автор топика
Ответ на: комментарий от Anfernee

Тот анон тролит. А у тебя будут либо неожиданные scsi-locks. Либо бэкапы станут лапшой. Используй хотя бы GFS2 с достаточным количеством логов, но он потребует уже нормального кластера. Стоит ли заморачиваться?

anonymous
()
Ответ на: комментарий от anonymous

лапшки не хотелось бы. а почему оно развалится может? все ноды в 1 сети, по статусам вроде все ок. 1 нода пишет в свои файлы, не трогая чужие.

Anfernee
() автор топика
Ответ на: комментарий от Anfernee

что то поплохело oc2fs

[1246623.810521] o2hb: node 7 hb write hung for 30s on region 65DD1AF807F2427C9860BE1F13EE7925 (sdd1), negotiate timeout with node 0.
[1246624.334747] qla2xxx [0000:05:00.0]-801c:1: Abort command issued nexus=1:0:2 -- 2002.

вот так периодически нода выпадает и весь кластер теряет линк видимо. скорость упала вообще до мизерной… эххх какие еще варианты? другой кластерной фс

Anfernee
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.