Приветствую!
Так уж случилось, что столкнулся я с SAN администрированием. Есть у меня HP C3000 Blade server с 8-ю лезвиями на борту + Brocade BL SAN switch и отдельный HP SAN switch 8/24.
+ Много хранилок HP MSA P2000 соединенных по FC
Мне для проекта необходимо на одно лезвие залить ОС, чтобы загрузка шла с LUN на хранилище.
Честно говоря никогда на сталкивался с настройкой SAN поэтому возникли некоторые вопросы:
1)Каким образом создать LUN так чтобы только этот лун был виден лезвию на блейде, а остальные луны были скрыты.
2)На хранилке можно создать виртуальный диск(raid), а в нем уже Volume определенного размера, это и есть Lun? Или Lun создаётся как-то по другому?
3)На хранилке есть объекты Host, там как я понимаю, указаны все мои лезвия и те луны которые к ним замаплены, я ради эксперимента размапил у одного лезвия все луны, но почему-то они продолжают быть доступны системе на этом лезвие..
4)Не совсем ясно назначение объекта Host на хранилище, зачем нам прописывать все наши лезвия на хранилище по Host ID (WWN/IQN):* ?
1)Каким образом создать LUN так чтобы только этот лун был виден лезвию на блейде, а остальные луны были скрыты.
На массиве ты презентуешь LUN для определённых клиентов ( обычно по WWN ). Реализация зависит от массива. В частности, на p2000 выбираешь созданный volume, затем затем Provisioning -> Explicit mapping
Но кроме самого хоста есть ещё FC свичи, на которых можно ( читай: необходимо ) настоить зонинг. Зонинг также ограничит область видимости. Насколько я знаю, на большинстве корзин есть встроенные FC свичи, даже если не используются отдельные.
2)На хранилке можно создать виртуальный диск(raid), а в нем уже Volume определенного размера, это и есть Lun? Или Lun создаётся как-то по другому?
Именно так и делают. По-другому у тебя не получится. Сначала ты физические диски объединяешь в Vdisk, затем уже на них нарезаешь Volume'ы
3)На хранилке есть объекты Host, там как я понимаю, указаны все мои лезвия и те луны которые к ним замаплены, я ради эксперимента размапил у одного лезвия все луны, но почему-то они продолжают быть доступны системе на этом лезвие..
Посмотри multipath -ll
Наверняка у тебя на лезвии больше одного fc порта. В p2000 host - это WWN ( грубо говоря - один fc порт ), а не физический сервер как ты возможно подумал.
4)Не совсем ясно назначение объекта Host на хранилище, зачем нам прописывать все наши лезвия на хранилище по Host ID (WWN/IQN):* ?
Чтобы выдавать им диски с массива. Ты же не открываешь к диску доступ с любых WWN ?
Мне для проекта необходимо на одно лезвие залить ОС, чтобы загрузка шла с LUN на хранилище.
Вот тут кстати будет геморрой. Загрузку будет выполнять прошивка FC адаптера, а настройка multipath на них нетривиальна. Нужно искать официальную документацию, иначе всё это будет шаманством.
На массиве ты презентуешь LUN для определённых клиентов >( обычно по WWN ). Реализация зависит от массива. В частности, >на p2000 выбираешь созданный volume, затем затем Provisioning -> Explicit mapping Но кроме самого хоста есть ещё FC свичи, на которых можно ( читай: необходимо ) настоить зонинг. Зонинг также ограничит >область видимости. Насколько я знаю, на большинстве корзин есть >встроенные FC свичи, даже если не используются отдельные.
Спасибо Вам за ответ, кое-что начинаю понимать..
Я создал LUN, замапил его на два порта, действительно, у нас на каждое лезвие по два FC порта. Есть и встроенный FC switch. Сейчас пытаюсь настроить Zoning на свиче.В процессе я создаю Alias, куда добавляю два FC порта(WWN-ы лезвия) моего лезвия, создаю Zone в которую включаю Alias с моими двумя портами , далее создаю конфиг зоны В которую включаю Zone. После того, как применил правило, все ноды потеряли все хранилища.. Никак не уловлю логики зонирования, почему все ноды отвалились разом..
Когда я в соседней теме цинично нарушаю некоторые правила форума ( интересно, почему до сих пор скор не сняли ) , а тут ко мне обращатся «на Вы», возникает когнитивный диссонанс.
SAN админа нет, ну и среда пока не продакшн, можно экспериментировать. С загрузкой не учел, буду думать.. Наверное вероятнее всего стоит ожидать проблем с определением LUN уже на стадии инсталляции ОС?
rhel и её клоны почти наверняка увидит диски. Проблемы могут быть именно на этапе загрузки, ещё до того как grub будет запущен.
В общем случае, сначала в bios'е выставляется загрузка через fc адаптер, затем через интерфейс самого адаптера ( тоже что-то похожее на биос, тоже при загрузке ) выставляются параметры в строгом соответствии с официальной документацией производителя этого адаптера.
зменения обычно тестируются на одном свиче из двух. А потом >смотрят на хостах, не отвалилась ли половина путей.
У нас один HP StorageWorks 2/24 Edge Switc к которому по FC подключены встроенные в блейды san switch-и. Т.е Логичнее всего зонинг настраивать на корневом san свитче ? Я до этого настраивал san switch, который на блейде.
У нас один HP StorageWorks 2/24 Edge Switc к которому по FC подключены встроенные в блейды san switch-и.
Ты же понимаешь что это единая точка отказа? Попробуй убедить начальство одобрить покупку второго, если отказоустойчивость важна.
Т.е Логичнее всего зонинг настраивать на корневом san свитче ?
Основная задача зонинга - не допустить, чтобы одни хосты мешали другим. Например, один сервер сканирует scsi шину по FC, а у другого от пришедших пакетов срывает крышу. Особенно это актуально, если на разных серверах используется железо разных производителей или разные ОСи. Самые большие проблемы - если без зонинга один массив используют хосты с разными архитектурами ( x86_64 и power system, например ).
Создаешь? Тебе по хорошему не создавать новый нужно, а добавлять в уже существующий созданную зону (cfgadd && cfgenable)
Плюс в одной фабрике только один конфиг, если железки одинаковые он разольется на все (я так как-то поправиви конфиг на маленьком свитче в корзине потер все и на большом DCX). Выбивай еще один свитч, что бы не заламывать единственную фабрику.
Да действительно, allaccess
У меня один центральный SAN свитч, к нему подключены модульные SAN-свичи от двух разных блейдов. Я создаю новую зону в которую добавляю два номера WWN портов самого лезвия, и WWN модульного SAN.. Далее я создаю еще одну зону в которую добавляю все что осталось за бортом. Тогда не ясно, как мне создать новую зону с тем же самым модульным SAN свичем если он уже не активен т.к учувствует в первой зоне. ...
новую зону с тем же самым модульным SAN свичем если он уже не активен т.к учувствует в первой зоне. ...
Эмм, что-то я не понимаю, зачем тебе зонинг между свитчами?
У тебя все свитчи (и в корзине, отдельный) в одной фабрике?
Тогда спокойно делаешь зоны вида
тут srv(1|2)_fc0 - alias на первый порт в лезвии, VSP_* - порты на массиве. На массиве соответственно хостгруппы должны маппиться на порты 0A,1A
Делать все можешь с любого свитча, конфиг автоматически переползет на остальные
Всем доброго времени суток.
В наследство от канувшего в лету Citrix Xen осталось 4 сервера DL 585 G5 по 8 дисков на каждом и на каждом по две FC карты, два сторожа HP SW MSA2000 и два HP San Switch 8/24. На свичах почти одинаковые настройки но в Member на обоих свичах добавлен только первый порт. Как это работало раньше я не знаю. Но вот сейчас настало время включать их в работу и хотелось бы задействовать и сичи и сторожи. На всех устройствах обновил прошивки на San обновил версию Fabric OS до v6.4.3e. Зоны не удалял да и вообще на свичах ничего не удалял. Но ни карты в биосе ни сам сторож в Host не видели друг друга. После чего добавил в Member порты и устройства и тут сразу сторож показал в Host новых подключенных, перезагрузил сервера зашел в настройки карт и там тоже сторож появился. Попробовал отключить сторож и Linux тутже вывалил сообщение blocked FC remote port time out: removing target and saving binding . Получается, что система тоже видит сторож. Подскажите как надо сделать правильно. Мне не надо делать каких то ограничений по лунам и загружаться с них я не буду.