LINUX.ORG.RU
решено ФорумAdmin

Правильное конфигурирование хранилки для ESXi

 , , , ,


1

4

Есть Одна Хранилка, и есть бездисковые серваки, на которых будет собран кластер. Надо сконфигурировать ESXi datastore и выдать сервакам место. Копаю маны, как и сколько LUN надо предоставить системам, какую вообще схему выбрать:

When setting up storage for ESXi hosts, before creating VMFS datastores, you must decide on the number and size of LUNS to provision. You can experiment using the adaptive scheme.

А без экспериментов, есть best practices под эту конфигурацию? Как и сколько LUN создать?

А что, для этой одной хранилки нет vmware deploy best practices или чего-то подобного?
Смысл в том, что бы не лепить один большой лун, а сделать несколько и выставить подходящий размер очереди на hba.

EvgGad_303 ★★★★★
()
Ответ на: комментарий от EvgGad_303

По deploy best practices - и действительно, есть док у самого IBM, называется IBM SAN Solution Design Best Practices for VMware vSphere ESXi. Спасибо.

drunken_train
() автор топика

А без экспериментов, есть best practices под эту конфигурацию?

Ты никакой информации не предоставил, по сути. Что будет там крутиться, откуда будет грузиться ESXi и т.п. А так у VMWare есть дофига доков на эту тему.

blind_oracle ★★★★★
()
Ответ на: комментарий от blind_oracle

А у меня никакой информации и нет, знаю только, что несколько виндосерверов точно, что на них - неизвестно. ESXi с флешки.

drunken_train
() автор топика
Ответ на: комментарий от drunken_train

1. Свичи лучше разбить на две фабрики независимых, будет надёжнее.

2. По лунам на хранилке никаких особых требований нет, можно сделать один лун и повесить на него VMFS.

blind_oracle ★★★★★
()
Ответ на: комментарий от blind_oracle

Где то вычитал, что наличие снапшотов vmdk, при каждой записи в этот vmdk вызывает блокировку луна на котором он лежит, так что блокируется запись всего, что есть в этом луне.

cyclon ★★★★★
()
Последнее исправление: cyclon (всего исправлений: 2)
Ответ на: комментарий от cyclon

Глупость. Снапшоты, конечно, снижают производительность, но по другой причине - http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=...

Все более или менее современные хранилища (в т.ч. опенсурсные), как минимум, умеют команду ATS (atomic test and set), которая позволяет блокировать какой-то определённый набор блоков, а не весь лун. И VMWare этой командой радостно пользуется.

Блокировки там, обычно, возникают при запуске-остановке ВМ и других подобных операциях. При обычной работе ВМ их нет.

То есть, если у тебя пара сотен виртуалок на одной VMFS (какой-нибудь VDI) то, теоретически, могут быть какие-то проблемы. Но на деле я проверял VMWare View с, кажется, 150-200 виртуалок на одной ФС безо всяких проблем - создавались, удалялись, запускались-останавливались массово.

blind_oracle ★★★★★
()
Последнее исправление: blind_oracle (всего исправлений: 1)
Ответ на: комментарий от blind_oracle

Нашёл где я это читал, книжка Михеев М. Администрирование VMWare vSphere 5, 2012, стр. 200.

"...И каждый раз, когда у какой-то ВМ надо увеличить размер файла-дельты, происходит SCSI reservation, и какое-то маленькое время девять других серверов с этим LUN не работают, потому что десятый вносит изменения в метаданные."

cyclon ★★★★★
()
Последнее исправление: cyclon (всего исправлений: 1)
Ответ на: комментарий от cyclon

Еще раз говорю - в наше время вмваря не использует SCSI reservation, а только VAAI. Блокировка всего луна только если хранилище другие не поддерживает.

blind_oracle ★★★★★
()
Ответ на: комментарий от blind_oracle

Блокировка всего луна только если хранилище другие не поддерживает.

Да это всё понятно. Ну вот в конторе eva 4400 которая и слыхом не слыхивала про какие-то там vaai.

cyclon ★★★★★
()

О, ништяк, интересные комменты.

Всё решили, один общий LUN.

Тему пока не закрываю, может еще чего интересного будет.

drunken_train
() автор топика
Ответ на: комментарий от blind_oracle

Эм, ну пусть будет, на тот момент когда я работал с ней, esxi говорил, что нету его.

cyclon ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.