LINUX.ORG.RU
решено ФорумAdmin

Хранение виртуалок в LVM

 , ,


0

1

Есть хост с SSDшником на 256ГБ. 12ГБ занимает lv с системой. Остальное место - пустое. Как можно реализовать хренение VMок (Qemu-KVM) в такой конфигурации? Сейчас на ум приходит только один вариант: Строгать для каждой VMки свой lv, в котором будет raw образ диска этой VMки. Чтобы расширить VMку нужно сначала расширить lv, потом расширить raw образ и только потом расширить разделы внутри VMки.

Это, кажется, занимает слишком много уровней абстракции (ssd -> pv -> vg -> lv -> host_fs -> raw -> vm_fs), да и расширение дисков муторное.

В Интернетах пишут что VMке можно скормить целый vg, а уже внутри неё разбить на lv разделы. Но как создать несколько vg на одном pv?

Виртуалки планируются как линя, так и окошек.

Вообще то вот так:
(ssd -> pv -> vg -> lv -> host_fs -> raw -> vm_fs

Чтобы расширить VMку нужно сначала расширить lv, потом расширить raw образ и только потом расширить разделы внутри VMки.

Доктор, где вы берёте такие картинки? Нужно расширить lv и затем расширить ФС в ВМ. Почитай также про lvm thin provision.

King_Carlo ★★★★★
()

Не нужно создавать файловую систему на LV и класть туда образ диска, LV можно (и нужно) непосредственно подключать к ВМ как диск.

gasinvein ★★★
()
Ответ на: комментарий от FluffyPillow

Вы же понимаете, что при использовании thin provisioning вы должны быть всегда готовы добавить новое устройство к пулу, иначе внезапно случатся совершенно неожиданные проблемы.

Nastishka ★★★★★
()
Ответ на: комментарий от Nastishka

Просто нужно заранее планировать занимаемый объём, метадаты в том числе.

Deleted
()

Это, кажется, занимает слишком много уровней абстракции

Не надо использовать промежуточные ФС.

Необходимо оперировать блочным устройством, которое будет использоваться ВМ.

Но я бы сейчас делал на CEPH.

int13h ★★★★★
()
Ответ на: комментарий от post-factum

Когда виртуалка начинает быстро пухнуть (например, от каких нибудь кордампов/логов или от какого-нибудь dd if=/dev/zero of=/dev/sda5 с забытым count=1024), мониторинг обычно не помогает - слишком быстро всё происходит. Ctrl+C конечно срывает dd, но оно уже всё в page cache и стремительным домкратом флушится на диск. После чего начинается веселье, что запись в любой раздел виртуалки на тонком томе тупо падает по ошибке I/O или фризится прямо в процессе монтирования (зависит от политики обработки ошибок). Понятно что это всё решается - но далеко не всегда тривиально, особенно если в виртуалках используются какие-нибудь btrfs/zfs у которых redirect write по умолчанию включен.

Ну и у ТС, как японимаю по объему диска, «для дома на поиграться» - так что о мониторинге говорить не имеет смысла. Или вы считаете, что у каждого линуксоида дома заббикс установлен?

Nastishka ★★★★★
()
Последнее исправление: Nastishka (всего исправлений: 1)
Ответ на: комментарий от int13h

Ceph поверх одного диска? Нууу, это будет интересно. Хотя экспиренс прокачать ничего так, и впоследствии расширяться можно на другие хосты - это существенный плюс

Nastishka ★★★★★
()
Ответ на: комментарий от Nastishka

каких нибудь кордампов/логов

Логи не растут так быстро, кордампы не создаются так массированно.

какого-нибудь dd if=/dev/zero of=/dev/sda5 с забытым count=1024

Часто ты такое в виртуалке делаешь? И главное — зачем?

у каждого линуксоида дома заббикс установлен

По себе сужу =).

post-factum ★★★★★
()
Ответ на: комментарий от Nastishka

Ceph поверх одного диска?

простите, не заметил, что у Вас используется ПК. Вскользь увидел слово «хост».

int13h ★★★★★
()
Ответ на: комментарий от FluffyPillow

qcow2 слишком медленный.

Да не так что бы и сильно относительно хоста. Но все зависит от задач.
ЗЫ Да, таки thin отнюдь не быстрый.

anc ★★★★★
()
Ответ на: комментарий от FluffyPillow

qcow2 слишком медленный.

Это было очень давно и уже не актуально.

Deleted
()
Ответ на: комментарий от FluffyPillow

Фраза «намного» это как «средняя по больнице». Я тоже тесты гонял разница не особо большая от хоста. В thin вы должны больше просадки получить.
Но повторюсь, все зависит от задачи. Безусловно raw (не thin) без снапшотов, будет быстрее чем qcow2. Но тут все понятно и так, по технологии, «fs над fs».

anc ★★★★★
()
Ответ на: комментарий от int13h

и, что это =) ?

То, что на момент 2015 года qcow2 таки отставал заметно от raw.

FluffyPillow
() автор топика
Ответ на: комментарий от post-factum

Часто ты такое в виртуалке делаешь? И главное — зачем?

В рамках тестирования. Потому что если этого не сделать, скрипты udev на него накидываются при вызове partprobe, отчего потом приходится с нехорошими словами возвращать систему в предыдущее состояние (убивать сервисы, отмонтировать, останавливать свап и т.п.)

Nastishka ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.