LINUX.ORG.RU

Сообщения san4ez1008

 

Загрузка Astra Linux в VHD

Форум — General

Доброго всем. Загорелся идеей загрузки Astra Linux из диска VHD с помощью GRUB2. Наткнулся на статью https://habr.com/ru/companies/domclick/articles/552170/, сделал в целом всё то же самое, что и там (скрипты в ОС добавил, выполнил update-initramfs), в ОС Windows в загрузочном разделе подменил все необходимые файлы, теперь вместо загрузчика винды грузится GRUB2, но при выборе загрузки с VHD получаю disk ‘loop,gpt2’ not found. Пробовал пошагово выполнить все пункты, GRUB находит устройство, находит UUID, создает устройство loop, но при выполнении команды ls (loop,gpt2)/ получаю ту же ошибку, не могу понять, в чем прикол. ОСь с VHD-диска в VBox грузится нормально.

 , , ,

san4ez1008
()

HA Cluster Pacemaker+Corosync Ubuntu 22.04 по технологии Shared DAS, отваливается LUN в VMware при переезде ресурсов

Форум — Admin

Всем доброго времени суток! Собрал кластер на Ubuntu 22.04 pacemaker+corosync по следующему ману: https://www.pvsm.ru/linux/87042

Ubuntu развернута на виртуальных машинах кластера VMware из 2х хостов, по одной виртуалке на каждом хосте, внутрь проброшены HBA Broadcom LSI SAS3408, каждый по 2 порта. Хосты виртуализации подключены к дисковой полке к SAS-экспандерам, в самой полке находятся 4 диска по 1.7 Тб каждый.

Кластер собран, диски определяются, stonith и ресурсы настроены. Ресурсы и порядок следующие: ip-scsi - VIP таргета target-pool1 - таргет zfs-pool1 - пул zfs, собранный из 4х дисков в draid1 lun1-pool1 - сам LUN ip-pool1 - mgmt VIP.

Проблема следующая: при ручном перемещении ресурсов или штатном/нештатном отключении виртуалок в VMware теряется связь с хранилищем-LUN, который предоставляется кластером HA. При этом, кластер на виндовых машинах с такими же ресурсами ведет себя нормально, LUB не теряется, связь не прерывается. Я думал, проблема в каких-то таймаутах, уменьшил параметры cluster-recheck-interval сократил до 1 секунды, cluster-delay до 1 секунды, ничего не изменилось. Сначала порядок ресурсов был VIP таргета->mgmt VIP->zfs-pool1->target-pool1->lun1-pool1.

Изменил порядок запуска на тот, что описал выше, но это тоже не помогло. В логах ничего критичного нет, кроме пары ошибок

Mar 16 12:38:29 labvnasubuntu-1 pacemaker-execd[1827]:  notice: zfs-pool1_start_0[31886] error output [ cannot open 'pool1': no such pool ]
Mar 16 12:38:29 labvnasubuntu-1 pacemaker-execd[1827]:  notice: zfs-pool1_start_0[31886] error output [ /usr/lib/ocf/resource.d/heartbeat/ZFS: 35: [: Illegal number:  ]
Mar 16 12:38:29 labvnasubuntu-1 pacemaker-execd[1827]:  notice: zfs-pool1_start_0[31886] error output [ /usr/lib/ocf/resource.d/heartbeat/ZFS: 35: [: Illegal number:  ]
Mar 16 12:38:29 labvnasubuntu-1 pacemaker-controld[1832]:  notice: Result of start operation for zfs-pool1 on labvnasubuntu-1-ext: ok 

Mar 16 12:38:29 labvnasubuntu-1 systemd-udevd[32333]: zd0: Process '/usr/bin/unshare -m /usr/bin/snap auto-import --mount=/dev/zd0' failed with exit code 1.
Mar 16 12:38:29 labvnasubuntu-1 pacemaker-controld[1832]:  notice: Result of monitor operation for zfs-pool1 on labvnasubuntu-1-ext: ok
Mar 16 12:38:29 labvnasubuntu-1 systemd-udevd[32333]: zd0p1: Process '/usr/bin/unshare -m /usr/bin/snap auto-import --mount=/dev/zd0p1' failed with exit code 1.

Вот они меня очень сильно смущают, но по этому поводу ничего не гуглится. Есть ли те, кто сталкивался с этим? Гугление ничего не дало, ищу второй день. Более полный лог pacemaker положил на пастбин: https://pastebin.com/eLj8DdtY

 , , , ,

san4ez1008
()

Автоматическая установка Debian 9 с разметкой RAID1+ LVM

Форум — Linux-install

Всем здравствуйте! Прошу помощи с автоматической установкой по сети. Сформировал файл preseed.cfg, но не могу никак разбить диск корректно. На сервере необходимо выделить место под загрузочный раздел (BIOS), затем два диска собрать в софт raid1, создать VG на собранном raid1 и два LVM-тома под корень и своп-раздел. На словах и руками вроде все понятно, но вот в файле preseed не могу это описать, перебрал уже кучу конфигов и ничего не получается. Может кто-то что-то подсказать? Или это нереально, в одном рецепте собрать raid1 и LVM? https://vladimir-stupin.blogspot.com/2017/10/using-expertrecipe-debianubuntu.html, Тут, например, приведен конфиг с созданием LVM поверх RAID1, но это у меня не сработало. https://github.com/xobs/debian-installer/blob/master/doc/devel/partman-auto-raid-recipe.txt https://github.com/ahamilton55/Blog-Scripts/blob/master/debian_ubuntu_preseeds/ubuntu-raid1-lvm.preseed И по этим ссылкам тоже самое, но эти конфиги у меня не работают, да и древние они уже, 2010 и 2012 года.. Может, у кого-то есть опыт подобный?

p.s. может кто-то знает, можно ли использовать несколько рецептов?

 , , , ,

san4ez1008
()

Постоянные переподключения Spark

Форум — General

Доброго времени суток,форумчане. Дано: Linux Ubuntu 14.04,Openfire 4.0.2, Spark 2.7.7. Сервер со 120 пользователями, база MySQL. Проблема следующая:после некоторого простоя спарка при открытии его окна и пролистывании контактов клиент зависает и начинает переподключаться в течение 11 секунд, и так почти на всех клиентах. Отписался на форуме igniterealtime.com,там есть все мои логи и ошибки..вот ссылка: https://community.igniterealtime.org/message/261357 посмотрите,пожалуйста, что не так, просто по-английски очень трудно объясняться...буду очень благодарен за помощь.

P.S. в логе warn постоянно,как раз после переподключения клиентов, появляется такая ошибка: 2016.11.17 15:22:34 org.jivesoftware.openfire.nio.ConnectionHandler - Closing connection due to exception in session: (0x00001D63: nio socket, server, /192.100.100.221:1132 => 0.0.0.0/0.0.0.0:5222) что она означает?

 , ,

san4ez1008
()

RSS подписка на новые темы