LINUX.ORG.RU

Сообщения strelok0101

 

два провайдера + резервирование

Приветствую! Есть два провайдера eth1, eth2, один основной (eth1), второй (eth2) нужен для резерва в случае падения основного. Как лучше данную схему реализовать? Правильно ли я понимаю, что необходимо сделать следующее: 1) Добавить в таблицу iproute записи для двух провайдеров: /etc/iproute2/rt_tables Например: T1 T2 2) Написать скрипт с правилами ip route и ip rule для добавления шлюзов по умолчанию и маршрутов для T1 и T2 + iptables для ната. 3) Написать скрипт который будет опрашивать (например ping'ом) и в случае падения основного, поднимать резервный канал?

Или есть более элегантное решение? Например назначить приоритет по весу для каждого прова? Последнее не совсем понимаю как правильно реализовать, чтобы резервный провайдер был задействован только в случае полного отказа основного.

 , , , ,

strelok0101
()

нужен совет по vSphere 5 Essentials Kit

Приветствую! Подскажите, кто пользуется сабжем, на долгосрочную перспективу, есть смысл внедрять это решение? В организации 2 хоста, плюшки вроде FT, HA и прочего не нужны, схема будет простая: 1 хост рабочий (с локальным хранилищем на аппаратном RAID) --- 2 хост резервный, между ними бэкап виртуалок скриптами или возможно сторонние решения вроде veem. Интересует следующее: 1) Есть ли смысл в приобретении начальной лицензии Essentials Kit или достаточно обычного бесплатного esxi hypervisor? 2) Как там обстоят дела с производительностью дисковой подсистемы и производительностью сети? Сильно уступает kvm с virtio? Где-то слышал, что vmware сильно диски дергает, что сказывается на их ресурсе, поскольку планируется файловый сервер виртуализировать интересует этот вопрос. 3) Насколько я понимаю управлять всем можно будет через gui под win? Или может веб-интерфейс есть в платной версии? 4) В основном будут linux гости и пара гостей win. С win. гостями все понятно, а как обстоят дела с производительностью linux гостей, нужно ставить спец. драйвера? По производительности опять-же сильно kvm уступает?

К сожалению, на длительное тестирование нет возможности иначе ряд вопросов отпали бы сами собой.

 , , , ,

strelok0101
()

openvpn + native win client

Приветствую! Правильно ли я понимаю, что для подключения к OpenVPN серверу обязательно нужен OpenVPN клиент? То есть нативным windows клиентом к OpenVPN серверу не подключиться?

 , ,

strelok0101
()

389 Directory Server vs Openldap

Приветствую! Есть давно настроенная и рабочая связка openldap + samba в роли PDC, знаю, что есть еще 389 directory server бывший RHDS и FDS, собственно интересует следующее: Есть какие-то преимущества сабжа относительно openldap? Как я понимаю это те-же яйца только в профиль? Есть смысл на него переезжать с openldap? Что-нить выиграю?

strelok0101
()

какую схему шифрования выбрать для ldap

Посоветуйте, какой механизм шифрования паролей использовалть для ldap? CRYPT, SSHA, MD5? Кто-что использует? В принципе уже настроил с CRYPT, но вот думаю, может лучше выбрать MD5 или SSHA?

strelok0101
()

sams 1.0.5 + centos 6 x64

Приветствую! Пытаюсь установить сабж, но возникает конфликт с версией mysql-client, а именно:

error: Failed dependencies: libmysqlclient.so.16()(64bit) is needed by sams-1.0.5-91.1.x86_64 libmysqlclient.so.16(libmysqlclient_16)(64bit) is needed by sams-1.0.5-91.1.x86_64

Как я понимаю, дело в этом: $ls /usr/lib64/mysql/ libmysqlclient.so.18.0.0 libmysqlclient.so.18

Можно как-нить решить данную проблему? Вообще, кто устанавливал сабж на CentOS 6, поделитесь опытом, как ставили?

strelok0101
()

Шлюз в виртуалке

Приветствую! Собственно, сабж. Кто-нить поднимал шлюз (bind, dhcp, squid,firewall, раздача интернета в локалку) в виртуальной среде? Это реально вообще? И какие могут быть подводные камни? На хосте есть 4 сетевых интерфейса, один будет смотреть в инет другой в локалку. Можно конечно поднять шлюз на хосте (CentOS6, KVM) Но не очень хочется этого делать.

strelok0101
()

lvconvert --merge

Приветствую! Просветите, правильно ли я понимаю, что с помощью lvconvert --merge можно делать rollback на оригинальный том из его снепшота? Тобишь слияние? Насколько это решение стабильно? Просто давно не юзал LVM, раньше вроде поддержки rollback не было...

strelok0101
()

производительность 32битных гостевых ос

Приветствую! Заметил одну странность, на хосте (CentOS 6.2 x64 гипервизор KVM) 32-битные гостевые ОС, тот-же CentOS или Debian, работают медленнее чем 64 битные, особенно это заметно при доступе к дисковой подсистеме. В чем может быть дело? Или это такая особенность?

strelok0101
()

Доступ к тому LVM из гостя без создания разделов

Приветствую! Поделитесь опытом, кто как подключает lvm тома к гостям? Создаете ли вы разделы или подключаете тома целиком? Собственно везде описан классический способ монтирования lvm томов внутри гостевых окружений, например: Имеется LVM том /dev/VolGroup00/lv_test, который находится на хосте, его надо подключить к гостевой системе, на госте этот том определяется как /dev/sda, дальше как бы просто все, fdisk создаем раздел /dev/sda1 создаем ФС и монтируем, вот тут и возникает вопрос, а зачем обязательно создавать раздел? Если просто накатить ФС на /dev/sda, без создания раздела и без проблем монтировать внутри гостя и без всяких offset внутри хоста? Кто-нить таким методом пользуется? Или все-же обязательно нужно создавать раздел внутри гостя? Есть какие-нить подводные камни?

strelok0101
()

ide или virtio для гостя kvm?

Приветствую! Есть виртуальные машины к которым нужно прицепить диски (lvm тома), сами гости на шине virtio, а как лучше к гостям прицеплять дополнительные диски, по какой шине ide или virtio? Разница в производительности есть? На хосте используется LVM для гостей и всего остального.

strelok0101
()

сеть KVM macvtap

Приветствую! Есть CentOS 6.2 поднят kvm, вопрос по настройке сети, а именно: Раньше сеть между хост системой и гостями настраивалась с помощью моста (bridge), тут все понятно. Но в 6-й версии RHEL/CentOS добавилась возможность настройки сети с помощью macvtap, то есть, если я правильно понял, можно использовать сетевые интерфейсы гостя напрямую не создавая мост. Для теста использовал данный метод для гостевой системы (centos) все поднялось, сеть работает, при этом на хосте поднимаются интерфейсы macvtap0 и vnet0.

Собственно вопрос в следующем, кто-нить уже использовал такое? Что это за технология? Гугл ничего вразумительного не дал, кроме: «Возможности нуль-копирования в macvtap/vhost позволяют достичь высокой производительности гостевых систем Red Hat Enterprise Linux 6.x. Эта технология предоставляется в виде предварительного выпуска.» То есть не понятно, чем оно лучше традиционного моста и в чем суть вообще?

strelok0101
()

msdos или gpt?

Приветствую! Есть аппаратный RAID 10 массив из 4-х sas винтов общим объемом 1.2ТБ, собираюсь ставить с нуля систему, собственно какую таблицу разделов выбрать? Хотел традиционно msdos выбрать, так-как массива больше 2ТБ не будет, но вроде msdos уже отходит в прошлое и сейчас все переходят на GPT? Выиграю ли я в чем-то если выберу GPT? Кроме поддержки больших объемов? Посоветуйте что лучше в моем случае? ОС будет CentOS 6.2.

strelok0101
()

LVM + KVM/Xen

Приветствую! Есть необходимость поднять на хосте KVM, под Centos несколько виртуальных машин, файл-сервер, почту, терминалку. Виртуалки будут размещаться на LVM, где каждому гостю планируется выделить свой раздел, вот тут и не знаю как лучше поступить, есть два варианта: 1) Каждой виртуальной машине выделить по отдельному LVM тому на 10-50 гигов для самой системы и потом уже, при необходимости, цеплять большие тома с данными (200-500гигов) к этому гостю. 2) Сразу выделить достаточно места для нужд каждого из гостей, где на одном томе будет система гостя и его данные. Посоветуйте, как правильно поступить? 1-й вариант мне кажется более гибким, да и бэкап делать будет проще, достаточно будет раз в неделю делать полный бэкап гостей и инкрементный бэкап томов с данными ежедневно.

Второй вариант хорош тем, что можно сразу делать полные бэкапы всего окружения и при падении железа проще будет сразу все поднять не расходуя время на проброс данных в гостевые окружения, но придется ежедневно делать огромные бэкапы по 500 и выше гигов на резервный сервер.

Поделитесь опытом, кто подобное уже реализовывал?

strelok0101
()

драйвер для adaptec 6x под RHEL 6.1

Приветствую! Прошу совета в следующей ситуации: На днях был куплен RAID контроллер Adaptec 6405 в итоге оказалось, что под RHEL 6.1 нету драйвера, последние версии драйверов выпущены в апреле, а 6.1 версия релизнулась в мае, често говоря я не ожидал, что Adaptec так медленно обновляет драйвера... Подскажите, может есть какое-то решение? Драйвер от 6.0 версии естественно не подходит (другое ядро), я попробовал из исходников выложенных на сайте adaptec с помощью dkms собрать драйвер под ядро RHEL 6.1, но сходу подсунуть эти дрова при установке ОС не получилось, дальше буду копать в понедельник, собственно, может кто сталкивался с подобным и подскажет как лучше поступить? А еще лучше поделится дровишками?) И еще меня смущает одна деталь, допустим я найду или подсуну скомпиленный драйвер в ядро, что будет если ядро обновится? Не придется ли под новое ядро опять плясать с бубном? Я имею ввиду обновления ядра которые приходят от RHEL. Честно говоря уже много лет не покупал железки для рейда, делал программные и не парился, не ожидал что такие косяки вообще могут быть в наши дни, вроде не последний производитель (adaptec) не самый старый контроллер (6-й серии) и дистрибутив вроде как далеко не самый редкий (RHEL), а тут такое... В общем прошу совета.

strelok0101
()

RSS подписка на новые темы