LINUX.ORG.RU

Сообщения zks1980

 

Запутался с маршрутизацией.

Здравствуйте.
Есть шлюз (А) Одна сетевая карточка (fxp1) смотрит в интернет. Вторая карточка смотрит в локальную сеть (re0 - 192.168.9.249).
Есть компьютер (Б) одна сетевая карта (eth0 - 192.168.9.253, шлюз по умолчанию 192.168.9.249). Вторая карта (eth1 - 192.168.1.254). На карте компьютера Б сидят рабочие станции с адресами 192.168.1.0/24 и шлюз по умолчанию 192.168.1.254.
Вот таблица маршрутизации компьютера Б
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
192.168.1.0 0.0.0.0 255.255.255.0 U 0 0 0 eth1
192.168.9.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0
0.0.0.0 192.168.9.249 0.0.0.0 UG 0 0 0 eth0
Вот файл sysctl.conf
#net.ipv4.conf.default.rp_filter=1
#net.ipv4.conf.all.rp_filter=1
#net.ipv4.tcp_syncookies=1
net.ipv4.ip_forward=1
#net.ipv6.conf.all.forwarding=1
#net.ipv4.conf.all.accept_redirects = 0
#net.ipv6.conf.all.accept_redirects = 0
компьютере А
добавлена строчка
route add -net 192.168.1.0/24 192.168.9.253

Мне нужно сделать чтобы из сети 192.168.9.0 могли пинговать 192.168.1.0

Раньше до замены оборудования все работало.
Что упустил не могу понять.
Буду признателен за подсказку.

zks1980
()

Нужен совет о правильной организации сервисов

Здравствуйте! Есть у меня FreeBSD 8.1. Система предоставляет следующие сервисы: squid, openvpn, stunnel. Squid для пользователей внутренней сети для выхода в интернет. (с этим проблем нет). Openvpn служит для организации vpn сетей только для наших сетей. Для каждой точки свой сервис, то есть подключение точка-точка. stunnel служит для сторонних организаций для доступа к одному компьютеру к нужной службе. Данный компьютер находится в нашей локальной сети. Каждой организации свой сертификат и порт для доступа к нашим услугам. Все работает, но в последнее время идет лавинное увеличение числа клиентов наших и сторонних. Соответственно на шлюзе вместо порядка, бардак с открытыми портами и сервисами (openvpn, stunnel). Сейчас уже мне тяжело следить какой порт относится к клиенту. Вопрос таков: как можно упростить или как-нибудь облегчить рутинный процесс? Кто как данную проблему решает у себя. У меня задумка такая: на шлюзе висит сервис, который хранит в своей базе (файл или mysql) порт и к какой службе относится, к какому клиенту и номер правила файрвола. Может есть другие советы или готовые варианты? Заранее спасибо.

zks1980
()

Настройка glusterFS

Здравствуйте.
Есть в виртуалбоксе два сервера убунты 10.4
ядро 2.6.32-24-generic
Установил GlusterFS сервер и клиент на каждой машине.
Конфиг сервера
volume posix
type storage/posix # POSIX FS translator
option directory /home/data/export # Export this directory
end-volume

volume locks
type features/locks
subvolumes posix
end-volume

volume brick
type performance/io-threads
option thread-count 8
subvolumes locks
end-volume

volume server
type protocol/server
option transport-type tcp
subvolumes brick
option auth.addr.brick.allow 192.168.9.* # Allow access to «brick» volume
end-volume

Конфиг клиента
volume remote1
type protocol/client
option transport-type tcp
option remote-host ubuntu.avto.krsn.ru # IP address of the remote brick
option remote-subvolume brick # name of the remote volume
end-volume

volume remote2
type protocol/client
option transport-type tcp
option remote-host test2.avto.krsn.ru
option remote-subvolume brick
end-volume

volume replicate
type cluster/replicate
subvolumes remote1 remote2
end-volume

volume writebehind
type performance/write-behind
option window-size 1MB
subvolumes replicate
end-volume

volume cache
type performance/io-cache
option cache-size 512MB
subvolumes writebehind
end-volume

На каждом сервере примонтировал каталоги таким образом:
mount -t glusterfs /etc/glusterfs/glusterfs.vol /mnt/shared
Но в документациях и в гугле встречаю примеры настроек, что используется сервера и клиент.
Как мне быть если клиенты у меня только windows?
И как мне правильно расшаривать /mnt/shared для того чтобы клиенты windows имели доступ по сети.
И почему когда glusterfs-server останавливаешь на одном сервере, то второй не может получить доступ к /mnt/shared?
Есть у кого-нибудь рабочий пример?
Буду признателен.

zks1980
()

Cluster трудности в настройке

Здравствуйте.
Есть в наличие два сервера, одинаковой конфигурации.
ОС стоит Centos 5.5.
Задача: Пользователи работают с рашаренными данными, при падении одного сервера, данные на втором должны быть актуальными и работа пользователей не прекращается.
Для отказоустойчивой работы развернут кластер, на нем требуется развернуть следующие службы: Samba, Firebird.
Для сетевой репликации запущена служба drbd, все ноды имеют статус primary.
Кластерную файловую систему я решил применить GFS2.
Конфигурация drbd.conf
resource r0 {
protocol C;
startup {
wfc-timeout 120;
degr-wfc-timeout 120;
become-primary-on both;
}
net {
allow-two-primaries;
after-sb-0pri discard-least-changes;
after-sb-1pri discard-secondary;
after-sb-2pri disconnect;
rr-conflict disconnect;
}
disk {
on-io-error detach;
}
syncer {
rate 100M;
}

on srvprod1 {
device /dev/drbd0;
disk /dev/sdb1;
address 192.168.9.195:7789;
meta-disk internal;
}

on srvprod2 {
device /dev/drbd0;
disk /dev/sdb1;
address 192.168.9.161:7789;
meta-disk internal;
}
}
Конфигурация cluster.conf
<?xml version=«1.0»?>
<cluster alias=«cluster» config_version=«12» name=«cluster»>
<fence_daemon post_fail_delay=«0» post_join_delay=«3»/>
<clusternodes>
<clusternode name=«srvprod1.avto.krsn.ru» nodeid=«1» votes=«1»>
<fence>
<method name=«1»>
<device name=«fence_manual» nodename=«srvprod1.avto.krsn.ru»/>
</method>
</fence>
</clusternode>
<clusternode name=«srvprod2.avto.krsn.ru» nodeid=«2» votes=«1»>
<fence>
<method name=«1»>
<device name=«fence_manual» nodename=«srvprod2.avto.krsn.ru»/>
</method>
</fence>
</clusternode>
</clusternodes>
<cman expected_votes=«1» two_node=«1»/>
<fencedevices>
<fencedevice agent=«fence_manual» name=«fence_manual»/>
</fencedevices>
<rm>
<failoverdomains>
<failoverdomain name=«prodaja» ordered=«0» restricted=«0»/>
</failoverdomains>
<resources>
<smb name=«AB» workgroup=«WG»/>
<clusterfs device=«/dev/drbd0» force_unmount=«0» fsid=«56450» fstype=«gfs2» mountpoint=«/mnt/drbd» name=«gfs2» options=«»/>
</resources>
<service autostart=«1» domain=«prodaja» name=«prodaja» recovery=«relocate»>
<smb ref=«AB»/>
</service>
<service autostart=«1» domain=«prodaja» name=«gfs» recovery=«restart»>
<clusterfs ref=«gfs2»/>
</service>
</rm>
</cluster>

Cluster Status for cluster @ Mon Aug 16 09:30:21 2010
Member Status: Quorate

Member Name ID Status
------ ---- ---- ------
srvprod1.avto.krsn.ru 1 Online, Local
srvprod2.avto.krsn.ru 2 Online

Самба установлена, но в настройки smb.conf я не лазил, так как я прочитал, что кластерная служба сама создат нужный файл.
Проблема у меня следующая: я не могу понять как мне добавить в кластер службу самба.
Мне нужно использовать службу drbd или нет?

В гугле я много искал информации. Но часть статей используют кворумный диск (на нем данные пишутся или для нод служебная информация, я не понял) или используется связка lvm+gfs2.
Я понимаю, что у меня каша в голове.
Буду признателен за подсказки или примеры конфигураций кластера с самбой.

zks1980
()

RSS подписка на новые темы