LINUX.ORG.RU

Сообщения mag_box2

 

Создать отказоустойчивое шифрованное соединение между двумя узлами

Форум — Admin

Привет всем, Bonding в данном случае не подходит, тк есть два узла Ubuntu 12.04, у каждого по 2 сетевухи вот такого вида адреса:

192.168.1.1   ------------------ 192.168.1.2
255.255.255.0                    255.255.255.0

172.28.1.1    ------------------   172.28.1.2
255.255.255.0                    255.255.255.0

Хочу сделать так чтобы было шифрованное соединение между ними, и при выходе из строя сетевой карты, соединение не падало,

              _                                                 _
             | 192.168.1.1   ------------------ 192.168.1.2      | 
             | 255.255.255.0                    255.255.255.0    |
10.0.0.1    <|                                                   |> 10.0.0.2
255.255.255.0| -172.28.1.1    ------------------   172.28.1.2    |  255.255.255.0
             |_ 255.255.255.0                    255.255.255.0  _|

Типа того , чтобы использовать адреса 10.0.0.1 и 10.0.0.2, и все через них прозрачно шифровалось и не заморачиватся на другие адреса, и отвалившуюся одну сеть.

mag_box2
()

Репликация между серверами , как лучше ? :)

Форум — Admin

Вот есть два файловых сервера по 2 ТБ инфы, соединение между ними 1 Гбит, Задача, репликация, и тут несколько идей

Взять CentOS

1) Класика DRBD

И такой можно вариант как эксперимерт :

2) На одном с помощью ISCSI расшарить винт, подцепить к другому серверу клиентом, и объеденить в рейд mdadm по скорости примерно одинакого с DRBD по тестам.

Взять FreeBSD

3) Сделать HAST + ZFS

4)Ну или где сто статью читал что можно использовать GEOM с одного сервера отдать винт по сети , а на другом ZFS mirror , или Raid-Z, что то даже какие то плюсы такого подхода были

Так бы вообще можно было взять DRBD и не мучатся, но в моем случае интересно еще и расширение , добавление еще одного сервера хорошо выдержат варианты 2 (Raid5 5)и 4(Raid-Z) , DRBD точно нет, тк это тупое зеркало, а HAST точно не знаю, но вроде Raid подобного по сети ничего не держит.

Еще сильно у DRBD раздражает полная проверка при сбое всего пространства что достаточно долго. Вариант 4 как бы средствами файловой ситемы ZFS должен быстро делать.

Кто что думает по данному поводу ? Что делать ? :)

mag_box2
()

Centos 6.3 и aufs

Форум — Admin

Сейчас потребовалась работа с aufs, в дебиане все просто, установил apt-get install aufs-tools, и работаешь, в Centos в стандартных репозитариях его нет, и вообще не понятно как пакет называется, как установить ? Какой репозитарий подключить нужно ?

mag_box2
()

ISCSI target , нет прироста скорости с двумя сетевухами

Форум — Admin

Система Ubuntu 12.04 Установил эту новую штуку:

apt-get install lio-utils
/etc/init.d/target restart
/etc/init.d/target status
tcm_node --block iblock_0/hdd_sdb /dev/sdb
lio_node --addtpg iqn.2012-09.local.dim:ubuntulio 1
lio_node --addlun iqn.2012-09.local.dim:ubuntulio 1 0 lun_my_sdb iblock_0/hdd_sdb
lio_node --addnp iqn.2012-09.local.dim:ubuntulio 1 192.168.153.130:3260
lio_node --demomode iqn.2012-09.local.dim:ubuntulio 1
lio_node --disableauth iqn.2012-09.local.dim:ubuntulio 1
echo 0 > /sys/kernel/config/target/iscsi/iqn.2012-09.local.dim:ubuntulio/tpgt_1/attrib/demo_mode_write_protect
lio_node --enabletpg iqn.2012-09.local.dim:ubuntulio 1
echo yes |tcm_dump --o
/etc/init.d/target restart
Подключаюсь , проверяю скорость работает.

Добавляю вторую сетевуху

lio_node --addnp iqn.2012-09.local.dim:ubuntulio 1 192.168.153.131:3260

Устанавливаю мультипатч с таким конфигом

defaults
{
      path_selector       "round-robin 0"
      path_grouping_policy multibus
      rr_min_io           200
      no_path_retry       5
   failback            immediate
   user_friendly_names yes
}
blacklist
{
            devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*"
            devnode "^hd[a-z][[0-9]*]"
            devnode "^sda$"
            devnode "^sdb$"
}

multipaths
{
   multipath
   {
      wwid 1IET_00010001
   }
}
подключаю появившийся /dev/mapper/mpath6 Проверяю, скорость как была, так и есть.

Фиг с этим мультипатчем думаю, проверю обычный бондинг

auto eth1
  iface eth1 inet manual
  bond-master bond0

auto eth2
  iface eth2 inet manual
  bond-master bond0

auto bond0
  iface bond0 inet static
  address 192.168.153.130
  netmask 255.255.255.0
  bond-mode 0
  bond-miimon 100
  bond-slaves none
  mtu 7000

Протестил скорость сети, все ок, скорость возрасла, потестил скорость таргета, никакого проироста нет.

Ладно думаю поменяю таргет устанавливаю

aptitude install tgt
Настраиваю проверяю, прирост скорости от двух сетевух есть с бондингом. Проверяю с мультипатчем тоже прирост есть.

Итак вопрос почему этот lio-utils , который как бы самый новый и встроен в ядро так себя ведет. PS Тести скорости проводит утилитой FIO и DD разными способами, итог с tgt прирост скорости есть, а lio-utils нету ...

mag_box2
()

Работа утилиты dd , запись, тестирование

Форум — Admin

Вот такой вопрос , если нужно проверить скорость жесткого диска, на запись я могу сделать так:

dd of=/dev/zero if=/var/sda bs=512K count=20000
или отформатировать диск:
mkfs.xfs /dev/sda -f
mount /dev/sda /var/data
dd of=/dev/zero if=/var/data/test bs=512K count=20000
Как будет правильнее тестировать ? С файловой системой или нет, и вообще как получается что dd может работать вообще без файловой системы , как тогда туда пишутся данные ? Где почитать ?

mag_box2
()

debian обновить UUID в /dev/disk/by-uuid/

Форум — Admin

Создал переделал рейды, получается несовпадения вот такое Так показывается 2 рейда из 3 , и со старыми UUID

ls -l /dev/disk/by-uuid/

lrwxrwxrwx 1 root root 9 Aug 26 07:02 d0c94ef3-4726-4d21-ab02-1f8f138a85ee -> ../../md0
lrwxrwxrwx 1 root root 9 Aug 26 07:02 dc98a4bc-db08-455d-8d0b-4380618dd12c -> ../../md1

blkid
/dev/md1: UUID="dc98a4bc-db08-455d-8d0b-4380618dd12c" TYPE="ext4"
/dev/md0: UUID="d0c94ef3-4726-4d21-ab02-1f8f138a85ee" TYPE="ext2"

А реальные данные такие: mdadm.conf

ARRAY /dev/md/0 metadata=1.2 UUID=3121e712:d962bf5c:83678bc6:ab6bb5cf name=dhcppc0:0
ARRAY /dev/md/1 metadata=1.2 UUID=aef61a83:2b884bc2:1bef0569:624efe0b name=dhcppc0:1
ARRAY /dev/md/2 metadata=1.2 UUID=f55ebfbe:b18ba3da:5ae2bdeb:12c28170 name=dhcppc0:2

Как обновить чтобы все совпадало ?

пробовал sudo udevadm trigger что то не работает, пробовал тупо удалить все из каталога /dev/disk/by-uuid/ заново старое создается, что делать ? :)

mag_box2
()

Proxmox и fence_scsi

Форум — Admin

Установил 3 ноды Proxmox2.1 ,чтобы HA кластер работал , нужно fencedevice, пробовал играться с fence_manual, все нормально работает, вручную c помощью fence_ack_manual <имя ноды упавшей>, все перемещается как нужно, миграция тоже отлично работает, для CentOS насколько я понял можно использовать iscsi как fencedevice, параметр в кластер конфиге agent=«fence_scsi», кто нибудь пробовал так настраивать, если да, приедите пример кластер конфига

mag_box2
()

iscsi и raid1 и клиенты Дебиан и WinServer

Форум — Admin

Привет всем! Ситуация такая, установил убунту сервер, в процессе установки выбрал raid 1, потом один раздел md2 сделал iscsi

vi /etc/ietd.conf

Target iqn.2012-03.kar-tel.share:storage.lun1
        Lun 0 Path=/dev/md2,Type=fileio
        Alias LUN1

Потом попробовал на Win Server подключить , форматнуть, нормально видится как один диск,

Дальше проверил в Дебиане, сделал так:

iscsiadm -m discovery -t sendtargets -p 192.168.1.61
iscsiadm --mode node --targetname iqn.2012-03.kar-tel.share:storage.lun1 --portal 192.168.1.61:3260 --login
/etc/init.d/open-iscsi restart

Дальше вижу 2 диска

fdisk -l


Disk /dev/sdc: 491.9 GB, 491850235904 bytes
255 heads, 63 sectors/track, 59797 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Disk /dev/sdc doesn't contain a valid partition table

Disk /dev/sdd: 491.9 GB, 491850235904 bytes
255 heads, 63 sectors/track, 59797 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Почему так, как этими двумя дисками пользоваться ? Достаточно ли один любой подмонтировать и использовать? или их снвоа в рейд объеденить на клиенте , но почему тогда WinServer все нормально видел ?

mag_box2
()

FreeNAS на флешке USB, умрет флешка или нет ?

Форум — Admin

Вот такой вопрос, если для isci сервера буду использовать FreeNAS установленный на обычную USB флеку, много ли на эту флешку будет записи ? Или с нее при загрузке один раз считается и все будет крутится в оперативной памяти ? Как это все работает, или как это можно поглядеть, помониторить ? Кто-нибудь такое использовал ?

mag_box2
()

xl2tpd захламляется лог ошибками

Форум — Admin

Настроил вот так

xl2tpd.conf

[global]                                                               
  access control = no                                  
  auth file = /etc/ppp/chap-secrets
[lac beeline1]                                                 
  lns = vpn.server                                
  redial = yes                                                 
  redial timeout = 30
  max redials = 10000
  require authentication = no
  name = username                                               
  pppoptfile = /etc/ppp/options.vpn     
  autodial = yes 

options.vpn

name username

logfile /var/log/xl2tpd.log
debug

remotename pptp
connect /bin/true

lock
noaccomp
noauth

nobsdcomp
nodeflate


defaultroute
replacedefaultroute

refuse-mschap
refuse-mschap-v2
refuse-eap
refuse-pap

persist
maxfail 0

mtu 1460
mru 1460

Все работает отлично, и даже после разрыва востанавливает соединение, но после восстановления соединения начинает лог закидывать вот такой фигней
Connection terminated.
Failed to open /dev/pts/1: No such file or directory
Failed to open /dev/pts/1: No such file or directory
Failed to open /dev/pts/1: No such file or directory
Failed to open /dev/pts/1: No such file or directory
Failed to open /dev/pts/1: No such file or directory
Failed to open /dev/pts/1: No such file or directory
Failed to open /dev/pts/1: No such file or directory
Failed to open /dev/pts/1: No such file or directory
Failed to open /dev/pts/1: No such file or directory
Failed to open /dev/pts/1: No such file or directory
Failed to open /dev/pts/1: No such file or directory
Failed to open /dev/pts/1: No such file or directory
и лог магом разрастается до огромных размеров, хотя интернет после разрыва нормально восстанавливается и работает. Понятно что /dev/pts/1 больше нет, а появился новый, например /dev/pts/4

Как правильно это донастроить ? Чтобы небыло подобных проблем.

mag_box2
()

samba раскидать нагрузку

Форум — Admin

Есть 2 файловых хранилища, информация на них синхронизируется, используется Samba чтобы пользователям Windows раздавать файлкики, как можно балансировать нагрузку, чтобы часть пользователей попадало на один сервер, а часть на другой?

mag_box2
()

Права доступа к принтеру в Samba для конкретного пользователя AD

Форум — Admin

Конфиг самбы , самба член домена KAR, drychkov юзер домена и админ:

[global]
        workgroup = KAR
        realm = KAR.LOCAL
        server string = comp1
        security = ADS
        map to guest = Bad User
        obey pam restrictions = Yes
        pam password change = Yes
        passwd program = /usr/bin/passwd %u
        passwd chat = *Enter\snew\s*\spassword:* %n\n *Retype\snew\s*\spassword:* %n\n *password\supdated\ssuccessfully* .
        unix password sync = Yes
        syslog = 0
        log file = /var/log/samba/log.%m
        max log size = 1000
        dns proxy = No
        usershare allow guests = Yes
        panic action = /usr/share/samba/panic-action %d
        idmap uid = 10000-20000
        idmap gid = 10000-20000
        template shell = /bin/bash
        winbind enum users = Yes
        winbind enum groups = Yes
        winbind use default domain = Yes
        winbind refresh tickets = Yes

[home]
        comment = home
        path = /var/share
        valid users =  KAR\drychkov
        read only = No
        guest ok = Yes

[printers]
        comment = All Printers
        path = /var/spool/samba
        read only = No
        create mask = 0777
        guest ok = Yes
        printable = Yes
        browseable = No
        browsable = No

[print$]
        comment = Printer Drivers
        path = /var/lib/samba/printers
        read only = No
        guest ok = Yes

Вот так все работает :

# net rpc rights grant Everyone SePrintOperatorPrivilege
Enter root's password:
Successfully granted rights.
Даже так работает:
# net rpc rights grant Everyone SePrintOperatorPrivilege -U drychkov
Enter drychkov's password:
Successfully granted rights.

А вот так:

# net rpc rights grant drychkov SePrintOperatorPrivilege
Enter root's password:
Failed to grant privileges for drychkov (NT_STATUS_ACCESS_DENIED)
В чем может быть причина? Как правильно добавить не для всех SePrintOperatorPrivilege, а конкретно для drychkov

PS пользователь drychkov без проблем подключается по ssh к серверу, и в папку [home] заходит, так что вроде самба и винбинд нормально работают.

# wbinfo -t
checking the trust secret via RPC calls succeeded

Так же выдают группы и пользователей комманды: # wbinfo -g # wbinfo -u

mag_box2
()

Ubuntu server 11.04 raid 1 программный , GRUB

Форум — Admin

Добрый день, сегодня скачал Ubuntu Server64 11.04 решил установить на виртуальный сервер, создав программный рейд массив, подробно при установке диски были разбиты так:

RAID1 устройство #0 - 510.6 MB Программное RAID устройство	
#1        510.6 MB   f ext4	/boot
53.8 kB     неиспол.	

RAID1 устройство #1 - 2.0 GB Программное RAIC	) устройство
#1          2.0 GB   f подк	ПОДК
53.8 kB     неиспол.	

RAID1 устройство #2 - 19.0 GB Программное RAID устройство	
#1           19.0 GB    f ext4	/
57.9 kB     неиспол.	


SCSI3 (0,0,0) (sda) - 21.5 GB VMuiare, VMuiare	Virtual S
#1 первичн. 510.7 MB В К raid	
#5 логичес.   2.0 GB   К raid	
#6 логичес.  19.0 GB   К raid	

SCSI3 (0,1,0) (sdb) - 21.5 GB VMuiare, VMuiare	Virtual S
#1 первичн. 510.7 MB В К raid	
#5 логичес.   2.0 GB   К raid	
#6 логичес.  19.0 GB   К raid	

После разбивки спросило , ответил ДА

If your root filesystem is on a RAID, and a disk is missing at boot, it can either 
boot uiith the degraded array, or hold the system at a recovery shell.
Running a system uiith a degraded RAID could result in permanent data loss if it 
suffers another harduiare fault.
If you do not have access to the server console to use the recovery shell, 
you might ansuier "yes" to enable the system to boot unattended.
Do you uiant to boot your system if your RAID becomes degraded?
<Вернуться>                                                             [b]<Да>[/b] <Нет>

Дальше все стандартно , далее , далее Потом начались вопросы про загрузчик, выбрал нет, чтобы глянуть что он предлагает

Похоже, что данная система будет единственной на этом компьютере. Если это действительно так, то можно спокойно устанавливать системный загрузчик GRUB в основную загрузочную запись первого жёсткого 
диска.
Внимание! Если программе установки не удалось обнаружить другую операционную систему, имеющуюся на компьютере, то изменение основной загрузочной записи приведёт к тому, что эту операционную 
систему некоторое время нельзя будет загрузить. Позднее можно будет настроить GRUB для её загрузки.
Установить системный загрузчик GRUB в главную загрузочную запись?                             
<Вернуться>                                                              <Да>         [b]<Нет>[/b]

Дальше мне показал такое окно

You need to make the neuily installed system bootable, by installing the GRUB boot loader on a bootable device. The usual шау to do this is to install GRUB on the master boot record of your first hard drive. If you prefer, you can install GRUB elseuihere on the drive, or to another drive, or even to a floppy.
The device should be specified as a device in /dev. Beloui are some examples:
- "/dev/sda" mill install GRUB to the master boot record of your first hard drive;
- M/dev/sda2" mill use the second partition of your first hard drive;
- M/dev/sdc5" mill use the first extended partition of your third hard drive;
- "/dev/fdO" mill install GRUB to a floppy.
Device for boot loader installation:

[b]
/dev/sda /dev/sdb
[/b]

<Вернуться>                                     <Продолжить>

Вроде все правильно , жму продолжить, все отлично устанавливается и перезагружается

Теоретически теперь отключив один диск, я должен загружатся с другого без проблем, тк в процессе установки, на все вопросы вроде правильно оветил, загрузчик вроде установился /dev/sda /dev/sdb. При отключении /dev/sdb все отлично, но при отключении /dev/sdа Комп начинает бесконечно перезагружатся, пройдя проверку биоса, до приглашения GRUB не доходит дело, что делать ?

root@ubuntu:/var/public# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sda1[0] sdb1[1]
      498676 blocks super 1.2 [2/2] [UU]

md2 : active raid1 sda6[0] sdb6[1]
      18515896 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sda5[0] sdb5[1]
      1950708 blocks super 1.2 [2/2] [UU]
mag_box2
()

Raid 5 программный

Форум — Admin

Добрый день, Линукс Open SuSe 11 (Аналогично делал и на CentOS) ситуация такая есть 6 винтов, задача сделать программный рейд При установке системы разбил жесткий диск так:

1) на каждом винте виделил по 512 метров (многовато конечно, но на всякий случай) объеденил в Raid 1 и подмантировал /boot - md0

2) дальше по 512 метров отделил на каждом винте под Своп, и объеденил в Raid 5 - md1

3) все остальное объеденил в Raid 5 и подмонтировал как / и установил систему - md2

Установил систему

Grub сконфигурил для всех винтов

grub

root (hd0,0)
setup (hd0)

root (hd1,0)
setup (hd1)

и тд, вроде при отключении одного винта все загружается отлично

но вот думаю может стоило на Raid 1 не только /boot перенести , но и другие каталоги например /etc или еще чего нибудь, как вы думаете, не будет ли проблемм с текущей конфигурацией ?

mag_box2
()

RSS подписка на новые темы