LINUX.ORG.RU

Сообщения DALDON

 

asterisk under kvm

Друзья, в тесте, не замечали проблем. Сейчас пошли в продакшн, и тут нате распишитесь...

При общении на внешний поток или при общении с конвертацией кодеков, появляются щелчки...

Всю голову сломал. Вот наткнулся на то, что в top, у меня si, st - 0.2-0.7 процента. Накрутил cpuunits - в proxmox, максимальное значение для kvm узла: 50000. На выходе: всё теже si, st - 0.2-0.7 процента.

Насколько велика вероятность, что щелчки вызваны именно виртуальной средой при нагрузке в полторы сотен абонентов?

Ничего толкового по si, st + asterisk, не нашёл. Закапывать виртуальную машину, и пользовать дедик, или причина 100 процентов в другом?

На узле крутится: 11 виртуальных машин по мимо asterisk. load average сервера - не больше 1,5-2,0, при 4ядрах. Все остальные машинки, имеют 1024 cpuunits.

la - самой машины asterisk - всегда близок к нулю.

Что можно попробовать в этом плане еще? qemu-agent может как-то помочь?

Так же, сама VM, проживает в двух VLAN, в голосовом, и в обычном. Вот что в ifconfig внутри VM:

eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.3.27  netmask 255.255.255.0  broadcast 192.168.3.255
        inet6 fe80::3831:35ff:fe36:3664  prefixlen 64  scopeid 0x20<link>
        ether 3a:31:35:36:36:64  txqueuelen 1000  (Ethernet)
        RX packets 13850  bytes 1306289 (1.2 MiB)
        RX errors 0  dropped 966  overruns 0  frame 0
        TX packets 4412  bytes 1413111 (1.3 MiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

eth1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.54.1  netmask 255.255.255.0  broadcast 192.168.54.255
        inet6 fe80::3433:39ff:fe31:6466  prefixlen 64  scopeid 0x20<link>
        ether 36:33:39:31:64:66  txqueuelen 1000  (Ethernet)
        RX packets 1943690  bytes 555983750 (530.2 MiB)
        RX errors 0  dropped 7844  overruns 0  frame 0
        TX packets 1871398  bytes 536744860 (511.8 MiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

Кто-то пользуется asterisk в среде kvm? Спасибо!

 , , ,

DALDON
()

ext4 или что лучше выбрать для удаления множества файлов?

Вопрос имеется следующий:

Есть инсталляция zoneminder. В ближайшее время, хочу увеличить дисковый массив для всего этого добра. Сейчас, из основных проблем, такая:

Когда zm, начинает удалять старые события, то выполняется скрипт, вида: rm -rf /zm/camN/date/bla-bla/*.jpg

Так вот, даже, если, для процесса, rm, выставить низкий приоритет ionice, всё равно, эта чудная операция, когда нужно вычистить весьма много картинок, жутко нагружает ввод-вывод.

Каким образом, можно ускорить это дело, не прибегая к жутким костылям?

P.S., можно рассмотреть вопрос и о смене файловой системы. Но пока не вижу особых альтернатив ext4, на linux. Вообще, насколько поможет тюнинг журнала в таком раскладе?

 ,

DALDON
()

lvmcache thin volume

Понимаю, что сабж, кешируется странным образом. Однако всё (похоже), работает.

fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=1G --readwrite=randrw --rwmixread=75

iops: 116/14303

https://db.tt/Z0yBXmjK

Для тех кто не понял...

Зачем это нужно:

Если будет интересно запустить lxc контейнер (например, с mysql на борту) на хосте proxmox, с кешированием в виде SSD диска (в моём случае, это, /dev/md2), и с возможностью горячего backup, тогда, будет два пути:

  • Или не очень стабильный, zfs on linux.
  • Или lvmthinvolume+lvmcache.

 , lvmthinvolume,

DALDON
()

Хочу попробовать API от nic.ru Как?

Друзья, есть вот такое API:

API DNS-хостинга реализован на базе REST с поддержкой формата XML в запросах и ответах. Транспортным протоколом для вызова функций API DNS-хостинга является HTTPS.

Каждый вызов является атомарным и синхронным, то есть все запросы независимы друг от друга. Также все операции являются синхронными: результат операции возвращается сразу же, нет промежуточных состояний при выполнении операции.

Чтобы пользоваться API, нужно, чтобы нечто, умело в OAuth 2.0.

Каким наиболее простым способом, мне можно постучаться в API, используя xml. Чтобы это не превратилось в простыню из: curl, awk, sed и костылей?

 , , ,

DALDON
()

asterisk + DECT g726 хрипит. Кто может подсказать?

Друзья, имею следующий трабл:

Gigaset N720 + elastix 4.

g726 32kb/sec.

  • DECT - DECT: good.
  • Wired - Wired: good.
  • Wired - DECT: хрипит звук при разговоре. Все что говоришь, приобретает хрип на концах слов.

Куда вообще можно копать в таком случае? В логах asterisk, ничего не обычного...

Пробовал на DECT g726, на wired: g711. - Всё тоже самое.

P.S. на DECT если ставить g711 - то всё норм. Но там у меня трубки DECT, не все совместимы с g711. По сему повсеместное g711, не рассматривается.

 ,

DALDON
()

Что плохого в этом конфиге?

Собственно, буду рад, если кто-то ответит по делу, что плохого, и почему не рекомендуют использовать примерно такой конфиг, если для каждой job, создан отдельный storage в файл:

Pool {
  Name = "Test"
  Pool Type = Backup
  Maximum Volume Jobs = 1
  Maximum Volumes = 3
  Label Format = "Test-"
  Purge Oldest Volume = yes
  Action On Purge = Truncate
}

Какой тайный смысл возни с: Prune, AutoPrune, Volume Retention и т.д.?

 ,

DALDON
()

mail graylist в 2016

Приходит спам, в основном ночью. Насколько разумна идея, включать graylist вне рабочее время?

Насколько актуальна идея graylist в 2016?

Моё ИМХО, подсказывает мне, что современные спамеры, пишут со взломанных аккаунтов таких крупных сервисов как Яндеск, google, крупных корпораций и т.п. - А для таких вещей graylist - как бы бестолку.

 graylist,

DALDON
()

Высокий la. Почему?

Друзья, можете посмотрев на screenshot, сказать, почему при таких низких ожиданиях i/o, и не высоких нагрузках на CPU, может быть такой la?

https://db.tt/Joavl9su

 ,

DALDON
()

bonnie оцените результат.

Насколько я понимаю, сабж адекватен. Бутерброд:

kvm+raw+ext4+lvmcache+mdadm_raid6 (7.2k x6 enterprise hdds)

# bonnie++ -d /tmp -r 5120 -u user
Using uid:1040, gid:1001.
Writing a byte at a time...done
Writing intelligently...done
Rewriting...done
Reading a byte at a time...done
Reading intelligently...done
start 'em...done...done...done...done...done...
Create files in sequential order...done.
Stat files in sequential order...done.
Delete files in sequential order...done.
Create files in random order...done.
Stat files in random order...done.
Delete files in random order...done.
Version  1.97       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
srv   10G  1198  94 200178   9 94292   5 +++++ +++ 260713   6 627.2   5
Latency             60151us     114ms     553ms    9590us   81282us   78677us
Version  1.97       ------Sequential Create------ --------Random Create--------
srv       -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16 29422  18 +++++ +++ +++++ +++ +++++ +++ +++++ +++ +++++ +++
Latency             65399us     221us     388us      87us      23us     172us
1.97,1.97,srv,1,1462563587,10G,,1198,94,200178,9,94292,5,+++++,+++,260713,6,627.2,5,16,,,,,29422,18,+++++,+++,+++++,+++,+++++,+++,+++++,+++,+++++,+++,60151us,114ms,553ms,9590us,81282us,78677us,65399us,221us,388us,87us,23us,172us

 bonnie, , ,

DALDON
()

SAS не видно в LiveCD.

Всем доброго. С SAS - я полный нуб.

Вопрос простой: Есть DELL, в нём есть: PERC RAID H330.

По факту это:

~# lspci | egrep -i 'raid|adaptec'
03:00.0 RAID bus controller: LSI Logic / Symbios Logic MegaRAID SAS-3 3008 [Fury] (rev 02)

В сервер, можно установить до 8ми SATA/SAS дисков.

На сервере - где только SATA диски - вообще без проблем всё пробросилось, вижу как JBOD всё это дело. На сервере, где смесь из SATA (SSD)+SAS дисков, ситуация иная:

ls /dev/disk/by-id/
ata-HL-DT-ST_DVD+_-RW_GU90N_KZ5FB7K3321  wwn-0x1207980033x
ata-OCZ-SABER1000_A22MJ061512000044      wwn-0x2352567879665278595x
ata-OCZ-SABER1000_A22MJ061513000008      wwn-0x5228116241741340291x

Видно только SATA привод, прицепленный к южному мосту МП сервера, и SSD накопители. Где SAS..? В /dev/sd* - тоже ничего нету. /dev/vh* - нема.

Что я не так делаю? Поставил megacli, выкинуло вот такое:

# megacli -PDList -aALL

Adapter #0

Enclosure Device ID: 32
Slot Number: 2
Enclosure position: 1
Device Id: 2
WWN: 5000CCA031116E43
Sequence Number: 1
Media Error Count: 0
Other Error Count: 0
Predictive Failure Count: 0
Last Predictive Failure Event Seq Number: 0
PD Type: SAS

Raw Size: 1.636 TB [0xd196e9b0 Sectors]
Non Coerced Size: 1.636 TB [0xd186e9b0 Sectors]
Coerced Size: 1.636 TB [0xd1840000 Sectors]
Sector Size:  512
Logical Sector Size:  512
Physical Sector Size:  4096
Firmware state: Unconfigured(good), Spun Up
Device Firmware Level: FK06
Shield Counter: 0
Successful diagnostics completion on :  N/A
SAS Address(0): 0x5000cca031116e41
SAS Address(1): 0x0
Connected Port Number: 5(path0)
Inquiry Data: HGST    HUC101818CS4204 FK0608V9L5DZ
FDE Capable: Not Capable
FDE Enable: Disable
Secured: Unsecured
Locked: Unlocked
Needs EKM Attention: No
Foreign State: None
Device Speed: 6.0Gb/s
Link Speed: 6.0Gb/s
Media Type: Hard Disk Device
Drive Temperature :32C (89.60 F)
PI Eligibility:  No
Drive is formatted for PI information:  No
PI: No PI
Port-0 :
Port status: Active
Port's Linkspeed: 6.0Gb/s
Port-1 :
Port status: Active
Port's Linkspeed: 6.0Gb/s
Drive has flagged a S.M.A.R.T alert : No



И так далее, со всеми дисками! То есть, все диски - явно видны!

Модуль вроде загружен (generic какой-то):

# modinfo megaraid_sas
filename:       /lib/modules/3.19.0-26-generic/kernel/drivers/scsi/megaraid/megaraid_sas.ko
description:    LSI MegaRAID SAS Driver
author:         megaraidlinux@lsi.com
version:        06.805.06.01-rc1
license:        GPL
srcversion:     AC55CAA4D0868B68516FF68
alias:          pci:v00001000d0000005Fsv*sd*bc*sc*i*
alias:          pci:v00001000d0000005Dsv*sd*bc*sc*i*
alias:          pci:v00001000d0000002Fsv*sd*bc*sc*i*
alias:          pci:v00001000d0000005Bsv*sd*bc*sc*i
....

Что нужно сделать, чтобы получить как можно более «прозрачный» JBOD из дисков, вида: /dev/sdh и т.д.? Есть там какие-то виртуальные диски, но это я так понял, если raid городить аппаратный, а мне оно не нужно.

 , ,

DALDON
()

Накосячил с закупкой дисков. Как быть?

Друзья, пишу не очень много (не более 20гб. в сутки), решил взять диски подешевле... Повёлся, на кучу повторений enterprise, в OSZ Suber 1000. Посмотрел, посчитал ресурс. - Посмотрел, что есть защита от сбоев по питанию (ну конденсаторы там, все дела...). SSD, накопители будут использоваться как writeback cache (lvmcache).

И ... Фейл.

# smartctl -l scterc /dev/sda smartctl 6.4 2014-10-07 r4002 [x86_64-linux-3.19.0-26-generic] (local build) Copyright (C) 2002-14, Bruce Allen, Christian Franke, http://www.smartmontools.org

SCT Commands not supported

Это Жёпа господа. Полез в datashit - действительно: SCT not supported.

Сами диски, находятся в режиме JBOD, контроллер: percH330.

Вспомнив, про все приколы, которые я получил на md массиве с дисками без SCT, меня кинуло в жар.

Я лох, и мне даже не пришло в голову, что там, где написано слово enterprise, может не быть SCT! Я ненавижу теперь OSZ! Чтобы они в аду горели..!

Как жить? Как вовремя задетектить, что диск умирает? В режиме JBOD, raid контроллер, должен по таймауту выкинуть диски?

Что делать? С тем учётом, что scrub в md1 - в линуксе, не даёт представления, о плохих секторах.

Как жить?!

P.S., можно сделать raid1 на уровне HW контроллера. Но, не очень хочется. Может есть ещё варианты?

Дисков - купил много. Чтобы эти суки OCZ в аду горели.

 ,

DALDON
()

glusterfs, а так можно?

Пусть имеется:

client[1..5]

На клиентах хочу сделать (видимо через gluster nfs): /mnt/share

Network-RAID0:
server1

Когда место на server1, закончится, добавить: server2, тем самым увеличив пространство в /mnt/share. — так можно?

Что будет, если на какое-то время, server1 (когда уже будет raid0), будет выключен? /mnt/share развалится совсем? Или оно стопнется, до тех пор, пока я не включу server1 обратно? В моей задаче, простой допустим. Не желательна потеря данных.

P.S. Пока вопрос, скорее теоретический.

 ,

DALDON
()

mdadm [я просто оставлю это здесь]

# hdparm -tT /dev/sda

/dev/sda:
 Timing cached reads:   26304 MB in  1.99 seconds = 13220.03 MB/sec
 Timing buffered disk reads: 360 MB in  3.01 seconds = 119.54 MB/sec
# hdparm -tT /dev/sdb

/dev/sdb:
 Timing cached reads:   26240 MB in  1.99 seconds = 13186.53 MB/sec
 Timing buffered disk reads:  16 MB in  3.32 seconds =   4.82 MB/sec
# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sdb2[1] sda2[0]
      243567424 blocks super 1.2 [2/1] [UU]
      bitmap: 2/2 pages [8KB], 65536KB chunk

unused devices: <none>

 , ,

DALDON
()

mssqlvdi в bareos кто-нибудь пользует?

Сабж. Не могу завести по документации восстановление.

http://doc.bareos.org/master/html/bareos-manual-main-reference.html#x1-501000...

Уже перепробовал всё. Отчаиваюсь. dir, SD версии - 14.2

Run Restore job
JobName:         RestoreMSSQL
Bootstrap:       /var/lib/bareos/bareos-dir.restore.9.bsr
Where:           /
Replace:         Always
FileSet:         mssql
Backup Client:   win-b9rneiaehc3-fd
Restore Client:  win-b9rneiaehc3-fd
Format:          Native
Storage:         bk-3151321553
When:            2016-02-21 17:39:40
Catalog:         MyCatalog
Priority:        10
Plugin Options:  mssqlvdi:instance=default:database=xxxxxxx:username=user:password=yyyyy:replace=yes
OK to run? (yes/mod/no): yes

На fd 14.2 несёт вот такое:

win-b9rneiaehc3-fd Fatal error: Illegal argument database with value xxxxxxx in plugin definition

Обновил fd до 15.2, не трогал конфиги, теперь такое:

SQL Server does not exist or access denied.

backup - получаю без проблем. Всё штатно и чётко. Восстановить не могу. Хоть тресни. SQL сервер никаких логов на тему: access denied не несёт.

 , ,

DALDON
()

ovirt localstorage zfs

Привет всем! Столкнулся вот с каким моментом, имеем:

ovirt node, и хотим покрутить там вирт. машинки с 1С и офтопиком. В настоящий момент пробовал решения: lvm+mdadm+ssd cache, zfs.

Самый лучший результат (в два раза лучше), даёт схема: zvol (LARC,ZIL on ssd), compression=on, + ext4 поверх всего этого бутерброда.

Для всех тех, кто не знает ничего про ovirt: ovirt, если работает с локальным хранилищем, использует файлы образов, а не блочные ус-ва.

Костыли в виде расшарить zfs по iscsi - не интересны.

И так, как лучше всего организовать сей бутерброд?

Сейчас проблема основная вот в чём:

[root@ovirt-beet ~]# df -h|grep loca
/dev/zd0                                    300G         155G  146G           52% /mnt/local_storage
[root@ovirt-beet ~]# zfs list
NAME            USED  AVAIL  REFER  MOUNTPOINT
kvmpool         309G   140G    96K  /kvmpool
kvmpool/zvol1   309G   415G  34,7G  -

То есть, штука такая: на zfs, у меня занято всего 34.7G, тогда как ext4, показывает уже 155G. Что будет, когда ext4 заполнится? А в реале, место ещё будет..?

Как бы более красивее разрулить сей бутерброд? Может есть что-нибудь более эффективное и побыстрее, в этом плане?

 , ,

DALDON
()

mdadm raid 10 - performance

Друзья, имею, вот такую конфигурацию:

4hdd SATA, 7.2к

# cat /proc/mdstat
Personalities : [raid1] [raid10]
md10 : active raid10 sdf1[3] sdd1[1] sde1[2] sdc1[0]
      974911488 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
      bitmap: 2/8 pages [8KB], 65536KB chunk

Делаю:

dd bs=1M count=256 if=/dev/zero of=test conv=fdatasync
256+0 записей получено
256+0 записей отправлено
 скопировано 268435456 байт (268 MB), 1,53773 c, 175 MB/c

Иногда, получаю порядка 190 МБ/с

Но когда делаю вот так:

dd bs=1M count=256 if=/dev/zero of=test oflag=dsync
256+0 записей получено
256+0 записей отправлено
 скопировано 268435456 байт (268 MB), 12,3353 c, 21,8 MB/c

На меня нападает, печаль... Я понимаю, что: dsync + bitmap, дают о себе знать. Но чтобы вот прям так... Ну видимо, это ещё особенности, именно 10RAID, оно ожидает, пока на все диски засинкается (в моём случае их 4)?

Какие у вас скорости raid10, на mdadm?

mdadm 3.x - если это важно.

 ,

DALDON
()

Проименовать switch и серверную ферму...

Есть ряд зданий, есть оборудование, которое может периодически перемещаться из здания в здание (счёт оборудования, идёт на десятки т.е., не много). Сами же здания, имеют внутреннее административное деление и периодически происходят различные переименования, переформирования и т.д.

Решил:

Для свитчей, создать зону: .switch, для ovirt, создать, зону .ovirt.

Свитчи в головном офисе, будут доступны так: 01.switch, 02.switch, 03.switch.

В Краснодарском (например), IATA: KRR-01.switch, KRR-02.switch

Сейчас всё находится в общей DNS зоне, сама зона имеет довольно длинное название, и если опустить suffix, то тогда браузер кидает название свитча, в поисковую систему, fqdn - набирать не очень удобно. А тут вроде выходит более или менее очевидно.

Описание точного местарасположения, можно описывать в TXT записи (255 символов хватит всем. Верно?).

Какие подводные камни могут вылезти у подобной идеи? Смотрел статью подобную этой: http://habrahabr.ru/post/93423/ , от осознания того, что мне надо будет набирать: nsk-hdmfst-11-2, бросает в жар.

Думаю вряд-ли, появится домен верхнего уровня (.switch) / или даже если он уже есть - то вряд-ли он мне реально понадобится...

 ,

DALDON
()

Телефония SIP что выбрать?

Господа! Хочу, выбрать наиболее простое, универсальное, решение для телефонии.

Вот это дело, хочу между собой скрестить...

  • SIP сервер (asterisk или freeswitch)???
  • FreePBX
  • E1 -> Eth (SIP) присматриваюсь к: Alvis-GW-2E1
  • Настольный, операторский SIP телефон: Fanvil C62
  • DECT Gigaset N720 (в качестве: DECT -> SIP)
  • Наиболее простой в установке дистрибутив для FreeBPX, или выбрать уже готовый?
  • Аналоговый факс?
  • Программный факс?
  • Какой кодек наиболее true? (Чтобы все железки умели + всякие софтофоны). Достаточно качественный но не требовательный к каналу.

Задачи: голосовые конференции, факс, переадресация звонка, перевод вызова, кто сколько и куда назвонил...

Как-то так... Скажите, я хоть правильно копаю?

 , ,

DALDON
()

md raid centos7 не создается массив [не всасываю...]

# mdadm -C /dev/md10 -l0 -n4 /dev/sd[c-f]
mdadm: cannot open /dev/sdc: Device or resource busy
# mount |grep sdc
# yum remove dmraid
Совпадений с dmraid не найдено.

Убивал разделы на sdc, создавал заного. Ничего не получается, если делаю так:

/dev/sd[c-f]1 - аналогичная ошибка.

Может selinux мешать?

 

DALDON
()

Мини зоопарк SSL: как правильно сделать?

Коллеги, имеется следующая сеть:

  • Десяток внутренних сайтов - https (из них один критичен в плане downtime).
  • Пару сайтов, https - смотрят на улицу (downtime в пару секунд ночью - без проблем).
  • smtps/imaps - смотрит внутрь.
  • smtps/imaps - смотрит на улицу.
  • xmpps - живёт внутри.

Надоело продлять руками сертификаты для всего этого дела...

Как можно поступить?

(Вариант 1) wildcard:

  • поговаривают, что не очень приветствуется, т.к. не очень безопасен, ибо *.domain.com. И в частности, не все почтовые клиенты будут рады такому сертификату. Да и не понятно, как браузеры к нему отнесутся...
  • мне сделают под https. А у меня ещё xmpps... Как тут быть, тогда?
  • не очень бюджетно

(Вариант 2) свой CA, без поддержки OCSP (для внутренних доменов):

  • просто, быстро, без проблем с продлением
  • спокойно можно выпустить сертификат и для xmpps, smtps/imaps
  • smtps/imaps - почтовые клиенты из вне, будут ругаться, что нету сертификата УЦ (в моём случае - терпимо). Если конечно, мобильные почтовые клиенты, не начнут отрыгивать такие сертификаты в будущем...
  • есть какой-нибудь webui для openssl?
  • не очень безопасно, ибо нету revoke list + OCSP
  • бесплатно

Для внешних https сервисов (Let's encrypt):

  • просто, быстро, без проблем с продлением
  • бесплатно

Может, имеются, ещё, какие-либо варианты?

 , ,

DALDON
()

RSS подписка на новые темы