LINUX.ORG.RU

Сообщения Stoner

 

Подсчет памяти в LXC контейнере на Proxmox через Zabbix

Форум — General

Проблема такая. Дергаю через zabbix_get элемент данных с полным объёмом памяти в LXC контейнере на Proxmox и получаю в ответ объём ОЗУ на хосте:

zabbix_get -s 1.2.3.4 -p 10050 -k vm.memory.size[total] 16817287168

В то же время в самом контейнере память отображается правильно:

free -m
             total       used       free     shared    buffers     cached
Mem:          3048       2886        161        130          0       2855
-/+ buffers/cache:         31       3016
Swap:          512         58        453


cat /proc/meminfo 

MemTotal:        3121152 kB
MemFree:          165212 kB
MemAvailable:     165212 kB
Buffers:               0 kB
Cached:          2923976 kB
SwapCached:            0 kB
Active:          1533892 kB
Inactive:        1421804 kB
Active(anon):       2528 kB
Inactive(anon):    29580 kB
Active(file):    1531364 kB
Inactive(file):  1392224 kB
Unevictable:           0 kB
Mlocked:            3520 kB
SwapTotal:        524288 kB
SwapFree:         464312 kB
Dirty:               192 kB
Writeback:             0 kB
AnonPages:       1040420 kB
Mapped:           133368 kB
Shmem:            133868 kB
Slab:               0 kB
SReclaimable:          0 kB
SUnreclaim:            0 kB
KernelStack:        8608 kB
PageTables:        39736 kB
NFS_Unstable:          0 kB
Bounce:                0 kB
WritebackTmp:          0 kB
CommitLimit:     8734824 kB
Committed_AS:    5306856 kB
VmallocTotal:   34359738367 kB
VmallocUsed:           0 kB
VmallocChunk:          0 kB
HardwareCorrupted:     0 kB
AnonHugePages:         0 kB
CmaTotal:              0 kB
CmaFree:               0 kB
HugePages_Total:       0
HugePages_Free:        0
HugePages_Rsvd:        0
HugePages_Surp:        0
Hugepagesize:       2048 kB
DirectMap4k:      159296 kB
DirectMap2M:    16609280 kB

Версия zabbix-agent: 3.0.9 (jessie)
Версия zabbix-server: 3.2.6 (jessie)
Версия proxmox: pve-manager/4.4-13/7ea56165 (running kernel: 4.4.59-1-pve)

Как получить total memory в контейнере? И в общем, как лучше мониторить память через заббикс, чтобы получать вывод близкий к free -m? Я так понимаю, элемент vm.memory.size[available] не учитывает buffers память. Из документации: «available = inactive + cached + free память.» И часто результат, возвращаемый этим элементом отличается от free -m.

 , , ,

Stoner
()

Настройка оповещения по email от SMARTd

Форум — General

Доброго! Нужна помощь с демоном smartd на CentOS 6.7

Винт сыпется, Reallocated_Sector_Count растет, но уведомления об этом не приходят. Пробовал разные варианты, во всех пробовал указывать параметр -R 5 (сообщать об возрастании Raw значений в атрибуте SMART с ID=5 ). Безрезультатно. Счетчик переназначенных растет, письма не приходят. Верней, приходят, но только с описанием параметра CurrentPendingSector. Текущий конфиг такой:

/dev/sda -o on -S on -H -f -t -l error -l selftest -C 197 -U 198 -W 40,50 -R 5 -I 190 -I 194 -m my@domain.com -s (S/../.././12|L/../../7/04) 

Eсли запустить демон через smart -d, то видно, что эти параметры мониторятся:

http://joxi.ru/EA4z09yfwnwoXm.jpg

В чем может быть причина? Спасибо

 , ,

Stoner
()

Nginx и $connection в access_log

Форум — Admin

Доброго всем!

Настроил access_log в nginx с использованием переменных $connection и $connection_requests. В самом логе заметил такую штуку: некоторые запросы с разных ip тегируются как одно соединение. Например, в одном «соединении» и клиентские запросы, и запросы от бота pingdom.com. Использую сервер на amazon, так что в логе проскакивает его публичный ip. Во время наблюдений restart nginx-a не делал, так что у всех соединений должны быть уникальные идентификаторы. Хотелось бы мониторить количество соединений с каждого адреса на основе access.log (использую связку elasticsearch-logstash-kibana). Сейчас я получаю, мягко говоря, неадекватную статистику. Как можно заставить nginx разграничивать соединения с разных IP?

 , ,

Stoner
()

Проблема c location в nignx

Форум — Admin

Доброго вам, господа! Суть такова. Есть хост машина с nginx и гостевая виртуалка с apache2. На госте крутится почтовый сервер с postfixadmin, roundcube и прочими вещами. Необходимо, чтобы при обращении на mail.company.com сразу открывался веб-интерфейс roundcube. Это я сделал добавлением такого локейшена:

 
location  /
    {
        proxy_pass      http://192.168.122.107:80/roundcube/;
        proxy_redirect  off;
        proxy_read_timeout 300;

        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_set_header Host               $host;
        proxy_set_header X-Real-IP          $remote_addr;
        proxy_set_header X-Forwarded-Proto  https; # for SSL, add this
        proxy_set_header X_SCHEME           https;
    }
Через местоположение /postfixadmin перехожу на админку.
   location /postfixadmin/
   {
        proxy_pass      http://192.168.122.107:80/postfixadmin/;
        proxy_redirect  off;
        proxy_read_timeout 300;

        proxy_set_header Host               $host;
        proxy_set_header X-Real-IP          $remote_addr;
        proxy_set_header X-Forwarded-Proto  https; # for SSL, add this
        proxy_set_header X_SCHEME           https;
    }

Но если я хочу указать дополнительные локейшены через переменную $reques_uri, то nginx передаёт на проксируемый сервер запрос с /roundcube/$request_uri
   location /$request_uri/
   {
        proxy_pass      http://192.168.122.107:80/$request_uri/;
Если указать задать location как
 location = /
   {
        proxy_pass      http://192.168.122.107:80/roundcube/;
то веб-интерфейс отображается без графического оформления, а в логах видно, что nginx пытается искать файлы на хост машине в /var/www/html. Подскажите, пожалуйста, как правильно настроить проксирование. И правильно ли я понимаю, что location с переменными имеет наинизший приоритет? Версия nginx 1.5.8

 , ,

Stoner
()

Восстановление прав доступа к корневому каталогу

Форум — General

Ситуация анекдотичная, но, тем не менее, не могу из неё выпутаться. Есть RedHat на сервере в другой стране, на котором в Qemu-KVM крутится образ Gentoo со всеми потрохами. Так вот, на генту сделали такое:
cd /
chown apache -R /*/*/
В результате апач,ссх и прочие прелести наотрез отказались запускаться. Пожалуйста, подскажите, как можно корректно вернуть владельцев каталогов и возможно ли это?

 , ,

Stoner
()

RSS подписка на новые темы