Все привет, возникла проблема с кластером Openshift.
Кластер из трех нод. Одна из нод мастер.
С мастера docker pull работает отлично. Но проблема в том что, из веб-консоли Опеншифта, при загрузке какого либо образа, получаю tls handshake timeout. То есть до репозиториев вообще не может достучаться. Куда копать? В чем может быть трабл?
Кто юзает сию утилиту? Есть вопрос, на фре почему-то не выводит ничего она. Просто пустые таблицы, при том, что в логи записи идут с nginx'a. Ставил вначале python-pip, потом через него заинсталил эту приблуду. В чем может быть трабл может кто скажет?
Уже несколько раз падал виртуальный адрес. Вот еще раз утром, судя по всему он подвис. Т.к. процесс был запущен, нагиос показал что хост упал, забикс пинговал без каких-либо ошибок. Да и так адрес пинговался. В сислоге ничего небыло, только на момент рестарта
Dec 17 06:54:45 haproxy modprobe: FATAL: Module ip_vs not found.
Dec 17 06:54:45 haproxy Keepalived_healthcheckers[28101]: IPVS: Can't initialize ipvs: Protocol not available.
До этого только это
Dec 17 04:01:01 haproxy /usr/sbin/cron[13224]: (root) CMD (/opt/sys/logrotate/haproxy >> /opt/sys/logrotate/cron-err.log 2>&1)
Dec 17 04:13:26 haproxy syslog-ng[20531]: Log statistics; dropped='pipe(/dev/xconsole)=0', dropped='pipe(/dev/tty10)=0', processed='center(queued)=531522', processed='center(received)=531454', processed='destination(messages)=550', processed='destination(mailinfo)=0', processed='destination(mailwarn)=0', processed='destination(localmessages)=58', processed='destination(mailerr)=0', processed='destination(newserr)=0', processed='destination(warn)=4', processed='destination(netmgm)=0', processed='destination(t_haproxy_acc)=530832', processed='destination(console)=3', processed='destination(null)=0', processed='destination(mail)=0', processed='destination(xconsole)=3', processed='destination(firewall)=0', processed='destination(acpid)=0', processed='destination(t_haproxy_sys)=72', processed='destination(newscrit)=0', processed='destination(newsnotice)=0', processed='source(src)=550', processed='source(s_src)=530904'
При этом все работает отлично. Куда копать, что бы в следующий раз не повторилось?
Крутится на виртуальной машине, SLES, на нем haproxy, и keepalived.
Все привет. Срочно нужно решить трабл, раньше писались логи нормально, адреса всех запросов и тд. Зашел в лог файл и вижу что пишет только адрес проверки нагиоса. Не пойму что глюкнуло. Машина рабочая без логов никак.Логи настраивались через syslog-ng. Поможет кто? Вот конфиг. Блин не знаю как здесь отформатировать вывод конфига
global
log 127.0.0.1 local0
log 127.0.0.1 local1 notice
stats socket /var/run/haproxy.stat mode 600 level admin
stats timeout 30s
maxconn 10000
user haproxy
group haproxy
daemon
defaults
log global
mode http
option tcplog
option dontlognull
option redispatch
retries 3
timeout connect 5000
timeout client 50000
timeout server 50000
frontend localnodes
bind *:5670
mode tcp
option tcplog
log global
default_backend rabbit-1
Всем привет, есть некоторые вопросы. Нужно использовать рэбит в кач-ве отказоустойчивой высоконагруженной системы с балансировкой нагрузки. Клиент использует publish confirms. Что думаю? Использовать встроенную кластеризацию в рэбите, с зеркалированием очередей, + два keepalived + 2 haproxy. ВОзможно ли использовать такую схему? И наверное главный вопрос, как клиент поймет с какого инстанса забирать сообщение? Если балансировщик шлет сообщения на разные сервера? Тоесть пришло сообщение с виртуального адреса на сервер тест2, как клиент поймет что его нужно забрать с тест2 а не с тест1 ?
Вот есть возможность смотреть таблицы кролика через observer. Я только начал изучать его, и мне немного не понятно. Если я просто создал кластер с зеркалированием очередей, как описано в доках на оф сайте, запускаю
erl -sname observer -hidden -setcookie MyCookie -run observer
Хорошо, открылось, пытаюсь выбрать ноду которую нужно открыть, и приложение моментально вылетает. Вообще должны показываться в нем данные в таблицах, если кролик был запущен таким способом? Без создания нод через erl mnesia:create ...и тд и тп?
Нужно сделать балансировку нагрузки с мастер слейвом, парюсь вторую неделю, не пойму ничего, помогите :)
Есть две машины, на каждой два инстанса, мастер слейв. Каждая пара использует свою базу, постгрес. Тоесть мастер лочит базу а слейв ждет пока тот упадет. С этим разобрался.
transportConnector на каждой машине от 0.0.0.0:61611 до 0.0.0.0:61614 порта.
networkConnector name «node1-node3-node4» uri=«masterslave:(tcp://10.0.2.16:61613,tcp://10.0.2.16:61614)»
и так далее, тоесть
нод1 соеденен с нод3,
нод2 соеденен с нод3,
нод3 соеденен с нод1,
нод4 соеденен с нод1.
Собственно в чем загвостка, как мне протестить балансировщик? Подключаю консамер, через файловер нод1-нод3-нод2-нод4 randomize false. (Number of consumers на двух нодах=1) Продюсер так же само. Сообщения идут на нод1, и все. Балансировки никакой. Пробую через jmeter, тоже самое, только на другой ноде иногда растет значение number of consumers.
Что я делаю не так? Спасибо за помощь.
Всем привет. Может у кого-то есть скриптик консольный который проверяет кол-во коннектов у jdbc ресурса? Пробовал подставить ссылку в curl что бы вырезать значения, но что-то не получалось. Спасибо.
Еще раз всем привет. Может кто объяснит принцип сборки и компиляции данного ядра? Почитал статьи, делаю make menuconfig, настраиваю, отключаю loadable module support, все сохраняю, потом делаю make, создается в конце bzimage. А дальше что? make modules не делается, читал что просто скопировать этот образ в /boot, и настроить граб для его загрузки, и то что строка initrd не нужна. Разными способами пробовал, не грузит ядро, в основном ошибка kernel panic not syncing attempted to kill idle task. Может я не так соблюдаю весь процесс?
Всем привет. Кто скажет как мне загрузиться с образа который лежит на жд, например какой-тo live cd т.к. нет usb и привода. Почитав гугл, понял что нужно смонтировать его.
mount -o loop file.iso /mnt/iso
А дальше как? Что б загрузить его?