LINUX.ORG.RU

Сообщения cm26inc

 

Приложение для записи активности в течении рабочего дня

Хочу понимать сколько времени в течении дня работаю. Ищу приложение, которое логирует время активности и в конце дня можно было посмотреть отчет типа Активность за день - 9 часов 10:00-13:42, 14:42-20:00 или типа того. И такое же за неделю/месяц.

Только в пассивном режиме, без нажатия каких-то кнопок с моей стороны. В том числе без блокировки экрана, на это тоже нельзя точно полагаться. Есть активность в браузере, терминале, слаке - считаем, что работаю. Нет активности - не работаю.

Есть что-то такое?

 

cm26inc
()

Не удается вернуть ресурс на ноду

Имеется совсем простой случай конфигурации pacemaker

node test-1 \
	attributes standby="off"
node test-2 \
	attributes standby="off"
primitive IP1 ocf:heartbeat:IPaddr2 \
	params ip="192.168.1.2" cidr_netmask="32" nic="eth1" \
	op monitor interval="10"
primitive IP2 ocf:heartbeat:IPaddr2 \
	params ip="192.168.1.3" cidr_netmask="32" nic="eth1" \
	op monitor interval="10"
primitive p_haproxy lsb:haproxy \
	op monitor interval="10" timeout="20" \
	op start interval="0" timeout="20" \
	op stop interval="0" timeout="20"
group grIP1 IP1 \
	meta ordered="false"
group grIP2 IP2 \
	meta ordered="false"
group gr_WebServer p_haproxy
clone cl_WebServer gr_WebServer \
	meta interleaved="true"
colocation c_grIP1_Ws inf: grIP1 cl_WebServer
colocation c_grIP1_grIP2 -200: grIP1 grIP2
colocation c_grIP2_Ws inf: grIP2 cl_WebServer
property $id="cib-bootstrap-options" \
	dc-version="1.1.7-6.el6" \
	cluster-infrastructure="openais" \
	expected-quorum-votes="2" \
	stonith-enabled="false" \
	no-quorum-policy="ignore"
В нормальном состоянии ресурсы разведены по нодам как нужно
Current DC: test-1 - partition with quorum
2 Nodes configured, 2 expected votes
4 Resources configured.
============

Online: [ test-1 test-2 ]

 Resource Group: grIP1
     IP1	(ocf::heartbeat:IPaddr2):	Started test-2
 Resource Group: grIP2
     IP2	(ocf::heartbeat:IPaddr2):	Started test-1
 Clone Set: cl_WebServer [gr_WebServer]
     Started: [ test-2 test-1 ]
Если по каким-то причинам ресурс p_haproxy на одной из нод падает и запустить его на ней не удается, то ресурсы переезжают на другую ноду корректно
Current DC: test-1 - partition with quorum
2 Nodes configured, 2 expected votes
4 Resources configured.
============

Online: [ test-1 test-2 ]

 Resource Group: grIP1
     IP1	(ocf::heartbeat:IPaddr2):	Started test-2
 Resource Group: grIP2
     IP2	(ocf::heartbeat:IPaddr2):	Started test-2
 Clone Set: cl_WebServer [gr_WebServer]
     Started: [ test-2 ]
     Stopped: [ gr_WebServer:1 ]

Failed actions:
    p_haproxy:1_start_0 (node=test-1, call=17, rc=1, status=complete): unknown error
И crm_verify выдает следующие ошибки
 warning: unpack_rsc_op: 	Processing failed op p_haproxy:1_last_failure_0 on test-1: unknown error (1)
 warning: common_apply_stickiness: 	Forcing cl_WebServer away from test-1 after 1000000 failures (max=1000000)
 warning: common_apply_stickiness: 	Forcing cl_WebServer away from test-1 after 1000000 failures (max=1000000)
А вот дальше имеется следующая проблема. Когда я пытаюсь вернуть ресурс на ноду (например, так crm_resource -r IP2 -M) - ничего не получается, ресурс не возвращается на ноду, где он изначально был.
Единственный способ вернуть ресурсы на вновь заработавшую ноду - перезапуск corosync (pacemaker запускается corosync-ом ver 0).
Просьба подсказать - как вернуть ресурс на ноду и почему это не удается сделать сейчас.

Версии ПО: corosync 1.4.1, pacemaker 1.1.7.

 ,

cm26inc
()

xorg multiseat

Добрый вечер. Какие сейчас есть возможности организации multiseat на системе с 1 видеокартой? Если важно, то видео - GeForce Go 7400. Пока наиболее реальным кажется вариант с xephyr. Насколько это реализуемо?

cm26inc
()

Восстановить данные с поврежденного жеского диска

Добрый день.
Уронил жесткий диск Hitachi HDT72101. Теперь в смарте несколько reallocate секторов и множатся ошибки позиционирования головки.
При запуске dd conv=noerror,sync или dd_rescue копируется первые 676МБ, а дальше диск начинает стучать, скрипеть и дальше данные не копируется. В этот момент сыпятся ошибки позиционирования головки. По всей видимости, механизм движения головки поврежден и часть диска прочитать физически не удается. Никаким ПО не удается пропустить сектора, которые не удается прочитать.
Хочется достать максимум информации с диска. Как это можно сделать?

cm26inc
()

ocfs2 + openvz

Привет. У кого-то удавалось завести ocfs2 с ядром openvz? Как это наиболее разумно делать сейчас на 6 рхеле/центосе?

cm26inc
()

powerdns имена на локальную подсеть

Привет.
У меня есть днс-сервер на powerdns. На нем хранится несколько внешних зон. Хочется в одну из них добавить несколько имен для локальной сети. И хочется, чтобы эти имена можно было получить только из локальной сети 192.168/16, а из внешних сетей имена были недоступны.
Пробовал сделать это с помощью geobackend-а, но он все-таки совсем не для этого.
Как такое можно реализовать?

cm26inc
()

роутинг через алиасы интерфейса

Есть виртуальная машина с двумя адресами.

2: venet0: <BROADCAST,POINTOPOINT,NOARP,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN 
    link/void 
    inet 127.0.0.1/32 scope host venet0
    inet 192.168.1.11/32 brd 192.168.1.11 scope global venet0:0
    inet 88.88.88.88/32 brd 88.88.88.88 scope global venet0:1
и вот таким роутингом
default dev venet0
Сейчас при явном указании адреса, с которого нужно слать пакеты, все работает. Без указания адреса - все пакеты идут через venet0:0.
Т.е., если сделать ping ya.ru, то пакеты пойдут через venet0:0, что неправильно и работать не будет, а если сделать ping ya.ru -I 88.88.88.88, то пакеты пойдут через venet0:1 и все будет работать корректно.
Нужно организовать роутинг вида
192.168/16 via 192.168.1.1 dev venet0:0
default via 88.88.88.1 dev venet0:1
и без использования source based routing.
Как такое организовать?

cm26inc
()

Проблемы с сетью в OpenVZ

Привет. У меня есть проблема с доступом из виртуальной машины (OpenVZ) во внешние сети.
Система выглядит так:
хост (openvz) имеет 2 сетевых интерфейса (внешний и внутренний)

eth0:192.168.1.10
eth1:88.88.88.88
виртуалка имеет 2 сетевых интерфейса (внешний и внутренний)
eth0:192.168.1.11
eth1:88.88.88.89
роутинг хоста
88.88.88.89 dev veth1.0  scope link 
192.168.1.11 dev veth1.1  scope link 
88.88.88.88/29 dev eth1  proto kernel  scope link  src 88.88.88.88 
192.168.1.0/24 dev eth0  proto kernel  scope link  src 192.168.1.10 
192.168.0.0/16 via 192.168.1.1 dev eth0 
default via 88.88.88.87 dev eth1
роутинг виртуалки
192.168.0.0/16 dev eth1  scope link 
default dev eth0  scope link 
С хоста работает все и всегда, идут пинги в обе сети.
С виртуалки внутренняя сеть работает всегда. А вот со внешней проблемы. Выражаются они в потере пинга на внешние ресурсы. Никаких потерь с хоста в это время нет. Выглядит это так:
--- 8.8.8.8 ping statistics ---
100 packets transmitted, 29 received, 71% packet loss, time 101031ms
rtt min/avg/max/mdev = 53.621/136.956/1001.217/252.854 ms, pipe 2
Причем пакеты теряются явно неслучайным образом, а закономерно. Проходит 8-9 пактов, после чего 25 теряются, 8-9 проходят, 25 теряются.
В момент проходящих пингов tcpdump на внешнем интерфейсе виртуалки такой:
18:07:05.497797 ARP, Request who-has 88.88.88.89 tell 192.168.1.10, length 28
18:07:06.441764 ARP, Request who-has 8.8.8.8 tell 88.88.88.89, length 28
18:07:06.441784 IP 8.8.8.8 > 88.88.88.89: ICMP echo reply, id 24586, seq 190, length 64
18:07:06.441785 IP 8.8.8.8 > 88.88.88.89: ICMP echo reply, id 24586, seq 191, length 64
18:07:06.441789 ARP, Reply 8.8.8.8 is-at 00:18:51:56:0a:ee, length 28
18:07:06.441913 IP 88.88.88.89 > 8.8.8.8: ICMP echo request, id 24586, seq 192, length 64
18:07:06.495874 IP 8.8.8.8 > 88.88.88.89: ICMP echo reply, id 24586, seq 192, length 64
18:07:07.442971 IP 88.88.88.89 > 8.8.8.8: ICMP echo request, id 24586, seq 193, length 64
18:07:07.496909 IP 8.8.8.8 > 88.88.88.89: ICMP echo reply, id 24586, seq 193, length 64
А когда не проходят такой:
18:05:09.481772 ARP, Request who-has 88.88.88.89 tell 192.168.1.10, length 28
18:05:10.426097 IP 88.88.88.89 > 8.8.8.8: ICMP echo request, id 24586, seq 76, length 64
18:05:10.481796 ARP, Request who-has 88.88.88.89 tell 192.168.1.10, length 28
18:05:11.425828 IP 88.88.88.89 > 8.8.8.8: ICMP echo request, id 24586, seq 77, length 64
Если я правильно понимаю, то получив mac-адрес 8.8.8.8 от хоста, виртуалка 8-9 секунд успешно получает от него ICMP echo reply.
Собственно данных наверное уже достаточно. Но еще замечено вот что - если у виртуалки опустить внутренний интерфейс (eth0), то потери пакетов прекращаются.
Подскажите - в чем дело.

cm26inc
()

Перевод на зимнее время

Привет.
Как известно, перевод времени на зимнее не так давно был отменен.
И собственно вопрос состоит в том - знают ли об этом дистрибутивы RHEL 5 и 6. Обновлялись ли там пакеты типа tzdata (или где там таймзона лежит) и как это проверить?

cm26inc
()

Ищу удаленную работу администратора

Ищу работу удаленного администратора Linux/Unix.
Занимаюсь проблемами безопастности, аудита, производительности работы серверов и приложений.
Готов решать вопросы любой сложности с ОС Linux/Unix и приложениями, установленными на этих системах.
Контакты для связи:
e-mail: cm26inc <at> gmail.com
jabber: cm26inc <at> gmail.com
skype: cm26inc
icq: 643039511

cm26inc
()

RSS подписка на новые темы